•
Ma
Z
ne
di scienza
Pietro Fré
Il fascino oscuro dell’inflazione Alla scoperta della storia dell’Universo
123
PIETRO FRÉ Università degli Studi di Torino e Ambasciata d’Italia a Mosca
ISBN 978-88-470-1153-3
e-ISBN 978-88-470-1154-0
Springer fa parte di Springer Science+Business Media springer.com © Springer-Verlag Italia, Milano 2009 Quest’opera è protetta dalla legge sul diritto d’autore, e la sua riproduzione è ammessa solo ed esclusivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto. Le riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di specifica autorizzazione rilasciata da AIDRO, Via Corso di Porta Romana n. 108, Milano 20122, e-mail
[email protected] e sito web www.aidro.org. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla legge.
Collana ideata e curata da: Marina Forlizzi Redazione: Barbara Amorese Impaginazione: le-tex publishing services oHG, Leipzig Copertina: progetto grafico di Simona Colombo, Milano Immagine di copertina: courtesy of nasa.org Stampa: Grafiche Porpora, Segrate, Milano Stampato in Italia Springer-Verlag Italia S.r.l., via Decembrio 28, I-20137 Milano
Quest’operetta è dedicata al mio ottimo amico Piero Bianucci
Prefazione
È dalla più remota antichità che l’uomo si interroga sulla struttura dell’Universo Fisico in cui vive e sulle leggi che governano il suo essere, ovvero il suo divenire. Il progresso sulla strada di tale comprensione compiuto nel XX secolo è strabiliante e non ha paragone rispetto ai progressi realizzati in tutti i secoli precedenti. Con un po’ di presunzione si può ipotizzare che probabilmente esso rimarrà straordinario anche rispetto ai progressi realizzati nei secoli successivi. È soltanto dagli anni tra il 1920 e il 1930 che si conoscono le reali dimensioni dell’Universo visibile e la sua costante espansione. La Relatività Generale, che è la teoria della gravità, indispensabile per inquadrare tutti i fenomeni cosmici e astrofisici sia a grande scala che a piccole distanze, fu formulata da Einstein nel 1915. Essa, però, non sarebbe nemmeno immaginabile al di fuori degli straordinari progressi della matematica e soprattutto della geometria, realizzati nel secolo XIX e fino all’alba del XX, a opera di giganti del pensiero umano come Gauss, Riemann, Lobachevskij, Poincaré e gli italiani Ricci Curbastro, Bianchi e Levi Civita. Per giungere a questi, fu anche necessario superare pregiudizi filosofici vecchi di duemila anni sulla evidenza a priori della geometria euclidea inclusi da Kant nei presupposti del pensiero critico. La cosmologia, fino a pochi anni fa espressione entusiasmante, ma soprattutto speculativa del pensiero fisico, ha fatto un salto di qualità estremamente significativo tra la fine del XX e l’inizio del XXI secolo. Una nuova ricca serie di dati osservativi ha accreditato su solida base sperimentale tre dati di fatto che prima del 1999 erano soltanto scenari ipotetici: 1. L’Universo è spazialmente piatto ed è tale a seguito della inflazione cosmica che, in frazioni di secondo dopo il Big Bang, ne ha gonfiato le dimensioni per un fattore di decine o centinaia di miliardi di volte. 2. Il contenuto dell’Universo è costituito per circa il 70% da energia oscura, per circa il 24% da materia oscura, e la materia visi-
VIII Prefazione
bile, cioè le galassie e i loro ammassi contribuiscono a non più del 6% del totale. 3. Al tempo attuale l’espansione dell’Universo è in una fase di nuova accelerazione. La spiegazione di tale struttura a grandissima scala del nostro universo non è ancora stabilita, ma è certo che essa richiede la “nuova fisica” alle piccolissime distanze che LHC, il più grande acceleratore di particelle mai costruito dall’uomo, sta per cominciare a esplorare proprio nello scorcio finale di questo anno 2008, al CERN di Ginevra. In particolare le teorie supersimmetriche, la supergravità e le superstringhe possono dare la risposta. In questo libro l’autore, utilizzando un linguaggio il più possibilmente elementare e accessibile a tutti, intende ripercorrere storicamente la grande avventura del pensiero umano che dalla visione aristotelica di un universo statico, eterno e in realtà piccolissimo, ci ha portato all’attuale consapevolezza di un Universo dinamico, enormemente grande, in espansione accelerata e dominato dall’energia oscura. Gli enigmi posti dalla cosmologia si saldano con quelli della fisica delle particelle al di là del modello standard delle interazioni fondamentali e potrebbero trovare tutti la propria coerente spiegazione all’interno della teoria delle superstringhe. La scienza è una grande avventura umana costruita da uomini dotati di personalità diversissime e appartenenti a nazioni e culture diverse. Lo scopo dell’autore in questo libercolo è stato sia spiegare, per quanto ciò sia possibile, che raccontare. La dimensione umana della scienza riveste infatti un interesse notevole e aiuta anche la comprensione dell’evoluzione storica delle idee scientifiche. Per questo motivo aneddoti e ricordi personali sono stati inseriti in molti punti dell’esposizione, che si spera possa acquistare la qualità di una narrazione.
Torino, dicembre 2008
Pietro Fré
Indice
Prefazione
VII
1 L’Universo, la gravità e la materia
1
2 Che cos’è la gravità?
3
3 L’Universo è un sistema dinamico
43
4 Superstringhe e Brane danno la risposta?
97
Letture ulteriori
143
1 L’Universo, la gravità e la materia
Solo recentemente, a partire dagli anni Venti del XX secolo, l’Umanità ha svelato la natura complessa e dinamica dell’Universo in cui viviamo ed è soltanto all’alba del XXI secolo che dati osservativi precisi ci hanno fornito un’immagine attendibile del cielo primordiale, consistente nel cosiddetto paradigma inflazionario. Che cosa si intende con ciò? Secondo questo paradigma nel volgere di qualche frazione di secondo dopo il Big Bang l’Universo si sarebbe espanso di un fattore 1026 volte, che l’ha reso così grande, omogeneo, isotropo e spazialmente piatto come esso ci appare. Due domande sorgono immediatamente spontanee in relazione a tale scenario: 1. Qual è la rilevanza di questa improvvisa inflazione dello spaziotempo? 2. Qual è la forza repulsiva che ha avuto la capacità di realizzarla? La risposta alla prima domanda è che soltanto questo stiramento subitaneo può spiegare in maniera naturale le caratteristiche osservate del nostro Universo che, senza il meccanismo inflazionario capace di produrle, sarebbero decisamente innaturali e improbabili. La risposta alla seconda domanda è probabilmente sorprendente per la maggior parte dei lettori: la forza repulsiva che ha gonfiato esponenzialmente l’Universo è nient’altro che la gravità. Come? La gravità non è per sua natura sempre e in ogni caso attrattiva? La gravità newtoniana indubbiamente sì, ma la legge di Newton non è l’ultima parola. Essa è una descrizione accurata dei fenomeni gravitazionali fino a che le masse, le energie e le velocità in gioco non siano troppo elevate. La teoria del campo gravitazionale che supera tali limiti è la Relatività Generale di Einstein, la cui
2 Il fascino oscuro dell’inflazione
struttura è enormemente più complessa e può contemplare situazioni del tutto differenti. A piccola scala l’attrazione gravitazionale predetta dalla teoria di Einstein è enormemente più forte di quella prevista dalla legge di Newton e ciò conduce alla formazione dei buchi neri e alle loro intriganti proprietà. A grandissima scala l’attrazione gravitazionale implicata dalla Relatività Generale dipende dalla qualità delle forme energetiche che riempono il cosmo e per alcune di esse l’attrazione può addirittura cambiarsi in repulsione: è questo il caso dell’energia oscura responsabile sia per l’inflazione primordiale che per l’attuale espansione accelerata dell’Universo in cui viviamo. La struttura del cosmo e la sua evoluzione sono dominate dalla interazione gravitazionale e dalla sua complessa dinamica che è descritta dalle equazioni di Einstein. Come Einstein intuì e alla fine, dopo dieci anni di durissimo lavoro critico, riuscì a dimostrare in maniera del tutto generale, i fenomeni gravitazionali non sono altro che uno specchio attraverso il quale si rivela la geometria dello spazio-tempo, a sua volta, determinata dal contenuto di massa e energia di quest’ultimo. Dunque è solo nell’ambito della Relatività Generale di Einstein che la cosmologia moderna ha potuto comprendere la natura evolutiva dell’Universo fisico. D’altra parte cosmologia e fisica delle particelle sono intrinsecamente legate, poiché l’evoluzione dell’Universo dipende dalla quantità e dalla struttura della materia-energia che lo riempie. Nel prossimo capitolo il cammino storico che terminò con l’identificazione operata da Einstein tra il campo gravitazionale e la geometria dello spazio-tempo verrà delineato nei suoi snodi essenziali. Lo scopo del prossimo capitolo è rispondere alla domanda: che cos’è la gravità?
2 Che cos’è la gravità?
Ognuno di noi conosce la gravità fin dai primi giorni della propria vita. I bambini che ancora non parlano, ma già stanno seduti sul seggiolone e sputacchiano, ridendo, la pappa che la mamma infila loro in bocca, sono già esperimentatori gravitazionali: afferrano con le manine tutti gli oggetti a loro disposizione e li lasciano cadere sul pavimento. Il loro ilare compiacimento nel vedere le cose muoversi da sole e scendere a terra manifesta l’entusiasmo per una scoperta fondamentale: la scoperta di una legge che regola tutta la realtà in cui siamo immersi e a cui, piano piano, ci abituiamo, finendo per non pensarci più. Il campo gravitazionale terrestre in cui siamo immersi e che è pressoché costante su tutta la superficie del pianeta è ciò che determina la struttura dell’ambiente in cui hanno avuto origine tutte le forme di vita che conosciamo, in cui si è sviluppata l’umanità e il suo pensiero intelligente. Il campo gravitazionale costante e il suo risultato, l’accelerazione gravitazionale di circa 9,8 metri al secondo per secondo, è quindi, benché pochi se ne rendano immediatamente conto, ciò che definisce l’ambiente umano naturale e ha avuto almeno un milione di anni di tempo e un numero da capogiro di mitosi e meiosi cellulari per formare dei cervelli, in cui il pensiero e l’argomentazione logica includono questo dato come un presupposto assiomatico a priori. I concetti di “alto” e di “basso”, con tutte le loro applicazioni nella vita quotidiana, nonché le loro traslazioni metaforiche, che abbracciano ogni aspetto della vita sociale e spirituale, fino anche a introdurre l’idea di Cielo, come sede di uno o più “enti supremi” o “divinità”, hanno origine e senso soltanto in un ambiente governato da un campo gravitazionale pressoché costante e di intensità non troppo dissimile da quella che si avverte sulla superficie della Terra. Sempre accade che la rilevanza e il ruolo di qualunque cosa diventino manifesti soltanto quando si faccia esperienza della
4 Il fascino oscuro dell’inflazione
sua assenza. Così è stato anche per la gravità terrestre. L’esperienza diretta della vita in assenza di gravità, fatta dai cosmonauti delle navicelle spaziali, e quella virtuale della stessa cosa fatta dai telespettatori di tutto il mondo, che ne hanno visto le immagini trasmesse sugli schermi della propria TV, hanno destato nell’umanità del XX e XXI secolo una maggiore consapevolezza dell’importanza di g = 9,8 m/sec2 nel definire l’ambiente umano e soprattutto ciò che noi percepiamo come realtà. Tuttavia, benché maggiormente coscienti dei loro antentati di questa dipendenza dall’esistenza e dal valore di g, gli uomini contemporanei continuano a ragionare, sentire e comportarsi all’interno di un sistema logico, culturale e emozionale, formatosi in questo particolare ambiente, le cui condizioni sono implicitamente assunte come attributi necessari del Reale.
Il pregiudizio geometrico Un altro dato dell’ambiente umano che viene inconsapevolmente assunto a priori come attributo necessario del reale è la validità degli assiomi della geometria euclidea. Quest’ultima è stata la codificazione assiomatica delle proprietà di una superficie piana, priva di curvatura, così come lo è approssimativamente una porzione di superficie terrestre su scala umana. Quanta influenza le particolari condizioni dell’ambiente in cui viviamo abbiano avuto sulla formazione del nostro sistema logico e del nostro pensiero filosofico è testimoniato dai quasi bimillenari sforzi, dispiegati da matematici e filosofi, per dimostrare il quinto postulato di Euclide delle rette parallele: In un piano, per un punto fuori di una retta data, si può condurre una e una sola parallela a tale retta: due rette si diranno parallele, quando non si incontrano. Il primo tentativo di questa dimostrazione risale al filosofo, storico, matematico e astronomo Posidonio di Rodi, vissuto all’epoca di Mario, Silla, Pompeo e Cesare. Nato ad Apamea intorno al 135 avanti Cristo, morì probabilmente a Roma verso il 50 avanti Cristo. Studioso enciclopedico e autore di moltissime opere di vario genere, Posidonio è responsabile per la sua riduttiva stima della circonferenza terrestre (28.000 chilometri), inferiore
5 2 Che cos’è la gravità?
Fig. 1. Posidonio di Rodi
alla più realistica e precedente di Eratostene (39.700 chilometri). Fu sulla base di questo antico errore che Cristoforo Colombo, quindici secoli più tardi, osò aprire la via delle Indie a Occidente e scoprì le Americhe. Posidonio aveva tentato di dimostrare il quinto postulato di Euclide modificando la definizione di rette parallele, ma il suo procedimento si dimostrò inconcludente. Innumerevoli tentativi di dimostrazione seguirono nei secoli e furono tutti ugualmente inconcludenti, visto che, come oggi noi ben sappiamo, il quinto postulato è veramente indipendente e costituisce di fatto la definizione della geometria euclidea. Il più interessante e geniale tra questi sforzi è quello del gesuita italiano Giovanni Girolamo Saccheri, nato a Sanremo nel 1667 e morto a Milano nel 1733. Il Saccheri tentò una dimostrazione per assurdo del quinto postulato provando a negarlo. Dalla sua negazione, con grande abilità matematica, egli ricavò tutta una serie di conseguenze che costituiscono dei teoremi nelle geometrie non euclidee, come quella ellittica di Riemann o quella iperbolica di Lobachevskij. L’incrollabile fede nella necessità della geometria euclidea, condusse tuttavia il Saccheri a considerare i nuovi teoremi, che egli aveva di fatto dimostrato, come degli assurdi che provavano la validità del postulato. Per chi non ha una sufficiente educazione matematica l’argomentazione logica implicitamente contenuta nell’opera di Saccheri, dal titolo latino Euclides ab omni naevo vindicatus, può rias-
6 Il fascino oscuro dell’inflazione Fig. 2. Il frontespizio dell’opera di Saccheri
sumersi come segue. Supponiamo di voler dimostrare che tutte le donne del mondo hanno necessariamente i capelli o mori ovvero biondi. Procediamo allora a negare la verità di questa proposizione e ne concludiamo che in questo caso potrebbero esistere donne con i capelli rossi. Siccome ciò è per noi assurdo, allora ne segue che la proposizione iniziale deve essere vera. L’incontro per strada di un’avvenente bellezza dalla chioma fulva sarebbe ovviamente la migliore dimostrazione dell’indimostrabilità del postulato. Questo è quanto è avvenuto con la scoperta delle geometrie non euclidee. Il primo a rendersi conto dell’esistenza di geometrie non euclidee, fondate su un insieme di postulati autoconsistenti, fu il Principe dei matematici, Karl Friedrich Gauss, che, seguendo una sua inveterata abitudine, inizialmente non pubblicò nulla dei propri risultati in questo settore. Nato in una famiglia poverissima e cresciuto in un ambiente culturale decisamente modesto, Gauss dette segni di una genialità assolutamente rara, già in giovanissima età, e fu grazie alla generosità del Duca di Brunswick, Carlo Guglielmo Ferdinando, che egli poté studiare, prima in un collegio della città di Brunswick e, poi, all’Università di Göttingen. I contributi alla matematica pubblicati da Gauss sono talmente estesi e fondamentali in quasi tutti i suoi settori, che il suo nome è associato a quasi la metà degli strumenti concettuali di cui la scienza moderna fa uso quotidiano.
7
Lo spazio non è un concetto empirico, ricavato da esperienze esterne [. . . ]; esso è una necessaria rappresentazione a priori, la quale sta a fondamento di tutte le intuizioni esterne [. . . ]
2 Che cos’è la gravità?
Benché straordinari, i risultati ufficialmente pubblicati da Gauss sono probabilmente soltanto la metà dei teoremi che egli effettivamente dimostrò e delle idee rivoluzionarie che la sua incredibile mente riuscì a concepire. Ci sono molti indizi a sostegno di questa tesi. Il più probante di questi indizi è un quadernetto, denominato da Gauss Notizienjournal, in cui dal 1796 al 1814 egli annotò, giorno per giorno e in una forma molto sintetica, gli enunciati di ciò che era riuscito a dimostrare o capire. Si venne a conoscenza di questo taccuino soltanto nel 1898, quarantatré anni dopo la morte del grande matematico. Donato da un nipote di Gauss alla Società Reale di Göttingen, il giornaletto contiene ben 146 enunciati e risultati di complessi calcoli. Soltanto alcune di queste scoperte furono pubblicate da Gauss, altre invece non videro mai la luce durante la sua vita. In più di un caso si tratta di sviluppi o conclusioni che furono riottenuti, parecchi anni dopo, da altri geni della matematica come Abel o Jacobi. Tra questi risultati sepolti nel cassetto di Gauss vi era anche la prima versione di una geometria non euclidea, il cui fondamento è per altro implicito nei risultati, che Gauss invece pubblicò, sullo studio delle superfici a curvatura variabile. Tipicamente, la motivazione di Gauss per differire o sospendere la pubblicazione dei propri risultati era il suo straordinario perfezionismo. Egli pubblicava soltanto opere perfette, in cui la dimostrazione delle proposizioni doveva essere completa, semplice e convincente, senza che restasse alcuna traccia del faticoso cammino attraverso il quale vi si era giunti. Nel caso della geometria non euclidea, tuttavia, la motivazione per differire la comunicazione del risultato fu un’altra. In una sua lettera di molti anni dopo, il Principe dei matematici confessò di non aver divulgato l’evidenza che il quinto postulato di Euclide fosse indipendente e che esistessero quindi altre geometrie perfettamente consistenti che lo violano, per non udire le strida dei Beoti. Con questa poco lusinghiera denominazione egli si riferiva ai filosofi kantiani e post-kantiani che dominavano il panorama accademico tedesco della sua epoca e per i quali valeva il dogma enunciato da Kant nella Critica della Ragion Pura:
8 Il fascino oscuro dell’inflazione
Se infatti questa rappresentazione dello spazio fosse un concetto ottenuto a posteriori, ricavato dalla generale esperienza esterna, i primi principi della determinazione matematica non sarebbero altro che percezioni.
Sviluppo della geometria nel secolo XIX La percezione di un campo gravitazionale costante e la possibilità di interpretare le relazioni spaziali nei termini della geometria euclidea sono dunque attributi pressoché definitori dell’ambiente umano. Nonostante le strida dei Beoti, che ne pretendevano l’evidenza a priori, queste caratteristiche del nostro ambiente sono conseguenze del rapporto tra la scala delle dimensioni umane, che è dell’ordine del metro, e il raggio della Terra, che è dell’ordine dei 6000 chilometri, cioè da un milione a dieci milioni di volte più grande. Se la nostra specie si fosse sviluppata sulla superficie di un asteroide, oppure se essa fosse una specie di giganti alti ottomila metri, così come il Monte Everest, la geometria euclidea probabilmente non sarebbe stata la prima assiomatizzazione delle relazioni spaziali e tanto meno Kant avrebbe dichiarato che essa è il fondamento a priori di tutte le intuizioni esterne. Bisogna d’altra parte dire che, proprio a causa dell’entità del campo gravitazionale del Pianeta, ben difficilmente, sulla superficie terrestre avrebbero potuto svilupparsi esseri così grandi come il monte Everest. Provate a immaginare l’energia necessaria per pompare il sangue, dal cuore fino alla testa, di un gigante di ottomila metri d’altezza! Un’idea dei problemi coinvolti la si può ricavare da una constatazione zoologica. Gli esseri viventi più alti, esistenti oggi sulla Terra, sono probabilmente le giraffe. L’evoluzione le ha dotate di un lunghissimo collo per permettere loro di brucare le foglie sulla cima degli alberi, ma come ogni medaglia ha il suo rovescio, così anche questo vantaggio nutrizionale della specie, comporta i propri inconvenienti. Essi si manifestano quando la giraffa ha sete e vuole bere da una delle rare e preziose pozze d’acqua della savana. A differenza degli altri animali, la giraffa non può stare in piedi sulla riva, pronta a fuggire in caso di pericolo, piegare il collo e immergere la bocca nell’acqua. A causa della sua enorme altezza, la differenza di pressione tra il cuore e la testa, abbassata fino al livello del suolo, le farebbe esplodere il cervello.
9
Gauss introduce la geometria intrinseca Come si è già fatto notare, il primo ad accorgersi dell’esistenza di geometrie non euclidee fu Gauss; egli raggiunse questa consape-
2 Che cos’è la gravità?
Così la povera giraffa è costretta a piegare le gambe, accucciarsi sulla riva e protendere il lungo collo in avanti, anziché in basso, così da raggiungere l’acqua, mantenendo una differenza di potenziale gravitazionale tra il cuore e la testa, ragionevolmente ridotta. Anche l’altezza media delle montagne di un pianeta è determinata dalla forza di gravità superficiale: maggiore è questa, minore è la possibile elevazione delle montagne, perché troppo grande sarebbe l’energia necessaria per costruirle, con un movimento tettonico o con un’eruzione vulcanica. Nessuna altura raggiunge i diecimila metri sulla superficie terrestre, mentre sul più piccolo pianeta Marte, che ha una più ridotta accelerazione gravitazionale superficiale, esiste il Monte Olimpo, alto ben 21.000 metri. Tutte queste considerazioni già suggeriscono il profondo legame tra geometria e gravità. Fu la genialità di Einstein a fare il passo concettuale decisivo e identificare le due nozioni. Con la Teoria della Relatività Generale, pubblicata nel dicembre del 1915, la gravitazione fu identificata come una manifestazione della geometria dello spazio-tempo che, a sua volta, è dinamicamente determinata dal contenuto di materia ed energia in esso presente. Per arrivare a questo fondamentale punto di svolta, era però necessario che la geometria, ferma da due mila anni ai postulati di Euclide, facesse i grandi progressi che essa effettivamente fece dalla terza decade del secolo XIX all’inizio del successivo. I maggiori protagonisti di questo vasto e, per molti versi, impetuoso sviluppo di una nuova scienza geometrica furono sopratutto Lobachevskij, Bolyai, Gauss, Riemann, Klein, Bianchi, Betti, Ricci Curbastro, Levi Civita e Beltrami. Con l’eccezione di Lobachevskij, che era russo, e Bolyai che era ungherese, gli altri eminenti matematici testè nominati appartennero tutti alla scuola tedesca di Göttingen, oppure a quella italiana, centrata attorno alla Scuola Normale di Pisa e alle Università di Padova, Torino e Roma. Credo sia corretto affermare che la costruzione della nuova Geometria Differenziale fu inizialmente un’impresa essenzialmente tedesco-italiana cui, successivamente, diedero contributi fondamentali matematici di molti altri paesi, in particolare i francesi Poincaré e Cartan.
10 Il fascino oscuro dell’inflazione
Fig. 3. Un ritratto di Karl Friedrich Gauss, il Principe dei Matematici (1777-1855)
volezza nell’ambito del suo studio delle superfici curve, pubblicato nel 1828 con il titolo latino di Disquisitiones Generales circa superficies curvas. Questo saggio può considerarsi il vero punto di partenza di un nuovo e, radicalmente diverso, approccio allo studio delle proprietà geometriche, dal quale è scaturita un’interamente nuova disciplina matematica: la Geometria differenziale. Fino alle Disquisitiones di Gauss, la concezione della geometria, a parte la questione del quinto postulato, era appunto quella euclidea, cioè con questo nome si intendeva lo studio delle proprietà globali di figure piane quali i poligoni, o di solidi quali i poliedri, immersi in uno spazio ambiente esterno, in cui era implicitamente assunto che la distanza tra due qualunque punti A e B, arbitrariamente scelti, fosse definita in modo unico e non ambiguo. La distanza è un mattone basilare di tutto l’edificio euclideo ed è calcolata come la lunghezza del segmento di quell’unica retta che passa attraverso ogni coppia di punti distinti A e B e ammette (A,B) come estremi. Le superfici curve immerse nello spazio tridimensionale erano ovviamente note anche prima di Gauss, ma la loro configurazione era concepita solo tramite tale immersione in quello che, secondo le strida dei Beoti, era lo Spazio, cioè il dato a priori del dogma kantiano. Il genio di Gauss consistette nel riformulare lo studio geometrico delle superfici da un punto di vista intrinseco, anziché estrinseco. Gauss si chiese in quali termini avrebbe potuto percepire e misurare la geometria del proprio mondo un essere vincolato alla superficie, libero soltanto di muoversi su di essa e ignaro del mondo circostante. Inoltre, e qui sta il secondo punto essenziale,
11 2 Che cos’è la gravità?
invece di considerare la struttura globale del proprio mondo, il piccolo essere avrebbe cercato di esplorarne le proprietà locali nella vicinanza di ciascun punto p appartenente a esso. Il ragionamento è che, se io conosco le proprietà locali della mia superficie in ogni suo punto, allora possiedo una conoscenza completa della superficie stessa e posso risalire alla sua forma complessiva. Gauss comprese che per affrontare lo studio delle superfici in questi termini era necessario abbandonare l’uso delle coordinate cartesiane come sistema di identificazione dei punti. Nella geometria analitica ogni punto p dello spazio euclideo è identificato da tre numeri reali, usualmente denominati x, y, z, che ne denotano la distanza dai tre assi coordinati, cioè da tre rette ortogonali tra di loro. I punti p della superficie, quando essa viene pensata immersa nello spazio tridimensionale sono particolari punti dello spazio euclideo e quindi possono essere identificati con le tre coordinate x, y, z, tuttavia in questa descrizione vi è un eccesso di informazione superflua. Perché tre coordinate quando parliamo dei punti di una superficie bidimensionale? Due dovrebbero bastare! Gauss comprese che si potevano introdurre coordinate curvilinee e inventò le coordinate gaussiane. L’idea era semplice, ma rivoluzionaria, perché dischiuse le porte a un nuovo modo di pensare. Consideriamo sulla superficie una famiglia di curve U, tali che ogni elemento della famiglia non intersechi mai nessun altro elemento della stessa famiglia, per lo meno in una regione attorno al punto p, (per esempio le curve più chiare della fig. 4) e tale che la famiglia ricopra tutta la regione considerata. Introduciamo poi un’altra famiglia di curve V con le stesse proprietà tra di loro, ma tale che ogni elemento della famiglia V intersechi tutti gli elementi della famiglia U (per esempio le curve più scure della fig. 4). Quando queste due famiglie di curve siano state costruite si può sempre localizzare ogni punto nella regione di superficie considerata dicendo su quale curva U e su quale curva V essa si trova. Imaginando che il numero u sia il parametro che enumera le curve U e il numero v sia il parametro che enumera le curve V, allora la coppia di numeri (u, v) rappresenterà le coordinate curvilinee o gaussiane del punto p appartenente alla superficie e non sarà più necessario fare alcun riferimento allo spazio ambiente euclideo in cui la superficie è immersa. La rappresentazione a priori necessaria per i Beoti è superata!
12 Il fascino oscuro dell’inflazione
Fig. 4. I punti p di una superficie curva M possono essere individuati con le tre coordinate cartesiane X, Y, Z dello spazio tridimensionale in cui è immersa. Questa però è un’informazione ridondante. Le due coordinate gaussiane sono date costruendo due sistemi di curve U e V sulla superficie stessa
Un esempio molto familiare di coordinate gaussiane è fornito dal modo di identificare i punti della superficie terrestre utilizzato sia nella navigazione marittima che in quella aerea, tramite i gradi di latitudine e di longitudine. I cerchi disegnati sulla superficie terrestre e denominati paralleli sono un esempio di curve U, mentre i cerchi massimi pure disegnati sulla superficie e denominati meridiani sono un esempio di curve V. Ogni luogo del pianeta si trova all’incrocio di un parallelo con un meridiano. Per specifare il parallelo si assegna l’angolo di latitudine, che in questo caso funge da coordinata u, mentre il meridiano si individua con i gradi di longitudine, che in questo caso fungono da coordinata v. Con l’introduzione delle coordinate gaussiane, il Principe dei matematici svincolò lo studio delle superfici dalla loro immersione nello spazio esterno, ma dovette immediatamente confrontarsi con un nuovo e fondamentale problema. Ora che menzione non era più fatta dello spazio euclideo dei Beoti e che i segmenti di retta congiungenti due punti A e B di una superficie erano stati aboliti dall’elenco degli strumenti a propria disposizione, come calcolarne la distanza? Le grandi intuizioni di Gauss furono il piano tangente Tp M e l’elemento lineare ds2 . Definire la distanza assoluta tra due punti A e B non era più possibile, ma neanche interessante. Nello spazio euclideo esterno in
13 2 Che cos’è la gravità? Fig. 5. Latitudine e longitudine sono un esempio di coordinate gaussiane
cui la superficie M è immersa, la distanza di A da B è la lunghezza del segmento che li unisce, ma che rilevanza ha questo dato per la formichina che vive su M se tale segmento non giace sulla superficie stessa? Per il piccolo essere bidimensionale il dato interessante è la lunghezza di una strada che congiunga A con B, la lunghezza di ogni possibile strada con questa proprietà! La formica ha esattamente necessità dello stesso dato che interessa un automobilista che intenda intraprendere un viaggio: conoscere cioè le lunghezze di tutti i possibili percorsi. Le possibili strade della nostra metafora sono tutte le curve disegnate sulla superficie che hanno A come punto iniziale e B come punto finale. Il problema affrontato da Gauss fu dunque dare una risposta alla seguente domanda: è possibile definire la lunghezza di una qualunque curva in termini puramente intrinseci alla superficie M su cui essa giace? La risposta trovata da Gauss è positiva e si basa sul cambio di prospettiva, che è il fondamento stesso della nuova geometria differenziale. Proviamo a riformulare la domanda iniziale, cioè se sia possibile definire la distanza assoluta tra due punti A e B di una superficie, con l’aggiunta però della condizione che A e B siano solo infinitesimamente spostati uno dall’altro. Questo significa che, se le coordinate gaussiane di A sono (u, v), allora quelle di B saranno (u + du, v + dv), dove du e dv sono dei numeri piccolissimi, tanto piccoli da essere quasi zero. L’osservazione cruciale di Gauss è che una porzione piccolissima di superficie attorno a qualunque pun-
14 Il fascino oscuro dell’inflazione
to p a essa appartenente, può essere approssimata con una porzione del piano tangente alla superficie M nel suo punto p, che chiameremo appunto Tp M. L’approssimazione è tanto migliore quanto più la porzione di superficie considerata è piccola. A questo modo di pensare siamo assolutamente abituati sulla superficie terrestre. Una regione intorno alla nostra casa è una porzione di superficie di una sfera, ma fintanto a che le distanze considerate saranno molto, molto più piccole dei 6000 chilometri del raggio terrestre, allora tale regione intorno a casa nostra può essere identificata come una porzione di piano. D’altra parte in un piano vige la geometria euclidea e pertanto, se A e B sono molto prossimi, la loro distanza assoluta può essere definita come la lunghezza del segmento che li unisce e che giace appunto nel piano tangente. Ricordandosi del teorema di Pitagora si sarebbe dunque tentati di dire che il quadrato della lunghezza del segmentino che va da A a B sia la somma dei quadrati delle due differenze di coordinate gaussiane, cioè ds2 = du2 + dv 2 , ma questo non è necessariamente vero. Per poter applicare il teorema di Pitagora sarebbe necessario che gli assi u e v fossero ortogonali e questo in genere è falso. Nessuno infatti ci garantisce che la curva u e la curva v all’incrocio delle quali si trova il punto A si intersechino ad angolo retto. Per calcolare ds2 sarà dunque necessario trovare le componenti del segmentino AB in un sistema di assi ortogonali x e y e solo dopo applicare il teorema di Pitagora scrivendo: ds2 = dx 2 + dy2 . Le componenti dx e dy dipendono dagli spostamenti delle coordinate gaussiane linearmente. Questo significa che possiamo scrivere dx = adu + bdv e dy = cdu + ddv dove a, b, c, d sono quattro opportuni numeri. La cosa importante da notare è che questi quattro numeri saranno diversi in ogni diverso punto A della superficie, poiché l’angolo con cui si intersecano le curve u e le curve v non è sempre lo stesso, bensì dipende da punto a punto sulla superficie, come è evidente dalla figura 6. Tenendo conto di questo fatto, si trova che l’elemento di linea, cioè il quadrato della lunghezza dello spostamento infinitesimo da un punto A della superficie di coordinate gaussiane (u, v) a un suo vicino B di coordinate gaussiane (u+du, v+dv) è, come si dice in gergo
15
matematico, una forma quadratica nei numerelli piccoli piccoli du e dv, cioè: ds2 = F(u, v)du2 + G(u, v)dv 2 + H(u, v)dudv
(2.1)
dove F = a2 + c2 , G = b2 + d2 , H = 2ab + 2cd. Questo risultato semplicissimo può immediatamente essere verificato da chiunque conosca l’algebra elementare insegnata nelle scuole medie, sostituendo l’espressione di dx e dy nel teorema di Pitagora ds2 = dx 2 + dy2 . La formula (2.1), che fu trovata da Gauss ed esibita nelle Disquisitiones del 1828, ha un’importanza straordinaria perché segna il vero inizio della Geometria differenziale e nello stesso tempo introduce il concetto di che cosa sia in realtà il campo gravitazionale come Einstein mostrerà novant’anni più tardi.
Riemann introduce la metrica e la curvatura Il nome Riemann è attribuito in matematica a una tale quantità di oggetti e concetti assolutamente fondamentali dell’analisi, della geometria e della teoria dei numeri, che lo studente e il ricercatore contemporanei sono istintivamente portati a immaginare la produzione scientifica di questo gigante del pensiero umano come costituita da una sterminata messe di articoli e di libri, redatti du-
2 Che cos’è la gravità?
Fig. 6. Il piano tangente a un punto p di una superficie M è uno spazio euclideo in cui la nozione di distanza è definita. Nel piano tangente, che approssima porzioni infinitesime della superficie, possiamo definire l’elemento di linea come la distanza euclidea tra due punti infinitamente prossimi della superficie stessa
16 Il fascino oscuro dell’inflazione
Fig. 7. Bernhard Riemann (1826-1866)
rante una lunga carriera accademica, in contatto con i più grandi fisici e matematici della propria epoca. Le equazioni di Cauchy-Riemann e la sfera di Riemann nella teoria delle funzioni analitiche di variabile complessa, le superfici di Riemann, che costituiscono l’argomento di interi corsi e che oggi giocano un ruolo cruciale nella teoria delle stringhe, le varietà riemaniane, le metriche riemaniane e il tensore di curvatura di Riemann in geometria differenziale, base della Relatività Generale di Einstein, il teorema di Riemann-Roch, la funzione zeta di Riemann e soprattutto la congettura di Riemann in teoria dei numeri, la cui dimostrazione, a 150 anni dalla propria formulazione, è il più famoso dei problemi matematici ancora in attesa di soluzione. Quanti anni ci sono voluti e quanti tomi sono stati riempiti da Bernhard Riemann per stabilire tutto questo? La risposta è sconvolgente: purtroppo molto pochi gli anni e pochissimi i fogli che espongono tutti i suoi risultati. L’intera opera di Riemann pubblicata durante la sua vita assomma a 225 pagine, distribuite in 11 tra articoli e dissertazioni, a cui si devono aggiungere le 102 pagine delle 4 pubblicazioni postume. Tra queste ultime figurano le 16 pagine dell’Ueber die Hypothesen, welche der Geometrie zu Grunde liegen, pubblicato sui rendiconti della Reale Società delle Scienze di Göttingen nel 1868, due anni dopo la morte dell’autore, sopraggiunta a Salasca sulle rive del Lago Maggiore, all’età di soli trentanove anni. L’Ueber die Hypothesen..., il cui titolo può tradursi in italiano come Delle ipotesi a fondamento
17 2 Che cos’è la gravità?
della Geometria, fu redatto nel 1854 come Habilitationsschrift, cioè come tesi di abilitazione che, nel sistema accademico tedesco, era ed è rimasta l’equivalente della Libera Docenza italiana, soppressa dalla riforma universitaria del 1981. In questo brevissimo saggio, privo di formule poste in evidenza e contenente non più di una decina di formulette incapsulate nel testo, il ventisettenne Riemann introdusse il concetto di varietà differenziale a un numero arbitrario di dimensioni, definì il tensore metrico e il tensore di curvatura, cioè fondò l’intero edificio della geometria differenziale, aprendo le porte a uno sviluppo del pensiero umano, i cui frutti in fisica sono stati la teoria della gravitazione di Einstein e il linguaggio stesso in cui noi possiamo oggi descrivere l’Universo e la sua espansione, nonché i più affascinanti e misteriosi fenomeni in esso contenuti quali i buchi neri e le onde gravitazionali. È molto curiosa e sorprendente la storia della genesi di questo capolavoro della matematica. Nato nel 1826 a Breselenz, un piccolo villaggio nel Regno di Hannover, Georg Friedrich Bernhard Riemann era figlio di un pastore luterano molto povero, che aveva combattuto durante le guerre napoleoniche. Secondo di sei fratelli, privati della madre fin dalla prima infanzia, Riemann fu perseguitato, durante tutta la sua breve vita, dall’indigenza e da una salute assai malferma, probabilmente frutto delle privazioni e dell’insufficiente nutrimento sofferti da bambino. Nonostante questi enormi svantaggi e la totale mancanza di mezzi materiali, egli riuscì a studiare, prima al Gymnasium di Hannover, dove viveva a casa della nonna, e poi, dopo la morte di quest’ultima, a quello di Lueneburg. Schmalfuss, il direttore didattico di questa scuola, ebbe la sagacia di intuire il genio matematico del timido e gracilento ragazzino, mettendogli a disposizione la propria biblioteca ed esentandolo dall’obbligo di seguire le lezioni ufficiali, ormai troppo elementari e inutili per il giovane talento. In questa biblioteca privata, Riemann studiò le opere dei grandi matematici dell’epoca come le quasi mille pagine della Teoria dei numeri di Legendre, che egli assimilò completamente in soli sei giorni. Nel 1846, a diciannove anni egli si iscrisse come studente all’Università di Göttingen e cinque anni dopo, nel 1851 presentò a Gauss la propria tesi di laurea dal titolo Grundlagen für eine allge-
18 Il fascino oscuro dell’inflazione
meine Theorie der Functionen einer veränderlichen complexen Grösse, cioè Principi di una teoria generale delle funzioni di una variabile complessa. Nelle 44 pagine di questa tesi erano presentati tutti i fondamenti di quella che dopo di lui è diventata la teoria delle funzioni analitiche: un ingrediente essenziale della matematica moderna e un caposaldo nell’educazione scientifica di qualunque fisico, chimico, matematico o ingegnere contemporaneo. Gauss fu molto impressionato da questo lavoro e disse al giovanotto che anch’egli aveva per molti anni pensato di scrivere una memoria su questo argomento, ma che ormai non era più il caso di farlo, non essendovi più null’altro da dire sull’argomento. Il Principe dei matematici presentò alla Facoltà di Filosofia dell’Università di Göttingen la propria valutazione dell’elaborato esprimendosi con queste parole: La tesi presentata da Herr Riemann costituisce una prova convincente delle profonde e penetranti ricerche fatte dall’autore circa l’argomento della sua tesi e testimonia di uno spirito creatore, attivo, veramente matematico, e di una originalità viva e feconda. La presentazione del soggetto è chiara e concisa e, in alcuni punti, molto bella. . . Un simile giudizio da parte del più famoso e quasi leggendario matematico d’Europa non si poteva certo ottenere tanto facilmente, ma il breve saggio di Riemann ne aveva pieno titolo, come la successiva storia della scienza ha ampiamente dimostrato. Quasi tre anni dopo la laurea, Bernhard Riemann, che nel frattempo si era molto occupato di fisica matematica e si era mantenuto dando lezioni private, era alle prese con la tesi di abilitazione, passo necessario per poter essere nominato docente incaricato, senza retribuzione. Secondo una tradizione tuttora in vigore, per la Habilitationsschrift, il candidato doveva presentare alla Facoltà tre temi tra i quali essa avrebbe scelto quello sul quale egli avrebbe dovuto tenere una conferenza-saggio. Dei tre argomenti proposti, Riemann sperava che la Facoltà scegliesse uno dei primi due, sui quali egli si sentiva molto preparato. Ma la Facoltà significava Gauss e il Principe dei matematici era curioso di verificare come l’originalità viva e feconda del giovane talento avrebbe trattato un soggetto sul quale lo stesso Gauss aveva meditato per più di sessant’anni. L’incauto giovanotto aveva infatti avuto la temerarietà di proporre come terzo possibile soggetto per la propria Habili-
19
Sono di nuovo nell’imbarazzo a causa di questo lavoro. Sono sempre più convinto che Gauss ha studiato la questione da qualche anno e ne ha parlato con degli amici. Te lo dico in confidenza per non passare per presuntuoso, ma spero che non arriverò troppo tardi e che i miei meriti di ricercatore indipendente saranno riconosciuti. Lo sforzo che il giovane e gracile scienziato dispiegò nella nuova ricerca lo fece nuovamente ammalare ed egli scrisse di nuovo al padre: ho lavorato tanto da ammalarmi. La mia antica indisposizione è riapparsa con sintomi più gravi, cosicché non ho potuto continuare i miei studi. Soltanto dopo alcune settimane, grazie al miglioramento del tempo e agli incoraggiamenti degli amici ho cominciato a sentirmi meglio. Ho preso in affitto per l’estate una casa con giardino e così mi sono rimesso in salute. Avendo finito, due settimane dopo Pasqua, uno studio di cui non ero potuto ancora venire a capo, mi sono dedicato infine alla mia conferenza di prova e l’ho terminata verso Pentecoste, cioè in sette settimane. . . In quelle sette settimane Riemann aveva ottenuto i risultati esposti nelle 16 pagine dell’Ueber die Hypothesen, welche der Geometrie zu Grunde liegen, cioè aveva inventato la geometria riemaniana. L’Ueber die Hypothesen, pur così breve, non è solo un pietra miliare della matematica, ma anche un saggio filosofico di prima grandezza. Con una lucidità stupefacente Riemann vi espresse l’addio definitivo al pregiudizio kantiano dei Beoti sulla natura aprioristica dei concetti geometrici e sulla concezione idealistica dello spazio, affermando del tutto esplicitamente il principio che quale sia la geometria dell’ambiente in cui viviamo è una verità da determinarsi empiricamente, attraverso le osservazioni sperimentali. Egli scrisse: È ben noto che la geometria assume, come dati a priori, la nozione di spazio e i principi primi delle costruzioni nello spazio.
2 Che cos’è la gravità?
tationsschrift niente meno che i Grundlagen der Geometrie, cioè i Fondamenti della Geometria. Gauss convinse il Consiglio di Facoltà a scegliere proprio il terzo tema e Riemann fu costernato. Egli scrisse al padre:
20 Il fascino oscuro dell’inflazione
Si danno definizioni di questi nella forma di assiomi. La relazione tra queste assunzioni rimane perciò nell’oscurità e noi non percepiamo se e come tale relazione sia necessaria o, a priori, possibile. Da Euclide a Legendre, questa oscurità non è stata illuminata né dai matematici né dai filosofi. Dopo l’affermazione di questa bimillenaria situazione di stallo, Riemann procedette a individuarne la causa: La ragione è senza dubbio che la nozione generale di varietà n-dimensionali1 era rimasta fino a questo momento completamente ignorata e necessitava di essere costruita. E Riemann costruì appunto questa nozione proseguendo la strada che Gauss aveva aperto con le Disquisitiones. Dal caso bidimensionale delle superfici egli passò a quello generico n-dimensionale delle varietà. Come i punti di una superficie sono individuati dalla coppia delle coordinate gaussiane (u, v), così quelli di una n-varietà sono individuati da n-coordinate gaussiane (x1 , x2 , . . . , xn ) e l’elemento di linea, che ci permette di definire le distanze infinitesime è la generalizzazione della formula trovata da Gauss per le superfici (eq. 2.1), cioè: ds2 = gij (x)dx idx j .
(2.2)
Questa formula è scritta usando una convenzione introdotta da Einstein che è tanto semplice quanto geniale. Al fine di usare una notazione che fosse buona per tutti i casi, indipendentemente dal valore di n cioè del numero di dimensioni prescelte, Einstein stabilì questa regola: quando un indice (per esempio le lettere i e j nella formula in questione) è ripetuto, una volta appeso a un oggetto e 1 La nozione di varietà differenziabili a n-dimensioni è la nozione base della Geometria differenziale e ne costituisce l’oggetto di studio. Tale nozione corrisponde alla precisa formulazione di quegli oggetti matematici, come le superfici curve studiate da Gauss, che condividono con il familiare spazio euclideo la proprietà di essere un continuo liscio di punti geometrici, ma non hanno l’ulteriore proprietà di essere piatti (cioè privi di curvatura) e di ammettere una definizione della distanza assoluta tra i loro punti. La nomenclatura matematica corrente per questo concetto è varietà differenziabile in italiano, differentiable manifold in inglese e variété différentielle in francese. Nella letteratura matematica tedesca contemporanea le varietà differenziabili si chiamano Mannigfaltigkeiten. Riemann, che le introdusse, le denominava invece mehrfach ausgedehnte Grössen, che nelle prime traduzioni inglesi del suo saggio furono rese come multiply extended magnitudes.
21
ds2 = g11 (x)(dx 1)2 + g22 (x)(dx 2)2 + 2g12 (x)dx 1dx 2 .
(2.3)
Identificando x1 con u, x2 con v, la funzione g11 (x) con F(u, v), la funzione g22 (x) con G(u, v) e la funzione 2 g12(x) con H(u, v)), si vede che l’elemento di linea di Riemann (2.2) coincide con la (2.1) di Gauss. La prima grande intuizione di Riemann consiste nell’aver individuato l’ente che definisce la geometria di una varietà nell’insieme dei coefficienti gij (x) che, nel linguaggio moderno, prende il nome di tensore metrico o metrica. In generale questi coefficienti, o meglio, componenti della metrica, non sono costanti, bensì dipendono dal punto della varietà, così come già aveva dimostrato Gauss per il caso delle superfici. Il loro numero è facilmente contato per ogni dimensione n, contando il numero di coppie (con ripetizione) che si possono fare, avendo a disposizione n oggetti: cioè 12 n(n + 1). Dunque per n = 2 si hanno 3 coefficienti, per n = 3 se ne hanno 6 e per n = 4 se ne hanno 10. Lo spazio euclideo dei Beoti corrisponde al caso in cui il tensore metrico gij (x), non solo è fatto di numeri costanti, ma anche di numeri uguali a zero allorché i =j e uguali a uno allorché i = j. In tal caso infatti l’elemento di linea riproduce esattamente il teorema di Pitagora esteso a n-dimensioni: ds2 = dx12 + dx22 + · · · + dxn2 .
(2.4)
Nell’Ueber die Hypothesen Riemann formulò in maniera chiarissima il concetto che, con la scelta di diversi tensori metrici, si possono costruire una quantità di diverse geometrie e, rovesciando completamente il punto di vista kantiano, affermò che il principio per enucleare tra di esse quella coerente con la realtà fisica poteva essere solo l’osservazione empirica. In una frase quasi profetica egli disse: Possiamo indagare la probabilità della scelta della geometria euclidea che, nei limiti delle osservazioni accessibili è molto al-
2 Che cos’è la gravità?
una volta appeso a un altro, significa che si intende fare la somma dei prodotti del valore del primo oggetto con il valore del secondo oggetto, per tutti i valori che i può prendere i = 1, 2, . . . , n . Così se n = 2, che è il caso delle superfici trattato da Gauss, la formula generale di Riemann si legge:
22 Il fascino oscuro dell’inflazione
ta, e valutare la correttezza della sua estensione al di là dei limiti osservativi sia nella direzione dell’infinitamente grande così come dell’infinitamente piccolo. Sessant’anni più tardi sarebbe toccato ad Einstein compiere l’ulteriore passo concettuale necessario a risolvere completamente la questione di quale fosse la vera geometria del mondo. La giusta risposta, come sempre accade nella scienza, si ottenne modificando la domanda iniziale e rovesciandone i termini. Non solo quella euclidea non è la vera geometria, ma l’idea stessa di un’unica geometria sottostante il reale è falsa e mal posta. La geometria, cioè il tensore metrico, non è un dato esterno che determina l’ambiente in cui i fenomeni fisici avvengono, ma è esso stesso un campo dinamico determinato dal contenuto energetico dello spaziotempo. A sua volta il tensore metrico, cioè la geometria, determina il moto degli altri enti fisici che si muovono nel suo fondo. Infatti la metrica gij introdotta da Riemann non è nient’altro che il campo gravitazionale stesso! Questa è la strabiliante verità faticosamente dedotta da Einstein in dieci anni di profonde riflessioni e di calcoli. Per arrivare a tali conclusioni era però necessario che l’ente matematico che codifica la deviazione di uno spazio dalla geometria piatta, quale quella euclidea, fosse individuato. Esso fu costruito dallo stesso Riemann nelle sedici paginette dell’Ueber die Hypothesen. Non a caso si chiama tensore di curvatura di Riemann e si denota con la lettera R in onore al suo cognome. Esso è deducibile dal tensore metrico g e costituì il principale oggetto di studio da parte di Einstein nella sua decennale ricerca delle corrette equazioni dinamiche del campo gravitazionale.
La gravità è solo questione di linee dritte Perché la Terra ruota attorno al Sole, perché la Luna ruota attorno alla Terra e perché il Sole ruota attorno al centro galattico, probabilmente occupato da un buco nero supermassivo di più di un milione di masse solari? La risposta trovata da Newton quasi tre secoli or sono è data dalla legge di gravitazione universale: la forza con la quale due masse M ed m si attraggono l’una all’altra è proporzionale al prodotto delle due masse Mm ed è inversamente proporzionale al quadrato della loro distanza r. La costante di proporzionalità
23 2 Che cos’è la gravità?
Fig. 8. La legge di gravitazione Universale di Newton
G = 6,674×10−8 cm3 gm−1 sec−2 è una costante fondamentale della Natura la cui intrinseca piccolezza è la ragione per la quale l’Universo può esistere ed essere così grande. Con questa legge furono spiegate le orbite dei pianeti, dei loro satelliti e delle comete, con essa si fanno tuttora i calcoli necessari a far volare gli aeroplani e inviare i missili nello spazio e si scrivono anche le equazioni dell’equilibrio stellare, tramite le quali possiamo comprendere la ragione per la quale le stelle si formano ed esistono. Tuttavia come ebbe ben chiaro Einstein fin da principio, la legge di Newton non può essere la risposta conclusiva per quanto concerne la teoria della gravitazione. Le ragioni sono molte, ma la più evidente è la seguente: la legge newtoniana è in contraddizione con la Relatività Ristretta, formulata da Einstein nel 1905, e soprattutto con la conseguente equivalenza tra massa ed energia, condensata nella celeberrima formula E = mc2 , dove c denota la velocità della luce. L’equivalenza tra massa ed energia è drammaticamente verificata nell’esplosione delle bombe nucleari e la sua contraddizione con la legge di gravitazione segue da un semplicissimo ragionamento. Pensiamo a una stella di una certa massa M e a un pianeta che le orbiti attorno. All’interno della stella avvengono reazioni di fusione nucleare. Supponiamo ora che una parte consistente della massa M si trasformi in energia tramite queste reazioni. Secondo Newton l’energia di legame gravitazionale tra il pianeta e la stella dipende solo dalla massa della stella; così se
24 Il fascino oscuro dell’inflazione
questa diminuisce, l’energia di legame gravitazionale diminuisce corrispondentemente, senza che vi sia stata alcuna nuova interazione tra il pianeta e la stella. Dov’è finita questa energia gravitazionale mancante? Pensiamo al caso estremo in cui tutta la massa della stella si trasformasse in energia. Come per miracolo non vi sarebbe più alcuna attrazione gravitazionale e il pianeta sarebbe improvvisamente libero. È un’evidente assurdità e una macroscopica violazione del principio di conservazione della massa-energia! Da questo paradosso si evince che la sorgente della gravitazione deve essere non la massa, bensì la massa-energia. Questa osservazione si coniuga con altre due, altrettanto cruciali e inquietanti. Nella fisica newtoniana l’accelerazione a impressa a una particella è uguale al rapporto tra la forza F che la imprime e la massa m della particella stessa. Questa legge si condensa nella celeberrima equazione F = ma. Vi è però un caveat! La legge F = ma non è valida in tutti i sistemi di riferimento, ma solo in quelli cosidetti inerziali, quelli cioè in moto rettilineo uniforme e pertanto privi di accelerazione. Della veridicità di questo caveat abbiamo fatto tutti esperienza in occasione di una brusca frenata: gli oggetti a riposo nella nostra auto saltano allegramente in avanti, come se qualcuno avesse impresso loro un’accelerazione. Però, a ben pensare, come si può determinare se un sistema di riferimento è inerziale oppure no? Per definizione esso dovrebbe essere in moto rettilineo uniforme, ma rispetto a chi? L’unico vero modo di accertare se un sistema è inerziale è verificare sperimentalmente se in esso valga la legge F = ma. Dunque abbiamo una legge fondamentale di natura che vale solo nei sistemi inerziali. D’altra parte i sistemi inerziali sono definiti come quelli in cui vale tale legge. È un perfetto ragionamento circolare che mostra la propria intrinseca debolezza logica. A completare l’inquietudine viene la terza osservazione. La massa mi che interviene nella legge F = mi a, detta massa inerziale, a priori potrebbe non avere niente a che fare con la massa mg che GMm compare nella legge di gravitazione F = r2 g . Eppure, come tutti gli esperimenti dimostrano, mi ed mg sono perfettamente uguali, cosicché l’accelerazione gravitazionale impressa a qualunque corpo posto a una certa distanza r dalla superficie terrestre è uguale per tutti i corpi, indipendentemente se siano grandi o piccoli, leg-
25 2 Che cos’è la gravità?
Fig. 9. Caduta dei gravi dalla Torre di Pisa
geri o pesanti. Ciò era già stato verificato da Galileo, sia con gli esperimenti del piano inclinato, sia con i leggendari esperimenti sulla caduta dei gravi dalla Torre di Pisa. Viene fatto di pensare che tale perfetta uguaglianza non possa essere casuale, ma sia invece una regola del gioco, cioè un elemento essenziale della teoria gravitazionale. O meglio che l’essenziale regola del gioco sia la conseguenza di tale uguaglianza, cioè il fatto che tutti i gravi si muovono sulle stesse traiettorie e con le stesse accelerazioni. Se così è emerge allora un’affascinante possibilità, che sedusse Einstein. Forse non esiste alcuna forza gravitazionale e tutti i presunti gravi, cioè tutti i corpi, massivi e non, si muovono lungo linee diritte, così come fanno abitualmente le particelle nello spazio euclideo vuoto, ma sono le linee diritte dello spazio-tempo a differire dalle familiari rette, se lo spazio-tempo è in realtà una varietà differenziale dotata di curvatura nel senso di Riemann. E chi è responsabile della curvatura dello spazio-tempo? La risposta è semplice: il suo contenuto di massa ed energia. Questo è, detto in parole estremamente semplici, il contenuto della Teoria della Relatività Generale che Albert Einstein elaborò nel corso di dieci faticosi anni dal 1905 alla fine del 1915. La visione geometrica della gravitazione con la quale Einstein rivoluzionò l’intero edificio della fisica, aprendo la strada
26 Il fascino oscuro dell’inflazione Fig. 10. Sir Arthur Eddington (1882-1944)
a una nuova comprensione dell’Universo e delle leggi che ne governano l’evoluzione, fu riassunta in una magistrale metafora da Sir Arthur Eddington. Il famoso astrofisico inglese, che durante l’eclissi solare del 29 maggio 1919 per primo misurò la deflessione dei raggi luminosi da parte del campo gravitazionale del Sole, dando così la prima conferma sperimentale della Teoria di Einstein, riassunse quest’ultima nel seguente modo pittorico. Immaginiamo che lo spazio tempo sia un telo bidimensionale. Se una pallina leggera è posta su questo telo, essa rotola liberamente su di esso in linea retta, come farebbe su di una qualunque superficie piana. Supponiamo ora che una grande massa cada sul telo di Eddington. Il peso di questa massa (o energia) incurverà il telo, creandovi un avallamento tanto più profondo quanto più essa è grande. La pallina di prova sentirà la curvatura del telo e continuando ad andare diritta, in realtà seguirà le curve gaussiane disegnate sul telo curvo che non sono più delle rette. Il risultato finale di questa situazione è che la pallina orbita attorno alla grande massa che ha incurvato lo spazio-tempo. Apparentemente è come se vi fosse un’attrazione gravitazionale tra la grande e la piccola massa. Così interpretando la gravitazione, le questioni fondamentali per formularne una teoria matematica quantitativa diventano due:
27 2 Che cos’è la gravità?
Fig. 11. La metafora del telo di Eddington
1. Come sono fatte le linee diritte in uno spazio curvo? 2. Qual è la relazione precisa tra la curvatura dello spazio-tempo e la massa-energia che è in esso contenuta? Per rispondere a entrambe queste domande Albert Einstein aveva bisogno degli ulteriori progressi fatti dalla geometria differenziale nel corso dei sessant’anni che erano seguiti alla morte prematura di Riemann.
Lobachevskij, Poincaré e un giallo scientifico del secolo XIX Henri Poincaré nacque a Nancy nel 1854, lo stesso anno in cui Riemann presentava a Gauss, come Habilitationsschrift l’Ueber die Hypothesen. Nicolai Ivanovich Lobachevskij moriva nella città di Kazan due anni dopo la nascita di Poincaré nel 1856. Era nato nel 1793 a Nizhnij Novgorod nella Russia centrale. Due vite completamente diverse, separate geograficamente, temporalmente e qualitativamente da una grande distanza. Tanto
28 Il fascino oscuro dell’inflazione
i meriti scientifici di Poincaré furono riconosciuti e stimati durante il corso della sua vita, quanto quelli di Lobachevskij completamente ignorati in patria e, con l’eccezione dell’importante apprezzamento tributato da Gauss a un suo lavoro, misconosciuti dalla comunità scientifica internazionale per molto tempo oltre la sua morte. Tanto vasto, esteso ed enciclopedico è il corpus delle opere di Poincaré, quanto pochi e ridotti sono gli scritti del matematico russo. Nonostante queste enormi differenze, i nomi di Lobachevskij e di Poincaré vengono abbinati nella denominazione di un importante modello di geometria bidimensionale, detto il piano iperbolico. Di che cosa si tratta e perché ne parliamo a questo punto del nostro viaggio alla scoperta della teoria della gravitazione? Come si è detto, uno dei due problemi chiave nel comprendere la gravità dal punto di vista geometrico da cui si pose Einstein è quello di stabilire che cosa siano le linee diritte in uno spazio curvo. Anche se a prima vista ciò sembra strano, la soluzione di questo problema è intimamente connessa alla bimillenaria questione del quinto postulato di Euclide e alle strida dei Beoti che spaventavano Gauss al punto di non pubblicare i risultati che egli aveva raggiunto sulla geometria non euclidea. Nello spazio euclideo vi sono due modi equivalenti di definire la strada diritta da un punto A a un punto B: il primo è quello di cercare il tratto di strada la cui lunghezza sia la più breve possibile tra tutte quelle esistenti. Il secondo è quello di cercare la strada, percorrendo la quale con la nostra automobile, non sia mai necessario girare il volante e cambiare quindi, da un punto al punto infinitamente vicino, la direzione della nostra velocità istantanea. Nella geometria euclidea le rette sono le curve che hanno tali proprietà. Infatti per due punti qualunque A e B passa una e una sola retta e l’arco di tale curva che congiunge i due punti, cioè il segmento AB, è appunto la via più breve tra di essi. Inoltre essa è dritta nel senso che la tangente non cambia mai direzione, cioè non dobbiamo mai girare il volante. Qualunque altro arco di curva con estremi in A e in B è più lungo del segmento AB e la sua tangente ruota da un punto al punto successivo; cioè dobbiamo girare il volante. Vi è poi un’altra proprietà intimamente correlata con queste. Se invece di due punti ne consideriamo quattro A, B, C, D, possiamo tracciare la via più breve da A a B, da B a D, da D a C e infine da C
29 2 Che cos’è la gravità?
ad A, in modo da costruire un quadrilatero i cui lati opposti sono paralleli. Comunque si scelgano i punti, la somma degli angoli interni di questo quadrilatero è esattamente uguale a 360◦ e questo fatto è la stessa cosa che il quinto postulato di Euclide. Negli spazi curvi si possono definire le linee diritte nello stesso modo, usando le stesse due proprietà appena discusse che, infatti, si può dimostrare, sono equivalenti, non soltanto nello spazio euclideo, bensì in generale. Possiamo cioè definire diritte quelle curve tali che l’arco di una di essa congiungente due qualsivoglia punti A e B è la via più breve tra i prescelti punti di partenza e d’arrivo. Alternativamente, possiamo definire diritte quelle curve tali che la loro tangente non cambia mai direzione quando la trasportiamo parallelamente da un punto p a p + dp, cioè a quello infinitamente vicino lungo la curva stessa. Denominiamo le curve con queste due equivalenti proprietà le geodetiche dello spazio considerato. La chiave per dimostrare l’equivalenza delle due definizioni di geodetiche e per calcolarne la loro forma esplicita è l’elemento di linea, introdotto da Gauss per le superfici e generalizzato da Riemann al caso di una varietà n-dimensionale qualunque. Proviamo ora a partire dal risultato, dichiarando quale siano le geodetiche in uno spazio dato, lasciando al dopo il compito di trovare un elemento di linea tale che da esso si deducano come geodetiche le curve da noi effettivamente considerate. In questo modo ripercorreremo in parte il cammino storico della geometria iperbolica. Lobachevskij introdusse infatti una geometria i cui assiomi sono le proprietà godute da quelle curve che ora stiamo per dichiare le geodetiche di un semipiano e fu Poincaré che, quasi cinquant’anni più tardi, definì un elemento di linea, cioè una metrica, rispetto alla quale le curve considerate sono effettivamente le geodetiche di tale spazio. Il semipiano equipaggiato con la metrica di Poincaré è denominato il piano iperbolico e quest’ultimo costituisce una realizzazione concreta della geometria astrattamente costruita da Lobachevskij molti anni prima. Ciò detto, la definizione del piano iperbolico è qualcosa di semplicissimo e alla portata di chiunque possieda un foglio di carta, una matita, un righello e un compasso. Usando le abituali coordinate cartesiane (x, y) per denotare i punti del piano, il semipiano da considerare è quello superiore, cioè quello costituito da tutti i punti con coordinata y strettamente positiva: y > 0. Le geodeti-
30 Il fascino oscuro dell’inflazione Fig. 12. Le geodetiche del piano euclideo sono le rette. Le geodetiche del piano iperbolico sono tutti i semicerchi con centro sull’asse delle x
che di questo semipiano sono semplicemente tutti i semicerchi di raggio arbitrario, il cui centro giace sull’asse delle x. Disegnando famiglie di questi semicerchi si trova il risultato mostrato nella fig. 12. Anche in questo caso esiste uno e un solo semicerchio con il centro sull’asse x che passa per una coppia di punti dati A e B. L’arco di tale cerchio tra A e B è per definizione la via più breve che congiunge i due punti considerati. Inoltre, similmente al caso euclideo, possiamo costruire dei quadrilateri ACDB con lati opposti paralleli. La novità è però che la somma degli angoli interni non è più uguale a 360◦ bensì strettamente inferiore a tale numero. Questo deficit angolare è l’effetto della curvatura del nostro spazio che in questo caso è negativa. Se essa fosse positiva, invece di un de-
31 2 Che cos’è la gravità?
ficit avremmo un eccesso angolare: la somma degli angoli interni del quadrilatero sarebbe maggiore di 360◦ . Usando le coordinate (x, y), l’elemento di linea euclideo che determina le rette quali geodetiche è: ds2 = dx 2 +dy2 . Poincaré dimo2 2 , strò che se si usa invece l’elemento di linea seguente ds2 = dx y+dy 2 allora le geodetiche sono precisamente i semicerchi con centro sull’asse delle x che abbiamo appena considerato. La geometria iperbolica rappresenta dunque la prova definitiva della indipendenza del quinto postulato di Euclide, ci spalanca una finestra sulla struttura di uno spazio con curvatura negativa e nello stesso tempo chiarisce tramite un esempio semplicissimo la natura delle linee diritte, quelle cioè che, nella visione di Einstein, sono le traiettorie di tutti i corpi nello spazio tempo. Le linee diritte non sono altro che le geodetiche. Cerchiamo dunque di ripercorrere la storia della geometria non-euclidea di Lobachevskij, che fu definito da Clifford il Copernico della Geometria. Questa storia si tinge un pò del colore giallo a causa delle molte ipotesi e leggende che circondano la genesi di questa rivoluzione concettuale e anche a causa delle travagliate vicende personali del suo autore. Il teatro di questa vicenda è un angolo remoto e assai periferico dell’Europa ottocentesca. La città di Kazan’, oggi capitale della Repubblica Autonoma del Tatarstan, all’interno della Federazione Russa, sorge sulla sponda sinistra del medio corso del Volga, circa 800 chilometri a oriente di Mosca: è una città di un milione di abitanti, centro di ciò che è sopravvissuto delle tradizioni e della cultura tartara nelle terre russe. È anche una città antica ricca di importanti monumenti. Il nome Kazan’, di origine turco-mongola significa padella e una leggenda vuole che esso tragga origine dalla sventura di una principessa tartara che, mentre la stava lavando nelle acque del Volga, perse una padella d’oro proprio nel punto dove poi sorse la città. Nel 1805 Kazan’ era una remota città di provincia, lontanissima da Mosca, sede della prima università russa fondata da Lomonosov, e ancora più lontana da San Pietroburgo e dalla sua Accademia, nella quale il meglio della scienza europea e dell’illuminismo sia tedesco che francese avevano già messo radici e dato frutti rigogliosi con il lavoro dei grandi matematici Bernoulli ed Eulero, dello storico Gerhard Mueller e con l’associazione a membri corri-
32 Il fascino oscuro dell’inflazione
spondenti quali Voltaire e Diderot, per menzionare solo alcuni fra i nomi più prestigiosi che si potrebbero elencare. Nonostante questa sua lontananza dai centri della cultura e della scienza europea, il governo imperiale russo, desideroso di promuovere lo sviluppo economico di tutto il bacino del Volga, aveva prescelto Kazan’ per fondarvi una nuova università e, seguendo l’esempio di Caterina la Grande, vi aveva chiamato come docenti numerosi professori tedeschi. Tra essi vi erano l’astronomo Littrow, successivamente direttore dell’Osservatorio di Vienna e Martin Bartels (1769-1833), matematico di vaglia e amico di Gauss, con il quale egli era in abituale corrispondenza. Nel 1807, due anni dopo la fondazione dell’Università di Kazan’, uno dei primi a iscriversi ai suoi corsi fu Nicolai Ivanovich Lobachevskij, che vi entrò all’età di quattordici anni e vi passò i successivi quaranta della sua vita, dapprima come studente, poi come professore assistente, successivamente come professore ordinario e infine come rettore. Orfano del padre, che era un piccolo funzionario statale morto nel 1800 quando egli aveva solo sette anni, Nicolai Ivanovich proveniva da una famiglia poverissima. La madre, Praskovia Aleksandrovna, rimasta vedova e indigente con tre piccoli figli a carico, si era trasferita a Kazan’, dove Nicolai e i suoi due fratelli avevano potuto frequentare il Gymnasium grazie a una borsa di studio statale. Entrato all’università grazie al magro sostegno finanziario
Fig. 13. Nicolai Ivanovich Lobachevskij (1793-1856)
33 2 Che cos’è la gravità?
del governo, Lobachevskij fu molto apprezzato e amato dai suoi professori tedeschi e fece una carriera fulminea. Diploma di laurea a diciotto anni nel 1811, professore straordinario a ventun’anni nel 1814 e infine professore ordinario a ventitré anni nel 1816. Uomo di grandi capacità organizzative e con un’instancabile dedizione al lavoro per la sua Università, che egli amava con l’entusiasmo e lo zelo dei pionieri, Nicolai Ivanovich non solo teneva i propri corsi di matematica, ma anche quelli di fisica e astronomia e fu nominato ai tre incarichi contemporanei di Decano della Facoltà, Bibliotecario e Conservatore del Museo Universitario di Storia Naturale. Il museo, privo di fondi per assumere personale o acquistare attrezzature, aveva un patrimonio non trascurabile di materiale di interesse che giaceva accatastato in completo disordine. In questa situazione, Lobachevskij non si perse d’animo e fece tutto da sè, catalogando, spolverando, incasellando e costruendo anche scaffali e mobili quando necessario. Nel 1827 il governo imperiale, grato a Nicolai Ivanovich Lobachevskij per i suoi servigi, lo nominò rettore dell’Università di Kazan’, del cui governo egli si occupò con straordinario ardore per i successivi diciannove anni. Nonostante la dignità della sua carica, Lobachevskij continuò a occuparsi personalmente delle pulizie della biblioteca e del museo tanto che un giorno, scambiandolo per un inserviente, un visitatore straniero gli diede una mancia che il rettore-bidello rifiutò con un incontenibile sdegno. Dopo l’incendio del 1842 che distrusse metà della città e anche molti degli edifici universitari, l’energico rettore riuscì a far ricostruire ogni cosa in soli due anni. Similmente durante l’epidemia di colera che divampò nel 1830, mentre il clero ortodosso riuniva nelle chiese tutta la popolazione a pregare per la salvezza divina e contribuiva così a una diffusione sempre più virulenta del morbo, Lobachevskij riuscì a salvare quasi tutti i membri della facoltà e gli studenti, facendoli trasferire con le loro famiglie dentro l’università, che fu completamente sigillata al contatto con l’esterno e nella quale si adottarono rigorose misure igieniche. Nonostante il pesante carico amministrativo, Lobachevskij continuò a insegnare una varietà di argomenti differenti come meccanica, idrodinamica, integrazione, equazioni differenziali, calcolo delle variazioni e fisica matematica. Trovò anche il tempo di dare lezioni di fisica al pubblico generale negli anni 1838-40, ma il duro lavoro rovinò completamente la sua salute.
34 Il fascino oscuro dell’inflazione
Nel 1846, senza alcuna spiegazione, un ukas del governo imperiale lo rimosse dalla carica di rettore e anche dal ruolo di professore, collocandolo prematuramente a riposo. Profondamente amareggiato da questo segno di ingratitudine e di sfiducia nei suoi confronti, Lobachevskij si ritirò a una vita privata che fu segnata da ulteriori disgrazie. Nonostante avesse sposato una giovanissima moglie abbastanza ricca che gli diede sette figli, egli non seppe amministrare la tenuta comperata con la dote e si rovinò finanziariamente, anche perché aveva anticipato molto denaro personale per rifornire di libri la biblioteca dell’università e di attrezzature i suoi laboratori. La sua salute peggiorò sensibilmente e si compromise del tutto, quando il lutto lo colpì con la morte del figlio maggiore. Nel giro di qualche anno egli divenne completamente cieco e morì nel 1856, in una povertà uguale a quella in cui era nato, ignorato, emarginato e senza alcuna nozione della fama e dell’importanza che le sue grandi scoperte matematiche avrebbero avuto negli anni successivi. Come, con una simile vita di amministratore e di docente oberato da impegni e da oneri, Lobachevskij abbia trovato il tempo e le energie per dedicarsi alla ricerca rimane un mistero insoluto, ma è un fatto! Il suo interesse per la geometria nacque probabilmente dalle lezioni di Bartels, che egli seguì in gioventù e che sembra fossero basate sui due volumi di l’Histoire des mathématiques di JeanEtienne Montucla, pubblicati postumi a Parigi nel 1799 a cura di Jerome Lalande. L’amicizia tra Gauss e Bartels e il ruolo di quest’ultimo quale insegnante di Lobachevskij ha fatto sorgere una folta serie di speculazioni sulla presunta influenza esercitata da Gauss sul lavoro del matematico russo. Si sa che Gauss confidò la propria scoperta della geometria non-euclidea solo a pochi amici e non la pubblicò per paura delle strida dei Beoti. Si è ritenuto che tra questi confidenti vi fosse anche Bartels e che tramite il proprio insegnante Lobachevskij fosse venuto a conoscenza dei risultati di Gauss. Tutto ciò è stato dimostrato essere storicamente infondato. Con un attento esame di tutta la corrispondenza di Bartels con Gauss, lo storico russo Laptev ha potuto dimostrare che Bartels era in realtà ignaro dei risultati di Gauss sulle geometrie non euclidee. Del resto le Disquisitiones di Gauss furono pubbli-
35 2 Che cos’è la gravità?
cate nel 1828, mentre il più importante lavoro di Lobachevskij scritto in russo con il titolo di Geometrija è del 1823. Esso fu pubblicato nella forma originale soltanto nel 1909. L’11 febbraio del 1826, però, nella sessione del Dipartimento delle Scienze FisicoMatematiche all’Università di Kazan’, Lobachevskij chiese che si ascoltasse il suo lavoro su una nuova geometria e il suo foglio Un conciso elenco dei fondamenti della geometria fu dato agli ascoltatori. In esso veniva analizzata la costruzione assiomatica di una geometria in cui il quinto postulato di Euclide non fosse necessario e si definiva la geometria euclidea come un caso particolare della nuova più generale formulazione. Nonostante gli sforzi dell’instancabile decano, l’anno successivo nominato rettore, era però come predicare in un deserto. A Kazan’ forse non c’erano troppi Beoti post-kantiani, ma di Beoti ordinari l’ambiente era saturo. La comunicazione cadde nell’indifferenza generale e Gauss venne a conoscenza dei risultati di Lobachevskij soltanto nel 1840. Nel 1829, Nicolai Ivanovich riuscì a pubblicare i suoi risultati su un oscuro giornaletto di provincia, il Messagero di Kazan’, ma quando sottopose la sua memoria per pubblicazione all’Accademia di San Pietroburgo, essa fu respinta da Ostrogradskij. Nel 1837, Lobachevskij riuscì finalmente a pubblicare in francese le sue idee in un articolo dal titolo Geometrie Imaginaire e successivamente redasse un sommario dei propri risultati in tedesco. Con il titolo di Geometrische Untersuchungen zur Theorie der Parallellinien, questo sommario fu pubblicato a Berlino nel 1840. Gauss lo lesse e ne fu molto impressionato, ma non lo commentò mai in pubblico o in altri suoi lavori. Una leggenda vuole che il Principe dei matematici affrontasse lo studio del russo al solo scopo di poter leggere i lavori originali di Nicolai Ivanovich, ma ciò è altrettanto infondato quanto gli altri miti che circondano l’opera di Lobachevskij. In realtà Gauss conosceva e leggeva la lingua russa già prima di venire a sapere delle Geometrische Untersuchungen. Ignorato dalla comunità scientifica internazionale e pensionato dal suo governo, nel 1855, un anno prima della sua morte, Lobachevskij partecipò ai festeggiamenti per il cinquantenario della fondazione dell’Università di Kazan’ e in questa occasione presentò ai colleghi la sua opera Pangeometria che riassumeva tutto il suo pensiero geometrico. A causa della propria completa cecità Lo-
36 Il fascino oscuro dell’inflazione
bachevskij aveva dettato l’articolo a uno scrivano. Anche questo, però, rimase lettera morta. Fu soltanto nel 1866, dieci anni dopo la morte di Lobachevskij, che Houel pubblicò una traduzione francese del Geometrische Untersuchungen. Nel 1868, Eugenio Beltrami, a quell’epoca professore di Meccanica Razionale all’Università di Bologna, nella sua memoria più famosa, intitolata Saggio sopra un’interpretazione della geometria non euclidea, fornì una concreta realizzazione della geometria di Lobachevskij e la collegò alla geometria di Riemann. Egli aveva conosciuto personalmente Riemann tre o quattro anni prima, quando occupava la cattedra di geodesia all’Università di Pisa ed era entrato in amicizia con Enrico Betti. A Pisa, già molto malato e vicino alla propria fine, il grande genio tedesco era venuto per curare la propria tisi con il mite clima mediterraneo e per parlare con Betti, per il quale egli nutriva una grandissima deferenza.
Fig. 14. La pseudosfera, superficie a curvatura costante negativa sulla quale le geodetiche realizzano la geometria di Lobachevskij, come dimostrò il matematico Eugenio Beltrami (1836-1900), professore a Bologna, Pisa, Pavia e Roma. Beltrami è noto per la sua generalizzazione dell’operatore di Laplace agli spazi curvi
37
Un tripletto tutto italiano inventa il Calcolo Tensoriale Gregorio Ricci Curbastro era il rampollo di una famiglia nobile di Lugo di Romagna. Sulla casa dove egli nacque si legge oggi la seguente iscrizione: Diede alla scienza il calcolo differenziale assoluto, strumento indispensabile per la teoria della relatività generale, visione nuova dell’universo. Nato nel 1853 iniziò gli studi all’Università di Roma, ma li continuò alla Scuola Normale di Pisa e li terminò a Padova, dove si laureò nel 1875. Come il suo più giovane amico Luigi Bianchi, nato a Parma nel 1865 e anch’egli allievo della Normale, negli anni pisani Ricci fu profondamente influenzato dall’insegnamento di Ulisse Dini e di Enrico Betti, uno dei padri della moderrna topologia. Attraverso Betti e la Normale di Pisa, sia Ricci che Bianchi raccolsero il seme della geometria differenziale piantato da Riemann. Dopo la laurea, Ricci ebbe una borsa di studio a Monaco di Baviera, dove venne in contatto con la nuova concezione della geometria di Felix Klein, basata sulla classificazione delle simmetrie e sulla teoria dei gruppi continui, vigorosamente sviluppata da Sophus Lie. Queste idee ebbero un’analoga profonda influenza anche su Bianchi. Divenuto professore ordinario dell’Università di Padova nel 1880, Ricci vi ebbe come allievo Tullio Levi Civita, nato in quella stessa città nel 1873. Ricci, Bianchi e Levi-Civita costruirono il
2 Che cos’è la gravità?
La realizzazione della geometria di Lobachevskij data da Beltrami si serve di una pseudosfera, superficie generata per rivoluzione di una trattrice intorno al suo asintoto. Weierstrass condusse un seminario sulla geometria di Lobachevskij nel 1870, che fu frequentato da Klein e, due anni dopo, nel celebre Programma di Erlangen, Klein produsse la sua visione generale della geometria come l’insieme delle proprietà che sono invarianti sotto l’azione di un definito gruppo di trasformazioni. Nel 1882 Poincaré costruì la rappresentazione della geometria di Lobachevskij data dal piano iperbolico che abbiamo già discusso.
38 Il fascino oscuro dell’inflazione Fig. 15. I fondatori del calcolo differenziale assoluto e del calcolo tensoriale
linguaggio matematico in cui la teoria della Relatività Generale avrebbe potuto successivamente essere formulata, che è anche il linguaggio della geometria differenziale moderna in tutte le sue moltissime applicazioni presenti nella scienza contemporanea. Tale linguaggio è il calcolo tensoriale, i cui oggetti sono enti che trasformano da un sistema di riferimento all’altro in maniera universalmente predeterminata dalla loro struttura. Il tensore di Ricci, che è un derivato del tensore di curvatura di Riemann, introdotto solo in maniera descrittiva dallo sfortunato genio tedesco nelle Hypothesen, è l’oggetto primario, tramite il quale si costruisce il membro di sinistra delle equazioni di campo della Relatività Generale. La precisa forma di questo fu poi determinata da Einstein grazie a delle cruciali identità che portano il no-
39 2 Che cos’è la gravità?
Fig. 16. Il trasporto parallelo in spazi piatti e curvi
me di Bianchi. Ricci morì a Bologna nel 1925, circondato dal rispetto e dalla stima dei suoi concittadini. Luigi Bianchi morì poco dopo nel 1928, illustre professore della Scuola Normale e fu sepolto nel cimitero monumentale in Piazza dei Miracoli. Tullio Levi Civita, invece, che era professore all’Università la Sapienza di Roma, ebbe a soffrire l’allontanamento dalla cattedra in forza delle leggi raziali del fascismo e morì di amarezza nel 1941. Il concetto fondamentale attorno al quale la geometria differenziale venne costruita è quello di trasporto parallelo. Per definizione un vettore, che è la denominazione matematica di un segmento orientato, è trasportato parallelamente lungo una curva se il suo estremo viene trascinato con continuità lungo tale curva in maniera tale che l’angolo tra il vettore e la tangente alla curva si mantenga costante durante tutto il trascinamento. Ci si può ora chiedere quale sia la differenza intrinseca tra uno spazio piatto, come il piano, e uno curvo, come la superficie di una sfera.
40 xp1
Il fascino oscuro dell’inflazione
xp2
θ
θ p1
λ(t) p2
In uno spazio curvo, trasportando parallelamente un vettore lungo una curva chiusa, quando esso torna al punto di partenza si trova ruotato di un angolo
x y θ
y x
Fig. 17. Il trasporto parallelo su curve chiuse e il tensore di curvatura
Se lo spazio è piatto, qualunque sia la curva lungo la quale noi trasportiamo parallelamente un vettore, esso non cambia direzione e in particolare, se la curva è chiusa, quando torniamo al punto di partenza il vettore trasportato si sovrappone alla propria immagine prima del trasporto, senza alcun cambiamento. Diversa è la situazione in uno spazio curvo, per esempio su una sfera. Durante tutto il trasporto il vettore cambia progressivamente direzione e al suo ritorno al punto di partenza, dopo aver percorso un laccio, esso forma un ben preciso angolo θ con la propria immagine prima del trasporto. Questo angolo dipende dal punto di base e dal laccio considerato. Detto in parole povere il tensore di Riemann Rμνσ (g) è un oggetto matematico che fornisce la regola per calcolare l’angolo θ prodotto dal trascinamento lungo un qualsivoglia laccio.
41
Le equazioni di Einstein Le equazioni di Einstein del campo gravitazionale, presentate nel suo fondamentale lavoro del dicembre 1915, dopo un’elaborazione quasi decennale a cui non fu estraneo il contributo dei tre grandi italiani, realizzano in maniera compiuta l’idea che la geometria dello spazio tempo sia determinata dal suo contenuto energetico e sono usualmente presentate nella forma seguente: 1 Rμν − gμν R = 4πGTμν 2
(2.5)
dove Rμν (g) è il tensore di Ricci della metrica gμν , ed R(g) = gμν Rμν è la traccia del tensore di Ricci, detto scalare di curvatura. Sul lato destro dell’equazione, ciò che moltiplica la costante di Newton G (con il coefficiente 4π ) è il cosiddetto tensore energia-impulso Tμν che codifica il contenuto di massa ed energia della materia. Einstein impiegò molti anni a trovare la giusta combinazione che costituisce il membro di sinistra delle equazioni di campo e, come ho già ricordato, fu aiutato in questo sia dalle identità scoperte da Bianchi, che da importanti conversazioni con Ricci che egli venne appositamente a trovare in Italia. Le equazioni di campo (2.5) sono equazioni differenziali per la metrica e, immediatamente dopo la pubblicazione del lavoro di Einstein, iniziò la caccia alle loro possibili soluzioni. Queste ultime sono caratterizzate dalla scelta delle loro simmetrie che codificano differenti situazioni fisiche. Già nella primavera del 1916 lo sfortunato Schwarzschild trovò la soluzione statica (indipendente dal tempo) e a simmetria sferica che descrive il campo gravitazionale di una stella o di un pianeta. Qualche anno dopo Lemaître e Friedman, seguiti da Robertson e Walker ricavarano le soluzioni dipendenti dal tempo, ma indipendenti dallo spazio che descrivono la geometria dell’Universo a grande scala. Con queste soluzioni nacque la cosmologia moderna e si scoprì l’evoluzione dell’Universo.
2 Che cos’è la gravità?
Il tensore di Riemann dipende naturalmente dalla metrica g e si esprime attraverso le sue derivate prime e seconde.
3 L’Universo è un sistema dinamico
Einstein un giorno disse: La cosa più incomprensibile a proposito dell’Universo è che esso sia comprensibile. In effetti la sua teoria della Relatività Generale si dimostrò essere il quadro concettuale in cui, per la prima volta nella storia del pensiero umano, le domande a proposito della struttura su grande scala dell’Universo visibile poterono essere formulate in maniera algoritmica, ottenendo risposte e predizioni. Tali risposte sorpresero e, in una certa misura, delusero lo stesso Einstein, la cui impostazione filosofica di fondo è testimoniata dalle sue frequenti dichiarazioni di fede nel Dio di Spinoza, un Dio cioè, che rivela se stesso nell’armonia di tutto l’esistente. Il Dio di Spinoza e di Einstein è superpersonale e ben diverso dalla Divinità personalizzata delle religioni rivelate: non possiede una psicologia umana, è del tutto ortogonale alla nozione di Provvidenza Divina, modellata sui desideri egoistici della specie umana, ma neppure, come Einstein soleva dire, gioca a dadi. Questa celebre frase spiega la profonda avversione del grande scienziato per l’interpretazione probabilistica della meccanica quantistica e gli sforzi di tutta la sua vita per evaderla. Inoltre il Dio di Einstein e di Spinoza è infinito ed eterno e per questo del tutto incompatibile con l’idea della creatio ex nihilo, cioè della creazione dal nulla. L’Universo caro ad Einstein era quindi un universo statico ed eterno. Ironicamente le equazioni della sua teoria condussero a soluzioni in cui l’Universo è in espansione e comunque soggetto a evoluzione. E questo fu ciò che i dati osservativi, a partire dal 1929, rivelarono in maniera sempre più chiara e probante.
44 Il fascino oscuro dell’inflazione
Oggi noi sappiamo che l’Universo è un sistema dinamico in continua, complessa e turbinosa evoluzione. Si tratta di un luogo tutt’altro che armonioso, ma caratterizzato piuttosto da fenomeni violenti e catastrofici, in cui vanno in scena esplosioni, collassi gravitazionali, collisioni di galassie e continui giganteschi spostamenti di energia che ne rimodellano la struttura, mentre perdura un’espansione accelerata a partire da uno stato iniziale di densità infinita, con le caratteristiche esattamente di una creatio ex nihilo, disordinata e probabilmente stocastica. A un giornalista che lo intervistava sui rapporti tra scienza e fede religiosa, Steven Weinberg, insignito insieme a Glashow e Salam del premio Nobel 1979 per la teoria elettro-debole, dichiarò quanto segue: Osservando la natura, nel passato, l’impressione di essere dinanzi ad un progetto doveva essere enorme. La Terra è un luogo così confortevole e piacevole, e tutte le cose funzionano così bene. Tuttavia, a mano a mano che apprendiamo più cose sull’universo, esso non sembra più un luogo così amichevole, e noi risultiamo essere i vincitori in una lotteria cosmica. Weinberg, di origini ebraiche come Einstein e Spinoza, si dichiara ateo, così come una grande parte degli scienziati contemporanei. Un’altra parte, altrettanto grande, trova nella propria coscienza una compatibilità tra la fede religiosa e la scienza. Tutti però concordano nell’avere come guida del proprio pensiero la logica matematica e le soluzioni correttamente trovate di equazioni elegantemente e ben formulate.
L’Universo si espande Ripercorriamo il cammino storico attraverso il quale la visione di un Universo dinamico in costante espansione ha sostituito la visione aristotelica di un mondo statico ed eterno.
Hubble, le Galassie e il Grande Dibattito Edwin Hubble nacque nel 1889 a Marshfield nel Missouri; suo padre era un avvocato ed Edwin fu il quinto di sette fratelli. Alto più di un metro e novanta, egli aveva un fisico atletico e nel corso
45
della sua vita praticò molti sport a un livello quasi professionale: salto con l’asta, lancio del disco, corsa a ostacoli, basket e pugilato. L’astronomia fu una sua passione fin dalla prima gioventù, ma la scelta della propria professione fu per Edwin Hubble una decisione alquanto sofferta. Dapprima frequentò l’Università di Chicago, dove si dedicò prevalentemente alle attività sportive, come già un secolo fa capitava a molti studenti delle università americane. Nel 1910, avendo vinto una prestigiosa borsa di studio, si recò in Inghilterra dove studiò giurisprudenza all’Università di Oxford. Evidentemente il giovane Hubble si era orientato a seguire le orme paterne e diventare un legale per le compagnie assicurative. Però, quando tornò in America dopo il conseguimento della laurea, Edwin non perseguì la professione forense e si dedicò piuttosto all’insegnamento secondario in una scuola del Kentucky. Dopo un anno, Hubble dismise anche i panni dell’insegnante e, trasferitosi nello stato dell’Indiana, si guadagnò da vivere come allenatore di una squadra di basket. Nel 1914, cedendo alla sua prima passione, lasciò la panchina del coach e ritornò all’Università di Chicago dove studiò astronomia. Nel 1917 ottenne il dottorato in questa disciplina presentando una tesi dal titolo Photographic Investigations of Faint Nebulae, cioè Indagini Fotografiche delle Nebulose Tenui. In essa il candidato giungeva alla conclusione che le nebulose a spirale erano oggetti extragalattici. Con questo contributo Hubble interveniva nella questione più fondamentale dell’Astronomia, che aveva appassionato tutti gli
3 L’Universo è un sistema dinamico
Fig. 1. L’astronomo americano Edwin Hubble (1889-1953)
46 Il fascino oscuro dell’inflazione
studiosi da ormai più di un secolo e che sarebbe culminata tre anni più tardi nel celebre Great Debate del 26 Aprile 1920 tra Harlow Shapley ed Herber Curtis di fronte alla National Academy of Sciences. La domanda alla base del Great Debate è della massima rilevanza e si può sintetizzare nel seguente interrogativo: quanto è effettivamente grande il cosmo e quale è la sua struttura a grande scala? È infatti corretto affermare che la reale vastità dell’Universo è stata enormemente sottostimata in tutto il corso della storia umana e che lo era ancora nelle prime decadi del XX secolo, benché alcuni indizi della verità fossero già stati raccolti. Per gli antichi, il mondo era essenzialmente costituito dal Sole e dai Pianeti, cioè dal sistema solare, che si immaginava circondato dalla sfera delle stelle fisse, sulla cui natura le idee furono sempre estremamente vaghe. Quando la teoria eliocentrica copernicana soppiantò il sistema geocentrico tolemaico, si creò un problema concettuale la cui soluzione poteva essere data da una sola conclusione: la distanza tra il Sole e le altre stelle è in realtà gigantesca a un livello mai sospettato prima. Se infatti la Terra ruota attorno al Sole e le stelle sono fisse rispetto a quest’ultimo, perché non le vediamo spostarsi nel cielo e occupare posizioni angolari differenti passando dal solstizio d’inverno a quello d’estate? L’angolo di questo spostamento fu denominato parallasse e ci si rese subito conto che, misurando quest’angolo e conoscendo la distanza della Terra dal Sole, si sarebbe potuta calcolare la distanza della stella osservata. Tuttavia nessuna stella mostrava il predetto moto apparente e fino al 1838 nessun angolo di parallasse stellare era mai stato rilevato. I casi erano due: o il sistema eliocentrico era sbagliato, oppure le stelle erano talmente distanti dal Sole che gli angoli di parallasse ne risultavano così piccoli da essere inferiori alla risoluzione degli strumenti a disposizione. All’inizio del secolo XIX nessuno poteva dubitare della correttezza del sistema copernicano, spiegato dalla legge di Newton e verificato da oltre un secolo di calcolo delle perturbazioni delle orbite planetarie. Dunque le stelle erano lontanissime, ma quanto lontane lo si sarebbe potuto sapere soltanto se almeno un angolo di parallasse, per quanto minuto, fosse stato misurato.
47 3 L’Universo è un sistema dinamico Fig. 2. L’angolo di parallasse è l’ampiezza angolare del moto apparente di una stella dovuto al moto reale della Terra attorno al Sole. La prima parallasse a essere misurata sperimentalmente fu quella della stella 61 Cygni nella costellazione del Cigno. Nel 1838 Bessel la stimò in 0,314 secondi d’arco
La misura finalmente venne a opera di Friedrich Wilhelm Bessel, l’astronomo e matematico tedesco, il cui nome è associato a una delle classi più importanti di funzioni speciali dell’analisi1 . Nel 1838 egli riuscì a determinare la parallasse della stella 61 Cigny nella misura di 0,314 secondi d’arco, che ne fissa la distanza in 11,4 anni luce dal Sole. Si venne così a sapere che una delle stelle più vicine a noi, tanto vicina da poterne stimare la parallasse, dista non meno di 100 miliardi di chilometri. Questo fu il primo gradino della scala a pioli sulla quale l’Umanità cominciò ad arrampicarsi per stimare le effettive dimensioni dell’Universo visibile. Lo stesso anno Friedrich Georg Wilhelm von Struve e Thomas Henderson misurarono la parallasse di Vega e di Alpha Centauri. Nel frattempo era iniziata la scoperta delle nebulose e la discus1 Le funzioni di Bessel, denotate usualmente J (z), sono le soluzioni dell’equazioν
ne differenziale di Bessel e compaiono nella soluzione di tutti i problemi di fisica matematica che hanno simmetria cilindrica.
48 Il fascino oscuro dell’inflazione
sione sulla loro natura, nonché sulla natura della Via Lattea, da sempre nota all’uomo. Abbiamo visto come la concezione kantiana della geometria euclidea, quale una necessaria rappresentazione a priori, posta a fondamento di tutte le intuizioni esterne, avesse costituito un freno allo sviluppo della geometria non-euclidea. Da questo punto di vista Immanuel Kant è dunque responsabile di aver ostruito la via verso la comprensione dell’Universo con un pesante ostacolo concettuale. Da un altro punto di vista, bisogna invece riconoscere che lo stesso Kant fu un illuminato anticipatore di una visione realistica del cosmo che, ancora nel 1920, non era stabilita con certezza e che fu posta su basi certe solo dal lavoro di Edwin Hubble. Nella sua opera giovanile del 1755 intitolata Allgemeine Naturgeschichte und Theorie des Himmels, cioè Storia Universale della Natura e Teoria del Cielo, Kant fu il primo a esporre la cosidetta teoria degli Universi-isola e l’interpretazione della Via Lattea come un vasto ammasso di stelle che forma un disco piano, pressoché circolare. Le nebulae che si vedono disperse sulla volta celeste, affermò Kant, consistono di simili ammassi di stelle, organizzate in un ordine analogo a quello della Via Lattea. Ciò che aveva colpito il giovane filosofo era la forma ellittica attribuita ad alcune delle nebulae. Questo lo condusse a ipotizzare che le nebulose fossero dei gigan-
Fig. 3. Immanuel Kant (1724-1804)
49
due cose, più rifletto su di esse, riempiono la mia mente con sempre nuovo e crescente stupore e ammirazione: il cielo stellato sopra di me e la legge morale dentro di me. Nonostante l’audace e anticipatrice intuizione di Kant e nonostante la massa di dati sulle nebulae, accumulati in oltre centocinquanta anni di osservazioni astronomiche, iniziate con gli studi di Sir Willian Herschel2 , la teoria degli universi-isola era ancora un’ipotesi accettata soltanto da alcuni e avversata da altri nel 1920. Il 26 Aprile di quell’anno, di fronte alla National Academy, Harlow Shapley, che era nato nel 1885 nel Misssouri e deteneva all’epoca una posizione permanente all’Osservatorio di Mount Wilson, sostenne che il sistema galattico, cioè la Via Lattea, ha una dimensione radiale di circa 300.000 anni luce e che vi è evidenza contro la visione, secondo la quale, le spirali sono galassie composte di stelle come la nostra. . . Infatti le spirali non sono affatto composte di tipiche stelle, ma sono veramente oggetti nebulosi (nubi di gas). 2 Nato nel 1738 ad Hannover e morto nel 1822 in Inghilterra, Sir William Herschel è il padre dell’astronomia moderna. Figlio d’un musicista della guardia militare, quando il reggimento del padre visitò l’Inghilterra nel 1755, il giovane Herschel iniziò a imparare l’inglese. Trasferitosi definitivamente nel paese di cui la famiglia principesca del suo piccolo stato natale tedesco era divenuta la casa regnante, il futuro Sir William perseguì una carriera musicale come insegnante, esecutore e organista. Fu anche compositore e le sue opere sono degne di considerazione. Il suo interesse per l’astronomia lo portò però a essere il primo costruttore di grandi telescopi e a fare alcune scoperte sensazionali che gli conquistarono fama mondiale. Aiutato nelle sue imprese astronomiche dalla sorella Carolina, egli scoprì il pianeta Urano. Studiò a lungo e catologò le nebulae di cui compilò una lista di oltre 1500. Il suo telescopio gigante con un’apertura di 48 pollici fu realizzato nel 1788 con fondi della corona britannica e rimase fino al 1840 il più grande del mondo. Nel 1816, William Herschel fu nominato baronetto e nel 1821 fu eletto primo presidente della Royal Astronomical Society.
3 L’Universo è un sistema dinamico
teschi dischi di stelle, che appaiono ellittici se visti sotto un angolo diverso da zero. In altre parole Kant intuì per primo l’esistenza delle galassie e identificò la Via Lattea come la galassia a cui appartiene il sistema solare. L’interesse di Kant per l’astronomia è testimoniato dall’iscrizione che egli volle incisa sulla propria tomba e che è tratta dalla Critica della Ragion Pratica:
50 Shapley concludeva però dicendo che Il fascino oscuro dell’inflazione
anche se le spirali non sono nuove galassie, (bensì nubi all’interno della Via Lattea), altrove potrebbero esistere altri sistemi stellari uguali od anche più grandi del nostro, finora non identificati e probabilmente a distanze talmente grandi da essere inaccessibili ai presenti sistemi ottici di misura. In altre parole la valutazione delle dimensioni dell’Universo, implicita nel ragionamento di Shapley, era che esse avrebbero potuto essere forse quelle della Via Lattea, cioè dell’ordine del centinaio di migliaia di anni luce, così come immensamente più grandi, ma che per il momento non vi era alcuna possibilità sperimentale di stimarle. Lo stesso giorno e davanti alla stessa assemblea scientifica, Herber Curtis, di tredici anni più anziano di Shapley e da poco divenuto direttore dell’Osservatorio di Pittsburgh in Pensylvania, sostenne una tesi diametralmente opposta. Nelle sue conclusioni egli diceva testualmente: Pertanto io mantengo le seguenti opinioni, che la galassia è probabilmente non più vasta di 30.000 anni luce di diametro, che le spirali non sono oggetti intra-galattici, ma universi-isola analoghi alla nostra galassia e che questo fatto indica un universo molto più grande, in cui noi possiamo spingere lo sguardo a distanze da dieci milioni a cento milioni di anni luce. Con il suo ragionamento Curtis aveva ampliato di un fattore mille la dimensione del cosmo, rispetto alla stima cautelativa di Shapley. Nella stessa decade, l’Universo visibile sarebbe stato ampliato di un ulteriore fattore 100, arrivando alla decina di miliardi di anni luce. Entrambi, Shapley e Curtis, morti rispettivamente nel 1972 e nel 1942, sarebbero stati testimoni, negli anni successivi al 1920, dei risultati di Hubble che da una parte confermavano la tesi di Curtis sugli universi-isola e, dall’altra, davano per la prima volta non solo una stima delle dimensioni dell’Universo, ma anche della sua età. Nel 1923 Hubble riuscì a ingrandire le immagini delle galassie M31 e M33, rispettivamente note come galassia di Andromeda e
51 3 L’Universo è un sistema dinamico Fig. 4. Le galassie M31 e M33, note anche come galassia di Andromeda e galassia del Triangolo, sono insieme alla Via Lattea i costituenti principali del gruppo locale, composto da queste tre spirali giganti più un paio di dozzine di galassie più piccole
del Triangolo. Il 6 Ottobre 1923 riuscì a rivelare una stella variabile all’interno di Andromeda e nel giro di qualche mese, il mancato avvocato, mancato maestro elementare e mancato allenatore di basket, aveva individuato un numero congruo di cefeidi sia in Andromeda che nel Triangolo. Divenuto astronomo, il giovane Hubble aveva già ottenuto risultati tali da conquistarsi una fama imperitura nella storia di questa disciplina, aprendosi la porta a diventare il padre della cosmologia moderna. La sua scoperta, infatti, chiariva definitiva-
52 Il fascino oscuro dell’inflazione
mente la questione degli universi-Isola. Le spirali non sono oggetti nebulosi galattici, come Shapley sosteneva ancora tre anni prima, bensì, in accordo con le ipotesi di Curtis, esse sono altre galassie, formate, come la Via Lattea, da miliardi di stelle tipiche. Non solo, ma in due di queste galassie, Andromeda e Triangolo, Hubble aveva trovato delle candele standard che gli permettevano di misurarne la distanza. Una variabile cefeide è un membro di una particolare classe di stelle variabili, notevoli per una correlazione molto stretta tra il loro periodo di variabilità e la luminosità stellare assoluta. In pratica si tratta di una stella pulsante, che passa ciclicamente da un massimo a un minimo di luminosità in un periodo P, la cui ampiezza è funzione della magnitudine assoluta della stella. Misurare il periodo significa quindi misurare la magnitudine assoluta, che confrontata con quella apparente, determina la distanza dell’oggetto osservato.
Fig. 5. Henrietta Leavitt (1868-1921) era completamente sorda, ma ciò nonostante fu una delle prime donne a conseguire una carriera scientifica nelle scienze astronomiche. Diplomatasi al Radcliffe College, un’istituzione collegata all’Università di Harvard, fu assunta dall’Osservatorio di Harvard come donnacomputer, cioè come risorsa umana per quei calcoli che a quel tempo, in assenza di computer, dovevano essere eseguiti manualmente. Nel 1912 fece la sua grande scoperta sulle cefeidi. Morì di cancro nel 1921. Proposta da Mittag-Leffer per il premio Nobel, non poté conseguirlo perché ciò avveniva quattro anni dopo la sua morte
53
Fig. 6. La legge empirica delle cefeidi determinata da Henrietta Leavitt. La luminosità assoluta L della stella cresce con il periodo P espresso in giorni, secondo una curva del tipo L = P1,124 . Sotto il grafico la Piccola Nube di Magellano in cui nel 1912 Henrietta Leavitt scoprì 25 cefeidi. La Grande e Piccola Nube di Magellano sono in realtà due galassie nane, satelliti della nostra Galassia, la Via Lattea. Sono visibili a occhio nudo solo nel cielo australe e furono viste da Magellano nel suo famoso viaggio del 1519
3 L’Universo è un sistema dinamico
Nel 1912 Henrietta Leavitt, dell’Osservatorio astronomico di Harvard, scoprì 25 cefeidi all’interno della Piccola Nube di Magellano. Di ciascuna di queste stelle pulsanti, Henrietta determinò
54 Il fascino oscuro dell’inflazione
il periodo. Si accorse a quel punto che più il periodo era lungo, più la stella era luminosa, in accordo con una precisa relazione analitica che determinò empiricamente. Nessuno aveva notato precedentemente tale relazione per mancanza di informazioni sulla magnitudine assoluta delle cefeidi osservate. Le cefeidi nella Piccola Nube di Magellano potevano però considerarsi essenzialmente tutte alla stessa distanza, poiché le loro distanze relative sono assolutamente trascurabili rispetto alla distanza complessiva della Nube da noi. Dunque, benché le magnitudini assolute delle 25 stelle fossero ignote, i loro rapporti potevano considerarsi uguali a quelli delle loro magnitudini apparenti e la Leavitt fu in grado di disegnare la curva periodo-luminosità. Successivamente, determinando l’esatta distanza di alcune cefeidi vicine, questo tipo di stelle fu trasformato in un prezioso sistema di candele standard. Nel 1913 Hertzsprung stabilì infatti che una cefeide con un periodo di 6,6 giorni aveva una magnitudine assoluta di +2,3 e, in base a questo risultato, sulla curva della Leavitt, determinò la magnitudine assoluta di tutte le cefeidi. Il valore 6,6 di Hertzsprung fu corretto qualche anno dopo dallo stesso Shapley in 5,96, che non era ancora il valore del tutto esatto, ma a parte questi piccoli aggiustamenti, il nuovo metodo di misura delle distanze era stabilito e l’umanità aveva salito un nuovo gradino nella scala a pioli verso lo scrutamento delle profondità cosmiche. Avendo trovato delle candele standard nelle due spirali di Andromeda e del Triangolo, Hubble fu in grado di determinarne le distanze. Come oggi sappiamo, esse sarebbero dovute risultare di 2,5 e di 2,81 milioni di anni luce, rispettivamente. Il calcolo di Hubble diede dei valori dello stesso ordine di grandezza, ma inferiori per un fattore di circa due. Responsabile di questa sottostima era la determinazione inesatta della normalizzazione assoluta della curva luminosità-periodo delle cefeidi, effettuata da Shapley nel 1916. In ogni caso le idee di Curtis erano confermate. Le spirali non sono oggetti-galattici, bensì altre galassie simili alla nostra e le più vicine distano da noi milioni di anni luce. È interessante e curiosa la storia di come si arrivò alla pubblicazione ufficiale del risultato di Hubble. Notizia di esso si era già sparsa nella comunità scientifica durante l’anno 1924 e ne erano
55 3 L’Universo è un sistema dinamico
Fig. 7. Il concetto di candela standard
venuti al corrente Curtis, Shapley, Russell3 e altri; Hubble, però, esitava ancora a pubblicare la sua scoperta, in quanto le conseguenze di questa erano in contrasto con gli studi sulle velocità rotazionali delle spirali, effettuate dal collega di Mount Wilson Adriaan van Maanee, e inoltre anche con le conclusioni di Shapley. Il giorno di Capodanno del 1925 ebbe inizio a Wahington una conferenza dell’American Astronomical Society. Quella sera Joel Stebbins dell’Università del Wisconsin andò a cena con Henry Russell e questi chiese al suo collega se Hubble avesse presentato un lavoro al congresso. La risposta di Stebbins fu negativa. Allora Russell esclamò: È assolutamente un asino! Con mille buoni dollari pronti per lui, egli rifiuta di ritirarli. Così dicendo Russell si riferiva al premio predisposto dall’American Astronomical Society per il miglior articolo presentato al congres3 Il Russell a cui si fa qui riferimento non è il filosofo Bertrand Russell, bensì l’astronomo Henry Norris Russell dell’Università di Princeton, colui, cioè, che, insieme a Ejnar Hertzsprung, è responsabile di aver determinato nel 1913 il celebre diagramma che classifica le stelle, correlando la loro magnitudine assoluta rispetto al loro tipo spettrale, cioè la loro luminosità assoluta con la loro temperatura superficiale. Più alta è la temperatura, cioè più blu è la stella, più grande è la sua luminosità, cioè maggiore è la sua massa totale.
56 Il fascino oscuro dell’inflazione
so, che alla fine fu proprio attribuito ad Hubble ex aequo con un altro ignoto lavoro dimenticato dalla storia. Finita la cena Russell decise di telegrafare ad Hubble per sollecitarlo a sottomettere il suo risultato al congresso. L’idea di Russell era che il suo giovane amico scrivesse rapidamente i punti essenziali del proprio risultato in una lettera da spedirgli con la posta notturna. In questo modo lo stesso Russell avrebbe potuto trasformare tale informazione in un articolo da presentare a nome di Hubble al congresso, prima che esso avesse termine. Lasciando il loro albergo per andare all’ufficio del telegrafo, Russell e Stebbins furono fermati dal portiere che aveva un plico appena giunto per posta, indirizzato al nome di Russell. Il mittente del plico era proprio Hubble ed esso conteneva, pronto per la sottomissione al congresso, l’articolo con l’annuncio del risultato. Così quella stessa sera Russell fece ritorno nella lobby principale dell’albergo, dove i congressisti erano ancora riuniti a conversare, e presentò la comunicazione ufficiale del lavoro di Hubble. In quell’articolo Hubble utilizzava non meno di 22 cefeidi in M33 e di 12 cefeidi in M31 per calcolarne la distanza nella misura che si è detto sopra. La teoria di Kant degli universi-isola era divenuta una verità osservativa ed erano ufficialmente nate le galassie. Si sapeva ora che l’Universo era composto da un numero ignoto, ma probabilmente grandissimo, di galassie e che le distanze tra di esse erano almeno dell’ordine del milione di anni luce.
La legge di Hubble La più importante scoperta del novecento, che diede inizio alla cosmologia moderna e trasformò questa da speculazione metafisica in scienza osservativa e sperimentale, è la legge di Hubble sulla recessione universale delle galassie. Già nel 1914 Slipher aveva misurato le velocità radiali di 13 nebulae spirali, trovando con sorpresa che esse erano tutte recessionali e abbastanza grandi. In altre parole le nebulae sembravano allontanarsi velocemente da noi. Quando nel 1925 era apparso il risultato di Hubble su M31 ed M33, Slipher aveva già misurato le velocità radiali di ben 39 galassie. Hubble si mise allora al lavoro con il grande riflettore da 100 pollici di Mount Wilson e nel 1929 egli possedeva dati per le velocità radiali di 46 galassie, per 24 delle quali era anche riuscito
57 3 L’Universo è un sistema dinamico
Fig. 8. La legge di recessione universale delle galassie
a determinare la distanza utilizzando le cefeidi, le stelle blu e le novae. Mettendo insieme tutti i propri dati, Hubble scoprì una relazione tanto semplice quanto intrigante. Le velocità radiali delle galassie, una volta sottratto il moto del Sole all’interno della Via Lattea, sono tutte recessionali e proporzionali alla loro distanza. In altre parole tutte le galassie si allontanano da noi con una velocità apparente di recessione che è tanto più grande quanto più esse sono lontane. Così nel 1929, lo stesso anno del disastroso crollo di Wall Street che diede inizio alla Grande Depressione, Hubble formulò la legge lineare per la recessione universale delle galassie. La velocità di recessione è proporzionale alla distanza tramite una costante H0 che da allora in poi fu detta costante di Hubble. La legge di Hubble è il fondamentale dato osservativo che rivela l’espansione dell’Universo. Con il risultato del 1929 del mancato avvocato e dimissionario allenatore di basket, le cui doti atletiche erano poste anche al servizio dell’astronomia, allorché egli si arrampicava tra gli specchi e le gabbie del suo telescopio, il paradosso di Olbers della notte nera trovava finalmente la sua soluzione ed era finita per sempre la visione aristotelica di un Universo statico ed eterno. Era nata la cosmologia moderna, il cui oggetto di studio è un Universo in costante evoluzione: un sistema fisico complesso e turbolento, la cui
58 Il fascino oscuro dell’inflazione
dinamica a grande scala è dominata dall’interazione gravitazionale, così come interpretata dalla Relatività Generale di Einstein. È però interessante notare che in nessun punto del suo articolo del 1929 Hubble fece alcuna menzione all’espansione dell’universo e nelle decadi successive egli fu alquanto critico e sempre molto cauto nello sposare l’interpretazione della propria legge quale manifestazione dell’espansione cosmica, interpretazione che divenne invece quella adottata da tutta la comunità scientifica. Per esempio, sette anni dopo la sua memorabile scoperta, Hubble scriveva sull’Astrophysical Journal del 1936 (84-517): Se i redshift sono velocity shifts che misurano il ritmo con cui si espande l’Universo, i modelli sono del tutto inconsistenti con le osservazioni – e l’espansione è un’interpretazione forzosa dei risultati sperimentali. In questa sua esitazione ad accettare le conseguenze della propria scoperta, Hubble condivideva ed era influenzato dai dubbi dello stesso Einstein, con il quale ebbe varie occasioni di incontrarsi in California. Einstein infatti non sopportava l’idea di un universo in espansione e tutta la vita cercò una via di uscita alternativa da quelle che erano le predizioni della sua stessa teoria. Le equazioni di Einstein, infatti, non solo sono in accordo con i risultati di Hubble, ma li codificano e li razionalizzano efficacemente. A Georges Lemaître4 , che nel 1927 ottenne indipendentemente da Friedmann, Robertson e Walker quella metrica5 , soluzione 4 Georges Edouard Lemaître (1894-1966), di nazionalità belga, fu allo stesso tempo un sacerdote cattolico e un fisico-matematico. Studiò prima nel collegio gesuita di Charleroi e dopo matematica e scienze fisiche all’Università Cattolica di Louvain. Entrò in seminario nel 1920 e fu ordinato prete nel 1923. In seguito si interessò particolarmente alla teoria della Relatività Generale di Albert Einstein, che incontrò numerose volte. Lavorò quindi all’Osservatorio astronomico di Cambridge in Inghilterra sotto la direzione di Eddington, e quindi al MIT negli USA dove scrisse la sua tesi. Ritornò in Belgio nel 1925, dove fu nominato professore all’Université de Louvain. Vi insegnò fino al 1964. Essenzialmente Lemaître è il padre della Teoria del Big Bang, denominata tale dall’astronomo inglese Fred Hoyle solo nel 1949 nel corso di una trasmissione radiofonica. 5 Parleremo più avanti della metrica di Freedman, Lemaître, Robertson e Walker (FLRW metric), che codifica il cosiddetto Principio Cosmologico e costituisce l’esatto contenuto del modello cosmologico standard.
59
Vos calculs sont corrects, mais votre physique est abominable cioè i vostri calcoli sono corretti, ma la vostra fisica è abominevole. Per evitare queste conclusioni, Einstein introdusse la costante cosmologica Λ, che gli permetteva di ottenere anche soluzioni statiche per la metrica cosmica. Alla fine della sua vita Einstein si adattò a malincuore a ritirare questa nuova costante che tutti i dati osservativi indicavano allora essere nulla. Ironicamente, opportunamente reinterpretata, la costante cosmologica è nient’altro che la manifestazione dell’energia oscura, responsabile non solo per l’espansione cosmica, ma addirittura per la sua accelerazione. Alla luce di questi fatti storici, sia per Hubble che per lo stesso Einstein, trova una sua giustificazione l’esclamazione attribuita alla conpianta cosmologa neozelandese Beatrice Hill Tinsley: anche Cristoforo Colombo non fu immediatamente all’altezza della sua effettiva scoperta.
Il Big Bang Come è stata misurata e può essere verificata la legge di Hubble? Attraverso lo spostamento delle righe spettrali verso il rosso. Per capirci dobbiamo pensare al familiare effetto Doppler delle onde acustiche. Tutti abbiamo fatto esperienza di ciò che avviene quando una autoambulanza passa vicino a noi a sirene spiegate. Quando essa si avvicina a noi, il tono della sirena è più acuto del normale ed è tanto più acuto quanto più grande è la velocità di avvicinamento. Quando invece l’autoambulanza si allontana, il tono della sirena diventa più grave ed è tanto più grave quanto più velocemente se ne va l’ambulanza. Lo stesso avviene per le onde luminose, cioè per i fotoni. Una sorgente luminosa in allontanamento dall’osservatore appare tanto più rossa quanto più grande è la velocità della sorgente. Dunque facendo l’analisi spettrale della luce che proviene da lontane galassie possiamo riconoscere la struttura delle righe spettrali per tutte le varie transizioni atomiche, ma constatiamo che esse
3 L’Universo è un sistema dinamico
delle equazioni della Relatività Generale, che forma oggi la base del modello cosmologico standard, lo stesso Einstein scriveva:
60 Il fascino oscuro dell’inflazione
sono tutte spostate verso il rosso e lo sono tanto più quanto più è lontana la galassia osservata. Definendo redshift lo spostamento percentuale delle righe spettrali e ponendolo in ordinata rispetto alla distanza posta in ascissa, si ottiene una retta la cui pendenza è la costante di Hubble. Il fattore di redshift è dunque definito come z = λ−λ0λ0 , dove λ è la lunghezza d’onda di una riga spettrale effettivamente osservata in una lontana galassia e λ0 è la lunghezza d’onda della stessa riga spettrale come osservata in esperimenti sulla Terra. Qual è l’interpretazione della legge di Hubble? A prima vista potrebbe sembrare che essa denoti la nostra posizione nell’Universo come privilegiata. Se tutti si allontanano radialmente da noi, allora noi siamo al centro dell’Universo che un tempo era tutto concentrato nel luogo ove ora noi stiamo. Inoltre una legge lineare che lega velocità e distanza suggerisce lo scenario di una grande esplosione passata. Al momento in cui una bomba esplode i suoi frammenti sono proiettati in tutte le direzioni con varie velocità. Dopo un certo tempo i frammenti più veloci avranno percorso più strada di quelli più lenti e per questo essi saranno più lontani.
Fig. 9. La legge di recessione universale delle galassie e il redshift
61 3 L’Universo è un sistema dinamico
Fig. 10. L’espansione dello spazio tridimensionale
Questa interpretazione corrispondente a un principio antropico è quella che suggerì il nome BIG BANG, ma è ingenua e in contrasto con l’omegeneità e isotropia dell’Universo. A causa di questa omegeneità e isotropia dobbiamo allora supporre che ciò che vediamo noi sia la stessa cosa che vede qualunque altro osservatore su qualunque altra galassia. Come possiamo interpretare la legge di Hubble, allora? Il modello intuitivo è il seguente. Le galassie sono come delle palle disposte su un telo (lo spazio tridimensionale) e rispetto al telo esse non si muovono. Ma è il telo che viene uniformemente dilatato e come conseguenza ogni palla si trova ad allontanarsi da tutte le altre. Questo modo di vedere ci conduce al concetto di fattore di scala dipendente dal tempo. Immaginate che il nostro spazio tridimensionale sia come la superficie di una sfera e che le galassie siano disposte su questa superficie. Supponete ora che un demiurgo gonfi la sfera, cioè ne cambi il raggio nel tempo. Tutte le distanze tra ciascuna delle galassie e ogni altra avranno rapporti fissati, ma saranno proporzionali al raggio della sfera che cresce col tempo. È come se l’unità di misura delle distanze fosse cambiata costantemente e fosse fun-
62 Il fascino oscuro dell’inflazione
zione del tempo. Chiamiamo tale unità di misura il fattore di scala e lo denotiamo con a(t). La velocità è la derivata della distanza rispetto al tempo. Un semplice calcolo ci fa vedere che possiamo dedurre la legge di Hubble e identificare la costante di Hubble con la derivata logaritmica del fattore di scala al tempo presente (fig. 11). La costante di Hubble in realtà non è costante. È essa stessa una funzione del tempo e ci informa sulla derivata prima del fattore di scala, cioè sulla velocità di espansione dell’Universo. Il parametro H0 originariamente misurato da Hubble e determinato con sempre maggiore precisione dalle osservazioni successive è il valore al tempo attuale t0 della funzione di Hubble H(t). Il primo a introdurre la nozione di Big Bang, cioè la teoria secondo la quale l’Universo attuale si sarebbe evoluto nel tempo, espandendosi a partire da uno stato iniziale di densità enorme, caldissimo e piccolissimo, fu Monseigneur Georges Lemaître, sulla base della soluzione delle equazioni di Einstein che porta il suo nome, oltre a quello di Friedman, di Robertson e di Walker. Egli che, come già sappiamo, si attirò il commento di Einstein, “i vostri calcoli sono corretti, ma la vostra fisica è abominevole”, non usò mai la parola Big Bang; si riferì invece alla propria ipotesi come all’ipotesi del primeval atom, cioè dell’atomo primigenio.
Fig. 11. La costante di Hubble è in realtà essa stessa una funzione del tempo cosmico
63
Il Principio Cosmologico La base matematica per postulare la metrica di FLRW e arrivare alle abominevoli conclusioni di Lemaître, che fecero inorridire Einstein e da cui si evince il Big Bang, è data dal cosiddetto principio cosmologico. Quest’ultimo assume due ipotesi caratterizzanti la struttura dello spazio-tempo a grandi scale, precisamente: 1. Isotropia 2. Omogeneità Isotropia vuol dire invarianza per rotazioni. In parole povere, in qualunque direzione puntiamo il nostro telescopio noi dobbiamo vedere approssimativamente lo stesso panorama. Omogeneità vuol dire invarianza per traslazioni. Ciò che vediamo noi dalla nostra galassia deve essere lo stesso panorama che vede un qualunque altro osservatore posizionato su qualunque altra galassia anche lontanissima. 6 Sir Fred Hoyle (1915-2001) è stato un astrofisico inglese famoso soprattutto per i suoi contributi alla teoria della nucleosintesi. Lavorò quasi tutta la vita all’Istituto di Astronomia di Cambridge, di cui fu anche direttore per molti anni. Alla propria attività di astrofisico egli affiancò anche quella di scrittore di romanzi di fantascienza, che in alcuni casi scrisse a quattro mani con suo figlio Geoffrey Hoyle. Uno dei più intriganti romanzi di Fred Hoyle è il primo, pubblicato nel 1957 dal titolo la Nuvola Nera (The Black Cloud). Protagonista della storia è una gigantesca nuvola di gas che penetra il sistema solare e si rivela un essere intelligente in cui i processi mentali sono sostenuti dalle correnti elettriche che l’attraversano. La nuvola minaccia di distruggere la vita terrestre bloccando la radiazione solare.
3 L’Universo è un sistema dinamico
A quanto sembra, la denominazione Big Bang fu introdotta per la prima volta e con intento derisorio da Fred Hoyle6 nel corso di una trasmissione radiofonica del 1949. È quasi una nemesi storica che questo soprannome ironico di una teoria seria, ma molto audace, sia diventata la denominazione scientifica ufficiale del modello cosmologico standard. L’idea dell’esplosione iniziale è talmente penetrata nel linguaggio comune e nella cultura contemporanea che quando mia figlia, oggi ventenne, frequentò le scuole elementari, il libro utilizzato dalla sua maestra faceva cominciare la storia non più dal Diluvio Universale, come ai tempi della mia giovinezza, ma dal Bing Bang.
64 Il fascino oscuro dell’inflazione
Non vi è alcuna ragione a priori per assumere il principio cosmologico e a prima vista non vi è neanche nessuna base empirica per farlo, data la struttura granulare del cosmo, costituito di stelle raggruppate in galassie e di galassie raggruppate in ammassi. La cosmologia, però, si propone di studiare la storia dell’Universo, esaminando la sua evoluzione a scale di distanze tanto enormi da poter considerare le galassie come i granelli di una polvere cosmica. Consideriamo allora la gerarchia delle scale. È soltanto alle scale più basse che l’Universo appare granulare: – 100.000 anni luce è la dimensione tipica delle galassie, per esempio della nostra, la Via Lattea. – 10 milioni di anni luce è la scala degli ammassi galattici. – 100 milioni di anni luce è la scala per i superammassi. – Ma alla scala di un miliardo di anni luce l’Universo può considerarsi come una zuppa omogenea e può essere modellizzato come un fluido perfetto.
Fig. 12. La gerarchia delle scale di distanza cosmiche. Prima tappa 100 mila anni luce: la Galassia
65
Fig. 13. La gerarchia delle scale di distanza cosmiche. Seconda tappa 10 milioni di anni luce: il gruppo locale e i suoi vicini 7 Ritorneremo sulla nozione di gruppo più avanti, discutendo le interazioni non gravitazionali. In parole semplici un gruppo G è un insieme di elementi dotato di un’operazione binaria di composizione che convenzionalmente chiameremo il prodotto. Dati due elementi a e b del gruppo G, il loro prodotto a · b è sempre un altro elemento dello stesso gruppo G. Nel gruppo esiste un elemento e, detto neutro, tale che qualunque altro elemento a moltiplicato per e è uguale a sè stesso: a · e = a. Infine per ogni elemento a del gruppo esiste il suo inverso a−1 che moltiplicato per a dà l’elemento neutro: a · a−1 = e.
3 L’Universo è un sistema dinamico
La giustificazione iniziale per assumere il principio cosmologico è data da questa constatazione di fatto sulla distribuzione degli ammassi galattici a grandissime scale. Matematicamente il principio cosmologico si formula imponendo che la metrica che descrive lo spazio-tempo abbia delle isometrie, cioè delle operazioni di trasformazione che la lasciano invariata e che formano tra di loro un gruppo7 . L’isotropia richiede che tutte le operazioni contenute nel gruppo delle rotazioni tridimensionali, il cui nome matematico ufficiale è SO(3), siano isometrie della metrica cosmica. Parimenti l’omogeneità richiede che siano isometrie tutte le operazioni del gruppo delle traslazioni spaziali.
66 Il fascino oscuro dell’inflazione
Imporre tali condizioni equivale a imporre la geometria delle sezioni a tempo costante dello spazio tempo. A ogni istante di tempo l’Universo è uno spazio tridimensionale e la geometria di tale spazio deve ammettere il massimo numero possibile di isometrie, cioè tutte le traslazioni e tutte le rotazioni. La sapienza geometrica ci viene ora in soccorso e ci garantisce che di spazi tridimensionali massimamente simmetrici, cioè con il massimo numero di isometrie, ne esistono soltanto tre. In questi spazi la curvatura, nel senso intrinseco di Gauss e di Riemann, è costante in ogni punto e dobbiamo soltanto deciderne il segno, positivo, negativo o nullo. Questa scelta viene codificata da un parametro k, i cui possibili valori sono appunto k = 1, 0, −1, corrispondenti ai tre casi appena elencati. I tre spazi massimamente simmetrici sono S3 , cioè la generalizzazione tridimensionale della sfera, nel caso di curvatura positiva
Fig. 14. La gerarchia delle scale di distanza cosmiche. Terza tappa 100 milioni di anni luce: superammassi
67
ds2 = −dt2 + a2 (t) dΩ2k (x)
(3.1)
dove con il simbolo dΩ2k (x) abbiamo indicato l’elemento di linea nello spazio tridimensionale selezionato dal valore di k. Sostituendo questa espressione nelle equazioni di Einstein si ottengono delle equazioni differenziali per il fattore di scala, dette equazioni di Friedman, le cui soluzioni hanno un comportamento radicalmente diverso a seconda del segno della curvatura. In tutti
Fig. 15. La gerarchia delle scale di distanza cosmiche. Quarta tappa 1 miliardo di anni luce: omogeneità
3 L’Universo è un sistema dinamico
(k = 1), H3 , la generalizzazione tridimensionale della pseudosfera, nel caso di curvatura negativa (k = −1) ed R3 , la generalizzazione tridimensionale del piano, nel caso di curvatura nulla (k = 0). Quest’ultimo caso è lo spazio euclideo dei Beoti. Avendo imposto queste condizioni, l’elemento di linea quadrimensionale, che esprime il campo gravitazionale cosmico, assume una forma estremamente semplice che è appunto la metrica FLRW. Denominando con la lettera t la coordinata temporale e collettivamente con x le tre coordinate spaziali che identificano i punti su quello prescelto dei tre spazi simmetrici testè discussi, possiamo scrivere:
68 Il fascino oscuro dell’inflazione
e tre i casi vi è una rapida espansione iniziale, successivamente però, la velocità di espansione decresce e si ha una decelerazione tanto più accentuata quanto maggiore è la curvatura. Il caso di curvatura negativa, cioè k = − 1 è denominato l’Universo aperto. L’espansione dell’universo aperto continua indefinitamente ma rallenta progressivamente fino a ragiungere una crescita asintotica lineare. Quando l’universo aperto è molto vecchio, il fattore di scala cresce proporzionalmente al tempo a(t) ≈ t. Il caso k = 0 è denominato l’Universo piatto. Anche per l’Universo piatto, l’espansione è senza fine, ma essa tende asintoticamente a una crescita più debole di quella lineare. A tempi molto tardi, il fattore di scala cresce come il quadrato della radice cubica del tempo, si ha cioè a(t) ≈ t2/3 . Il caso k = 1 è denominato l’Universo chiuso. Per curvatura positiva il fattore di scala rallenta la sua espansione fino a raggiungere velocità zero dopo un tempo finito. A questo punto l’espansione si converte in contrazione. Le galassie, anziché allontanarsi le une dalle altre, cominciano ad avvicinarsi e la velocità di avvicinamento è tanto più grande quanto più esse sono lontane. Lo spostamento verso il rosso diventa ora uno spostamento verso il blu. L’Universo chiuso si riscalda e si rimpicciolisce. Tutto collassa verso un punto solo creando uno stato di densità infinita. Al Big Bang segue, nell’Universo chiuso, un Big Crunch.
Fig. 16. Le tre segnature della curvatura spaziale e l’evoluzione del fattore di scala a(t)
69
La radiazione cosmica di fondo La risposta definitiva all’interrogativo posto al termine del precedente paragrafo venne nel 1965 a opera di Arno Allan Penzias e
Fig. 17. I due Nobel Arno A. Penzias e Robert W. Wilson per la scoperta della radiazione cosmica di fondo
3 L’Universo è un sistema dinamico
Queste sono le implicazioni molto circostanziate del principio cosmologico, cioè dell’assunzione che l’Universo sia isotropo e omogeneo. Ma esso è davvero tale?
70 Il fascino oscuro dell’inflazione
Robert Woodrow Wilson che, per la loro scoperta di quell’anno, furono insigniti del premio Nobel per la fisica nel 1978. Penzias nacque da una famiglia ebraica a Monaco di Baviera nel 1933, lo stesso anno in cui Hitler saliva al potere. Wilson nacque tre anni dopo in quel Texas che alla fine della seconda guerra mondiale si vantava di aver sconfitto la Germania nazista, come scriveva scherzosamente un giornale locale dell’epoca. Nel 1939 Arno Penzias fu uno dei 10.000 bambini ebrei evacuati dalla Germania e trasportati in Inghilterra con l’operazione navale nota sotto il nome di Kindertransport. Egli fu più fortunato della stragrande maggioranza dei suoi compagni di viaggio che persero genitori e parenti nei forni crematori dell’Olocausto. Il padre e la madre di Arno riuscirono invece a fuggire negli Stati Uniti d’America sei mesi dopo l’evacuazione del figlio, che poté raggiungerli a New York, dove visse, studiò e nel 1962 conseguì il dottorato alla Columbia University. L’incontro con Wilson, che aveva conseguito il proprio dottorato al California Institute of Technology di Pasadena, avvenne poco dopo, ai laboratori della Bell Telephone del New Jersey. Entrambi i due giovani ricercatori erano stati assunti dalla grande compagnia e nel villaggio di Holmdel, vicino a Crawford Hill, quartier generale dei Bell Labs, stavano lavorando alla costruzione di una nuova antenna radio. La Horn Antenna, che essi stessi avevano progettato, era destinata a esperimenti di radioastronomia e comunicazioni tra la Terra e i satelliti artificiali. Vi era però un problema. Il raffinato strumento aveva un eccesso di temperatura di antenna di 3,5 gradi Kelvin che i due brillanti progettisti non erano in grado di spiegare. Da Crawford Hill telefonarono all’Università di Princeton, dove si consultarono con Dicke, Wilkinson e Roll che stavano costruendo un’altra sofisticata antenna radio. Immediatamente dopo quella conversazione telefonica Dicke disse ai suoi due colleghi: “Ragazzi, ci hanno fregato! lo scoop è il loro”. A quale fregatura si riferiva l’illustre professore che, durante la seconda guerra mondiale e presso il Radiation Laboratory dell’MIT, aveva creato il Dicke radiometer, un rivelatore di microonde elettromagnetiche? La fregatura per i tre ricercatori di Princeton era la priorità ormai sfumata nella scoperta della radiazione cosmologica di fondo.
71 3 L’Universo è un sistema dinamico
Dicke, infatti, e a buon titolo, aveva subito capito l’origine di quell’eccesso di 3,5 gradi Kelvin. Responsabile non era alcun fenomeno terrestre e nessun errore strumentale. Dietro quel freddissimo residuo si celava invece un fenomeno cosmico che era stato predetto alcune decadi prima da un altro geniale fuggitivo. Grigorij Antonovich Gamow, nacque da genitori russi nel 1904 nella città imperiale di Odessa, rifondata da Caterina II la Grande nel 1794, sulle rovine della città turca di Khadjibey, allora appena strappata all’Impero Ottomano. Gamow studiò dapprima all’Università Novorossya della città natale, ma nel 1922 si trasferì a San Pietroburgo, divenuta Leningrado dopo la rivoluzione di ottobre. Qui divenne studente di dottorato di Alexander Friedman. Quest’ultimo, brillante matematico e fisico russo, che trascorse l’intera vita a Leningrado e morì prematuramente all’età di soli trentasette anni nel 1925, corrisponde alla F nella denominazione FLRW della metrica cosmologica standard. In un articolo del 1924, pubblicato in tedesco sullo Zeitschrift für Physik e dal titolo Über die Möglichkeit einer Welt mit konstanter negativer Krümmung des Raumes [Sulla possibilità di un mondo con curvatura spaziale costante negativa], Friedman esibì le soluzioni cosmologiche, isotrope e omogenee, delle equazioni di Einstein per i tre casi di curvatura spaziale positiva, negativa e nulla (k = 1, −1, 0) in maniera del tutto indipendente da Lemaître e da Robertson e Walker, che ottennerro le stesse soluzioni solo dieci anni più tardi. È anche interessante notare che la soluzione matematica del 1924 non era assolutamente motivata dai dati sperimentali della legge di Hubble, scoperta soltanto cinque anni più tardi, quando Friedman era già morto da quattro. A Leningrado, Gamow, che perse il proprio maestro prima della fine del dottorato, conseguito nel 1929, strinse una profonda amicizia con altri due compagni di corso, uno dei quali si rivelò tra i più grandi fisici di tutto il XX secolo: Lev Davidovich Landau. Insignito nel 1962 del premio Nobel per la teoria della superfluidità, Landau fu il più grande maestro della fisica sovietica e i molti volumi del suo corso di fisica teorica, scritto a quattro mani con l’allievo E. Lifshitz, hanno costituito la base dell’educazione scientifica di centinaia di fisici in tutto il mondo. Per fantasia concettuale e successi scientifici Gamow non fu molto inferiore all’amico Landau. A differenza di quest’ultimo che,
72 Il fascino oscuro dell’inflazione Fig. 18. Alexander Friedman e il suo allievo George Gamow
fatta eccezione per un viaggio a Copenaghen e un altro a Zurigo, non lasciò mai l’URSS e vi ebbe anche a soffrire un anno di carcere al tempo delle purghe staliniane, Gamow, che aveva lavorato sia a Göttingen che a Copenaghen, tentò di emigrare fin dal 1932. Con la moglie tentò una fuga in canoa sul Mar Nero verso la Turchia e un’altra da Murmansk verso la Norvegia. Falliti entrambi questi tentativi per avversità atmosferiche, nel 1933 la coppia riuscì nel proprio intento, ottenendo il permesso di partecipare a uno degli storici congressi della società Solvay a Bruxelles. Qui i coniugi Gamow defezionarono il paese del socialismo reale e furono accolti nel mondo capitalista. Nel 1934, dal Belgio essi si trasferirono negli Stati Uniti, dove restarono per il resto della loro vita divenendone anche cittadini. Gamow diede contributi importantissimi in fisica nucleare, spiegando in particolare il decadimento β dei nuclei pesanti, che è alla basa del processo di fissione nucleare e quindi delle reazioni a catena sia nella bomba A che nei reattori nucleari. Fu anche il fondatore del modello a goccia del nucleo atomico. In un articolo scritto con Alpher e pubblicato da Physical Review nel 1948, Gamow sostenne che l’Universo dovrebbe essere pieno di una radiazione elettromagnetica con uno spettro di corpo nero, che fu prodotta da tutte le transizioni atomiche e subatomiche avvenute subito dopo il Big Bang. Per un certo pe-
73 3 L’Universo è un sistema dinamico
riodo durante l’espansione cosmica questa radiazione primigenia rimase in equilibrio termico con il resto del contenuto energetico dell’Universo. Al procedere dell’espansione, però, la radiazione si disaccoppiò dalla materia, divenuta troppo rarefatta per equilibrarsi con essa. Da quel momento in poi la radiazione, secondo Gamow, è rimasta un fossile che pervade tutto lo spazio senza interagire con nulla e si è progressivamente raffreddata per effetto dell’espansione. Quest’ultima infatti produce uno spostamento verso il rosso di tutte le frequenze dello spettro, il cosmic redshift, che è percepito come un abbassamento della temperatura del corpo nero. Conoscendo l’età dell’universo attraverso la misura della costante di Hubble, Alpher e Gamow stimarono il fattore di redshift e predissero che la radiazione cosmica di fondo avrebbe dovuto avere una temperatura di qualche grado Kelvin sopra lo zero assoluto. Per la precisione essi avanzarono la predizione di 5 K. In maniera quasi fortuita Penzias e Wilson avevano scoperto proprio questa radiazione fossile predetta da Gamow e Alpher. La sua temperatura non era esattamente 5 K, ma qualcosa di molto vicino a quel numero. Nella prima misura degli scopritori 3,5 K, nella determinazione più precisa delle successive misure 2,75 K. Dicke, Wilkinson e Roll stavano costruendo un Dicke radiometer per rivelare proprio questo fondo cosmico, ma non arrivarono in tempo. Penzias e Wilson avevano fatto lo scoop. La rivelazione della CMB (Cosmic Microwave Radiation) nel 1965, non solo confermava l’ipotesi di Gamow e dava la prima prova diretta del Big Bang, ma ci forniva anche un’immagine dell’Universo primordiale. Vecchia di 13 miliardi di anni, la CMB è infatti la luce emessa dalla LSS, la Last Scattering Surface, cioè l’ultima superficie di diffusione. Con questa denominazione si indica lo spazio occupato dall’intero contenuto energetico dell’Universo al tempo del disaccopiamento, al momento cioè in cui la radiazione è caduta fuori equilibrio termico dal resto. La distribuzione spaziale della CMB attuale è quindi un’immagine assolutamente fedele della distribuzione di sorgenti luminose di quella epoca remota. Come fu immediatamente evidente e come si ebbe modo di determinare in seguito con strabiliante precisione, la CMB esibisce uno spettro di corpo nero assolutamente perfetto. La distru-
74 Il fascino oscuro dell’inflazione Fig. 19. Lo spettro di corpo nero della radiazione cosmica di fondo
buzione dell’intensità I di energia per unità di superficie, per unità di angolo solido e per unità di tempo emessa a frequenza ν e temperatura T, segue in maniera incredibilmente accurata la curva di Planck, data dalla celeberrima formula del 1900 che fu l’inizio della
75
L’inflazione cosmica, l’energia e la materia oscure L’enorme successo del modello standard cosmologico basato sull’ipotesi del Big Bang caldo e del principio dell’omogeneità e isotropia, che si traducono matematicamente nella metrica di FLRW, non dovrebbe trarre in inganno, facendo pensare che tutto è stato compreso e risolto. In fisica l’aderenza estrema di un modello teorico con i dati sperimentali è sovente l’origine di un problema concettuale, più che una sua soluzione. Ai non addetti ai lavori una simile affermazione può sembrare paradossale, ma un semplice ragionamento chiarirà il perché. Se la realtà si dimostra in accordo non approssimativo, ma precisissimo con una certa modellizzazione, questo significa che le ipotesi alla base di tale modellizzazione sono delle verità fondamentali non casuali e il problema diventa quello di spiegarne il perché a partire da ragioni più profonde. Un esempio di questo l’abbiamo già visto con l’identità tra la massa inerziale e quella
3 L’Universo è un sistema dinamico
meccanica quantistica. I dati sperimentali per la CMB sono riprodotti con una precisione sconvolgente dalla curva di Planck per la temperatura T = 2,725 K e lo sono in qualunque direzione si punti il radiometro (fig. 19). Ricordando che ciò che noi vediamo attraverso la CMB è un’immagine spostata uniformemente verso il rosso della LSS, cioè dell’Universo di 13 miliardi di anni fa, possiamo concludere che quell’Universo era assolutamente omogeneo e isotropo con altissima accuratezza. La scoperta della radiazione cosmica di fondo è stata quindi la conferma osservativa del principio cosmologico. L’Universo in cui viviamo è evoluto da uno stato isotropo e omogeneo ed è quindi ben descritto dalla metrica di FLRW. Assumendo quest’ultima, le equazioni di Einstein implicano in maniera inesorabile l’espansione dell’Universo. Che questa abbia avuto corso è confermato dal gigantesco spostamento verso il rosso della CMB. Da una temperatura di 3000 K che era quella dell’Universo all’epoca del disaccoppiamento, corrispondente a circa 400.000 anni dopo il Big Bang, nei seguenti 13 miliardi di anni la radiazione si è raffreddata, fino agli attuali 2,725 K.
76 Il fascino oscuro dell’inflazione
gravitazionale. Le due non sono solo approssimativamente uguali, bensì esse sono uguali con straordinaria precisione. Ciò significa che la teoria della gravitazione deve includere questa uguaglianza come una condizione necessaria e non come un fatto accidentale. Partendo da questa considerazione Einstein scoprì la Relatività Generale. Similmente il modello standard delle interazioni fondamentali, di cui parleremo più avanti, si è dimostrato una descrizione precisa e accuratissima delle leggi di natura. Esso, però, contiene un numero elevato di parametri e il problema diviene quello di inventare una teoria più profonda all’interno della quale il valore di questi parametri venga determinato uguale a quello rilevato sperimentalmente. Nel caso della cosmologia, l’accuratezza delle predizioni del Big Bang Model rende necessario spiegare il perché delle due ipotesi fondamentali che lo caratterizzano, cioè l’omogeneità e l’isotropia. Se ci si riflette un momento si comprende subito che non vi è nessuna ragione a priori per la quale l’Universo dovrebbe essere così omogeneo e simmetrico come esso dimostra di essere. Al contrario, sarebbe naturale che esso fosse altamente disordinato e inomogeneo. Si può infatti dimostrare che, partendo da una situazione in cui vi siano delle anisotropie e delle inomogeneità, le equazioni di Einstein tendono ad amplificarle sempre di più nel corso dell’evoluzione temporale. Pertanto, se ci limitiamo a considerare la teoria di Einstein con un contenuto di materia ed energia convenzionale, allora, la straordinaria isotropia e omogeneità dell’Universo attuale richiede che lo stato iniziale sia stato preparato omogeneo e isotropo con precisione quasi infinita, il che è altamente innaturale, come fatto casuale. Diversa è la situazione se si scopre un meccanismo che prepara esattamente questo stato isotropo e omogeneo a partire da uno stato generico. Nel 2002 la Medaglia Dirac dell’ICTP8 di Trieste che, dopo il premio Nobel, è l’onorificenza più prestigiosa conseguibile nel campo della Fisica teorica, è stata assegnata ad Alan Guth, Andrei Linde e 8 ICTP è l’acronimo per International Centre of Theoretical Physics, un’istituzione
dell’UNESCO finanziata in maniera sostanziale anche dal Governo Italiano, che ha come missione principale quella di costituire un luogo di incontro privilegiato tra gli scienziati del Terzo Mondo e quelli del Primo. L’ICTP è nato soprattutto per la volontà del premio Nobel Abdus Salam che ne è stato per lunghi anni il Direttore.
77
Fig. 20. I padri dell’Universo inflazionario, insigniti della Medaglia Dirac 2002
3 L’Universo è un sistema dinamico
Paul Steinhardt per i loro fondamentali contributi alla creazione del paradigma dell’Universo inflazionario. Vi sono molte formulazioni diverse della teoria inflazionaria e nel dettaglio essa dipende in maniera sostanziale dalla struttura della teoria unificata di tutte le interazioni fondamentali che avrà la ventura di dimostrarsi quella scelta dalla Natura. Per esempio, come accenneremo in seguito, nell’ambito della teoria delle superstringhe e del suo limite di bassa energia, che è la supergravità, vi sono interessanti opportunità per realizzare l’inflazione e determinarne i parametri in accordo con i dati osservativi che si stanno accumulando.
78 Il fascino oscuro dell’inflazione
Al di là, però, di questa struttura fine, il valore dell’Universo inflazionario è il fatto che esso costituisce un paradigma concettuale semplicissimo e ormai insostituibile per spiegare l’omogeneità, l’isotropia e, vedremo, anche la piattezza del cosmo. Al prezzo di introdurre un nuovo elemento, previsto per altro da tutte le teorie delle interazioni fondamentali, cioè l’esistenza dei cosiddetti campi scalari, si ha a propria disposizione un meccanismo del tutto generico, capace di preparare quello stato iniziale, omogeneo e isotropo, dal quale si è evoluto il nostro Universo attuale. Per spiegare questo meccanismo dobbiamo fare un passo indietro e considerare la forma assunta dalle equazioni di Einstein del campo gravitazionale quando si introduce il principio cosmologico e le si riduce ad affermazioni sull’evoluzione del fattore di scala a(t) che compare nella metrica di FLRW.
Le equazioni di Friedman Nonostante la complessità della fisica coinvolta, che combina la Relatività Generale con la Teoria delle Interazioni Fondamentali e delle Particelle Elementari, la descrizione dei principali fenomeni cosmologici è data in termini di una matematica molto semplice e relativamente elementare che, in significativa differenza da altri campi della scienza, ne permette un’esposizione divulgativa più agevole. Ci si può rendere conto di questa affermazione, considerando la forma delle equazioni di Einstein applicate al caso della metrica cosmologica di FLWR. Esse si esprimono tramite due semplici condizioni già elaborate da Alexander Friedman e, per questo, correntemente denominate equazioni di Friedman. Come si è ampiamente discusso, tutta l’evoluzione dell’Universo è codificata nell’andamento temporale del fattore di scala a(t). Si può introdurre un’analogia meccanica con il moto di una particella in uno spazio unidimensionale pensando al tempo cosmico t come al tempo e al fattore di scala come alla posizione assunta dalla particella a ogni istante di tempo. Così facendo, diviene naturale considerare la velocità e l’accelerazione istantanee di tale particella. In matematica la velocità è la derivata prima della posizione rispetto al tempo cioè v(t) = a˙ (t), mentre l’accelerazione è la derivata della velocità, cioè la derivata seconda della posizione
79 3 L’Universo è un sistema dinamico
α(t) = ä(t). Si possono anche considerare sia la velocità che l’accelerazione percentuali, cioè i rapporti tra la velocità e la posizione a˙ (t) H(t) = a(t) e tra l’accelerazione e la posizione Q(t) = ä(t) a(t) . Sia H(t) che Q(t) sono parametri che un osservatore che viva al tempo cosmico t può misurare. Abbiamo già visto che la funzione di Hubble H(t), valutata al tempo attuale t = t0 , è la costante H0 che appare nella legge di Hubble lineare. La prima deviazione della legge di Hubble dalla forma lineare, in altre parole la deformazione del suo grafico rispetto a quello di una semplice retta, ci informa invece sulla derivata seconda del fattore di scala, cioè sull’accelerazione e quindi sul valore di Q(t) al tempo attuale. Studiando la legge di Hubble a grandissimi valori del redshift, cioè a enormi distanze da noi, possiamo scoprire se il nostro universo sta accelerando oppure decelerando la propria velocità di espansione. Dati su questo parametro di accelerazione erano fino a poco tempo fa impensabili dal punto di vista sperimentale. Recenti misure su supernovae in galassie distanti hanno permesso, a partire dal 1999-2000, le prime misurazione di Q(t0 ), stabilendo un fatto del tutto inatteso: il nostro Universo sta accelerando! Ne parleremo tra breve. La sconvolgente semplicità delle equazioni di Friedman è che esse sono delle affermazioni, valide a ogni istante di tempo, che legano i due parametri H(t) e Q(t) ai due parametri che caratterizzano il fluido, con cui modelizziamo il contenuto dell’Universo. Un qualunque fluido è infatti descritto dalla densità di energia (t, x), che ci informa su quanta energia (di qualsivolgia natura) si trova nel posto x al tempo t e dalla pressione p(t, x) presente nello stesso luogo e allo stesso tempo. Il principio cosmologico di omogeneità e isotropia si esprime ora nella maniera più semplice assumendo che sia la densità di energia che la pressione dipendano solo dal tempo, ma non dal luogo, cioè = (t) e p = p(t). In altre parole a ogni istante del tempo cosmico la densità di energia e la pressione sono le stesse in ogni punto dell’Universo. I vari tipi di energia presenti nel cosmo (la radiazione elettromagnetica, la materia barionica fornita da stelle e galassie, la materia oscura interstellare e così via) sono caratterizzati dalla specifica equazione di stato, che è una relazione tra la pressione e la densità di energia. Benché l’equazione di stato possa essere in generale molto più complicata, la sua espressione per le principali for-
80 Il fascino oscuro dell’inflazione
me di energia rilevanti in cosmologia è semplicissima. È sufficiente infatti considerare equazioni di stato lineari: p = w
(3.2)
dove i valori assunti dal coefficiente w caratterizzano le varie componenti del fluido cosmico. Discuteremo tra breve i valori notevoli di w e l’interpretazione del corrispondente fluido. Introdotti questi semplici concetti possiamo scrivere la semplicissima forma delle equazioni di Friedman dalle quali discendono conclusioni della più grande rilevanza che sono immediatamente evidenti a chiunque conosca le quattro operazioni. La prima equazione di Friedman lega il quadrato del parametro di Hubble (cioè della velocità di espansione percentuale) alla densità di energia dell’Universo e alla sua curvatura spaziale. La seconda equazione esprime Q, cioè l’accelerazione percentuale, come una combinazione della densità di energia e della pressione. Esplicitamente abbiamo le semplicissime relazioni: H2 =
8πG k − 2 ; 3 a
Q=−
4πG ( + 3p) 3
(3.3)
dove G è la costante di gravitazione universale di Newton e k la nostra vecchia conoscenza che, a seconda dei tre possibili valori 1, 0, oppure −1, distingue tra l’Universo chiuso, piatto, ovvero, aperto. Un’altra informazione cruciale che, combinata con le relazioni di Friedman, fornisce la risposta a tutte le possibili domande sull’espansione dell’Universo è data dall’andamento dei vari tipi di densità di energia rispetto al fattore di scala, individuati dai vari tipi di equazione di stato, cioè dal valore di w. Troviamo che la densità di energia ha sempre il seguente andamento: =
cost a3(1+w)
(3.4)
dove cost indica un opportuno numero costante determinato dalle condizioni iniziali, cioè dalla quantità totale di quel particolare tipo di energia contenuto nell’Universo primordiale. Questa importante relazione discende, tramite calcoli abbastanza elementari, che però non è il caso di riprodurre in questa
81
Equazione di stato
TIPO DI FLUIDO
ANDAMENTO della densità di energia
w = 13
Radiazione elettromagnetica
cost a4 (t)
w=0
Materia barionica visibile
cost a3 (t)
w=1
Campo scalare fast rolling
cost a6 (t)
w = −1
Energia Oscura, cioè energia potenziale del campo scalare slow rolling
cost
sede, dal generale principio di conservazione dell’energia mentre, come abbiamo già detto, le relazioni di Friedman non sono altro che le equazioni di Einstein. Come abbiamo anticipato, ci sono quattro casi rilevanti di equazione di stato, che corrispondono ai tipi di fluido elencati nella tabella 3.1. Daremo tra breve una spiegazione di che cosa siano questi quattro fluidi, la cui miscela riempe il nostro Universo, ma prima di farlo è bene sottolineare che usando queste semplicissime informazioni, chiunque sia in grado di eseguire somme e sottrazioni può trarre da sè delle importantissime conclusioni sull’evoluzione dell’Universo. La densità di energia che compare nell’equazione di Friedmann è naturalmente la densità di energia totale, cioè la somma = R + M + FR + DE , dei quattro contributi dovuti alla radiazione, alla materia barionica visibile, al campo scalare fast rolling, qualunque cosa ciò significhi, e all’energia oscura, qualunque essa sia. Se l’Universo si espande, cioè se il fattore di scala cresce, tutti i contributi decrescono, tranne quello dell’energia oscura, che è costante. Le altre tre componenti del fluido cosmico decrescono, con rapidità diversa a causa della diversa potenza di a(t) che sta al denominatore nell’espressione delle loro densità di energia, ma comunque decrescono. Questo semplice fatto è all’origine della divisione della Storia dell’Universo in varie epoche, l’età del riscaldamento, quando do-
3 L’Universo è un sistema dinamico
Tabella 3.1. Equazioni di stato delle varie componenti del fluido cosmico e andamenti della corrispondente densità di energia
82 Il fascino oscuro dell’inflazione
mina il fast rolling, l’età della radiazione, quando domina la radiazione elettromagnetica, l’età della materia quando domina la materia barionica dovuta alle galassie, l’età del vuoto, quando domina l’energia oscura (fig. 21). In un Universo in espansione, l’energia oscura, per quanto piccola, purché non nulla, sempre e ineluttabilmente diventerà, a tempi abbastanza tardi, la componente dominante del fluido cosmico, poiché è l’unica costante, mentre tutte le altre decrescono più o meno velocemente. Altre due conclusioni di grande rilevanza sull’espansione cosmica possono essere immediatamente dedotte da chiunque, attraverso la semplice osservazione delle due equazioni di Friedman. Dalla prima delle due relazioni discende una conclusione fondamentale sul segno della curvatura spaziale. Siccome il quadrato di un numero è sempre un numero positivo e siccome la densità di energia totale è pure, per definizione, un numero positivo, segue che il segno della curvatura spaziale k sarà positivo, nullo o negativo a seconda che la densità di energia sia maggiore, uguale o minore di una densità critica data da crit =
3H2 . 4πG
(3.5)
Siccome il valore della costante di Hubble al tempo attuale H0 è un dato osservativo noto, ne segue che anche la densità di energia critica al tempo attuale è nota. Se conoscessimo la densità totale dell’Universo, potremmo decidere se esso è chiuso, piatto o aperto. Viceversa se conoscessimo il segno della curvatura, potremmo misurare la densità totale del nostro cosmo. Questa semplice constatazione è della massima importanza e ci conduce a definire una nuova variabile, chiamata Ω(t) e definita come il rapporto tra la densità di energia e l’energia critica, Ω = 4πG . 3H2 Se Ω > 1 l’Universo è chiuso, se Ω = 1 l’Universo è piatto, se Ω < 1 l’Universo è aperto. Bisogna anche sottolineare che se il parametro Ω è esattamente uguale a uno, allora esso è costante e si mantiene tale per tutta l’evoluzione dell’Universo, in forza della prima equazione di Friedman, mentre se esso è solo prossimo al valore uno a un certo istante di tempo iniziale ti , allora esso tende, in genere, a discostarsene sempre di più man mano che il tempo passa. Infatti, utilizzando
83 3 L’Universo è un sistema dinamico Fig. 21. Le varie tappe nella storia dell’Universo e il suo contenuto energetico attuale
la variabile Ω, la prima equazione di Friedman può essere riscritta come segue: Ω(t) = 1 + a˙k(t) . Da questa relazione segue che, quando la velocità di espansione è alta cioè, a˙ (t) è molto gran-
84 Il fascino oscuro dell’inflazione
de, allora Ω è molto vicino al valore uno, indipendentemente dal segno della curvatura. Quando l’Universo frena la propria espansione cioè a˙ (t) diventa sempre più piccola, il valore di Ω cresce sempre di più per l’Universo chiuso e diminuisce invece sempre di più per l’Universo aperto: in ogni caso si allontana tantissimo dal valore uno. Consideriamo ora le altrettanto semplici conseguenze della seconda equazione di Friedman. Essa è un’affermazione sul parametro di accelerazione Q(t) da cui discende che l’Universo decelera la propria espansione fintanto che +3p > 0. In termini di equazione di stato questa condizione significa w<− 13 . Dunque affinché l’Universo entri in una fase di espansione accelerata è necessario che la pressione sia negativa. Non solo. Essa deve essere minore di − 13 . Per tutte le forme convenzionali di materia ed energia la pressione è sempre positiva. Esiste un tipo di energia caratterizzata da una pressione negativa minore di − 13 ? La risposta è sì. Questa è la caratteristica dell’energia potenziale di un campo scalare. Dunque i campi scalari sono gli indiziati numero uno per spiegare un’espansione accelerata nel caso essa venga rilevata sperimentalmente.
I campi scalari e l’inflatone Che cos’è un campo scalare? È il più semplice tra i possibili campi e, stranamente, è l’unico la cui rilevazione sperimentale non sia ancora avvenuta. Dal punto di vista classico, un campo scalare φ(x, t) è semplicemente una funzione di un dove x e di un quando t, che esprime l’intensità locale, a quel tempo e in quel luogo dello spazio tempo, di una qualche quantità che rimane la stessa in qualunque sistema di riferimento, a differenza delle quantità tensoriali che si modificano da un sistema di riferimento a un altro. Dal punto di vista quantistico, un campo scalare corrisponde alla descrizione di una particella di spin zero, cioè priva di momento angolare intrinseco. Ne parleremo di nuovo, nel prossimo capitolo. Nelle teorie delle interazioni fondamentali compaiono campi di spin 0, 12 , 1, 32 e 2.
85
9 Gli interferometri gravitazionali sono gli strumenti di fantastica precisione, ideati per rivelare il debolissimo segnale portato sulla Terra dalle poderose onde gravitazionali che vengono emesse in lontanissime catastrofi cosmiche, quali la coalescenza di buchi neri o di stelle di neutroni. Si tratta di ciclopici apparati, costituiti da tubi a vuoto lunghi vari chilometri, in cui corrono dei fasci di luce laser. L’arrivo di un’onda gravitazionale può deformare la lunghezza di questi tubi di qualche frazione infinitesima del centimetro e la difficoltà dell’esperimento risiede nel misurare tali minutissime deviazioni. Virgo è l’interferometro italo-francese costruito nella campagna attorno a Pisa, i cui due bracci sono lunghi 3 chilometri ciascuno. Ligo I e Ligo II sono invece gli interferometri americani, il primo sito in Luisiana, il secondo nello stato di Washington. Lisa è il progetto di un interferometro extraterrestre formato da tre satelliti in orbita eliostazionaria che dovranno formare un triangolo di milioni di chilometro di lato. La sua realizzazione è prevista per la metà del presente secolo.
3 L’Universo è un sistema dinamico
Le particelle di spin 12 sono i costituenti della materia e la loro esistenza è acquisita sperimentalmente da lungo tempo. Tra le particelle fondamentali di spin 1, il quanto di luce, cioè il fotone, che è il solo a non avere massa, è noto da quando la teoria di Maxwell ci ha spiegato l’origine delle onde elettromagnetiche; l’esistenza delle particelle di spin 1 massive è stata dimostrata sperimentalmente soltanto a partire dal 1981, con la scoperta del W e dello Z. Anche di questo parleremo più avanti. L’unica possibile particella di spin 2 è il quanto gravitazionale e la sua esistenza sarà acquisita osservativamente quando, finalmente, verranno rivelate le onde gravitazionali, predette dalla Relatività Generale di Einstein. Questo è un evento in agenda per il presente secolo, grazie agli interferometri Virgo, Ligo e al futuro, quasi fantascientifico, Lisa9 . Al contrario, la rivelazione delle particelle sia di spin 0 che di spin 32 potrebbe avvenire a breve, negli urti di protoni prodotti dal gigantesco collisore adronico LHC. Quest’ultimo, dopo quasi vent’anni di preparazione, è entrato in funzione nel 2008 fa al CERN di Ginevra, tra i clamori alzati su tutti i media da una folla di Beoti del XXI secolo, degni emuli di quelli che afflissero il grande Gauss nel XIX. La prima missione di LHC è proprio la rivelazione del bosone di Higgs, una particella di spin zero che è il tassello mancante del modello standard delle interazioni fondamentali, responsabile per la rottura spontanea della simmetria SU(2) × U(1), di cui parleremo più avanti, e per la conseguente generazione delle masse dei bosoni vettoriali W e Z.
86 Il fascino oscuro dell’inflazione
La seconda missione di LHC è la possibile scoperta della supersimmetria, a cui pure accenneremo nel prossimo capitolo. Se questa scoperta avvenisse, la particella di spin 32 , detta gravitino, che è implicata dalla supersimmetria locale, sarebbe con molta probabilità parimenti rivelata. Torniamo però al bosone di Higgs, perché esso può svolgere in cosmologia un ruolo non meno importante di quello che gioca in fisica delle particelle. Si tratta di una particella di spin zero e come tale essa è descritta da un campo scalare φ(x, t), per il quale è possibile introdurre un’energia potenziale, data da una funzione W(φ). La forma esatta di tale funzione (cioè del suo grafico), dipende dalla struttura dettagliata della teoria, ma ciò che è altrettanto rilevante per la rottura di simmetria, come per la cosmologia, è che W(φ) abbia sia dei massimi che dei minimi. Il ragionamento che ha fruttato a Linde, Guth e Steinhardt la medaglia Dirac è altrettanto semplice di quelli che abbiamo fatto poco fa sulle equazioni di Friedman e merita di essere spiegato in poche parole non tecniche. Così, per il lettore non addetto ai lavori, il fenomeno dell’inflazione cosmica cesserà di essere un insondabile mistero. Ciò che ci viene di nuovo in soccorso in questo sforzo esplicativo è un’analogia meccanica. Pensiamo al valore del campo φ come alla coordinata che esprime la posizione di una particella fittizia. In linea di principio φ dipende sia dal dove che dal quando, cioè sia dallo spazio x che dal tempo t, ma se almeno localmente, una certa regione U dello spazio è omogenea, allora in essa φ è costante e dipende solo dal tempo t. In questa regione U, l’analogia meccanica è completa: la posizione della particella varia nel tempo e definisce una funzione φ(t). L’energia di questa particella sarà data come sempre da due contributi: l’energia cinetica, che è un mezzo del quadrato della velocità, cioè Ekin = 12 φ˙ 2 (t) e dall’energia potenziale Epot = W(φ). Siccome l’energia totale, che è la somma dei due contributi, deve restare costante nel tempo, si ha che, allorché la particella è vicina a un massimo del potenziale, la sua energia cinetica deve essere pressoché zero il che implica che la sua velocità è quasi nulla, cioè φ˙ ≈ 0. Corrispondentemente l’energia potenziale W(φ) sarà grande e quasi costante perché il valore di φ cambia pochissimo da un istante di tempo al successivo. È questa la cosiddetta fase dello slow rolling.
87
dove φi è il valore iniziale (al massimo) del campo scalare e W(φi ) la corrispondente energia potenziale. Data la sua definizione, affermare che la funzione H(t) è costante è la stessa cosa che dire che, durante la fase dello slow rolling del campo scalare, il fattore di scala cresce esponenzialmente con il tempo cioè a(t) ≈ exp(Hi t) .
(3.7)
Quanto dura questa crescita esponenziale? La risposta è semplice: fintantoché il campo scalare non è sceso abbastanza dalla collina, così da diminuire la sua energia potenziale a favore di quella cinetica. A questo punto l’espansione cosmica subisce una brusca frenata, mentre il campo scalare accelera sempre di più la propria discesa. Giunto vicino al minimo, esso è molto veloce e comincia a oscillare attorno a esso. L’Universo freddissimo si è espanso di un fattore grandissimo, ma ora comincia a riscaldarsi di nuovo, man mano che l’energia accumulata dal campo scalare si disperde termicamente ed esso smorza le sue oscillazioni acquietandosi nel minimo. A questo punto l’Universo comincia a evolvere seguendo le curve predette dalle equazioni di Einstein nel caso di materia usuale, cioè con w > 0. Il fattore di scala cresce ancora, ma ora con legge di potenza, così come avevano predetto Lemaître e Friedman, e non più con legge esponenziale.
3 L’Universo è un sistema dinamico
In questa fase la componente dell’energia potenziale costante è quella dominante. Ne segue che in questa età dell’Universo l’equazione di stato corrisponde a w = −1. Inserita nella seconda equazione di Friedman, tale informazione implica che, durante lo slow rolling del campo scalare, l’accelerazione dell’espansione cosmica è positiva e il fattore di scala a(t) cresce rapidamente. Quanto rapidamente ce lo dice la prima equazione di Friedman. Al crescere di a(t), il termine di curvatura, indipendentemente dal suo segno, diventa presto trascurabile rispetto al contributo costante dell’energia potenziale, poiché esso decresce come a21(t) . Pertanto la prima equazione di Friedman ci informa che nella fase dello slow rolling la funzione H(t) è quasi uguale a una costante data da 4πG Hi ≡ (3.6) W(φi ) 3
88 Il fascino oscuro dell’inflazione
La breve fase di slow rolling e di crescita esponenziale che ha preceduto la fase di espansione normale, viene denominata inflazione e il campo scalare che l’ha prodotta, decadendo da un massimo a un minimo della propria energia potenziale, viene chiamato inflatone.
I doni dell’inflazione: omogeneità, isotropia e piattezza Dopo l’inflazione tutto procede come nella teoria del Big Bang caldo, ma vi è un elemento nuovo che l’inflazione ci ha regalato a costo zero: l’Universo primordiale è divenuto naturalmente omogeneo e spazialmente piatto. L’inflazione è il meccanismo dinamico che prepara in modo naturale l’improbabile stato iniziale richiesto dal principio cosmologico. Perché avvenne questo? Perché nel breve volgere di una frazione di secondo, subito dopo il Big Bang, lo spazio tempo subì una dilatazione di un fattore prossimo a e60 che, in potenze di dieci, vale circa 1026 . Questo fattore di dilatazione è lo stesso che l’Universo ha accumulato nei successivi 13 miliardi di anni di espansione non esponenziale. Un semplice calcolo è sufficiente per stimare tale numero. Abbiamo visto che in tempi di espansione normale il fattore di scala cresce in maniera mediamente quasi lineare. Contiamo dunque i secondi contenuti in 13 miliardi di anni. Essi sono circa 4×1017 . Ricordiamoci ora che in ogni secondo la luce percorre 3 × 108 centimetri. L’andamento pressoché lineare del fattore di scala (che si misura in centimetri) rispetto al tempo (che si misura in secondi), significa che il complessivo fattore di dilatazione accumulato dall’Universo in tutta la sua vita post-inflazionaria è stato circa 4×1017 ×3×108 ≈ 1026 . Il raggio attuale dell’Universo visibile è dell’ordine di 1028 cm. Dunque al termine dell’inflazione l’Universo doveva avere un rag28 gio dell’ordine dei 10 cm, cioè al più dell’ordine del metro. Una 1026 frazione di secondo prima, tuttavia la dimensione dell’Universo era 10−26 volte più piccola, che significa essere a scale di distanza vari miliardi di volte più piccole delle dimensioni del nucleo atomico. Ecco perché l’Universo è omogeneo! Esso è la fotografia ingrandita 1026 volte di una minutissima regione di spazio-tempo che ebbe tutto il tempo, dopo il Big Bang, di porsi in equili-
89
Fig. 22. Comportamento dell’inflatone durante la fase inflattiva dell’Universo
3 L’Universo è un sistema dinamico
brio termico e di diventare quindi assolutamente omogenea e isotropa. Non solo l’Universo post-inflazionario è omogeneo e isotropo, ma esso è anche piatto. Infatti durante la fase inflattiva la densità di energia si mantiene costante mentre il termine di curvatura a2k(t) presente nell’equazione di Friedman decresce di un fattore 10−52 . Dunque alla fine dell’inflazione, indipendentemente dal segno originario della curvatura, l’energia totale dell’Universo è uguale a 3H2 quella critica, data dal valore di 4πG a quel tempo.
90 Il fascino oscuro dell’inflazione
In altre parole, indipendentemente dalle condizioni precedenti l’inflazione, l’Universo esce da quest’ultima spazialmente piatto con una precisione dell’ordine di circa 10−52 .
Le fluttuazioni quantistiche e l’anisotropia della CMB Lo scenario inflazionario ha ricevuto una straordinaria conferma osservativa dai dati accumulati nel corso di cinque anni di misura dalla sonda WMAP. Lanciata nel 2001 dalla NASA, la sonda si trova in un punto lagrangiano di equilibrio del sistema Terra + Sole, a circa un milione e mezzo di chilometri dal nostro Pianeta e ben oltre
Fig. 23. Comportamento del fattore di scala e dell’inflatone (campo scalare) nello scenario inflazionario classico. I grafici presentati sono il risultato di una soluzione numerica delle equazioni di Einstein. Durante la prima fase, di slow rolling, l’inflatone resta quasi costante e il fattore di scala cresce esponenzialmente. Poi l’inflatone comincia a scendere sempre più rapidamente verso il proprio minimo e la crescita esponenziale termina È la fase di fast rolling. Infine l’energia cinetica dell’inflatone si disperde in energia termica e l’Universo gonfiato si riscalda di nuovo
91
teria barionica che decade come a31(t) . Da quell’istante di tempo è iniziata l’età della materia. Al momento del disaccopiamento non vi erano ancora né stelle, né galassie né altre strutture. Soltanto delle piccole fluttuazioni locali del campo gravitazionale, che la radiazione di fondo ha fedelmente registrato come macchie leggermente più calde ovvero più fredde nell’immagine del cielo primordiale. Queste microscopiche anisitropie gravitazionali della LSS sono il residuo, completamente appiattito e stirato dall’inflazione, delle primordiali fluttuazioni quantistiche pre-inflazionarie. Il meccanismo è intuitivo. Pensate alla superficie ruvida e grinzosa di un palloncino sgonfio. Essa diventa quasi perfettamente liscia se voi lo gonfiate. Liscia come la cute di un neonato se il fattore di dilatazione è niente meno che 1026 ! Quelle piccolissime imperfezioni nel tessuto quasi perfettamente omogeneo del cielo primordiale sono i semi da cui sono germogliate le strutture a grande scala dell’Universo: galassie e cluster di galassie! I dati di WMAP non solo hanno confermato la grandissima omogeneità e isotropia dell’Universo, come implicato dal meccanismo inflazionario, ma hanno anche fornito un ulteriore conferma di quest’ultimo, dimostrando che l’Universo in cui abbiamo la ventura di vivere è spazialmente piatto, cioè che il fatidico parametro cappa vale zero: k = 0. Una sintesi grafica del ragionamento con il quale si arriva a questa conclusione è presentata nel quadrante di sinistra della figura 25. Il punto è il seguente. Noi presumiamo
3 L’Universo è un sistema dinamico
il raggio dell’orbita lunare. Da questa posizione la strumentazione a bordo del satellite, che consiste di radiometri differenziali, ha misurato con estrema precisione le piccolissime differenze di temperatura della radiazione di fondo cosmica presenti tra punti diversi del cielo. Queste ultime sono dell’ordine del milliKelvin e la sonda WMAP le ha distinte con una risoluzione angolare dell’ordine di 0,3 K e una sensibilità di 20 μK. L’Umanità è così entrata in possesso di un’immagine del cielo primordiale, vecchia di quasi tredici miliardi di anni. Quest’immagine impressa nella radiazione cosmica di fondo è una fotografia della cosiddetta LSS, cioè della Last Scattering Surface. Con questa denominazione si indica la sezione spaziale dell’Universo al tempo del disaccopiamento, quando la densità di energia della radiazione, che decade come a41(t) , è divenuta inferiore a quella della ma-
92 Il fascino oscuro dell’inflazione
di conoscere la forma dello spettro delle fluttuazioni quantistiche pre-inflazionarie che sono state registrate nella radiazione di fondo: esse hanno una distribuzione essenzialmente stocastica e gaussiana. Dunque abbiamo una teoria che ci predice l’immagine della LSS e i dati sono consistenti con questa teoria. Dobbiamo pe-
Fig. 24. La sonda spaziale WMAP (Wilkinson Microwave Anisotropy Probe) e sotto la mappa del cielo da essa prodotta. La sonda ha misurato la distribuzione angolare delle piccolissime fluttuazioni della temperatura nella radiazione di fondo cosmica che sono dell’ordine del milliKelvin. Ciò che vediamo è un immagine fossile dell’Universo come esso era al tempo del disaccopiamento della radiazione, cioè a 400.000 anni dopo il Big Bang e quindi circa 12 miliardi e mezzo di anni or sono
93 3 L’Universo è un sistema dinamico Fig. 25. L’osservazione delle supernovae Ia a grandi valori del redshift ha permesso di misurare le deviazioni della legge di Hubble dall’andamento lineare e pertanto il parametro di accelerazione Q(t) che è risultato piccolo ma positivo. Il nostro Universo è ora in una fase di riaccelerazione dovuta a una piccola costante cosmologica pure positiva
rò tener conto del fatto che l’immagine del cielo ricostruita dalla sonda WMAP è quella della LSS propagatasi per 13 miliardi di anni attraverso uno spazio-tempo che potrebbe avere curvatura spaziale positiva, nulla o negativa. In altre parole noi vediamo la LSS primordiale attraverso una lente che può deformare l’immagine originale come uno specchio concavo, come uno specchio piatto
94 Il fascino oscuro dell’inflazione
ovvero uno convesso. Confrontando l’immagine attuale con quella che la nostra teoria predice si può decidere la curvatura dello specchio. Essa è nulla! Un risultato eccezionale che conferma l’inflazione e ci garantisce che la densità di energia dell’Universo attuale è esattamente quella critica 3H02 0 = crit (t0 ) ≡ (3.8) 4πG dove H0 è la costante di Hubble e G la costante di gravitazione universale di Newton. La stima della materia luminosa barionica ottenuta tramite il conteggio del numero di galassie e la stima della loro consistenza media ci dice che questo tipo di materia ammonta ad appena il 6% della densità critica, dunque il 94% del contenuto energetico dell’Universo è fornito da materia o energia oscura.
Il Supernova Project e la nuova accelerazione Ai dati della sonda WMAP sulla radiazione cosmica di fondo si è aggiunta, nei primi anni del presente millennio un’altra preziosa informazione, ottenuta grazie a un progetto di ricerca denominato The supernova cosmological project. Riassumendo in poche parole un’analisi sofisticata e raffinatissima basata sul trattamento di una messe grandiosa di dati tramite una rete di supercalcolatori, possiamo dire che il supernova project è l’equivalente a livello cosmologico di ciò che fu la ricerca delle cefeidi a scale di distanze molto minori. Il concetto è sempre lo stesso, vale a dire quello delle candele standard. Le cefeidi sono candele standard poiché dal loro periodo risaliamo alla loro magnitudine assoluta. Le supernovae di tipo Ia sono altre candele standard, poiché esiste il limite di massa di Chandrasekhar. Spieghiamoci. Lo stadio terminale nella vita delle stelle di grandezza medio-piccola come il nostro Sole è quello di nana bianca. Schematicamente una nana bianca è un gas di elettroni e di ioni in cui la pressione dovuta al principio di esclusione di Pauli, che impedisce a due fermioni di occupare lo stesso stato dinamico, controbilancia esattamente l’attrazione gravitazionale, che tenderebbe invece a far collassare la stella ormai spenta. Questo equilibrio ha un limite superiore esattamente calcolabile in termini di costanti fondamenta-
95 3 L’Universo è un sistema dinamico Fig. 26. Evoluzione del fattore di scala in un universo con riaccelerazione
li della Natura: una nana bianca può esistere se e solo se la sua massa totale non supera 1,4 M , dove M denota la massa del Sole. La dinamica delle esplosioni di supernovae Ia è ben conosciuta. Si tratta di sistemi binari in cui una stella non collassata e una nana bianca percorrono orbite molto strette attorno al loro centro di massa. A ogni passaggio attraverso il periastro, che è il punto di massimo avvicinamento tra i due astri, il forte campo gravitazionale della nana bianca provoca un costante risucchio di materiale a spese della compagna. In questo modo la massa della nana bianca continua a crescere fino a che, raggiunto il limite di Chandrasekhar, l’equilibrio si rompe e l’astro esplode in forma di supernova. La luminosità assoluta di questa esplosione è determinata a priori dal limite di Chandrasekhar: la supernova ha esattamente 1,4 masse stellari. Candele standard migliori non si potrebbero immaginare. Sono luminossime e precise. Grazie a queste candele è stato possibile studiare la legge di Hubble ad altissimi valori del redshift e misurare il parametro di 0) accelerazione al tempo attuale Q(t0 ) = ä(t a(t0 ) , scoprendo che esso è positivo.
96 Il fascino oscuro dell’inflazione
Dunque il nostro universo si trova in una fase di espansione nuovamente accelerata ed è spazialmente piatto, cioè ha massa critica. Il dato Q(t0 ) > 0 (3.9) implica che esiste una piccola, ma non nulla costante cosmologica corrispondente al valore W(φf ) > 0 del potenziale nel punto φf in cui si è acquetato il campo scalare φ al termine dell’inflazione. Questa energia potenziale è l’energia oscura. Essa era assolutamente trascurabile in tempi remoti, ma con l’espandersi dell’Universo le altre forme di energia sono tutte decadute di densità mentre questa è rimasta costante e ora è divenuta dominante. Infatti, facendo i conti si scopre che essa spiega circa il 70% dell’energia critica. La materia barionica spiega, come abbiamo detto, il 6%, rimane la domanda da che cosa sia costituito il rimanente 24%? La risposta è: da materia oscura.
Cosmologia e interazioni fondamentali I grandi progressi compiuti dalla cosmologia nell’ultima decade consegnano alla teoria delle interazioni fondamentali un compito arduo e stringente. Da una parte essa deve contemplare dei campi scalari con un potenziale acconcio a generare prima l’inflazione e successivamente l’osservata riaccelerazione attuale, dall’altra essa deve fornire una spiegazione per la materia oscura. Questa potrebbe essere costituita da un residuo fossile simile alla radiazione di fondo elettromagnetica: un gas di particelle massive, stabili, neutre e debolmente interagenti per cui è stato coniato l’acronimo inglese di WIMPs (Weakly interacting massive particles). Le teorie supersimmetriche delle interazioni fondamentali, oltre a candidarsi a un ruolo decisivo nella descrizione della fisica delle particelle, hanno la potenzialità di risolvere anche questi enigmi cosmologici. La presenza dei campi scalari è infatti intrinseca a tali teorie e ve ne è anzi abbondanza. Inoltre i partner supersimmetrici delle particelle usuali, di cui parlerò nel prossimo capitolo, forniscono validissimi candidati per la spiegazione della materia oscura. Le estensioni supersimmetriche della teoria delle interazioni fondamentali hanno la loro radice nella teoria delle superstringhe, che da oltre vent’anni si è candidata a essere la Teoria del Tutto.
4 Superstringhe e Brane danno la risposta?
Delle sue equazioni Einstein soleva dire che il membro di destra è scolpito nel marmo imperituro, mentre quello di sinistra è scritto nel legno deteriorabile. Con questa affermazione egli intendeva sottolineare che, mentre la combinazione di oggetti matematici posta a destra del segno di uguale e nota come tensore di Einstein Gμν (g) è formata soltanto da enti geometrici, il contributo della materia, dato dal tensore energia-impulso Tμν è fornito invece in termini di una descrizione statistica, necessariamente approssimata e provvisoria. Ciò è dovuto al fatto che i campi che descrivono le interazioni non gravitazionali e soprattutto quelli che descrivono la materia barionica e leptonica, così come per esempio i nucleoni, oppure gli elettroni, non erano stati ancora né geometrizzati né interamente compresi, non solo al tempo in cui Einstein introdusse la sua teoria, ma anche successivamente, durante tutto il corso della sua vita. Il sogno di Einstein era quello di poter spostare il membro di destra a sinistra delle equazioni, trasformando il legno deteriorabile in marmo imperituro. In altre parole Einstein inseguiva l’idea che non solo la gravità, bensì tutte le interazioni fossero manifestazioni di proprietà geometriche. La gravità è lo specchio che rivela la geometria dello spazio-tempo, le altre interazioni rivelano invece le proprietà geometriche aggiuntive di qualcosa che include lo spazio- tempo, ma è più complesso e più grande di quest’ultimo.
98 Il fascino oscuro dell’inflazione
Le Teorie di Gauge e la nascita del modello standard L’aspirazione di Einstein è stata fatta propria da quasi tre generazioni di fisici del dopoguerra che, nel corso della seconda metà del XX secolo, grazie ai grandi progressi della fisica matematica da una parte e della tecnologia degli acceleratori di particelle dall’altra, hanno costruito e verificato una buona teoria, allo stesso tempo geometrica e quantistica, di tutte le interazioni fondamentali non gravitazionali. Tale teoria porta il nome di modello standard. L’estensione dello spazio tempo, la cui più complessa geometria manifesta non solo la gravitazione, ma anche le interazioni non gravitazionali, rientra nella categoria matematica, pure sviluppata nelle decadi centrali del XX secolo, di spazi fibrati. Il prototipo di uno spazio fibrato è fornito dalla celeberrima immagine della striscia di Moebius. La proprietà definitoria dei fibrati è quella di essere localmente triviali, cioè di apparire, quando se ne isoli una sola porzione, equivalenti al prodotto cartesiano di una porzione Uα di uno spazio M, generalmente curvo, detto lo spazio di base, con un altro intero spazio F, detto la fibra. Esiste una mappa di proiezione π che proietta l’intero spazio fibrato P sullo spazio di base M. Per definizione il fascio di fibre sopra ogni porzione Uα dello spazio di base M è π−1 (Uα ), cioè l’insieme dei punti di P, la cui proiezione giace all’interno della porzione di M considerata, vale a dire all’interno di Uα . Per riassumere in poche parole, e con un pò di arbitrarie semplificazioni, un lungo capitolo della matematica moderna, possiamo dire che la geometria di uno spazio fibrato è descritta da due enti: 1. la metrica g dello spazio di base M, 2. un campo A, detto connessione, che descrive il progressivo torcersi della fibra F da un punto all’altro dello spazio di base. Nell’esempio della striscia di Moebius (vedi fig. 1), la connessione descrive la progressiva rotazione dei segmenti chiari (fibre), piantati su ciascun punto della cordicella scura (spazio di base). Percorrendo metà della cordicella scura, troviamo che il segmento chiaro piantato sul punto finale di tale percorso è capovolto con la testa in giù e i piedi in sù rispetto al suo compagno piantato sul punto di
99 4 Superstringhe e Brane danno la risposta? Fig. 1. La striscia di Moebius è il prototipo di uno spazio fibrato. Localmente, se cioè se ne taglia un pezzo, essa è indistinguibile da una normale striscia rettangolare, che si può considerare come il prodotto di due spazi unidimensionali, lo spazio di base (la linea scura della figura) con la fibra, (il segmento chiaro della figura). Sopra ogni punto della base c’è un’intera fibra (cioè un segmento chiaro). Globalmente però, la striscia di Moebius non è un rettangolo, né una porzione di superficie cilindrica, perché prima di incollare insieme due lati del rettangolo si è fatto un twist, cioè una rotazione di 180 gradi
partenza. È ovvio che, dato uno stesso spazio di base M, si possono costruire su di esso molti fibrati diversi, scegliendo diversamente la fibra F e incollandola con opportune connessioni. Nell’interpretazione fisica, le diverse scelte per la fibra F corrispondono alle diverse interazioni non gravitazionali, mentre lo spazio di base M è in ogni caso lo spazio-tempo. La metrica g di M si identifica con il campo gravitazionale, mentre le connessioni A, corrispondenti a ciascun fibrato, si identificano con i campi mediatori di ciascuna delle interazioni non gravitazionali. Le teorie fisiche che risultano da simili costruzioni si chiamano teorie di Gauge.
100 Il fascino oscuro dell’inflazione Fig. 2. Lo spazio fibrato P si proietta sullo spazio di base M. Per ogni porzione U di M, il fascio di fibre sopra U è l’insieme dei punti di P la cui proiezione giace in U. Ogni fascio di fibre appare come il prodotto cartesiano di U con la fibra F. Complessivamente però P non è il prodotto di M con F
Proposte per la prima volta da C.N. Yang1 e Robert Mills nel 1954, le teorie di Gauge furono a lungo studiate da numerosi teo1 Figlio di un matematico e nato in Cina nel 1922, C.N. Yang studiò in varie università del suo paese durante i difficili tempi della seconda guerra mondiale e dell’occupazione giapponese di parte della Cina. Nel 1946 grazie ad una borsa di studio americana emigrò negli USA e completò il proprio dottorato all’Università di Chicago dove per un paio di anni fu assistente di Enrico Fermi. Fu successivamente membro dell’Istituto di Studi Avanzati di Princeton. Nel 1957, insieme al collega cino-americano Tsung-Dao Lee, con il quale ha avuto un’intera vita di celebri contrasti, Yang fu insignito del Premio Nobel per i propri studi sulla violazione della parità nelle interazioni deboli. Dal 1966 al 1999, C.N. Yang è stato direttore dell’ITP, l’Istituto di Fisica Teorica dell’Università di Stato di New York a Stony Brook. Là ho avuto l’onore di incontrarlo più di una volta e di essere affascinato dalla sua straordinaria personalità sia umana che scientifica. Membro onorario di tutte le più prestigiose accademie scientifiche del mondo, più volte consigliere del Governo Americano, autore di lavori di eccezionale rilevanza in vari campi della Fisica, C.N. Yang è tornato a vivere in Cina dove è professore al Centro di Studi Avanzati di Pechino. Rimasto vedovo all’età di 82 anni, si è risposato ad 84 con una seconda moglie di 28 anni di età. In America e soprattutto a Stony Brook, il professor Yang era noto a tutti come Frank. Mi spiegò un giorno che stufo della inpronunciabilità del proprio nome cinese da parte delle bocche americane egli, ancora al tempo in cui era a Chicago con Fermi, aveva deciso di scegliere per sè uno dei più semplici e corti nomi inglesi e aveva detto a tutti che quello era il suo nome. Con grande sollievo, tutti cominciarono a chiamarlo Frank e Frank egli rimase per tutti, durante un cinquantennio.
101
Fig. 3. I padri delle teorie di Gauge
4 Superstringhe e Brane danno la risposta?
rici. Nel 1971 il venticinquenne fisico olandese Gerardus ’t Hooft, studente di dottorato sotto la guida di Martinus Veltman all’università di Utrecht, con un poderoso e meticoloso lavoro matematico, riuscì a dimostrare la cosiddetta rinormalizzabilità delle teorie di Gauge quantizzate. In parole semplici questo significa la consistenza con la meccanica quantistica di tali teorie geometriche. La dimostrazione di questa consistenza non è una semplice consolazione filosofica, necessaria una tantum per tranquillizzarci sull’uso di una costruzione concettuale preesistente. Al contrario, la rinormalizzazione delle teorie di Gauge costituì un passaggio indispensabile per trasformare l’idea geometrica posta alla base di queste teorie in un effettivo algoritmo di calcolo delle quantità fisiche osservabili in laboratorio, in particolare negli urti ad alta energia prodotti dagli acceleratori di particelle, ma anche nei fenomeni astrofisici estremi, come le esplosioni delle supernovae, o nella zuppa primordiale seguita al Big Bang. Per questo eccezionale risultato teorico, che ha fornito la solida base costruttiva del modello standard delle interazioni fondamentali, ’t Hooft e Veltman furono insigniti del premio Nobel nel 1999. Il modello standard, infatti, è una teoria di Gauge in cui, per descrivere le tre interazioni non gravitazionali, forte, debole ed elettromagnetica e anche i costituenti elementari della materia, cioè i quark e i leptoni, si operano specifiche scelte delle fibre F. Torneremo tra breve alla descrizione di questi mattoni elementari e al modo in cui sono organizzati. Prima di fare ciò è interessante riassumere alcuni dati storici. Il modello standard è scaturito dal lavoro di numerosi scienziati di varie nazioni.
102
Le interazioni forti Il fascino oscuro dell’inflazione
Per quanto riguarda le interazioni forti e i quark, la teoria che ne descrive la dinamica è la teoria di Gauge detta cromodinamica quantistica, usualmente abbreviata QCD dall’inglese Quantum Chromo Dynamics. L’idea si sviluppò lentamente attraverso lo studio delle simmetrie dello spettro degli stati adronici prodotti dagli urti nucleari nei primi acceleratori. Figura chiave in questo processo storico fu Murray Gell-Mann, fisico americano di origini ebraiche che, nato nel 1929, già nel 1953, al fine di organizzare gli spettri adronici, introdusse, insieme al giapponese Nishijima, un nuovo tipo di carica detto la stranezza. Lo stesso Gell-Mann, in collaborazione con l’israeliano Yuval Ne’eman, inventò nel 1961 il cosiddetto eightfold way, uno schema basato sulla teoria dei gruppi che permetteva di organizzare in una classificazione sistematica tutte le particelle nucleari, stabili e instabili. Nel 1963, Murray Gell-Mann e George Zweig, proposero indipendentemente l’interpretazione dell’eightfold way in termini di subcostituenti elementari che furono chiamati quarks da Gell-Mann e aces (cioè assi) da Zweig. L’idea è semplice da spiegare. Si postulò che tutte le particelle adroniche conosciute fossero stati legati di tre costituenti elementari più piccoli, inosservabili negli esperimenti, ma dotati di tre distinti sapori (flavors, in inglese) le cui combinazioni erano in grado di dar luogo a tutti gli stati effettivamente osservati. In questo modo si veniva a costruire una sorta di nuova tavola di Mendele’ev, non dei nuclei atomici, bensì delle particelle subnucleari. George Zweig, anch’egli americano, ma nato a Mosca nel 1937 da una famiglia ebraica, all’epoca in cui propose il suo modello degli aces, era studente di dottorato al California Institute of Technology di Pasadena (CalTech), dove Gell-Mann fu professore dal 1955 fino al 1993 e dove egli è tuttora professore emerito. Membro della National Academy of Sciences, George Zweig lavora oggi presso la Renaissance Technologies, un istituto privato che, situato sulla Long Island a pochi chilometri dall’Università di Stony Brook, si occupa dell’elaborazione di modelli matematici per la Borsa e per gli investimenti finanziari. Prima di dedicarsi alla matematica finanziaria, Zweig ha dato importanti contributi anche alla neurobiologia, con degli studi sul ner-
103 4 Superstringhe e Brane danno la risposta?
vo acustico per i quali è stato insignito del prestigioso premio MacArthur. È generalmente considerato alquanto ingiusto, anche se storicamente comprensibile, che a Zweig non sia stato attribuito il Premio Nobel per il modello a quark. La parola quark fu introdotta da Gell-Mann sulla base di una citazione letteraria dal romanzo Finnegans Wake di James Joyce (“Three quarks for Muster Mark!”) e quando, nel 1969, egli venne insignito del Premio Nobel per i suoi fondamentali contributi alla comprensione delle simmetrie dello spettro adronico, la spiegazione di quest’ultimo in termini di quark non era ancora universalmente accettata. Anzi sussistevano vari problemi aperti, abbastanza seri. Per risolvere uno di questi, in cui la descrizione a quark risultava in conflitto con il principio di esclusione di Pauli, nello stesso anno 1965, Moo Yu Han, nato in Korea nel 1934 e professore in Inghilterra, Yoichiro Nambu, nato in Giappone nel 1921 e professore in America, nonché Oscar W. Greenberg, professore all’Università del Maryland, proposero indipendentemente l’idea che i quark, oltre a quella di sapore fossero portatori di un’ulteriore carica detta di colore, che può prendere tre valori, convenzionalmente detti il bianco, il rosso e il blu, in omaggio alla bandiera americana. A causa di questa carica di colore i quark possono interagire scambiandosi i quanti di un campo vettoriale formato da otto componenti: gli otto gluoni. Era questa, in sostanza, la proposta della cromodinamica quantistica quale teoria delle interazioni tra i quark, corrispondente a una teoria di Gauge con una ben specifica scelta della fibra F. In linguaggio matematico tale fibra è il gruppo continuo SU(3). Nel 1969 la proposta della QCD era ancora un’azzardata ipotesi priva di evidenze sperimentali immediate e per di più basata su un’impalcatura teorica, quella delle teorie di Gauge, la cui consistenza quantistica e predittività calcolativa erano ancora da venire. Dunque il premio Nobel a Gell-Mann fu meritatamente attribuito per i suoi contributi allo studio delle simmetrie, ma non per il modello a quark. Quando quest’ultimo e la QCD divennero il modello standard delle interazioni forti si può presumere che il comitato Nobel abbia considerato impossibile attribuire il premio a Zweig senza includere una seconda volta anche Gell-Mann. Questo forse è il motivo di una mancata attribuzione che continua ad avere il sapore di un’ingiustizia storica.
104 Il fascino oscuro dell’inflazione
Nel 2004 il premio Nobel è stato invece conferito ex aequo ai tre fisici americani David Gross, Hugh Politzer e Frank Wilczek per il loro lavoro congiunto del 1973 in cui scoprirono il fenomeno generale della libertà asintotica, comune a tutte le teorie di Gauge in cui la fibra F sia data da un gruppo non abeliano2 . In quello stesso lavoro, i tre autori compresero appieno e sottolinearono l’importanza di tale fenomeno per la teoria delle interazioni forti, cioè per la QCD. Riassunta in poche parole la libertà asintotica asserisce che, mentre le interazioni forti sono fortissime alle basse energie e pertanto causano il permanente confinamento dei quark in stati legati che noi percepiamo come particelle stabili o metastabili, quali il protone, il neutrone o gli altri adroni, esse diventano sempre più deboli, man mano che la scala di energia cresce. Negli urti di nucleoni ad altissima energia, sono pertanto i singoli quark a scontrarsi gli uni con gli altri e questi processi possono venire calcolati perturbativamente nell’ambito della QCD. Grazie a questo risultato la QCD, da ipotesi speculativa divenne, coniugata con la rinormalizzazione di ’t Hooft e di Veltman, un algoritmo predittivo e confrontabile con successo con gli esperimenti. È curioso osservare che alcuni dei principali protagonisti nella storia delle interazioni forti e delle teorie di Gauge siano scienziati dalla personalità estremamente forte, profonda e talvolta passionale. Ho avuto modo di conoscere personalmente alcuni di loro in varie occasioni e vi sono piccoli episodi la cui narrazione può illustrare il lato umano della storia della scienza. Una personalità non solo forte, ma oserei dire, addirittura soggiogante, è quella di Murray Gell-Mann. Uomo dalla cultura non solo scientifica, ma anche umanistica quasi enciclopedica, egli parla un numero strabiliante di lingue straniere con accento perfetto. Io lo conobbi all’inizio della mia carriera, quando giovanotto di venticinque anni, spesi un anno quale borsista post-dottorale 2 La nozione di gruppo che abbiamo già richiamato in un’altra nota è centrale nella matematica moderna a partire dall’inizio del secolo XIX. Un gruppo è un insieme di elementi ciascuno dei quali può essere interpretato come un’operazione da eseguire su altri oggetti (tipicamente una trasformazione, di qualche tipo). Il prodotto di due elementi è l’operazione che si ottiene eseguendo le due operazioni fattore in sequenza. Eseguire prima l’operazione A e poi quella B non conduce necessariamente allo stesso risultato che si ottiene eseguendole in ordine inverso. Quando questo è il caso si dice che il gruppo è non commutativo ovvero non abeliano. In caso contrario, si dice che il gruppo è commutativo, ovvero abeliano.
105 4 Superstringhe e Brane danno la risposta?
Fig. 4. I padri della Cromodinamica Quantistica
al Caltech di Pasadena. Sofisticato esperto di arte e di musica, il suo studio era sempre adorno di oggetti preziosi e ricercati, tappeti, quadri e libri rari, e la sua brillante conversazione spaziava su qualunque tema capitasse, con uno sfoggio di erudizione che, nonostante l’estrema e squisita gentilezza del prof. Gell-Mann, annientava comunque l’ascoltatore. Non importa se l’argomento fosse la musica barocca, la tecnica per costruire le navi, la cucina della provincia cinese del Sezchuan o il gioco dei tarocchi napoletani e non importa chi fosse l’interlocutore. Gell-Mann era comunque il più informato sull’argomento.
106 Il fascino oscuro dell’inflazione
Un venerdì della tarda primavera del 1978, in ottemperanza a una tradizione locale del Lauritsen Laboratory di quell’epoca, venne il mio turno di fornire il cibo per la ventina di persone che formavano il pubblico del settimanale Lunch Seminar. Ci si trovava nella saletta comune, attrezzata con lavagne, poltrone per gli ascoltatori e un lungo tavolo rettangolare posto al centro. Vettovaglie e bevande di vario genere venivano posate su quella mensa dal membro del gruppo che era di turno quel particolare venerdì e gli altri si abbuffavano con questi rinfreschi, intanto che ascoltavano la presentazione dello speaker del giorno, il quale, per quella volta, saltava il pasto. Mi consultai con mia moglie e decidemmo di preparare qualcosa di italiano che forse avrebbe potuto essere una gradita alternativa agli usuali intrugli comperati nel più vicino supermarket. Oltre a qualche altra più semplice vivanda, quali affettati e insalata, la scelta cadde sugli gnocchi alla romana. Mia moglie lavorò un giorno intero a prepararli, disporli nelle teglie e mezz’ora prima dell’inizio del seminario cominciò a cuocerli nel forno di casa, che era a cinquecento metri dal Laboratorio. Io feci più volte la spola con l’auto tra casa e il Lauritsen, per portare, teglia dopo teglia, le fumanti e gialle prelibatezze su quel tavolo attorno al quale, oltre a un certo numero di borsisti post-dottorali, erano radunati due premi Nobel nonché mostri sacri della fisica teorica, cioè Feynmann e Gell-Mann, lo scopritore di uno dei due settori delle superstringhe, cioè Pierre Ramond, uno dei tre inventori della supergravità, cioè Daniel Freedman, e l’inventore, insieme ad André Neveu dell’altro settore delle superstringhe, cioè John Schwarz, futuro scopritore della cancellazione delle anomalie. Richard Feynman, vestito con gli immancabili pantaloni grigi e l’immancabile camicia bianca sbottonata, si servì abbondantemente di gnocchetti, li divorò di gusto, tenendosi il piatto di carta sulle ginocchia e, prima di andarsene, con un ampio sorriso dipinto sul viso abbronzato e sempre vagamente ironico, fece un complimento a mia moglie che, a fine cottura, era sopraggiunta. Anche Murray Gell-Mann indossava la propria consueta divisa. Essa era composta da jeans allacciati con una cinturona di sapore western, da una giacca grigia sbottonata e da una camicia bianca, dal cui colletto, sempre abbottonato, pendeva un monile navajo di argento e turchese. Egli si sedette al tavolo, si servì di gnocchi, li assaggiò con accurata attenzione e poi, in perfetto italiano, disse a mia moglie che
107
Le interazioni elettrodeboli La teoria unificata delle interazioni elettrodeboli è anche, al pari della Quanto Cromodinamica, una teoria di Gauge, ma con una diversa scelta delle fibre F. Il gruppo, invece di essere SU(3), che implica otto campi come componenti della connessione A, è SU(2) × U(1), che ne implica solo quattro. Questi ultimi sono identificati con il fotone, noto all’Umanità da quando ha aperto gli occhi e visto la luce, e con le particelle W ± , Z rivelate per la prima volta al CERN nel 1983. Altro elemento essenziale della teoria elettrodebole è il fenomeno della rottura spontanea della simmetria, che dà massa alle particelle W ± , Z e dovrebbe essere indotta, come si è già detto, da una particella scalare non ancora scoperta, il bosone di Higgs, la cui produzione nelle collisioni al nuovo superacceleratore LHC è attesa con ansia dai fisici di tutto il mondo. Il modello SU(2) × U(1) nacque dal lavoro di tre teorici di prima grandezza che, allorché si ebbe l’evidenza indiretta dell’esistenza della particella Z, tramite la rivelazione delle correnti neutre, furono subito insigniti del premio Nobel, nell’anno 1979. I tre padri della teoria di Gauge elettrodebole sono i due americani Steven Weinberg e Sheldon Glashow e il pakistano Abdus Salam che, oltre a essere professore all’Imperial College di Londra, fu anche il fondatore e per lunghi anni il direttore dell’ICTP, il Centro Internazionale di Fisica Teorica di Trieste. Non potrò mai dimenticare la profonda emozione che provai nel gennaio del 1983, allorché giunsero le prime voci della rivelazione della particella W nell’esperimento UA1 del CERN, guidato da Carlo Rubbia. Ero già stato testimone della scoperta di altre particelle, come la J/ψ che implicava l’esistenza del quark charm, ma questa volta era diverso. Scoprire la W significava avere per la prima volta l’assoluta certezza che le teorie di Gauge non-abeliane sono effettivamente realizzate dalla Natura. Non si trattava solo della prova definitiva del modello di Glashow, Salam e Weinberg delle interazioni elettrodeboli, ma della più generale conferma che un intero quadro concettuale geometrico, generalizzazione della visione geometrica dello spazio tempo introdotta
4 Superstringhe e Brane danno la risposta?
erano molto buoni, ma che, a suo giudizio, sarebbero stati perfetti con l’aggiunta di un pizzico in più di noce moscata.
108 Il fascino oscuro dell’inflazione Fig. 5. I padri della teoria elettrodebole SU(2) × U(1)
da Einstein, era in effetti la corretta visione della struttura delle interazioni fondamentali. Non solo! Una volta di più si confermava il principio che le simmetrie possibili e le associate strutture matematiche sono sempre, prima o poi, realizzate dalle leggi della fisica. Un’emozione certo molto più grande della mia doverono provare Carlo Rubbia e l’ingegnere olandese Simon van der Meer, ideatore del sistema di raffreddamento stocastico del fascio, grazie al quale l’esperimento UA1 era stato reso possibile. L’anno successivo, nel fatidico 1984 immaginato da Orwell, entrambi furono insigniti del Premio Nobel.
109 4 Superstringhe e Brane danno la risposta?
Fig. 6. Il modello standard delle interazioni fondamentali
Questo evento chiudeva un’epoca della fisica e ne apriva un’altra. Il modello standard delle interazioni fondamentali era definitivamente nato e già si poteva cominciare a pensare alla fisica al di là del modello standard.
Il modello standard delle interazioni fondamentali Proviamo dunque a riassumere il contenuto e la struttura del modello standard. Esso ci informa sui mattoni elementari da cui è costituita la materia e ci dice come essi interagiscono tra di loro. Quali sono dunque questi mattoni?
110 Il fascino oscuro dell’inflazione
Essi sono particelle elementari e queste ultime, per dirla in modo semplice benché impreciso, sono caratterizzate dai loro attributi essenziali: – la massa; – lo spin; – il colore; – il sapore; – il numero della famiglia a cui la particella appartiene. Come la carica elettrica ci dice quanto una particella subisce l’interazione elettrica, così la massa ci dice quanto essa gravita, cioè qual è il suo contenuto di energia quando essa è a riposo. Lo spin ci dice quanto essa ruota attorno a un suo asse intrinseco. Il colore è la carica della particella rispetto alle interazioni forti, mentre il sapore, che generalizza il concetto di carica elettrica, è la carica elettrodebole. Le cose sono più complicate rispetto al caso elettromagnetico perché di colori e di sapori ce ne sono più di uno. Nel caso elettromagnetico possiamo solo dire quante unità di carica una particella trasporta. Nel caso forte dobbiamo dire quante unità di carica rossa, di carica blu e di carica bianca essa trasporti. I colori infatti sono tre. Similmente per i sapori che sono due. Un fatto peculiare è poi che ogni particella con gli stessi attributi di spin, colore e sapore sia ripetuta più volte, a massa ogni volta più elevata. Le repliche di gruppi di particelle con le stesse proprietà si chiamano famiglie e oggi sappiamo di avere esattamente tre famiglie nell’Universo. Un’altra distinzione fondamentale tra le particelle elementari è il tipo del loro spin, cioè il loro momento angolare intrinseco. Per profonde, ma semplici ragioni matematiche, lo spin può essere soltanto un numero intero, uno, due, tre e così via, oppure un numero seminitero, un mezzo, tre mezzi, cinque mezzi e così via. Quando lo spin è intero diciamo che la particella corrispondente è un bosone, dal nome del fisico indiano Bose. Quando lo spin è semintero diciamo che la corrispondente particella è un fermione dal nome del nostro grande padre Enrico Fermi. Bosoni e fermioni hanno comportamenti molto diversi tra di loro e universali. Inoltre il loro ruolo dinamico è in prima istanza radicalmente diverso.
111
1. Il mediatore della forza gravitazionale è il gravitone che ha massa zero e spin 2. 2. I mediatori dell’interazione forte sono gli otto gluoni con massa zero e spin 1. 3. Le interazioni elettrodeboli sono mediate da quattro bosoni di spin 1. Di essi solo il fotone ha massa zero. Le particelle W e Z che mediano l’interazione debole sono massive. Questo non è casuale, ma si comprende in termini generali attraverso un meccanismo di rottura spontanea della simmetria. È qui l’intima relazione tra dinamica e teoria dei gruppi.
4 Superstringhe e Brane danno la risposta?
I fermioni sono i costituenti elementari della materia, mentre i bosoni sono i mediatori delle forze che incollano insieme tali costituenti. Questi mediatori sono i quanti dei campi che identifichiamo con la metrica g nel caso della gravità e con la connessione A nel caso delle interazioni non gravitazionali. Fatte queste premesse, quali sono dunque, nello specifico, i mattoni previsti dal modello standard? Come già spiegato, essi si dividono in due classi: i costituenti elementari della materia e i mediatori delle forze. I costituenti sono fermioni di spin 1/2 mentre i mediatori sono bosoni di spin 2 e di spin 1. La materia fermionica si divide ulteriormente in due sottoclassi. La prima classe è data dai leptoni che si caratterizzano per avere sapore, ma non colore. Dunque essi subiscono l’interazione elettro-debole, ma non quella forte. Come si è detto ogni cosa è replicata tre volte corrispondentemente all’esistenza di tre famiglie. I leptoni della prima famiglia sono l’elettrone e il suo neutrino che formano un doppietto di sapore. Nella seconda famiglia abbiamo il doppietto del mu e del suo neutrino e nella terza il doppietto del tau e del suo neutrino. La seconda classe di materia fermionica è data dai quark. Essi si distinguono per avere sia sapore che colore. Sono dei doppietti di sapore esattamente come i leptoni, ma ciascun doppietto è replicato in tre colori diversi che formano un tripletto di colore. Inoltre vi è un doppietto di tripletti per ciascuna delle tre famiglie. La prima famiglia contiene il doppietto dei quark up e down. La seconda famiglia il doppietto dei quark strange e charm. La terza famiglia il doppietto bottom e top.
112 Il fascino oscuro dell’inflazione Fig. 7. Bosoni e fermioni, due ruoli dinamici diversi
Le sigle SU(3), SU(2)×U(1) non dovrebbero spaventare il lettore. Dietro di esse si nasconde qualcosa di estremamente semplice e facile da comprendere. Si tratta della nomenclatura ufficiale dei gruppi. Il gruppo i cui elementi sono le rotazioni in uno spazio euclideo a n dimensioni viene chiamato SO(n). Per definizione le rotazioni di SO(n) agiscono su dei vettori a n-componenti reali. Estendiamo ora la nozione di vettore al caso in cui le sue componenti invece di essere numeri reali siano numeri complessi. L’analogo del gruppo delle rotazioni che agisce su tali vettori si chiama SU(n).
113
Le Superstringhe 4 Superstringhe e Brane danno la risposta?
Il modello standard è molto bello ma non può essere la teoria finale di tutte le interazioni. Perché? Perché, per esempio, non offre alcuna spiegazione per i valori assunti dalle masse dei quark e dei leptoni. Perché non da alcuna spiegazione dell’apparentemente fortuita ripetizione degli stessi leptoni e degli stessi quark in tre famiglie identiche di massa crescente. Per molte altre ragioni che sarebbe difficile spiegare a questo livello. La ragione più ovvia e profonda è che il modello standard non unifica le altre interazioni con la gravità. Essa rimane differente e per di più piagata da un gravissimo problema. Benché superbamente in accordo con l’esperimento a livello classico, ogni tentativo di rendere la Relatività Generale consistente con la meccanica quantistica senza tentare allo stesso tempo di unificarla con le altre interazioni è andato finora deluso. Dunque la fisica teorica ha un’ambiziosa strada davanti a sè da percorrere. Insegue una teoria finale che spieghi ogni cosa e sa che questa strada ha due passaggi obbligati: la quantizzazione della Relatività Generale e l’unificazione della medesima con il modello standard. Studiare la materia a scale di lunghezza sempre più minuscule è come guardarvi dentro con un microscopio via via più potente. Se ingrandiamo la struttura della materia ordinaria a scale dell’ordine di 10 alla meno 10 metri vediamo gli atomi. Essi sono composti da elettroni e da un nucleo centrale. Se scendiamo alla scala di 10 alla meno 14 metri vediamo i singoli nucleoni: protoni e neutroni. E se ingrandiamo ancora la nostra scala fino a 10 alla meno 15 metri, che cosa vediamo dentro i nucleoni? Vediamo i quark legati insieme dal collante nucleare, cioè dai gluoni. Immaginiamo ora di aumentare ancora in maniera straordinaria la potenza del nostro microscopio e di poter ingrandire l’immagine fino a scale di 10 alla meno 35 metri. Che cosa vedremmo? Secondo la teoria delle superstringhe vedremmo delle minutissime corde vibranti che possono essere sia chiuse che aperte. Perché proprio 10 alla meno 35 metri dovrebbe essere la scala a cui si rivela la struttura a stringhe della materia? Perché questa è l’unica quantità con dimensione di una lunghezza che si può costruire
114 Il fascino oscuro dell’inflazione Fig. 8. I subcostituenti della materia a varie scale
con le tre fondamentali costanti della natura, la costante di gravitazione universale di Newton G, la velocità della luce c e la costante di Planck h, che definisce la meccanica quantistica. La costante G, data la sua definizione, ha le dimensioni di una lunghezza al cubo, per un tempo alla meno due, per una massa alla meno uno. La velocità della luce ha ovviamente la dimensione di una distanza per un tempo alla meno uno, mentre la costante h, essendo un quanto di azione, ha le dimensioni di una massa per una distanza alla
115 , ha le dimensioni di sionale consegue che la quantità ℓP = Gh c3 una lunghezza ed espressa in metri è precisamente dell’ordine di 10 alla meno 35. La scala ℓP è detta lunghezza di Planck e, considerando gli oggetti con cui è formata, si candida a essere la scala a cui i fenomeni associati alla quantizzazione della gravità dovrebbero manifestarsi e diventare dominanti. Essa è una scala straordinariamente piccola: venti ordini di grandezza più minuta della scala caratteristica delle interazioni forti, responsabili per la struttura a quark dei nucleoni. Questa piccolezza straordinaria implica che per investigare direttamente i misteri della gravità quantistica sarebbero necessarie delle sonde di altissima energia: un’energia così enorme che per raggiungerla in laboratorio l’uomo dovrebbe costruire degli acceleratori di particelle 10 alla venti volte più grandi del più grande acceleratore mai costruito, cioè dello LHC del CERN. Quest’ultimo ha un diametro dell’ordine della decina di chilometri, il che implica la seguente stima brutale, ma significativa. L’acceleratore necessario per investigare la scala di Planck dovrebbe avere un diametro dell’ordine dei 10 alla 25 metri, cioè dei 10 alla 27 centimetri. Ma questo è precisamente l’ordine di grandezza attuale dell’Universo visibile! Dunque per scandagliare la scala della gravità quantistica il laboratorio dovrebbe avere le dimensioni dello stesso Universo! Chiediamoci ora chi è il principale responsabile della minutezza della lunghezza di Planck. A parità di condizioni con le altre interazioni, che rivelano la loro struttura quantistica a lunghezze enormemente più grandi, a parità cioè di velocità della luce c e di costante di Planck h, il sospettato numero uno è la costante di Newton G, che è molto piccola. In altre parole l’interazione gravitazionale è, almeno alle grandi distanze, molto debole ed è per questo fatto che l’Universo può essere così grande. Se per molti ordini di grandezza G fosse maggiore di quello che essa effettivamente è, allora l’attrazione gravitazionale molto più intensa costringerebbe le galassie a radunarsi, le stelle non potrebbero esistere, perché collasserebbero immediatamente, e l’intero Universo sarebbe assai più piccolo. In questo ragionamento rinveniamo il profondo legame tra l’infinitamente grande, cioè la cosmologia e l’infinitamente piccolo, cioè la fisica dei costituenti ultimi della materia che, secondo la
4 Superstringhe e Brane danno la risposta?
meno due, per un tempo alla meno uno. Da questa analisi dimen-
116 Il fascino oscuro dell’inflazione Fig. 9. Le stringhe fondamentali appaiono alla scala di Planck
teoria delle superstringhe, sarebbero delle minutissime cordicelle quantistiche. A questa visione della realtà fisica si è giunti attraverso un accidentato, ma emozionantissimo percorso concettuale, in cui non è stata la volontà degli uomini a creare la teoria, ma la teoria stessa a condurre gli scienziati che se ne sono occupati a scoprire il suo profondo significato fisico, attraverso l’interpretazione della sua struttura matematica. Quest’ultima, partendo da semplicissimi presupposti, si è rivelata di una ricchezza assolutamente straordinaria, ineguagliata nella storia del pensiero umano.
Le cordicelle quanto-relativistiche Il 1968 fu un anno cruciale per la storia politica del mondo: la primavera di Praga, cominciata in aprile, fu brutalmente stroncata dai carri armati sovietici in agosto, infrangendo così il sogno del socialismo dal volto umano. La rivolta studentesca, iniziata nelle uni-
117
Fig. 10. I padri delle cordicelle quanto-relativistiche
4 Superstringhe e Brane danno la risposta?
versità americane con la contestazione della guerra in Vietnam, si estese a Berlino Ovest e a tutte le città europee, culminando nel maggio parigino. Il segno del ’68 è rimasto profondo nella storia dell’Occidente e dei suoi costumi poiché dopo quell’anno nulla fu più uguale a prima. Anche in fisica il 1968 gettò un seme da cui nacque una pianta vigorosa, il cui sviluppo dura tuttora sotto il nome di Teoria delle superstringhe. Nel 1968 Gabriele Veneziano aveva ventisei anni e si trovava temporaneamente alla divisione teorica del CERN, in congedo dall’Istituto Weizman di Rehovot (Israele), dove soltanto l’anno precedente aveva conseguito il dottorato. La laurea l’aveva invece ottenuta qualche anno prima dall’università della sua città natale: Firenze. In quell’epoca la teoria delle interazioni forti era ancora molto incerta, la quanto-cromodinamica non aveva ancora emesso i primi vagiti e ciò che invece dominava la fantasia dei fisici era l’enorme ricchezza dello spettro adronico, che gli esperimenti di alta energia venivano sempre più discoprendo. L’interpretazione di tutte quelle particelle come stati instabili o metastabili creati dalla dinamica dei quark e dei gluoni non era ancora accessibile. Un’idea perseguita da molti era quella di descrivere l’ampiezza di diffusione di tutti gli adroni tramite una formula universale in cui, in ogni canale, il contributo dominante fosse dato dalla somma sugli stati intermedi, forniti da uno stesso spettro di infinite particelle di crescente massa. L’idea, come sempre accade per quelle fondamentali, è abbastanza semplice, così da potersi raccontare al pubblico, almeno
118 Il fascino oscuro dell’inflazione
in nuce. Due particelle A e C collidono e, dall’urto, emergono due nuove particelle B e D. Si tratta di descrivere l’ampiezza di probabilità AABCD di tale processo, in funzione delle energie e delle direzioni, sia delle particelle entranti che di quelle uscenti. Il processo può essere pensato come la formazione, dapprima, di uno stato intermedio, creato dalla fusione di A con C, che successivamente decade nella coppia BD. La probabilità del fenomeno è fornita dalla somma su tutti gli stati intermedi disponibili. Alternativamente si potrebbe interpretare lo stesso processo come la fusione di A con l’antiparticella di B e la conseguente formazione di uno stato intermedio che successivamente decade in D e nell’antiparticella di C. Anche in questa interpretazione la probabilità è data dalla somma su tutti i possibili stati intermedi. Le due interpretazioni dello stesso processo vengono chiamate il canale s e il canale t della reazione considerata. L’idea che affascinava i fisici di quell’epoca era la seguente. Può esistere un’ampiezza di diffusione AABCD tale che la prima e la seconda interpretazione siano ugualmente valide e la somma sugli stati intermedi del canale s sia esattamente uguale alla somma effettuata nel canale t? La proprietà richiesta veniva e viene tuttora denominata dualità. La domanda è di natura squisitamente matematica. Posto che una siffatta funzione AABCD esistesse, sarebbe poi necessario trovare una teoria che desse tale funzione come probabilità di diffusione del processo fisico considerato. In un articolo inviato alla rivista del Nuovo Cimento in quel fatidico anno 1968, Gabriele Veneziano individuò la funzione che realizza in maniera esatta la postulata dualità: si tratta di una funzione
Fig. 11. La dualità di Veneziano da cui nacquero le stringhe
119
3 Il prof Nambu è stato insignito del premio Nobel per la fisica 2008. La comunicazione è giunta quando la stesura di questo libro era già ultimata.
4 Superstringhe e Brane danno la risposta?
matematica, la beta di Eulero, che il grande matematico svizzero aveva introdotto più di duecento anni prima. Lo stesso Veneziano contribuì poi, insieme a Sergio Fubini dell’Università di Torino e del Massachussetts Institute of Technology, a porre le basi per l’individuazione del sistema fisico in grado di produrre le ampiezze di diffusione duali. Nel breve volgere di due o tre anni, la formula di Veneziano per l’ampiezza di diffusione duale a quattro corpi era stata generalizzata a processi con un numero arbitrario di particelle: nel 1970, in un altro fondamentale articolo pubblicato sul Nuovo Cimento, Fubini e Veneziano ricondussero la costruzione di tali ampiezze a un algoritmo, cosiddetto operatoriale, in cui compariva un numero infinito di oscillatori armonici, con frequenze multiple di una frequenza fondamentale. Questo spettro di oscillatori armonici accese una lampadina nel brillante cervello del fisico nippo-americano Yoichiro Nambu3 , lo stesso che nel 1965 aveva proposto la carica di colore per i quark. Chiunque sia familiare con gli strumenti musicali a corde, pensò Nambu, conosce un semplicissimo sistema fisico che presenta proprio il tipo di spettro usato da Veneziano e Fubini: è la corda vibrante! Una minuscola cordicella che oltre a viaggiare nello spazio tempo può anche vibrare. Ecco la risposta! La corda, o stringa che dir si voglia, è l’adrone tipico! L’infinito spettro di risonanze si spiega con l’infinito numero di modi di vibrazione di una minutissima cordicella, quantistica e relativistica allo stesso tempo. Dato il là, il concerto prese immediatamente corpo e sviluppo. In una serie di lavori prodotti da numerosi autori provenienti da tutte le nazioni del mondo, il sistema fisico delle cordicelle quantorelativistiche fu studiato da tutti i punti di vista. La stringa può essere chiusa o aperta, i suoi estremi, cioè possono coincidere, nel qual caso essa ha la topologia di un cerchietto, oppure no. Nel secondo caso la stringa ha la topologia di un segmento. Chiusa o aperta, propagandosi nello spazio tempo, la cordicella relativistica traccia una superficie di mondo. Nel caso chiuso questa superficie di mondo ha la topologia di un cilindro, mentre nel caso aperto essa ha la topologia di un foglio con bordi.
120 Il fascino oscuro dell’inflazione
L’interpretazione delle ampiezze di diffusione di Veneziano come il risultato della propagazione di minuscole cordicelle che possono congiungersi divenendo così un’unica stringa, ovvero spezzarsi in due o più stringhette, divenne standard e paradigmatica. Nella quantizzazzione del sistema emersero però due problemi la cui soluzione avrebbe portato la teoria molto lontano, verso inaspettati panorami di strabiliante profondità matematica e ineguagliata ricchezza di contenuti fisici. Il primo problema consisteva nel fatto che per essere consistente a livello quantistico, la teoria delle cordicelle relativistiche aveva bisogno di un teatro di operazioni molto vasto. Le usuali quattro dimensioni spazio-temporali non bastavano alla stringhetta per propagarsi liberamente senza ammalarsi di una grave malattia che è mortale per qualunque teoria quantistica: la presenza cioè di un’anomalia. Detto in parole povere un’anomalia è un’ostruzione che impedisce l’estensione a livello quantistico di una simmetria presente nel limite classico. Nel caso della stringa la simmetria anomala è quella conforme, l’invarianza cioè rispetto a trasformazioni che cambiano le dimensioni e le forme conservando però gli angoli. Si scoprì che la stringa è sempre anomala e quindi inconsistente a meno che lo spazio-tempo in cui si propaga non abbia esattamente 26 dimensioni, cioè un tempo più 25 direzioni spaziali. Il secondo problema incontrato nell’interpretazione stringhesca delle ampiezze di diffusione alla Veneziano era dato dal fatto che, per il momento, la stringa permetteva di descrivere soltanto la diffusione di bosoni, ma non di fermioni. Ma lo spettro adronico è costituito sia da particelle di spin intero che da particelle di spin semintero. Dove erano finiti i fermioni? La risposta a entrambi questi problemi venne quasi subito e aprì nuovi orizzonti.
Fig. 12. Un’ampiezza di diffusione di sette stringhe chiuse
121 4 Superstringhe e Brane danno la risposta? Fig. 13. Una stringa chiusa che si muove nello spazio-tempo ambiente traccia un tubo di mondo che è una superficie bidimensionale. Non si deve dimenticare che questa varietà dimensionale ha segnatura Minkowskiana, cioè una delle sue due coordinate gaussiane è di tipo tempo, l’altra di tipo spazio
Fig. 14. Anche una stringa aperta che si muove nello spazio-tempo ambiente traccia una superficie di mondo bidimensionale. Questa superficie però a differenza di quella tracciata dalla stringa chiusa ha dei bordi: le linee disegnate dai due estremi della cordicella
122
Le stringhe fermioniche e la supersimmetria Il fascino oscuro dell’inflazione
Conobbi sia John Schwarz che Pierre Ramond nel 1977-1978 quando, dopo due anni di studio solitario presso la sonnolenta università tedesca di Bielefeld, varcai per la prima volta l’Oceano e, giovane ricercatore del tutto inesperto e profondamente ignorante dei più recenti trend scientifici, mi ritrovai al Lauritsen Laboratory del California Institute of Technology: un istituto che, proprio quell’anno, poteva considerarsi l’occhio del ciclone nel turbinio innovativo che stava scuotendo la fisica teorica. Da appena un anno era stata scoperta la supergravità, cioè l’estensione supersimmetrica della Relatività Generale di Einstein, di cui parleremo tra breve, e tutte le energie erano rivolte a estendere in ogni possibile modo quella prima formulazione di una teoria, capace di accoppiare il gravitone con altri campi non gravitazionali. La relazione tra la supergravità e le superstringhe non era ancora esplicitata, ma lo sarebbe stata tra poco e al Caltech erano presenti quell’anno sia uno dei padri della supergravità, Daniel Freedman, che due padri delle superstringhe, quali Schwarz e Ramond. Vi erano poi, oltre a Feynaman e Gell-Mann, numerosi altri borsisti post-dottorali, alcuni dei quali sarebbero successivamente divenuti importanti ricercatori nel campo della teoria delle stringhe e delle sue applicazioni. Le superstringhe! Perché super? Proviamo a spiegarlo. Eravamo rimasti, nel paragrafo precedente, all’affermazione che le stringhette di Nambu sono in grado di riprodurre molto bene le ampiezze di Veneziano per la diffusione dei bosoni, ma non dei fermioni e ci chiedevamo dove quest’ultimi fossero finiti. All’inizio degli anni settanta se lo chiedevano anche John Schwarz, Pierre Ramond e un altro francese dal nome André Neveu. Tre ricercatori dal carattere molto diverso tra di loro, ma accomunati dal possesso di una brillantissima intelligenza e da una non comune determinazione nel perseguire vie del pensiero inesplorate e inedite. John ha un ottimo senso dell’umorismo, è gentile e molto caloroso con gli amici, ama gli sport e, negli anni, ha assorbito un tipico atteggiamento salutistico californiano. Non fuma, sta attento alla dieta, nuota e gioca a tennis regolarmente, veste sempre sportivo con camicia a mezze maniche, pantaloni chiari e sanda-
123
li ai piedi e si compiace di esibire senza affettazione, ma con un candore quasi infantile, le onorificenze, i premi e i riconoscimenti ottenuti, non solo grazie alla propria intelligenza, ma anche alla propria fede incrollabile nella teoria cui ha interamente dedicato la propria vita. Pierre, nato in Francia, ma naturalizzato americano, del paese d’origine ha conservato un segno indelebile non solo nell’accento, ma anche nello spirito veramente cartesiano del suo modo di far ricerca, nella elegante, ma pungente ironia delle sue battute e nella gentilezza veramente francese dei suoi modi. Più riservato e leggermente chiuso di carattere è invece André che è anch’egli francese, ma a differenza di Ramond, ha compiuto tutta la propria carriera scientifica nel paese natale, dedicandosi, nei tempi più recenti, anche alla politica e al managing della ricerca. Alla domanda di dove, nella teoria delle cordicelle, fossero finiti i fermioni, Neveu e Schwarz da una parte e Pierre Ramond dall’altra diedero due risposte che, benché diverse, non sono alternative, bensì complementari. L’approccio seguito da tutti e tre fu algebrico e nel successo dei risultati raggiunti sta un’importante lezione per il mio lettore non fisico. Non è con analogie meccaniche o modelizzazioni basate sull’esperienza umana che si conquistano nuovi orizzonti del sapere fisico. Queste vengono dopo, servono alla divulgazione e talvolta forniscono anche una sintesi analogica utile agli scienziati, ma non possono produrre veri progressi. Questi nascono soltanto dal seguire il filo rosso del ragionamento matematico che, contrariamente a quanto molti pensano, ha bisogno della fanta-
4 Superstringhe e Brane danno la risposta?
Fig. 15. I padri delle stringhe fermioniche
124 Il fascino oscuro dell’inflazione
sia non meno e, forse, anche di più delle espressioni artistiche della creatività. Un giorno dei primi anni ottanta che fu ospite a casa mia a Torino, John mi raccontò che nel 1971 egli incontrò André Neveu sulla nave che dall’Europa lo stava riportando a New York e poi a Princeton, dove, a quell’epoca, egli era Assistant Professor. Durante la traversata i due trovarono una generalizzazione dell’algebra di simmetrie della stringa di Nambu, detta algebra di Virasoro dal nome del fisico argentino che per primo la derivò. L’algebra di NS come oggi viene abitualmente chiamata, conteneva dei nuovi generatori di tipo fermionico invece che bosonico. Le realizzazioni di quell’algebra erano in uno spazio di stati che, oltre ai bosoni, aveva anche i fermioni e lavorando in quello spazio si potevano costruire le ampiezze di Veneziano non solo per particelle di spin intero, ma anche semintero. L’algebra di NS non era il primo esempio di algebra di supersimmetria, perché questo era stato fornito qualche mese prima da Pierre Ramond. Anche Pierre aveva ottenuto una generalizzazione dell’algebra di Virasoro che includeva generatori fermionici, ma la sua algebra era leggermente diversa. Chi aveva ragione? Avevano ragione gli autori di entrambe le pubblicazioni. Le due algebre trovate hanno una comune origine in un’estensione della teoria delle cordicelle quantistiche di Nambu per mezzo di un nuovo campo fermionico che vive sul tubo di mondo tracciato dalla cordicella stessa nel suo vagare attraverso lo spazio-tempo. Bisogna fare uno di quei classici ribaltamenti del punto di vista che sono alla radice di ogni significativo progresso scientifico. La storia evolutiva della cordicella, per esempio la descrizione della superficie di fig. 13, si ottiene assegnando le coordinate X μ dello spazio-tempo (a molte dimensioni D) come funzioni delle due coordinate gaussiane σ, τ che enumerano tutti i punti del foglio di mondo WS tracciato dalla cordicella, cioè assegnando le D funzioni di due variabili X μ (σ, τ). A questo punto pensiamo al foglio di mondo WS come a uno spazio tempo a 2-dimensioni e alle funzioni X μ (σ, τ) come a dei campi scalari che vivono su di esso. Assunto questo atteggiamento perché non introdurre su WS anche dei nuovi campi fermionici che descrivono particelle di spin 12 in due dimensioni invece che di spin 0?
125
– Essa è supersimmetrica perché è invariante sotto l’azione di certe trasformazioni che scambiano i campi bosonici X μ (σ, τ) con quelli fermionici Ψ μ (σ, τ). – È priva di anomalie e quindi consistente a livello quantistico non più in uno spazio tempo a D = 26 dimensioni, ma in uno significativamente più piccolo a D = 10 dimensioni. – Gli stati di questa teoria si distribuiscono in due settori, uno detto di NS realizza l’algebra trovata da Neveu e Schwarz durante la loro traversata atlantica, l’altro detto di R realizza l’algebra trovata da Pierre Ramond. Entrambi i settori sono indispensabili per la costruzione delle ampiezze di Veneziano sia per particelle bosoniche che fermioniche.
Dalla supersimmetria alla supergravità Nello sforzo di dare una risposta alla domanda di dove fossero finiti i fermioni nell’interpretazione stringhesca delle ampiezze di Veneziano, si era così giunti a una nuova struttura algebrica, la supersimmetria, che avrebbe pesantemente segnato il corso della fisica teorica negli anni successivi. Questa struttura del cui significato ho tentato di offrire al mio lettore una presentazione metaforica e grafica nelle figure 16, 17, 18 e 19 era stata indipendentemente trovata, proprio negli stessi anni e in un diverso contesto anche da due ricercatori russi, Volkhov e Akhulov. Proviamo a riassumere l’idea di base. Come abbiamo più volte sottolineato, i campi e quindi le particelle fondamentali della Natura si distribuiscono in due grandi classi dalle proprietà significativamente diverse a seconda del loro spin: i bosoni con spin intero e i fermioni con spin semintero. Potrebbe esistere una potente simmetria (per questo super) che scambiando in maniera acconcia ogni fermione con un suo partner fermionico e viceversa lasciasse invariate tutte le predizioni fi-
4 Superstringhe e Brane danno la risposta?
Facciamolo e mettiamo tanti nuovi campi di questo tipo quanti erano i campi scalari; denominiamo i nuovi campi Ψ μ (σ, τ). Che cosa è avvenuto, così facendo? Un sorprendente miracolo! La piccola teoria di campo che abbiamo costruito sul foglietto di mondo WS ha le seguenti strabilianti proprietà:
126 Il fascino oscuro dell’inflazione Fig. 16. Descrizione grafica degli stati bosonici e fermioni
siche, per esempio le ampiezze di diffusione negli urti subnucleari? La risposta è sì e la si può spiegare illustrando il contenuto delle figure 16, 17, 18 e 19. Consideriamo un sistema fisico descritto da campi sia bosonici che fermionici. Ogni possibile stato di tale sistema sarà descritto assegnando il numero di occupazione nib di ciascun livello energetico bosonico e il numero di occupazione nif di ciascun livello energetico fermionico. Questi numeri ci dicono rispettivamente quanti bosoni e quanti fermioni ci sono nel prescelto livello i. A causa del principio di esclusione di Pauli il numero nif può essere soltanto 0 o 1 perché non vi può mai essere più di un fermione nello stesso stato, mentre nib può essere qualunque numero intero. Simbolicamente nelle quattro figure 16, 17, 18 e 19 ho descritto i bosoni come omini calvi che si grattano la testa e gli schizzinosi fermioni come distinti signori con l’ombrello. L’operatore energia (nel gergo dei fisici, l’hamiltoniana) valuta l’energia totale di uno
127 4 Superstringhe e Brane danno la risposta?
Fig. 17. Descrizione grafica dell’operatore Hamiltoniana, cioè dell’operatore energia
stato contando uno per uno tutti i bosoni e tutti i fermioni e sommandone i corrispondenti quanti energetici. Gli operatori di supersimmetria Q e Q† agiscono sugli stati nel modo descritto nelle figure 18 e 19: essi tolgono un quanto fermionico e lo sostituiscono con uno bosonico o viceversa. Se il prodotto di due operatori viene inteso come l’esecuzione in sequenza delle corrispondenti operazioni di trasformazione degli stati, il lettore può verificare da solo che valgono le relazioni indicate nella figura 19. Queste relazioni tra gli operatori Q, Q† , H costituiscono l’esempio più semplice di un’algebra di supersimmetria. Le essenziali caratteristiche definitorie della supersimmetria sono due: la prima è la relazione QQ† + Q† Q = H che in gergo matematico si riassume dicendo che l’anticommutatore di due
128 Il fascino oscuro dell’inflazione Fig. 18. Una descrizione grafica del concetto di supersimmetria: la carica Q
supersimmetrie è l’hamiltoniana, la seconda che per essere supersimmetrico un sistema deve avere il valore del quanto energetico bosonico uguale a quello del quanto energetico fermionico. Nelle teorie di campo relativistiche la supersimmetria si realizza se a ogni campo bosonico/fermionico corrisponde un superpartner fermionico/bosonico che ha la stessa massa e lo spin spostato di 12 unità. Così come la simmetria usuale del modello standard, anche la supersimmetria può essere spontaneamente rotta, nel qual caso i superpartner esistono, ma invece di avere la stessa massa dei loro compagni hanno una massa maggiore, essendo la differenza proporzionale all’entità della rottura. Nella prima metà degli anni settanta del secolo passato, altri gruppi di ricercatori, diversi da coloro che si erano dedicati alle am-
129 4 Superstringhe e Brane danno la risposta? Fig. 19. Una descrizione grafica del concetto di supersimmetria: l’anticarica Q† e l’algebra
piezze duali di Veneziano e alla loro interpretazione stringhesca si concentrarono sul problema di costruire teorie di campo supersimmetriche ambientate nell’usuale spazio-tempo quadridimensionale o anche in spazi-tempo multidimensionali. Il primo esempio di tale costruzione fu fornito nel 1974 da Bruno Zumino e dal compianto Julius Wess prematuramente scomparso nel 2007. Il loro modello conteneva particelle di spin 0 e di spin 12 . Nell’estate del 1976, prima a opera di Peter van Nieuwenhuizen, Sergio Ferrara e Daniel Freedman e poi, con qualche settimana di differenza, anche a opera di Stanley Deser e Bruno Zumino si giunse a costruire la prima versione della supergravità, un’estensione della Relatività Generale di Einstein in cui il superpartner del
130 Il fascino oscuro dell’inflazione
gravitone, cioè della particella di spin 2 associata alla metrica, è una particella di spin 3/2 denominata gravitino. Negli otto anni tra il 1976 e il 1984 la supergravità fu sviluppata in tutte le sue estensioni: rispetto al numero di supersimmetrie imposte, rispetto alle dimensioni spazio-temporali utilizzate e rispetto all’accoppiamento con campi non gravitazionali. Fu un’impresa collettiva realizzata da un folto gruppo di ricercatori soprattutto europei, ma anche americani, che lavorarono in stretto contatto tra di loro, attraverso molteplici e variegate collaborazioni. I principali centri di ricerca europei coinvolti in questa attività furono la Scuola Normale di Parigi, l’Università Cattolica di Leuven in Belgio, l’Università di Utrecht in Olanda, le Università di Torino, Milano, Padova e la Sissa di Trieste in Italia, il CERN di Ginevra, l’Imperial, il King’s e il Queen Mary Colleges di Londra. In America i centri più importanti furono invece l’Università di New York a Stony Brook, la Brandeis University e il MIT a Boston, il Caltech a Pasadena. Ho avuto l’onore e il piacere di far parte di questa comunità di ricercatori e la fortuna di stringere una calorosa amicizia con tutti e tre i fondatori della Supergravità, ma in modo particolarmente intenso con Peter van Nieuwenhuizen e con Sergio Ferrara, con entrambi i quali, in periodi diversi, firmai numerosi lavori scientifici. È sempre un grande piacere umano e fonte di un prezioso stimolo intellettuale incontrarsi sia con Peter che con Sergio, assai diversi sia per il carattere che per lo stile di lavoro, ma accomunati dall’intensa passione per la fisica e dalla generosa schiettezza del rapporto che si instaura quando si interagisce con loro. Conservo ricordi molto belli dei periodi di più intensa collaborazione con entrambi questi amici, dai quali ho imparato moltissimo; in tali ricordi trovano posto anche alcuni curiosi aneddoti che, volgendo lo sguardo al passato, è piacevole rievocare. Un sabato dei primi anni ottanta, nelle tarde ore di un pomeriggio autunnale battuto da una pioggia insistente e uggiosa, squillò il campanello di casa mia a Torino. Andai ad aprire, perplesso su chi potesse essere l’inatteso visitatore della cui identità né io né mia moglie avevamo la minima idea. Senza ombrello, fradicio per la pioggia e con una valigetta in mano, nel vano dell’uscio apparve Peter che in quel momento io credevo a Stony Brook, sulla riva opposta dell’Oceano Atlantico. Ammutolito per la sorpresa, accol-
131 4 Superstringhe e Brane danno la risposta? Fig. 20. La medaglia Dirac 1994 è stata assegnata a Peter van Nieuwenhuizen, Sergio Ferrara e Daniel Freedman (da sinistra a destra nella fotografia) per il loro lavoro del 1976 con il quale costruirono la prima consistente lagrangiana di supergravità, la cosiddetta teoria N = 1 in D = 4 pura. Si tratta della più semplice estensione supersimmetrica della Relatività Generale di Einstein e descrive l’accoppiamento consistente della particella di spin 2 (il gravitone) con il suo partner supersimmetrico, cioè la particella di spin 3/2 detta gravitino
132 Il fascino oscuro dell’inflazione
si l’amico che, senza por tempo in mezzo, dalla valigetta apparentemente nuovissima aveva già cominciato a estrarre un album di grandi fogli da disegno, altrettanto nuovo e intonso. In breve egli mi spiegò la terribile disgrazia occorsagli tre giorni prima. A Parigi, da cui stava per far ritorno in America dopo alcune settimane trascorse in Europa, era stato derubato della vecchia valigetta contenente tutti i conti e gli appunti degli ultimi mesi. A quell’epoca l’uso dei computer non si era ancora diffuso né si aveva l’odierna comodità di scambiarsi file attraverso le email che ancora non esistevano. Ognuno di noi aveva i propri preziosi quaderni fitti di calcoli, di dimostrazioni e di note scritte a matita, dei quali eravamo più gelosi che della moglie o della fidanzata. Celebri erano le decine e decine di album da disegno impilati in ogni angolo dello studio del prof. van Nieuwenhuizen, su i cui grandi fogli Peter aveva l’abitudine di riassumere in ordinati specchietti i principali risultati di varie settimane di lavoro. Due di quei preziosi album erano caduti nelle mani di qualche ladruncolo che stizzito del proprio magro bottino li aveva probabilmente buttati nella Senna o nelle fogne di Parigi! Uno degli album conteneva i risultati che un mese prima Peter e io avevamo elaborato insieme a Stony Brook. Per questo il prof. van Nieuwenhuizen, posticipato il proprio volo transatlantico, era atterrato a casa mia quel pomeriggio. Passò il resto di quella giornata e tutto il seguente giorno di domenica seduto al tavolo del mio soggiorno a ricopiare sui suoi grandi fogli bianchi le formule che per fortuna erano sopravvissute sui miei quaderni. Innumerevoli sono i miei ricordi dei momenti piacevoli e ameni vissuti durante le collaborazioni con Sergio e con gli altri miei cari amici e loro frequenti collaboratori, tra i quali Riccardo D’Auria e Luciano Girardello sono quelli a cui sono legato da un’intera vita di esperienze e imprese comuni. Alla divisione teorica del CERN, oppure al Dipartimento di Fisica di UCLA4 lo studio di Sergio era sempre il salotto notturno in cui, tra le spire di fumo profumato emesso dai suoi immancabili sigari, trascorrevamo ore e ore a discutere a ruota libera di fisica e di ogni altro possibile tema tra battute e scherzi continui. Non di rado si faceva venire l’alba e talvolta sembrava che si stesse macinando il vuoto, ma sempre succede4 UCLA, University of California at Los Angeles, dove Ferrara è titolare di una cattedra, oltre a essere membro permanente della Divisione Teorica del CERN.
133
Le rivoluzioni della stringa e la M-teoria La storia concettuale della teoria delle superstringhe è assai complessa ed è abituale organizzarla in periodi separati da dei mutamenti radicali del paradigma concettuale che sono stati denominati String Revolution. Si contano normalmente due String Revolution, la prima nel 1984, la seconda nel 1996, ma sarebbe più corretto includerne una terza di ordine zero avvenuta intorno al 1974. Le cordicelle di Nambu erano state introdotte per interpretare le ampiezze di Veneziano che si intendeva descrivessero gli urti di particelle adroniche. Corrispondentemente la lunghezza caratteristica delle cordicelle era pensata dell’ordine di 10 alla meno 15 centimetri, scala tipica delle interazioni forti. Quando però, precisamente nel 1974, John Schwarz e Joel Scherk5 dimostra5 Fisico francese assolutamente geniale e di grandissime capacità che purtroppo morì molto prematuramente e in tragiche e ambigue circostanze il 29 Settembre del 1979. Era nato nel 1946 e lasciò un grande rimpianto per la sua scomparsa in tutta la comunità scientifica.
4 Superstringhe e Brane danno la risposta?
va che a un certo punto il vagare del pensiero si arrestasse, che il ragionamento focalizzato dalla logica cartesiana di Sergio si concretasse, incanalandosi su delle formule concrete che cominciavano a prendere forma sulla lavagna e che verso le cinque o le sei di mattina, quando le persone normali si alzavano e facevano la doccia, noi ci coricassimo invece a letto, stremati come dopo una gozzoviglia, ma contenti per aver capito qualcosa di nuovo su cui la sera successiva si ricominciava a discutere tra i consueti lazzi. La supergravità offrì la possibilità di unificare il campo gravitazionale con i campi che descrivono le altre interazioni e, fino al 1984, si sviluppò indipendentemente dalla teoria delle superstringhe. Si sperò anche che, almeno in alcune sue versioni, essa potesse dimostrarsi una teoria quantistica finita, immune cioè dalla malattia che affligge la quantizzazione della pura teoria di Einstein: la presenza di ampiezze infinite non interpretabili fisicamente. Tale speranza, che fu dapprima disillusa, è recentemente rinata per un caso particolare di supergravità, purtroppo non corrispondente a una teoria realistica di tutte le interazioni. Il problema della finitezza, tuttavia, perse completamente di rilevanza a partire dal 1984, quando supergravità e superstringhe si fusero in un’unica teoria, a seguito della prima String Revolution.
134 Il fascino oscuro dell’inflazione Fig. 21. Le particelle elementari sono i modi vibrazionali della stringa
rono che lo spettro della stringa chiusa contiene una particella di massa zero e spin 2, le cui interazioni di bassa energia sono esattamente quelle descritte dalla Relatività Generale di Einstein, essi proposero che quella delle stringhe fosse una teoria della gravità quantistica e dei subcostituenti elementari quali leptoni e quark, piuttosto che degli adroni. In accordo con ciò suggerirono la lunghezza di Planck come lunghezza caratteristica delle cordicelle. Nel 1978 Ferdinando Gliozzi6 , David Olive7 e lo stesso Scherk dimostrarono che la consistenza quantistica delle superstringhe richiede una determinata miscela dei settori di Neveu Schwarz e di Ramond e che il corrispondente limite di bassa energia della loro dinamica è descritto da una teoria di supergravità in dieci dimensioni. Questo fu il primo aggancio tra le superstringhe e la supergravità che prese presto ampio sviluppo.
6 Professore dell’Università di Torino. 7 Fisico britannico per molti anni professore dapprima all’Imperial College e poi
all’Università del Galles in Swansea, è stato insignito della medaglia Dirac nel 1997 insieme a Peter Goddard.
135 4 Superstringhe e Brane danno la risposta?
Fig. 22. Oltre agli stati di stringa vi sono anche le p-brane
Nel 1984 John Schwarz e Michael Green8 trovarono un meccanismo di cancellazione delle anomalie, la malattia mortale delle teorie quantistiche di cui abbiamo già parlato, che funziona a determinate e precise condizioni. Grazie a questa scoperta essi giunsero alla conclusione che esistono solo cinque teorie di superstringa libere da anomalie e completamente consistenti a livello quantistico. In tutti e cinque i casi la supercordicella si propaga in uno spazio-tempo a dieci dimensioni e la dinamica di bassa energia è descritta da una corrispondente supergravità decadimensionale. I nomi di queste cinque teorie sono stati fissati dalla storia e sono i seguenti: Tipo IIa, Tipo IIb, eterotica E8×E8 , eterotica SO(32), tipo I. Fu questa la prima String Revolution. 8 Nato nel 1946 e suddito britannico Michael Green fu insignito della medaglia Dirac 1989 insieme a John Schwarz. È attualmente professore di fisica teorica all’università di Cambridge.
136 Il fascino oscuro dell’inflazione
La seconda String Revolution ebbe luogo nel 1995-1996 a opera di Edward Witten9 e fu preparata dagli importanti contributi di altri autori, in particolare Chris Hull e Paul Townsend10 , Ashoke
Fig. 23. Dalle 5 teorie alla M teoria 9 Edward Witten, nato nel 1951 e di nazionalità americana è professore all’Institute for Advanced Studies di Princeton. Fisico e matematico di grandissima profondità e fantasia, è stato premiato con la Medaglia Field per la matematica, la medaglia Dirac per la fisica e ha ricevuto molte altri riconoscimenti. I suoi contributi in moltissimi campi della matematica-fisica sono importantissimi e la sua influenza sulla fisica teorica delle ultime due decadi è stata enorme. È tuttavia sbagliato e storicamente infondato, come purtroppo succede frequentemente in molti articoli divulgativi apparsi sulle colonne dei quotidiani italiani, parlare della Teoria delle Stringhe di Witten. La teoria ha avuto molti padri ed è il frutto di un complesso e appassionante percorso storico. 10 Chris Hull e Paul Townsend, due eminenti fisici inglesi che hanno dato importanti contributi alla teoria della supergravità e delle stringhe.
137
Le extra dimensioni Che fare dunque delle dimensioni addizionali? Perbacco, a noi pare proprio di vivere in un mondo a tre dimensioni spaziali e una temporale. In verità non c’è conflitto tra le predizioni della teoria e la nostra esperienza sensibile, se le dimensioni addizionali sono compatte. In maniera approssimativa possiamo dire che uno spazio è compatto se qualunque curva in esso contenuta ha lunghezza finita e non può estendersi infinitamente. Il prototipo di uno spazio compatto è il cerchio. Torniamo quindi al problema delle dimensioni addizionali. La stringa le richiede, ma l’ipotesi della loro esistenza non è un’idea nuova. È un’idea antica già introdotta negli anni venti del XX secolo dal fisico tedesco Klein e dal fisico polacco Kaluza, poco dopo che la Relatività Generale era stata formulata. Si tratta di immaginare che le dimensioni addizionali siano appunto arrotolate in cerchi o nella generalizzazione dei cerchi a più alte dimensioni, che forma11 Ashoke Sen, probabilmente il più noto e influente dei fisici indiani viventi. 12 Joe Polchinski è un fisico americano, attualmente professore all’Università di
Santa Barbara in California. Nel 2008 è stato insignito della medaglia Dirac insieme a Juan Maldacena e Cumrun Vafa. Il più importante contributo di Polchinski alla teoria delle stringhe è stata l’elaborazione del concetto di D-brane.
4 Superstringhe e Brane danno la risposta?
Sen11 e Joe Polchinski12 . Grazie alla scoperta che ogni teoria di stringa oltre alle cordicelle vibranti contiene anche altri tipi di eccitazioni, dette p-brane, che sono oggetti estesi di dimensione p maggiore di uno (non più corde, ma per esempio intere superfici propagantesi attraverso lo spazio tempo), fu possibile stabilire che le cinque superstringhe sono in realtà facce diverse di un’unica super-teoria che le contiene tutte, insieme alle brane di ciascuna. Tale teoria unificata, di cui non si possiede ancora una formulazione intrinseca, fu denominata da Witten la M-teoria, lasciando l’ambiguità se M indichi Mother, Mystery oppure Magic. Inoltre la M-teoria, unificando tra di loro le varie superstringhe dieci-dimensionali, scopre un’undicesima dimensione. Non casualmente 11 era già nota dal 1979 come la massima dimensione spazio-temporale in cui la supergravità potesse essere formulata!
138 Il fascino oscuro dell’inflazione
no il vastissimo parco giochi matematico delle varietà compatte e il principale oggetto di studio della Geometria algebrica. Osservate dal punto di vista delle dimensioni non compatte, le particelle che hanno una velocità nelle direzioni compatte non sembrano muoversi. Esse sembrano solo più pesanti. Infatti tanto più vorticosamente una particella turbina nelle direzioni compatte tanto più essa appare massiva a un osservatore che sta tutto nelle direzioni non compatte. La forma delle dimensioni compatte è molto importante. Infatti la geometria delle dimensioni compatte determina le proprietà delle particelle elementari che noi osserviamo in quelle non compatte. Nell’esempio presentato nella figura 24 abbiamo quattro dimensioni totali, di cui due formano un usuale piano (non compat-
Fig. 24. La compattificazione delle dimensioni extra
139
to) mentre le altre due (compatte) sono arrotolate nella forma di una ciambella, che in matematica si chiama toro. La superficie di un toro è compatta proprio perché qualunque curva disegnata su di essa ha necessariamente lunghezza finita indipendentemente dal fatto che sia una curva chiusa o aperta come è evidente dalla figura 25. Il toro non è l’unica varietà bidimensionale compatta. Un’altra possibilità è data dalla sfera, e ve ne sono infinite altre parametrizzate da un numero intero g, detto il genere della superficie, che conta il numero dei manici. La sfera ha genere g = 0 perché nessuno può prendere al laccio una palla, il toro ha genere g = 1 e la terza superficie nella figura 25 è un esempio di superficie di genere due. In dimensione compatta maggiore di due le possibilità sono molte di più ed esiste una grande gamma di possibilità. Le dimensioni compattificate in teoria delle stringhe sono sei o addirittura sette se adottiamo il punto di vista della M-teoria. Dunque vi è un’immensa quantità di compattificazioni ovvero di stati di vuoto tra i quali scegliere quello fisico ovvero quello realizzato dal nostro universo. Può dunque la teoria delle corde e delle brane dare la risposta ai quesiti posti dalla cosmologia? Proviamo a riassumere la situazione.
4 Superstringhe e Brane danno la risposta?
Fig. 25. Esempi di superfici bidimensionali compatte di genere g = 0, 1, 2
140 Il fascino oscuro dell’inflazione Fig. 26. La parte compatta dello spazio non solo può avere forme molto complesse, ma tale forma può cambiare con continuità da un punto all’altro dello spazio-tempo non-compatto con cui è associata
In attesa di risposte da LHC e domande per il futuro La complessa e appassionante evoluzione del pensiero fisico che ho tentato di tratteggiare nel precedente capitolo ci ha dotato di una teoria estremamente accurata delle interazioni fondamentali (il modello standard) che contiene molti parametri fissati fenomenologicamente, la cui derivazione da una teoria superiore è un imperativo categorico. D’altra parte il parallelo ed emozionante sviluppo della teoria delle superstringhe ci ha pure fornito un quadro teorico in cui il modello standard può essere incorporato non in un solo modo, bensì in una pletora di modi, dell’ordine, si ritiene, addirittura dei miliardi. Questa dovizie di incasellamenti è dovuta alla molteplicità di elementi da combinare: la forma delle dimensioni compatte, il numero e il tipo di p-brane da inserire, la loro distribuzione spaziale, gli angoli a cui si intersecano e così via. Caratteristica
141 4 Superstringhe e Brane danno la risposta?
comune in tutte queste derivazioni del modello standard da una teoria superiore è la presenza della supersimmetria, che discende dal ruolo fondamentale di quest’ultima nella costruzione delle superstringhe. D’altra parte la supersimmetria si è finora rivelata l’unica cura efficace ai problemi posti alle teorie di campo usuali dalla presenza dei campi scalari. E i campi scalari sono apparentemente indispensabili per la rottura di simmetria implicita nel modello standard! La costruzione dei rivelatori di LHC finalizzati alla rivelazione della particella di Higgs sono la prova di quanto la presenza di uno o più campi scalari sia ritenuta ineluttabile in fisica delle particelle! L’accurata determinazione dei parametri cosmologici conseguita alle misure di WMAP e del Supernova Project ha disegnato uno scenario del tutto consistente con il paradigma dell’Universo inflazionario, che risolve i più fondamentali problemi del Big Bang Model (omogeneità, isotropia e piattezza) al prezzo di presupporre una fase primordiale di evoluzione, dominata proprio dalla dinamica dei campi scalari. Anche l’energia oscura che riempe il 70% del nostro Universo è spiegata come l’energia potenziale residua dello scalare inflazionario. Il restante 24% di materia oscura, una volta sottratto il 6% di materia visible, potrebbe a sua volta essere spiegato da una radiazione fossile di gravitini e neutralini, dove con neutralino si denota il più leggero tra il fotino, lo zino e l’Higgsino, partner supersimmetrici rispettivamente del fotone, dello Z e della particella di Higgs. Vi è coerenza tra le osservazioni cosmologiche e le aspettative fornite dalla fisica delle particelle. Dovrebbero esistere i campi di spin zero e dovrebbe esserci la supersimmetria! La conferma sperimentale di queste due ipotesi è alla portata di LHC. Nei prossimi due anni sia l’Higgs che i superpartner potrebbero essere rivelati. Se ciò avvenisse è come se si chiudesse un cerchio: a quel punto pochi potrebbero dubitare che, in una forma o nell’altra, la teoria delle supercordicelle e la supergravità siano il giusto linguaggio in cui formulare le leggi fondamentali della Natura. Se al contrario né l’Higgs né i superpartner venissero scoperti avremmo nuovi enigmi per il domani. In ogni caso le domande che fisici e cosmologi di questo millennio si porranno nei prossimi anni dipendono crucialmente dalle risposte che ci fornirà LHC.
Letture ulteriori
Per la Relatività Generale Per uno studio della Relatività Generale e dei suoi fondamenti nella Geometria differenziale esistono vari libri di testo classici. Quale orientamento per il lettore interessato consiglio i seguenti: Ohanian, Hans, Ruffini Remo (1997) Gravitazione e spazio-tempo, Zanichelli, Bologna Bernhard Schutz (1985) A first course in general relativity, Cambridge University Press Robert M. Wald (1984) General Relativity, Chicago University Press, Chicago Mikio Nakahara (1990) Geometry Topology and Physics, Adam Hilger, New York
Per la Cosmologia Inflazionaria Consiglio il libro presente gratuitamente sulla rete elettronica: Andrei Linde (2005) Particle Physics and Inflationary Cosmology Contemp, Concepts Phys. 5, 1-362 arXiv:hep-th/0503203
Per la Teoria delle Superstringhe Consiglio il libro di testo: Joseph Polchinski (1998) String Theory, Cambridge University Press
144
Per la Teoria della Supergravità Il fascino oscuro dell’inflazione
Consiglio il libro di testo: L. Castellani, R. D’Auria, P. Fré (1990) Supergravity and Superstring Theory: a geometric perspective, World Scientific, Singapore
Come lettura divulgativa Consiglio: Bryan Greene (2005) L’Universo Elegante, Einaudi, Torino
i blu
Passione per Trilli Alcune idee dalla matematica R. Lucchetti Tigri e Teoremi Scrivere teatro e scienza M.R. Menzio Vite matematiche Protagonisti del ’900 da Hilbert a Wiles C. Bartocci, R. Betti, A. Guerraggio, R. Lucchetti (a cura di) Tutti i numeri sono uguali a cinque S. Sandrelli, D. Gouthier, R. Ghattas (a cura di) Il cielo sopra Roma I luoghi dell’astronomia R. Buonanno Buchi neri nel mio bagno di schiuma ovvero L’enigma di Einstein C.V. Vishveshwara Il senso e la narrazione G. O. Longo Il bizzarro mondo dei quanti S. Arroyo
Il solito Albert e la piccola Dolly La scienza dei bambini e dei ragazzi D. Gouthier, F. Manzoli Storie di cose semplici V. Marchis Novepernove Segreti e strategie di gioco D. Munari Il ronzio delle api J. Tautz Perché Nobel? M. Abate (a cura di) Alla ricerca della via più breve P. Gritzmann, R. Brandenberg Gli anni della Luna 1950-1972: l’epoca d’oro della corsa allo spazio P. Magionami Chiamalo x! ovvero Cosa fanno i matematici? E. Cristiani L’astro narrante La luna nella scienza e nella letteratura italiana P. Greco Il fascino oscuro dell’inflazione Alla scoperta della storia dell’Universo P. Fré
Di prossima pubblicazione Sai cosa mangi? La scienza del cibo R. Hartel, A.K. Hartel