Come hanno avuto origine gli elementi?

Nucleosynthesis_Cmglee_1080Sorgente: APOD: 25 gennaio 2016 – Where Your Elements Came From

Molto tempo fa ho narrato delle abbondanze chimiche nella nostra galassia e come le analisi delle varie proporzioni degli elementi del Sistema Solare ci aiutano a capire quali fossero i loro progenitori. Oggi Astronomy Picture of the Day (APOD) pubblica una divertente Tavola Periodica con suindicate le origini di ogni singolo elemento; un modo per ricordarci che l’origine dei diversi elementi che ci compongono non è sempre la stessa e che siamo in definitiva il risultato di un lungo intreccio di eventi passati molto diversi e distanti fra loro, sia nel tempo che nello spazio.

La percentuale d'acqua presente nel corpo umano varia con l'età ma dalla metà fino ai 2/3 della massa corporea è comunque acqua.

La percentuale d’acqua presente nel corpo umano varia con l’età ma si può tranquillamente sostenere che dalla metà fino ai 2/3 della massa corporea è comunque acqua.

Due atomi di idrogeno (simbolo \(H\), in alto a sinistra nella tabella) insieme a un atomo di ossigeno (simbolo \(O\), nella seconda riga in alto a destra) compongono l’acqua, da quella degli oceani alle nubi cariche di pioggia e anche quella che è presente nel corpo umano. Gli atomi di  idrogeno si formarono ben 13,8 miliardi di anni fa subito dopo il Big Bang, non ci sono state da allora altre fonti di questo elemento, che oltre ad essere il mattone elementare con cui sono stati poi costruiti nelle fucine stellari tutti gli altri elementi sparsi nell’universo, è anche quello più antico.
Il carbonio del nostro corpo, il calcio delle nostre ossa e il fluoro nello smalto dei nostri denti sono il risultato della fusione dell’idrogeno nelle stelle. Il ferro contenuto nell’emoglobina del sangue e anche quello che quotidianamente conosciamo con altre forme e con altri nomi, come ad esempio l’acciaio delle posate da cucina e quello delle automobili, nasce un attimo prima che una stella grande almeno una decina di volte il nostro Sole esploda in supernova.  Il metallo che più di tutti consideriamo da sempre il più prezioso e usato anche come controvalore negli scambi commerciali, l’oro, è il risultato di una fusione tra due stelle di neutroni [cite]http://wwwmpa.mpa-garching.mpg.de/mpa/institute/news_archives/news1109_janka/news1109_janka-en.html[/cite], uno degli eventi cosmici più potenti in assoluto e quasi sicuramente l’unico responsabile dei Gamma Ray Burst (GRB). Anche il piombo, metallo assai povero, piuttosto tossico se inalato o ingerito e conosciuto fin dall’antichità per le sue notevoli proprietà metallurgiche, è prodotto dal decadimento dell’uranio 238 (simbolo \(U\), ultima riga della tavola), che anche lui trae origine nelle collisioni di stelle di neutroni. Quando sentirete di un avvistamento di un nuovo avvistamento di un lampo di raggi gamma pensate che lì si è formato dell’oro e dell’uranio.
Solo gli ultimi, dall’americio (simbolo \(Am\) al laurenzio (simbolo \(Lr\), senza contare anche altri elementi chimici di sintesi che qui non sono riportati, sono opera dell’uomo.
Come vedete, noi e tutto quello che ci circonda nell’Universo è in definitiva Figlio delle Stelle.


 

Il neutrino TAU e la massa di Majorana

Conoscere la massa di ogni particella è importatissimo. questa proprietà è fondamentale per capirne come si propaga e interagisce con le altre particelle. Sappiamo esattamente quanto pesa un elettrone o un quark, ma continua a sfuggirci quanto sia (e cosa la produca) la massa dei neutrini. Esse sono talmente piccole che fino a pochi anni fa si dubitava che ne avessero una. Ma la scoperta dell’oscillazione dei neutrini implica che, per quanto piccola, anche i neutrini debbano averne una. Ora resta da capire come questo sia possibile nell’ambito della teoria del Modello Standard. 

Schema dell'esperimento CNGS: i neutrini di tipo mu prodotti al CERN vengono indirizzati verso i rivelatori dell'esperimento OPERA presso i Laboratori nazionali del Gran Sasso, dove arrivano dopo un tragitto di 732 cholometri nel sottosuolo (Cortesia CERN/Laboratori Nazionali del Gran Sasso) Credit: Le Sienze

Schema dell’esperimento CNGS: i neutrini \(\mu\) prodotti al CERN vengono indirizzati verso i rivelatori dell’esperimento OPERA presso i Laboratori nazionali del Gran Sasso, dove arrivano dopo un tragitto di 732 chilometri nel sottosuolo.  Credit: CERN/Laboratori Nazionali del Gran Sasso/Le Scienze

I neutrini sono senza dubbio le particelle elementari più esotiche e sfuggenti che conosciamo.
Le loro peculiarità sono straordinarie: sono sensibili solo alla forza debole e alla gravità.  La forza debole è una interazione a cortissimo raggio, mentre la gravità è estremamente debole su scale subatomiche. Tutto questo rende molto difficile intercettare e studiare i neutrini e le loro peculiarità.
Infatti solo ora l’esperimento OPERA è riuscito ad intercettare con certezza la traccia del ben quinto neutrino \(\tau\) prodotto dall’oscillazione di neutrini muonici prodotti dal CERN di Ginevra, raggiungendo così la precisione statistica di 5 sigma necessari perché si possa ragionevolmente ritenere il fenomeno statisticamente certo.
La rivelazione di neutrini TAU dall’oscillazione di neutrini muonici fu la motivazione per la quale l’esperimento OPERA fu progettato alla fine degli Anni novanta. Precedenti esperimenti di rivelazione dei neutrini di origine naturale avevano mostrato la possibile esistenza di due diversi tipi di oscillazioni. Una oscillazione tra gli autostati \(\mu – \tau\) (2 – 3) rendeva conto degli effetti osservati nei neutrini atmosferici; l’altra oscillazione \(e – \mu\) (1 – 2) invece era coerente con l’osservazione dei neutrini solari [cite]http://goo.gl/tREB56[/cite].

Il  neutrino \(\nu\) legato al leptone \(\tau\) TAU, la cui esistenza era prevista dal Modello Standard,  fu scoperto nel 2000 [cite]http://goo.gl/Anu9Y6[/cite] al Fermilab con un esperimento 1 studiato apposta per trovarlo.

Qui si parla di “autostati di sapore del neutrino”, in analogia on i “sapori” dei quark; questi ultimi, però, oltre ad essere in numero doppio (6 invece di 3), identificano gli autostati di massa e non quelli dell’interazione debole di corrente carica .
[table “28” not found /]

Infatti, proprio come prevede il Modello, i neutrini sono una particella (leptone) che oscilla tra tre diversi autostati: elettronico,  muonico e tauonico [cite]http://goo.gl/q7gTiD[/cite] legate agli altri tre leptoni tradizionali: elettrone, muone e tauone (particella TAU).

Ed è proprio questa capacità di oscillare tra tre diversi autostati prevista dal Modello Standard a mettere in crisi lo stesso Modello: tutti i leptoni carichi ed i quark sono fermioni 2  che per rispettare la legge di conservazione della carica ogni tipo di particella deve esistere la corrispettiva antiparticella, con uno stato opposto di elicità (da non confondersi con la chiralità!), levogiro o destrogiro e carica elettrica. i neutrini (che sono ovviamente neutri) finora osservati sono solo levogiri e rispettando così il principio del numero leptonico 3
Ora se i neutrini fossero privi di massa, essendo neutri, dovrebbero poter viaggiare alla velocità della luce e possedere appunto un solo stato di elicità, cosa quest’ultima verificata sperimentalmente, infatti non sono mai stati registrati neutrini destrorsi. 
Invece è proprio il fatto di oscillare tra i tre diversi autostati di massa, cosa anche questa, a questo punto ampiamente confermata da OPERA che in qualche modo mette in crisi il Modello Standard, perché attribuire una qualsiasi massa ai neutrini implicherebbe col modello di Dirac sostenere anche l’esistenza dei neutrini destrogiri, altrimenti verrebbero violate le precedenti affermazioni, e cosa questa mai registrata finora.
Non avendo alcuna carica elettrica o di colore, sono due i modi che possono permettere al neutrino di possedere una massa: uno di essi, chiamato Massa di Dirac ed è lo stesso meccanismo che attribuisce la massa ai leptoni carichi [cite]http://goo.gl/WyLYY1[/cite], mentre l’altro Massa di Majorana, che però consentirebbe processi che violano la conservazione del numero leptonico e valido solo per i leptoni privi di carica.
Pertanto solo uno di questi o un apporto condiviso può attribuire massa al neutrino.

Se il meccanismo responsabile della massa fosse il primo (\(M_{Dirac}\)) significa che il neutrino e l’antineutrino non possono essere la stessa particella: la coppia neutrino/antineutrino verrebbe descritta da  due stati di spin per il neutrino e due per per l’antineutrino (Spinore di Dirac) come accade per gli altri fermioni elementari (leptoni carichi e quark). Questo significa appunto che i neutrini e gli antineutrini siano particelle distinte che acquisiscono massa tramite il meccanismo di Higgs facendo di loro dei semplici fermioni di Dirac.

Diagramma di Feynman di decadimento doppio decadimento beta, con due neutroni che decadono a due protoni. I prodotti emessi solo in questo processo sono due elettroni, che può verificarsi se il neutrino e antineutrino sono la stessa particella (es neutrini di Majorana), così lo stesso neutrini possono essere emessi e assorbiti all'interno del nucleo. In convenzionale doppio decadimento beta, due antineutrini - uno dovuta a ciascuna W vertici - sono emessi dal nucleo, oltre ai due elettroni. La rilevazione di neutrini doppio decadimento beta è quindi un test sensibile se i neutrini sono particelle di Majorana.

Diagramma di Feynman del doppio decadimento beta, con due neutroni che decadono a due protoni. I prodotti emessi solo in questo processo sono due elettroni, ipotesi che può verificarsi soltanto se il neutrino e antineutrino fossero la stessa particella c così come previsto dalle equazioni di Majorana in cui i neutrini sono emessi e assorbiti all’interno del nucleo. Credit: Wikipedia

Se il meccanismo di massa fosse quello di Majorana  (\(M_{Majorana}\)), ipotizzato dallo scienziato italiano nel 1937, allora il neutrino coinciderebbe con la sua antiparticella, ovvero mescolerebbe gli autostati di particella a quelli di antiparticella, rendendolo di fatto lo stesso oggetto e verrebbe quindi descritto da uno spinore con due soli stati di spin. Questo renderebbe possibile tutta una serie di fenomeni finora mai osservati come il decadimento doppio beta senza neutrini (descritto nel disegno qui accanto) che non conservano il numero leptonico 4.
Infine c’è anche la possibilità che entrambi i modelli descritti contribuiscano singolarmente a generare una parte della massa indicata per i neutrini: un approccio teorico molto interessante che si chiama See-Saw, ovvero altalena.
In tal caso ad energie spaventosamente alte (\(10^{15}\ GeV\) come quelle che furono presenti al momento della nascita dell’Universo), le masse dei neutrini 5 sarebbero dovute essere altissime, dell’ordine di \(10-11\ GeV\), tanto che potrebbero avere avuto un ruolo importante nell’asimmetria materia-antimateria all’epoca del Big Bang.

La fisica dei neutrini non segnerà magari la fine del Modello Standard così come la Relatività Generale non ha cancellato la Meccanica Newtoniana. Però c’è da attendersi che un nuovo capitolo molto interessante della fisica delle particelle sta per essere scritto.

 


Note:

 

Omochiralità quantistica, biologica e universalità della Vita

Anche se in merito sono state fatte le diverse e più disparate ipotesi, dalla radiazione polarizzata di una supernova vicina nel periodo della nascita della vita sulla Terra fino alla radiazione di una pulsar ormai spersa e forse estinta che investiva il pianeta sempre in quei momenti, nessuna di queste è a mio avviso abbastanza libera da eventi dovuti al caso. Probabilmente l’origine dell’omochiralità levogira degli aminoacidi necessari alla vita è dovuta a fattori più fondamentali e universali. 

[latexpage]

stereochemTutti gli aminoacidi e molte altre molecole – isomeri – hanno un aspetto diverso se invertite spazialmente. Tutta la vita che conosciamo è capace di utilizzare solo una delle due immagini; in genere la versione levogira per quanto riguarda gli aminoacidi e la versione destrogira per i glucidi. Queste molecole complesse esistono in due forme speculari e non sovrapponibili dette enantiomeri  che, in base alla disposizione spaziale in tre dimensioni degli atomi, vengono definite destro o levogire per la loro capacità di ruotare il piano della luce polarizzata 1. A parte questa apparente sottigliezza, entrambi gli enantiomeri hanno sostanzialmente le stesse proprietà fisiche 2. Però, in certe reazioni o strutture, è utilizzabile solo l’una o l’altra forma. La principale funzione di particolari proteine (macromolecole biologiche formate da sequenze di aminoacidi legate tra loro) dette enzimi, è quella di catalizzare le reazioni biomolecolari, tra cui la sintesi delle altre proteine. La capacità catalitica degli enzimi dipende criticamente dalla loro struttura tridimensionale, la quale a sua volta dipende dalla direzione della sequenza degli aminoacidi. Catene sintetiche di amminoacidi formate sia da enantiomeri levogiri sia da enantiomeri destrorsi in una miscela 1:1, detta racemo, non si avvolgono nel giusto modo per produrre un’efficace attività catalitica; esse sono incapaci di formare una regolare struttura elicoidale.  Il DNA, ad esempio, è composto da basi azotate, glucidi e fosfati racchiusi in strutture chiamate nucleotidi le quali compongono la celebre doppia elica: che qui è sempre destrorsa. 
Ogni produzione spontanea 3 di aminoacidi ottenuta in laboratorio da luogo sempre a una soluzione racemica mentre le catene proteiche degli esseri viventi che conosciamo utilizzano esclusivamente forme levogire. 
Il problema dell’omichiralità degli  isomeri necessari alla vita non è mai stata risolta del tutto. Alcuni ritengono che questa sia frutto della selezione entropica naturale [cite]http://dx.doi.org/10.2174/187231308784220536[/cite] che pare favorisca la selezione delle migliori soluzioni di trasduzione dell’energia disponibili. In questo una soluzione enantiopura è decisamente migliore di una racemica, come dimostrano altri studi [cite]http://pubs.acs.org/doi/abs/10.1021/jp046478x[/cite], ma tutti questi studi pur dimostrando la necessità della vita di scegliere per l’omochiralità non spiegano perché per gli aminoacidi sia stato scelto il modello levogiro e destrogiro per gli zuccheri.
Una plausibile spiegazione viene dalle riflessioni di Frederic Vester e Tilo L. V. Ulbricht del 1957, i quali sospettarono la appena scoperta Violazione della Parità prodotta dall’Interazione Debole negli atomi [cite]10.1016/S0040-4020(01)92714-0[/cite] di essere responsabile dell’omochiralità a ogni scala. o quasi..

La simmetria P

L'interazione debole di un antineutrino elettronico con un neutrone all'interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

L’interazione debole di un antineutrino elettronico con un neutrone all’interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

In fisica si chiama Simmetria P, simmetria di trasformazione di parità 4. Quasi tutte le leggi fisiche fondamentali rispettano questa regola. L’elettromagnetismo, la forza di gravità e l’interazione nucleare forte rispettano tale simmetria, ossia sono invarianti rispetto all’inversione delle coordinate spaziali (potremmo immaginare lo stesso fenomeno come visto riflesso allo specchio procedere verso il medesimo risultato che nel mondo reale, solo che è appunto invertito spazialmente). La più debole delle quattro interazioni, l’interazione debole, invece no. Anzi è proprio lei la causa della violazione della Simmetria P.
Come dice il suo nome, l’interazione debole è veramente debole: circa 1000 volte meno intensa della forza elettromagnetica e 100 000 volte meno intensa della forza nucleare forte. L’interazione debole è responsabile sia per la fusione nucleare delle particelle subatomiche che per l’emissione di raggi beta durante il decadimento radioattivo. I raggi beta sono in realtà elettroni o positroni ad alta energia espulsi da un nucleo atomico durante il decadimento beta ($\beta$). Queste particelle hanno uno spin intrinseco e quindi, quando si muovono lungo il loro asse di spin, si possono classificare come sinistrorsi o destrorsi. La violazione della parità indica che le particelle beta emesse dai nuclei radioattivi mostrano segni evidenti di una asimmetria chirale: le particelle sinistrorse emesse durante il decadimento superano di gran lunga quelli destrorse.
Durante il decadimento beta vengono emesse anche altre particelle elettricamente neutre – il neutrino e l’antineutrino – che si propagano quasi alla velocità della luce. Come l’elettrone, l’antineutrino emesso dalla materia radioattiva ha uno spin ma, diversamente dall’elettrone, esiste solo nella forma destrorsa. Pare che nell’universo non esistano neutrini destrorsi e antineutrini sinistrorsi.

Chiralità Quantistica

wzIl Modello Standard delle particelle elementari, unisce le leggi dell’eletttromagnetismo di Maxwell e l’interazione debole in un’unica forza, l’Interazione Elettrodebole e introduce il concetto di correnti deboli cariche e le correnti deboli neutre mediate dai bosoni $W^\pm$ e $Z^0$. L’opera di queste correnti , o forze,  tra due particelle elementari dipende dalla distanza tra le particelle, dalla loro carica elettrica e dalla direzione del loro spin. L’elettrone ha una carica elettrica negativa e la forza elettrica tra due elettroni qualsiasi è sempre repulsiva. Invece, la carica debole $W$ è non nulla per un elettrone sinistrorso e nulla per uno destrorso. Quindi, un elettrone destrorso si limita semplicemente a non percepire la forza $W$. La corrente debole neutra $Z$ invece agisce sullo spin, elettroni sinistrorsi e destrorsi hanno cariche $Z$ di segno opposto e di intensità circa uguale. La differenza di segno provoca l’attrazione degli elettroni destrorsi verso il nucleo da parte della corrente $Z$ e la repulsione di quelli sinistrorsi 5 6. È per questo che il decadimento nucleare beta, dominato dalle correnti deboli, produce un eccesso di elettroni sinistrorsi. Se non fosse violata la parità, in un mondo visto allo specchio il decadimento beta produrrebbe elettroni destrorsi e la corrente debole neutra $Z$ attirerebbe verso il nucleo anche gli elettroni sinistrorsi. Questi processi non si osservano però nel mondo reale, il che è un altro modo per affermare che la forza debole è chiralmente asimmetrica e che la parità non viene conservata.

Chiralità molecolare

life

Pozze di fango, comete e sacche di polvere interstellare. Ecco dove possono nascere i mattoni della Vita. Credit: Il Poliedrico

Come conseguenza dell’interazione debole, gli atomi, finora pensati achirali, mostrano invece di possedere una distinzione tra destra e sinistra. Questa distinzione se è presente su scala atomica, potrebbe riflettersi su scale di ordine superiore? C’è da aspettarsi che anche le strutture molecolari più complesse, come ad esempio gli aminoacidi, mostrino proprietà fisiche differenti in base alla loro chiralità. L’asimmetria chirale a livello subatomico ha origine a livello fondamentale con la violazione della parità. Su scala superiore la corrente debole neutra $Z$ fa sì che che una molecola chirale abbia stati energetici diversi tra i due isomeri.
Per comprendere meglio questo meccanismo, immaginiamo una molecola chirale come un’elica o una vite e supponiamo che la corrente $Z$ non esista. Un elettrone con spin $\uparrow$ che si muove nello stesso senso dell’elica $\uparrow$ è destrorso,  mentre è sinistrorso se si muove nel senso contrario. Dal punto di vista probabilistico però dovremmo comunque aspettarci che la chiralità media degli elettroni sia nulla; però le correnti elettromagnetiche presenti nell’atomo tendono a far allineare l’asse orbitale dell’elettrone nel senso opposto al suo spin. Questo fenomeno, noto come accoppiamento spin-orbita, tende a far allineare l’elettrone nel moto opposto al suo spin in una molecola chirale destrorsa, per cui in questo caso gli elettroni tendono ad essere sinistrorsi. Invece negli enantiomeri levogiri sono gli elettroni destrorsi a prevalere. Ora tornando a prendere in considerazione anche la corrente debole neutra $Z$, che interagisce con gli elettroni  in modi dipendenti dalla loro chiralità, viene fuori che essa provoca una diversità energetica tra due enantiomeri opposti [cite]http://pubs.rsc.org/en/content/articlelanding/1983/c3/c39830000117#!divAbstract[/cite].
Come è facile intuire, l’enantiomero levogiro degli aminoacidi- che è quello biologicamente più dominante – è anche quello che possiede l’energia molecolare più bassa (gli elettroni dominanti sono destrorsi), mentre al contrario è l’enantiomero destrorso il più energetico.
Tutto questo è sostanzialmente in accordo con i principi della statistica e della termodinamica che in caso di sostanziale equilibrio è la forma con l’energia più bassa a prevalere; è stato calcolato che la discrepanza nella produzione spontanea dei due isomeri è così minuscola da passare inosservata: una parte su 10^17.
Un’altra fonte dell’omochiralità è il decadimento $\beta$. Nell’ipotesi Vester-Ulbricht si sostiene che durante il decadimento spontaneo viene emessa una debole traccia elettromagnetica, un Effetto Bremsstrahlung 7 interno all’atomo [cite]10.1016/S0031-8914(36)80008-1[/cite]. Questa emissione ha la stessa polarizzazione della particella che la emette. Per gli effetti dell’interazione elettrodebole che abbiamo visto più sopra, la maggior parte, circa l’80%, degli elettroni emessi durante il decadimento sono sinistorsi, e così è anche per la radiazione. Gli effetti della radiazione polarizzata è che essa tende a distruggere le molecole chirali dello stesso ordine, così una polarizzazione sinistrorsa tende a distruggere le molecole sinistrorse, ma il contributo della radiazione Bremsstrahlung interna è veramente molto piccolo; si calcola invece che l’interazione diretta della radiazione $\beta$ (elettroni e positroni) sui due isomeri sia comunque solo di una parte su 10^11. Un importante sostegno a questa teoria viene dai risultati di un recente studio che mostra un legame significativo  tra l’energia degli elettroni diversamente polarizzati e l’evoluzione chirale della bromocanfora [cite]http://dx.doi.org/10.1103/PhysRevLett.113.118103[/cite].
Ecco quindi sostanzialmente spiegato come mai ogni produzione spontanea di aminoacidi in laboratorio (ex. gli esperimenti di Stanley e Urey) porta sempre a una sostanziale soluzione racemica.
Ma una scappatoia al racemo c’è. Come insegna la termodinamica, un sistema chiuso tende sempre ad evolversi verso uno stato di equilibrio di minima energia, dove le concentrazioni molecolari sono definite dalla loro energia ed entropia. Trascurando la diversità energetica tra i due enantiomeri dovuta dalle correnti nucleari deboli, differenza reale ma comunque piccolissima, un sistema chiuso quindi può solo evolversi verso un sistema chiralmente simmetrico dove gli isomeri levogiri e destrorsi sono presenti in uguale proporzione. In un sistema aperto all’ingresso di nuova materia ed energia invece non è raggiungibile un equilibrio termodinamico; al suo posto accade un fenomeno chiamato rottura di simmetria, che porta alla predominanza spontanea di uno dei due enantiomeri sull’altro. Anche in questo caso gli gli stessi principi statistici e termodinamici suggeriscono che siano gli enantiomeri levogiri degli aminoacidi a prevalere.
E come la mano sinistra si intreccia meglio con la destra, anche i glucidi di conseguenza hanno subito la loro selezione: per adattarsi meglio agli aminoacidi levogiri i glucidi hanno subito un’evoluzione complementare fino a produrre strutture elicoidali destrorse, precursori del DNA.

Conclusioni

L’idea che l’omochiralità delle forme più complesse possa trarre origine dalle leggi più fondamentali della natura è veramente attraente. 
Non occorrerebbe più attendere – o dimostrare – che un sorgente di radiazioni polarizzata illumini un mondo promettente per ottenere la scintilla omochirale. Elettroni sinistrorsi prodotti dal decadimento $\beta$ di isotopi prodotti dalle supernovae sono senza dubbio un fonte universale  di radiazione polarizzata capace di condizionare gli isomeri ovunque: dagli asteroidi alle comete ghiacciate nelle nubi di Oort di di ogni sistema stellare; dai fondali di oceani alieni a pozze di fango su mondi appena formati fino ad arrivare anche alle nubi interstellari e ai globuli di Bok.
Se l’ipotesi che le radici dell’omochiralità sono nell’Interazione Elettrodebole fosse corretta, dimostrerebbe che le fondamenta della Vita sono più legate alla struttura fondamentale dell’Universo di quanto finora si pensi. Una gran bella idea!


Note:

Alla ricerca del Santo Graal della fisica: la Gravità Quantistica

Oggi la scienza deve risolvere un grosso problema: esiste una teoria che descrive efficacemente il moto dei pianeti e delle stelle  chiamata Relatività Generale, ed una teoria che descrive altrettanto efficacemente il mondo microscopico chiamata Meccanica Quantistica. Entrambe nel loro raggio d’azione consentono di fare previsioni molto precise ma non possono essere usate contemporaneamente.

È tutta una questione di scala

L'Universo Viene descritto da due grandi teoremi apparentemente in contrasto tra loro. Eppure la sua isotropia e invarianza di scala dovrebbe darci la giusta chiave di lettura.

L’Universo Viene descritto da due grandi teoremi apparentemente in contrasto tra loro.
Eppure la sua isotropia e invarianza di scala dovrebbe darci la giusta chiave di lettura.

La relatività generale ci mostra uno spazio-tempo piatto e liscio, curvato  solo dalla massa e dall’energia degli oggetti che ospita. La meccanica quantistica ci mostra invece un Universo spumeggiante dominato dal Principio di Indeterminazione di Heisenberg. Quale è quindi la vera natura dell’Universo fra queste?
Possiamo immaginarci lo spazio-tempo come il mare visto da un aereo: liscio e piatto, disturbato solo dalle occasionali navi di passaggio. Ma se scendessimo sulla sua superficie, lo vedremmo mosso e spumeggiante, con un certo grado di indeterminazione che potremmo identificare col nostro stato di galleggiamento. Data la sua stazza, una nave non risente di questa incertezza, così come un oggetto macroscopico non risente della spinta indeterministica della meccanica quantistica nello spazio-tempo descritto dalla relatività. Quindi abbiamo due domini ugualmente veri che però non possiamo usare contemporaneamente per descrivere lo stesso fenomeno. Perché?
Occorre una fisica diversa, che sappia descrivere bene sia il macrocosmo relativistico dominato dalla gravità e dalla massa, che il microcosmo quantistico, dominato dal Principio di Indeterminazione. Siccome non avrebbe senso aggiungere incertezza a ciò che si è sempre finora dimostrato esatto, è necessario aggiungere la gravità alla meccanica quantistica.
Ormai è evidente a tutti che il semplice Modello Standard 1 – che non dimentichiamolo, ha saputo fin qui esprimere risultati eccellenti nella fisica delle particelle –  sta  mostrando tutti i suoi limiti alla luce delle nuove scoperte. Adesso è giunto il momento di andare oltre, di proporre una nuova teoria quantistica che aggiunga – e tenga conto – della gravità insieme alle altre tre forze di cui si era occupata finora la meccanica quantistica.

Per i fisici che studiano la materia condensata 2 è tutta una questione di dimensioni.  La descrizione che diamo di un sistema fisico dipende dalla scala in cui osserviamo. Come ho detto prima, da una quota molto alta descriveremmo il mare sotto di noi come una distesa piatta e liscia, mentre nei pressi della superficie magari staremmo assistendo ad un’onda di tsunami.
Il problema della rappresentazione di scala di solito viene risolto facendo uso di un notevole strumento matematico: il gruppo di rinormalizzazione. con questo strumento è possibile descrivere la realtà a diverse scale di interpretazione, un po’ come lo zoom di una fotocamera che permette di cogliere istantanee a scale diverse di ciò che si sta studiando.
Adesso molti ricercatori stanno tentando questa strada per vedere se attraverso i gruppi di rinormalizzazione riescono a includere una gravità coerente con la relatività generale nella meccanica quantistica.

Quella che adesso la relatività generale descrive come una distorsione spazio-temporale dovuta alla massa e che si propaga nello spazio come un’onda alla velocità della luce, forse presto sarà possibile descriverla anche con una teoria di campo che viene mediata da un bosone, proprio come le altre tre forze. Allora sarà un gran giorno per la scienza.


Note:

Materia esotica per le stelle a neutroni

[latexpage]

I componenti della materia sono fatti di leptoni (come l’elettrone e i neutrini) e quark (che costituiscono protoni, neutroni ed altre particelle). I quark sono molto diversi dalle altre particelle. Oltre alla carica elettrica particolare ($\frac{1}{3}$ o $\frac{2}{3}$ quella dell’elettrone e del protone), essi possiedono infatti anche un diverso tipo di carica ​​chiamato colore. Il peculiare meccanismo in cui opera questa carica può aiutarci a far luce su alcuni oggetti astrofisici più esotici: le stelle di neutroni.

Le combinazionii di carica  colore devono produrre un colore neutro (ovvero si devono annullare) per produrre una particella libera dalla Interazione Forte.

Le combinazioni di carica colore devono produrre un colore neutro (ovvero si devono annullare) per produrre una particella libera dalla Interazione Forte.

I quark sono particelle elementari (fermioni,  cioè che obbediscono alla statistica di Fermi-Dirac e  al principio di esclusione di Pauli) che risentono dell’Interazione Forte, una delle 4 forze fondamentali. I mediatori principali di questa forza sono i gluoni, bosoni senza massa come gli analoghi del campo elettromagnetico, i fotoni. Ma a differenza di questi che non hanno carica, i gluoni sono portatori di una particolare forma di carica chiamata colore 1, per analogia al comportamento dei colori primari dello spettro visibile, non perché essi siano colorati. Per il modo in cui la forza forte agisce, è impossibile osservare un quark libero.

La carica di colore  è esapolare, composta cioè da 3 cariche (verde, rosso e blu) e 3 anticariche (anti-verde, anti-rossso e anti-blu) ) che si comportano in maniera analoga ai colori primari: quando la somma delle cariche di colore restituisce un colore neutro, come il bianco, , allora la particella composta è rilevabile. Così si possono avere particelle di colore neutro composte da tre quark con i colori verde rosso e blu chiamate barioni (i protoni e i neutroni sono i barioni più comuni), oppure particelle composte da due soli quark possessori di un colore e il suo corrispettivo anti-colore chiamate mesoni, che svolgono un ruolo importante nella coesione del nucleo atomico. Per l’interazione forte, questi sono solo i più comuni modi per ottenere un adrone. Infatti è previsto che ci siano anche altre combinazioni di carica colore per formarne una di colore neutro. Uno di questi, il tetraquark, combina fra loro quattro quark, dove due di essi hanno un colore particolare e gli altri due posseggono i corrispettivi anti-colori.

LHCb-Z (4430)

La particella$Z (4430)^-$ appare composta da un quark charm, , un anti-charm , un down e un anti-up. I  punti neri rappresentano i dati, la curva rossa il risultato della simulazione dello stato previsto per la $Z (4430)^-$. La  curva tratteggiata marrone indica quello che ci aspetterebbe  in assenza di questa. Questo dato afferma l’esistenza dell’esotica particella con 13,9 σ (cioè che il segnale è 13,9 volte più forte di tutte le possibili fluttuazioni statistiche combinate).

Segnali sull’esistenza di questo adrone esotico si ebbero nel 2007 dall’Esperimento Belle [cite]http://arxiv.org/abs/0708.1790[/cite],  che ricevette il nome di $Z (4430)^-$ 2. Ora questa particella con una massa di $4430 MeV/c^2$  (circa quattro volte quella del protone) è stata confermata dall’Esperimento LHCb di Ginevra con una significatività molto alta (13,9 $\sigma$) [cite]http://arxiv.org/abs/1404.1903v1[/cite]. Questo significa che i quark si possono combinare fra loro in modi molto più complessi di quanto finora osservato 3. Questo è un enorme passo avanti nella comprensione di come si può comportare la materia in condizioni estreme. Barioni e mesoni esotici detti glueball 4 o una miscela di questi può esistere in un solo posto in natura: nel nucleo di una stella a neutroni.

Le stelle compatte inferiori alle 1,44 masse solari sono nane bianche, stelle in cui la pressione di degenerazione degli elettroni riesce a controbilanciare la gravità. Oltre questo limite, chiamato limite di Chandrasekhar, il peso della stella supera il limite di degenerazione degli elettroni che si fondono coi protoni dando origine a una stella a neutroni 5.

quark_star (1)

Credit: NASA/Chandra

Il risultato è una stella fatta da soli neutroni dominata dalla gravità che in questo caso vince sulla repulsione elettrica. Di questo stato esotico della materia degenere non si sa molto di più delle speculazioni teoriche, ma questo potrebbe essere solo l’inizio: si calcola che la densità media delle stelle di neutroni vada da $3,7$ a $5,9 \times 10^{14} g/cm^3$ (un nucleo atomico ha una densità stimata di circa $3 \times 10^{14} g/cm^3$), con la densità passi da circa $1 \times 10^6 g/cm^3$ della superficie fino ai $6$ o $7 \times 10^{14} g/cm^3$ del loro nucleo. Come il limite di Chandrasekhar delinea il limite inferiore di una stella di neutroni, esiste un limite superiore la quale nessun’altra forza riesce ad impere il collassso gravitazionale che porta a formare un buco nero. Questo limite superiore è il limite di Tolman-Oppenheimer-Volkoff. È in questo intervallo di massa che esistono le stelle di neutroni [cite]http://www.scribd.com/doc/219247197/The-maximum-mass-of-a-neutron-star[/cite]. È probabile che solo le stelle di neutroni più leggere siano composte di neutroni degeneri, mentre man mano sale la massa verso il limite superiore la materia di neutroni degeneri ulteriormente in prossimità del nucleo e poi sempre più verso il guscio esterno in un brodo indistinto di quark tenuti insieme dalla gravità che riesce a soppiantare perfino l’interazione forte [cite]http://www.scribd.com/doc/219246949/Nuclear-equation-of-state-from-neutron-stars-and-core-collapse-supernovae[/cite]. Il tetraquark individuato dall’LHC è sicuramente solo il primo di una lunga serie di adroni esotici che può aiutare a comprendere meglio questi stati degeneri della materia che immaginiamo essere al centro di questi minuscoli e compatti resti stellari.


Note:

Rielaborazione del concetto di Buco Nero

[latexpage]

Riuscire ad immaginare oggi un buco nero non è difficile, anzi. La fantascienza del XX secolo e il cinema hanno reso i buchi neri talmente familiari quasi da distorcerne il significato. Per la fisica invece sono semplicemente delle regioni di spazio dove materia – o energia – è collassata oltre una certa densità critica, dove la velocità di fuga supera anche la velocità della luce. Tutto quello che è o finisce all’interno di questa regione di spazio si suppone converga verso una singolarità, ovvero un punto geometrico di densità infinita, questo almeno per la meccanica relativistica. Il confine tra questa regione di spazio collassato e il resto dell’universo si chiama orizzonte degli eventi, sede di tutta una serie di bizzarri fenomeni quantistici ancora lungi dall’essere pienamente compresi.

La storia dei buchi neri

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Il concetto di buco nero nacque molto prima della Relatività Generale. Verso la fine dell’Settecento, quando la Meccanica di Newton sembrava fosse in grado di spiegare la gravità, all’astronomo inglese John Michell (che per primo fornì un’accurata misura della costante gravitazionale) e, successivamente, il marchese Pierre-Simon Laplace, uno dei più grandi scienziati del periodo napoleonico,  ebbero indipendentemente l’idea che potessero esistere corpi celesti con una velocità di fuga superiore a quella della luce. In particolare si chiesero quale potesse essere il raggio $R$ di una stella di massa $M$ fissata la cui velocità di fuga fosse pari a quella della luce $c$ 1.

Tenendo conto della legge di conservazione dell’energia meccanica totale, si ricava: \[ \frac{1}{2} mv_f^2-G \frac{mM}{R}=0 \]

Da qui si può di conseguenza ricavare la velocità di fuga $v_f$: \[ v_f=\sqrt{\frac{2GM}{R}} \]

Dove $G$ e’ la costante di gravitazione universale. In questa formula il raggio $R$ della stella si trova al denominatore. Questo significa che se la massa della stella rimane costante mentre il suo raggio diminuisce (dato che la stella si contrae) la velocità di fuga aumenta. Con il diminuire del raggio, la velocità di fuga può aumentare fino a superare la velocità della luce nel vuoto $c$. Dato che secondo la relatività generale, niente può avere una velocità superiore a questo valore, è impossibile che un qualsiasi oggetto, anche un raggio di luce, possa allontanarsi da questa stella. Il valore critico del raggio $R$ per il quale la velocità di fuga diventa uguale alla velocità della luce nel vuoto lo calcolò esattamente nel 1916 Karl Schwarzschild, da cui ha preso il nome. Imponendo allora $v_f = c$ e $R = R_S$, si ricava:

\[ c^2=\frac {2GM}{R_S}

\]

da cui: \[ R_S=\frac{2GM}{c^2} \]

Queste stelle all’inizio vennero chiamate dark star, ma in seguito allo sviluppo della teoria ondulatoria e corpuscolare della luce il loro studio viene abbandonato quasi subito. Infatti la teoria ondulatoria e corpuscolare della luce stabilisce che i fotoni abbiano una massa nulla, quindi, secondo la teoria di Newton i fotoni non possono risentire dell’attrazione di alcuna stella, dunque le dark star non possono esistere.

Poi nel XX secolo la teoria dei buchi neri riaccese l’interesse degli scienziati, in seguito allo sviluppo di due potenti teorie che avrebbero riscritto la fisica macroscopica classica, la Relatività Ristretta e la Relatività Generale, e la fisica delle particelle, la Meccanica Quantistica. A questo punto, giusto per non generare equivoci, è bene sottolineare che col termine buco nero si intende una regione di spazio collassato su sé stesso. Quella parte di spazio ancora accessibile allo studio si chiama orizzonte degli eventi, sede di tutta una serie di fenomeni bizzarri che vanno dall’emissione spontanea di particelle (Radiazione di Hawking) fino a fenomeni di dilatazione temporale. La parte a noi sconosciuta e – per adesso – inconoscibile, è quello che rimane dell’oggetto (materia o radiazione) che ha prodotto lo spazio collassato: per la relatività generale è un punto geometrico di densità infinita chiamato singolarità. Dato che secondo la relatività generale niente può viaggiare più veloce della luce, dai buchi neri non sarebbe dovuto sfuggire niente, nemmeno un briciolo di radiazione termica. Per questa ragione all’inizio si era creduto che la temperatura dell’orizzonte degli eventi pari a zero Kelvin (ossia allo zero assoluto, $-273,15$ gradi centigradi). Questo assunto però era in contrasto con uno dei mostri sacri della fisica: il secondo principio della termodinamica.

Non importa se l'osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Non importa se l’osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Karl Schwarzschild, risolvendo le equazioni di Einstein (il campo gravitazionale è determinato dalla distribuzione di materia e dice alla materia come muoversi) in un caso molto particolare di perfetta simmetria sferica dello spazio-tempo, trovò una coincidenza molto interessante con la teoria newtoniana: se una stella di massa $M$ si contrae fino al raggio di Schwarzschild, il tempo sulla sua superficie si ferma e la luce che parte da quest’ultima subite un redshift infinito per cui non può raggiungere nessun osservatore al di fuori della stella. Cosa succede se il raggio della stella diventasse ancora più piccolo è ancora tema di dibattito. La relatività generale di Einstein non pone limiti al collasso della materia verso un punto di densità infinita. Per questo caso venne coniato il termine di singolarità di Schwarzschild, ma questa ipotesi fu accolta con grande scetticismo dalla comunità scientifica, oltre che dallo stesso Schwarzschild, convinti del fatto che la natura avrebbe trovato un modo per impedire simile ipotesi Grazie a una maggiore conoscenza e comprensione dei fenomeni fisici che avvengono all’interno delle stelle, tra gli anni Trenta e Cinquanta si arrivò alla conclusione che  l’ipotesi della singolarità era reale e che la relatività generale non aveva alcun problema con la materia concentrata entro il raggio di Schwarzschild, anzi essa era in grado di spiegare chiaramente cosa succedeva fino all’orizzonte degli eventi: materia e luce intrappolate al suo interno e senza possibilità alcuna di uscire: una regione dello spazio-tempo che non può comunicare con il resto dell’universo. Il termine buco nero venne introdotto da Wheeler alla fine degli anni Sessanta, quando l’importanza fisica di tali oggetti era oramai chiara alla maggior parte dei fisici teorici e a gran parte degli astrofisici. Molti furono gli esperimenti compiuti per la ricerca di buchi neri e in effetti i telescopi furono in grado di rilevare dei candidati sempre più promettenti, anche se ancora oggi l’osservazione certa di un buco nero non sia stata confermata in modo assoluto. Ma sono rimasti in pochi a dubitare della loro esistenza. Negli stessi anni gli strumenti matematici impiegati dalla relatività generale furono notevolmente ampliati, comprendendo meglio i limiti di tale teoria. Le equazioni di Einstein vennero risolte sotto ipotesi meno restrittive di quelle di Schwarzschild insieme ad altri risultati. Grazie al contributo di numerosi teorici della relatività generale emersero quattro leggi fondamentali che regolano la meccanica dei buchi neri e presentano una straordinaria somiglianza formale con i principi della termodinamica. Inizialmente tale somiglianza venne considerata una pura coincidenza, a causa di evidenti incompatibilità tra le variabili che determinano la meccanica di un buco nero e le variabili termodinamiche a cui dovrebbero corrispondere.

La termodinamica dei buchi neri

Secondo Hawking non vi è alcun pericolo di perdere la popolazione di buchi neri nel nostro universo. Attualmente   la radiazione di Hawking avrebbe un effetto rilevante solo sui buchi neri di piccola massa. 2. Questo perché la temperatura di un buco nero, cioè la radiazione di Hawking che emette il suo orizzonte degli eventi, deve superare la materia e l’energia che intercetta. Dato che la temperatura di un buco nero è inversamente proporzionale alla sua massa, allora con l’aumentare della massa la quantità di energia che riesce ad emettere diminuisce.
In questo modo, i buchi neri più massicci di quel limite, nati dal collasso di stelle  massicce 3 4, presentano un’emissione di energia piuttosto bassa. E dato che ricevono continuamente luce dalle stelle, dalla radiazione cosmica di fondo e dalla materia che vi cade, è evidente che tali buchi neri non cessano di crescere.
Sarà solo quando in una data imprecisata nel futuro tutte le stelle si saranno spente, la poca materia ancora rimasta in un universo ormai freddo si troverà al di là  della portata dei più grandi buchi neri ; quando la temperatura dell’universo sara’ inferiore a quella della radiazione di Hawking dei buchi neri neri che questi evaporeranno.

Nel 1974 il matematico inglese Stephen Hawking provò ad applicare la Meccanica Quantistica al concetto previsto dalla Relatività Generale conosciuto come Buco Nero. Questo dimostrò come i buchi neri non siano realmente neri, ma che emettano una temperatura di corpo nero inversamente proporzionale alla loro massa 5 6 [cite]10.1103/PhysRevD.23.287[/cite].

Il meccanismo della radiazione di Hawking introduce un paradosso insidioso e di difficile soluzione: la conservazione dell’informazione all’interno di un Buco Nero.

Detta così appare terribile, ma per la relatività generale non importa se la materia originale del buco nero sia materia o antimateria, di carica elettrica o  di un sapore quantico particolare, potrebbe essere un astronauta, un libro o l’intera vostra collezione di CD; di tutto quello che supera l’orizzonte degli eventi se ne perde traccia e la radiazione di Hawking che ne esce non  contiene alcuna informazione che consenta di risalire a ciò che era prima. Per la meccanica quantistica, lo stato di un sistema in qualsiasi momento è descritto da una funzione d’onda. Per la loro natura casuale, le particelle che compongono la radiazione di Hawking non hanno una funzione d’onda definita, ma solo una matrice di densità. Questo significa che la radiazione ha molte funzioni d’onda possibili, con una certa probabilità distribuita tra le particelle. Oltre all’incertezza usuale tipica della meccanica quantistica, nella radiazione si inserisce anche l’incertezza della funzione d’onda delle singole particelle: l’informazione è stata distrutta. Come Hawking ebbe a dire in proposito: “Non solo Dio gioca a dadi, ma a volte ci confonde gettandoli là dove non possono essere visti“.

buco neroAl contrario, per la meccanica quantistica l’informazione non può essere distrutta. Qui ogni stato quantico di un insieme di due o più sistemi fisici, virtuali o reali,  dipende dallo stato di quando ciascun sistema viene creato e si mantiene anche quando i singoli componenti dello stesso sistema sono spazialmente separati. Questo significa che se a una delle due particelle create insieme (un esempio classico sono un fascio di fotoni) viene imposto un particolare stato di polarizzazione esso si trasmette istantaneamente anche all’altra particella, senza alcuna limitazione spaziale 7. Quindi ogni modifica dello stato di una delle due particelle (o quella che cade oltre l’orizzonte degli eventi o quella che sfugge dal buco nero) si ripercuote anche sull’altra trasferendo informazione in un senso o nell’altro. Per comprendere meglio questo concetto è opportuno fare ricorso a un  gedankenexperiment, un esperimento ideale tanto caro alla fisica teorica. Supponiamo due particelle entangled con spin $\nwarrow \hspace{0.75in} \nwarrow$ in prossimità dell’orizzonte degli eventi e una delle due cade nel buco nero mentre l’altra sfugge. Per il principio di equivalenza alla particella che cade non succede niente di particolare: lo spin $\nwarrow$ finisce oltre l’orizzonte degli eventi senza problemi. Ora all’esterno c’è una particella con spin $\nwarrow$ uguale a quella caduta all’interno, imbrigliata con questa; qualsiasi cambiamento di stato che una delle due subisce, si riflette istantaneamente attraverso l’orizzonte degli eventi.

È evidente che questo è il nodo centrale di tutta la discussione: o si rinuncia alla trasmissione dello stato quantico delle particelle che oltrepassano l’orizzonte degli eventi oppure si rinuncia alla casualità della radiazione di Hawking. Un modo elegante per uscire da questa impasse consiste nel congelare l’informazione – e la rispettiva particella – proprio sull’orizzonte degli eventi, interrompendo così anche l’azione di entanglement che trasporta l’informazione di stato all’esterno. In questo modo, tutta l’informazione che precipita in un buco nero rimane congelata sul suo orizzonte degli eventi.

l’Effetto Unruh e il Principio Olografico

Per il Principio Olografico l'informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell'acqua si proiettano nei giochi di luce sul fondo di una piscina.,

Per il Principio Olografico l’informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell’acqua si proiettano nei giochi di luce sul fondo di una piscina.

Nel 1993, Lenny Susskind ed altri [cite]http://arxiv.org/abs/hep-th/9306069[/cite][cite]http://arxiv.org/abs/hep-th/9308100[/cite] provano a definire una situazione non locale che non comprenda una perdita delle informazioni 8[cite]http://prd.aps.org/abstract/PRD/v14/i4/p870_1[/cite][cite]http://arxiv.org/abs/0710.5373[/cite]. Qui l’orizzonte degli eventi appare come una matrice di celle delle dimensioni di Plank, dove le informazioni di stato di ciò che cade nel buco nero vengono assorbite, mentre per il solito osservatore lontano pare che siano perse. Quindi i fenomeni entanglement non scompaiono ma vengono congelati sull’orizzonte degli eventi e l’informazione in realtà non è andata persa. Questa nuova interpretazione che voleva un orizzonte degli eventi caldo, all’inizio non era poi tanto convincente fino a che nel campo delle teorie quantistiche non apparvero le teorie delle stringhe e la teoria M, che avevano lo scopo di riunificare la meccanica quantistica con la gravità. Qui il contributo del fisico argentino Juan Maldacena fu determinante per comprendere meglio cos’è questo nuovo aspetto dell’orizzonte degli eventi caldo [cite]http://arxiv.org/abs/hep-th/9711200[/cite]. Anche alla luce della corrispondenza fra Spazio Anti de Sitter e Teoria di campo conforme (AdS / CFT) i risultati sono analoghi ai precedenti. Qui l’orizzonte degli eventi viene visto come un ologramma, una superficie che contiene tutte le informazione del buco nero 9. Così la corrispondenza AdS / CFT risolve, almeno in una certa misura, il paradosso dell’informazione dei buchi neri, mostrando come un buco nero possa evolvere coerente alla meccanica quantistica, senza alcuna perdita di informazioni.

Le ultime proposte di Hawking

black-hole-wallpaper-hdNella sua ultima opera Hawking [cite]http://arxiv.org/abs/1401.5761[/cite] avanza delle critiche al concetto di firewall (come è stato ribattezzato l’effetto Unruh  presso l’orizzonte degli eventi) trovando almeno tre grandi obiezioni a questo costrutto. Ha suggerito che occorre un cambio di passo (quello sì reale) nel modo di concepire i buchi neri pensandoli come oggetti finiti nel tempo, anche se lontanissimo, piuttosto che eterni e immutabili come spesso fatto finora. In quest’ottica anche il costrutto matematico che conosciamo come orizzonte degli eventi e descritto da Schwarzschild cambia di significato: è solo un limite del campo gravitazionale destinato a cambiare nel tempo, quindi si può definire come metastabile. Per questo Hawking lo definisce apparente, perché così appare all’osservatore per un tempo $T$. In questa nuova interpretazione il principio di unitarietà rimane intatto. La metrica di Kerr che può essere usata per descrivere un collasso di un buco nero reale indica che lo spazio oltre l’orizzonte degli eventi è essenzialmente caotico, quindi non occorre ricorrere al teorema olografico (e al firewall) per preservare l’informazione: questa passa nella radiazione di Hawking, ma talmente confusa da essere irriconoscibile. In questo modo  la radiazione non appare più essere casuale come finora si era creduto, ma talmente caotica da sembrare tale.

Quindi interpretare il pensiero di Hawking che chiede un nuovo approccio sui buchi neri come un rifiuto a  questi è solo buttarla in caciara. I buchi esattamente neri non lo sono mai stati, e lo si sapeva dal 1974. Adesso sappiamo che l’orizzonte eventuale dura solo un tempo finito, e anche questa appare come la scoperta dell’acqua calda.


Note:

Il terribile equivoco del cianogeno

Buffo! Di solito ci attendiamo una corretta informazione dai siti scientifici ma a volte, rare volte, non è così.

La cometa di Halley al suo ultimo passaggio confrontata col suo spettro nel visibile e vicino infrarosso Credit: Uppasala University per lo spettro e NASA/W. Liller per l'immagine. Rielaborazione: Il Poliedrico

La cometa di Halley al suo ultimo passaggio confrontata col suo spettro nel visibile e vicino infrarosso. Credit: Uppasala University per lo spettro e NASA/W. Liller per l’immagine. Rielaborazione: Il Poliedrico

Tutto probabilmente nacque intorno al 1910, durante il penultimo ritorno della Cometa di Halley, quando gli scienziati resero pubblici i loro sospetti derivati da una scienza ancora agli albori, la spettroscopia: secondo i loro dati la coda della cometa conteneva elementi tossici come l’arsenico (As) e gas cianogeni  1. Ovviamente questo non avrebbe comportato alcun  problema per i terrestri, grazie alla protezione svolta dall’atmosfera e all’esigua densità della coda della cometa 2. Ma intanto alcuni venditori senza scrupoli approfittarono della notizia per vendere – e arricchirsi – inutili maschere antigas 3.

Durante il suo ultimo passaggio, nel 1986, la Halley si mostrò come nella prima immagine: aveva un colore abbastanza neutro che virava leggermente verso il violetto nella chioma di polveri e una coda di gas di un blu discreto.

Credit: ESO

Credit: ESO

Osservando lo spettro nella zona ultravioletta e violetta tra i 332 e i 432 nm si notano alcune righe di emissione:  all’estremo dello spettro visibile  4 e un’altra poco più giù attorno ai 420 nm. Altre righe importanti sono quelle prodotte dal radicale ossidrile (OH), il monossido di carbonio (CO) e il carbonio triatomico (C3).

E infatti la coda di gas ionizzato blu pallido lo conferma: i suoi colori sono quelli dei gas appena citati: cianogeno, radicale ossidrile, monossido di carbonio e carbonio triatomico.

La cometa Lemmon.confrontata col suo spettro. Credit: RobK di Bright, Vic, Australia per lo spettro e anonimo per l’immagine. Rielaborazione: Il Poliedrico

La cometa Lemmon.confrontata col suo spettro.
Credit: RobK di Bright, Vic, Australia per lo spettro e anonimo per l’immagine.
Rielaborazione: Il Poliedrico

Adesso torniamo ai giorni d’oggi e alla stupenda – per chi è riuscito a vederla – C/2012 F6 (LEMMON) dello scorso marzo.
Dallo spettro di questa cometa è evidente che del radicale cianogeno non ce n’è traccia, né a 380 nm, né ai 420 nm. Piuttosto qui il verde brillante della chioma è dato dalle intense righe del carbonio biatomico (C2).
Lo stesso errore viene ancora oggi commesso riguardo la C/2012 S1 (ISON) che – nel momento in cui scrivo – emette molto poco a 380 nm, mentre le righe del carbonio biatomico a 440 e a 520 nm sono più pronunciate, come evidenzia il primo spettro:


Lo spettro di C/2012 S1 (ISON) l'11/10/2013

Lo spettro di C/2012 S1 (ISON) l’11/10/2013 Credit:  astrosurf.com

Lo spettro di C/2012 S1 (ISON) il 24/10/2013

Lo spettro di C/2012 S1 (ISON) il 24/10/2013  Credit: astrosurf.com

Credit: Wikipedia

Nel secondo spettro anche se la riga del radicale cianogeno appare molto più pronunciata del primo, il contributo di questa emissione al colore complessivo della cometa non appare evidente, come si può facilmente notare dalle innumerevoli immagini in Rete della cometa in quei momenti. Questo perché il picco di sensibilità dell’occhio umano raggiunge il massimo proprio tra i 500 e i 600 nm, giusto dove anche l’emissione del carbonio biatomico è più elevata.
Invece, tornando alla Halley del 1986, le emissioni del carbonio biatomico ionizzato erano trascurabili, tanto da far risaltare la scia azzurrognola e violetta delle emissioni di CN.
Eppure Spaceweather.comAPOD della NASA e via di seguito molti altri siti che si occupano di astronomia fanno, e hanno fatto tutti lo stesso errore; attribuire indistintamente l’aspetto verdastro di una cometa al cianogeno. Su questo tema il dibattito su alcuni forum astrofili oltreoceano è acceso, tant’è che anche un astronomo e divulgatore scientifico come Phil Plait ha riconosciuto l’equivoco 5.

Colore
Lunghezza d’onda
Violetto 380–435 nm
Blu 435–500 nm
Ciano 500-520 nm
Verde 520–565 nm
Giallo 565–590 nm
Arancione 590–625 nm
Rosso 625–740 nm

Probabilmente la spiegazione a questa errata interpretazione è molto più banale di quanto si pensi:  una riga di emissione (spesso la più intensa) del carbonio biatomico è fra i 510 e i 520 nm, proprio nel mezzo della fascia di colore che comunemente attribuiamo al colore ciano!
Molto probabilmente a partire dai tempi della scoperta dei composti cianogeni nella coda della Cometa di Halley, qualcuno in passato ha erroneamente associato il termine cianogeno col colore ciano e l’errore poi si è tramandato nel tempo e nessuno l’ha poi più corretto.

Quindi, anche se pare diventata affermazione comune associare il verde brillante della chioma di una cometa con i radicali cianogeni, questi non ne hanno alcuna responsabilità, la colpa è tutta del carbonio biatomico emesso dalla cometa che si ricombina attorno ai 520 nm.
Spargete la voce.


Bibliografia:

 

  1. Ji Hye Lee, Tae Yeon Kang, Hyonseok Hwang, Chan Ho Kwon, Hong Lae Kim, “Photodissociation Dynamics of Cyanamide at 193 nm: The CN Radical Production Channel”, Bulletin Of The Korean Chemical Society 29, 1685-1688 (2008).[08LeKaHw.CN
  2. David G. Schleicher, “THE FLUORESCENCE EFFICIENCIES OF THE CN VIOLET BANDS IN COMETS”, Astronomical Journal140, 973-984 (2010). [link to article][10Scxxxx.CN]
  3. M. Kleine, S. Wyckoff, P. A. Wehinger, B. A. Peterson, “THE COMETARY FLUORESCENCE-SPECTRUM OF CYANOGEN – A MODEL”, Astrophysical Journal 436, 885-906 (1994). [link to article][94KlWyWe.CN]
  4. Atlas of cometary spectra, Institut d’Astrophysique et de Géophysique de l’Université de Liège, Allée du 6 Août, 17 – Bât B5cB-4000 Liège 1, BELGIQUE E-Mail : hyperion@astro.ulg.ac.be

 

Gli straordinari risultati di AMS-02

Martedì scorso a Los Angeles il celebre cosmologo Stephen Hawking ha suggerito che l’unico modo che ha l’umanità di sopravvivere per i prossimi mille anni è quello di dedicarsi alla colonizzazione dello spazio. Questo è ragionevole: con otto miliardi di bocche da sfamare, gli equilibri economici e le risorse sempre più scarse, il rischio di guerre, pestilenze o catastrofi naturali, vivere su un solo pianeta come dice Hawking è veramente rischioso.
Ma anche andarsene da questo posto, la Terra, non è affatto facile.
Colonizzare altri mondi allo stato tecnologico attuale non è possibile. Potremmo costruire habitat orbitali come suggerì O’Neill nel 1976, colonizzare Marte con città protette da cupole gigantesche che trattengono l’atmosfera 1, spingerci fino ai confini del Sistema Solare e in futuro forse fino alle stelle più vicine con immense navi generazionali. Il Cosmo è sicuramente il posto più inospitale in assoluto che ci sia, ma è anche quello che più ci fa sognare. Un vero salto nel buio.

Rappresentazione schematica dell’Alpha Magnetic Spectrometer. – Credit: INFN

Rappresentazione schematica dell’Alpha Magnetic Spectrometer. – Credit: INFN

Uno dei misteri più grandi del cosmo riguarda la sua composizione: secondo il Modello Cosmologico Standard l’Universo è composto per il 4,9% da materia ordinaria (barionica), il 26,8% da materia di cui non se ne conosce la natura (oscura) e per il 68,3% da energia oscura 2 3. Quindi l’84,5% di tutta la materia di tutto l’Universo sfugge alla nostra comprensione. L’unica cosa certa è che questa esotica forma della materia è sensibile all’interazione gravitazionale ma non emette o assorbe la luce.

Lo scorso 3 aprile il team di ricercatori guidati dal premio Nobel Samuel Ting del MIT/CERN ha annunciato che l’Alpha Magnetic Spectrometer (AMS-02 4) dalla sua installazione sulla Stazione Spaziale Internazionale (2011) a fine 2012 oggi ha contato più di 400.000 positroni, l’equivalente antimateria degli elettroni.
Di per sé non è poi così difficile produrre positroni in laboratorio, basta bombardare la materia con fotoni ad alta energia 5 o sfruttare il naturale processo di decadimento radioattivo di alcuni isotopi (decadimento β+) ma, essendo il nostro universo dominato dalla materia, la sopravvivenza – emivita – di questa antiparticella è limitata all’incontro con un elettrone con cui si annichila emettendo due fotoni gamma da 511 kev emessi in direzioni opposte 6.

Il decadimento b+

Il decadimento β+

Per questo rilevare 400 mila positroni fra i 25 miliardi di eventi 7 registrati in 18 mesi (maggio 2011 – dicembre 2012) è straordinario.
Che i raggi cosmici contenessero un po’ di antimateria era risaputo almeno dal 2009 8, ma non in quantità così insolite: almeno il 10% del totale degli eventi dovuti a elettroni e positroni è dovuto da questi ultimi.

Una pulsar può accelerare le coppie di particelle-antiparticelle che AMS-02 ha rilevato.

Cosa produca tutti questi positroni in un universo di materia è un mistero. Questo potrebbe essere un indizio importante per scovare finalmente la materia oscura.

Per spiegare la natura della materia oscura sono state avanzate le più disparate teorie, dai neutrini massivi a particelle esotiche supersimmetriche 9  chiamate neutralini, che collidendo tra loro dovrebbero produrre un gran numero di positroni ad alta energia.

Un’altra sorgente di positroni molto meno esotica ma che vale comunque la pena di prendere in considerazione è nascosta nelle pulsar.
Le pulsar sono stelle di neutroni che si formano in seguito alle esplosioni di supernova. Questi resti ruotano sul loro asse migliaia di volte al secondo e hanno un campo magnetico milioni di volte più potente di quello che possiamo creare in laboratorio 10.
Le pulsar in pratica sono dei fantastici acceleratori naturali di particelle tra cui  coppie di elettroni e positroni, che possono spiegare le quantità rilevate da AMS-02.
Come riconosce Samuel Ting l’unico modo per distinguere l’origine dei positroni è quello di raccogliere altri dati e coprire un più ampio spettro di energia che per ora l’Alpha Magnetic Specrometer ha solo iniziato a mostrare 11.
L’ASM-02 rimarrà in funzione almeno fino al 2020 e potrà aiutare a risolvere finalmente il mistero della materia oscura.


La stupefacente realtà del neutrino

[latexpage]

Comprendere come nel neutrino le diverse masse associate a ciascun sapore si rendono manifeste aiuta a capire come questa particella così elusiva da sfidare anche il Modello Standard sia importante anche per superare il modello stesso. Nato per spiegare il Principio di Conservazione dell’Energia nel processo del decadimento beta, il neutrino forse può aprire una breccia nel solido muro del Modello Standard e indicare la strada verso una nuova teoria quantistica.

Credit: Il Poliedrico

Credit: Il Poliedrico

La realtà quantistica è molto lontana dalla nostra percezione comune. I neutrini esistono in una sovrapposizione di stati di massa definita. Questo è un concetto un po’ complicato da spiegare, ma non è corretto credere che gli autostati 1  di sapore – elettronico, muonico e tauonico – siano gli autostati di massa. I neutrini sono prodotti dell’interazione debole e nascono con un autostato di sapore a  cui corrisponde una certa combinazione degli autostati della sua massa.
Però a parità di energia le tre diverse masse si propagano in modo diverso. Questo comporta che l’autostato di sapore dei neutrini cambierà nel tempo, perché muteranno gli autostati legati alle diverse masse. Le tre diverse masse del neutrino sono legate fra loro da tre angoli di mescolamento a cui però non si sa esattamente a quali masse  o stati siano associati.
Detto così sembra ostrogoto antico, ma lasciate che vi faccia un esempio un po’ più comprensibile, un gedankenexperiment come lo avrebbe chiamato Einstein: immaginate un Pendolo di Newton con tre sfere di massa diverse collegate l’una all’altra da una debole molla. Ora facciamone oscillare una e vediamo che il movimento viene trasmesso alla seconda e poi alla terza sfera dalle molle $k’$ e $k”$ e da questa il moto ritorna indietro fino alla prima, e così via; In questa riflessione ideale immaginate che non ci sia attrito e che il moto continui indefinitamente. Le sfere si trasmettono il movimento seguendo uno schema oscillatorio, che poi è quello che viene osservato nei neutrini. L’angolo $\theta$ è l’ampiezza dell’angolo che le diverse sfere raggiungono rispetto all’asse di riposo.

Il $\theta\ \ 1-2$ e il $\theta\ \ 2-3$ ormai sono conosciuti con una certa precisione: supponiamo che il $\theta\ \ 1-2$ indicasse la differenza di massa tra l’autostato del neutrino indicato con $1$ e l’autostato $2$, leggermente diverso. Il $\theta\ \ 2-3$, più ampio,  quindi dovrebbe indicare la differenza di massa tra l’autostato di tipo $2$ e l’autostato di tipo $3$.
Ma le masse stesse non sono note, così come il loro ordine. Tutto indica che l’autostato $3$ è molto diverso dagli altri, ma è il più leggero o il più pesante fra gli stati assunti dal neutrino?
Un importante aiuto per la comprensione di questo importante rebus viene dai risultati ottenuti a marzo 2012 dall’esperimento Daya Bay 2, che ha dato un valore, piccolo ma non nullo come era stato ipotizzato in seguito a precedenti esperimenti, all’angolo di mescolamento mancante: il $\theta\ \ 1-3$.
Sarà così possibile stabilire finalmente la gerarchia della massa del neutrino e scoprire se le interazioni dei neutrini violano la simmetria materia-antimateria e perché i neutrini si comportano diversamente dagli antineutrini. Questo a sua volta può riuscire a spiegare perché il nostro Universo sia dominato dalla materia 3.

(continua)


Note:

L’enigma dei neutrini solari

[latexpage]

L'interazione debole di un antineutrino elettronico con un neutrone all'interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

L’interazione debole di un antineutrino elettronico con un neutrone all’interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

Abbiamo visto nello scorso articolo che i neutrini sono delle particelle molto particolari, non solo per la loro impalpabilità – interagiscono solo con la forza nucleare debole e la forza gravitazionale – ma anche perché pur essendo una particella sola può assumere tre diversi stati diversi tra loro che si differiscono nella massa, mentre il Modello Standard pur prevedendo  i tre tipi diversi di neutrino associati ai tre leptoni (elettrone, muone,tau) li propone senza  1.
Ma è appunto la massa che permette ai neutrini di oscillare, ossia di cambiare stato, o sapore come volete chiamarlo.
Già con i primi esperimenti di lettura della quantità dei neutrini provenienti dal Sole fu chiaro che qualcosa non andava: i conteggi dei neutrini mostravano che solo un terzo dei neutrini elettronici arrivava sulla Terra rispetto alla quantità prevista per mantenere il Sole acceso. Dunque, o qualcosa non andava nelle reazioni termonucleari del Sole oppure ⅔ dei neutrini elettronici prodotti dalla catena  protone-protone trovavano il modo di non farsi vedere.
La risposta che ora appare evidente è che durante il loro cammino di 150 milioni di chilometri molti neutrini cambiano sapore e che quindi sfuggono ai rivelatori.

Possiamo considerare ogni neutrino come una miscela delle tre diverse masse caratteristiche al loro sapore che continuamente interferiscono l’una con l’altra come fanno frequenze radio diverse, sommandosi o abbantendosi ritmicamente cambiando le loro proporzioni. La probabilità di trovare un dato tipo di neutrino ad una certa distanza dal punto in cui è stato creato dipende valori chiamati angoli di mescolamento (indicati con la lettera greca theta $\theta$), che esprimono la proporzione tra le diverse masse – autostati –  1, 2 e 3 del neutrino.

(continua)


Note: