Come ti calcolo le proprietà di un esopianeta, la massa (metodo radiale)

 

metodo dopplerI metodi per l’individuazione degli esopianeti sono sostanzialmente due: il metodo dei transiti, cioè quello analizzato fin qui nelle scorse puntate e usato dal celebre telescopio spaziale Kepler, e il metodo delle velocità radiali, che consiste nell’individuare lievi spostamenti doppler periodici nelle linee spettrali di una stella provocati dalla presenza di uno o più pianeti in orbita.
I vantaggi di questo metodo sono che attraverso il metodo delle velocità radiali è possibile avere una stima molto più precisa delle velocità orbitali, tant’è che è – per ora – l’unico metodo abbastanza affidabile che consente di ottenere una stima della massa di un esopianeta.
Come il precedente, anche questo approccio per trovare la massa di un pianeta extrasolare è legato alla legge fisica chiamata la conservazione della quantità di moto 1. La legge di conservazione del momento dice che in ogni sistema chiuso (cioè, un sistema in cui le forze esterne sono trascurabili), la quantità di moto totale di tutti gli oggetti del sistema non può cambiare. Pertanto, quando gli oggetti all’interno di un sistema chiuso interagiscono uno con l’altro, la quantità di moto di un singolo oggetto può anche cambiare, ma la quantità di moto totale di tutti gli oggetti all’interno del sistema deve rimanere costante.
Per questo si può scrivere legittimamente la relazione \(p_{\bigstar} = p_{p}\) 2,ovvero:
\begin{equation}
m_{\bigstar}v_{\bigstar}=m_{p}v_{p}
\end{equation}
Da qui ne consegue che si può scrivere anche:
\begin{equation}
m_{p}= \frac{m_{\bigstar}v_{\bigstar}}{v_{p}}
\end{equation}

La massa della stella si ottiene come al solito dalla relazione temperatura/luminosità ricavabile dal diagramma di Hertzsprung-Russell che consente di risalire alla massa della stella 3.
Purtroppo l’equazione qui sopra chiede la velocità orbitale del pianeta mentre attraverso la periodicità dello spostamento spettrale (V. figura in alto) restituisce il periodo orbitale del pianeta \(P_{p}\) attorno al centro di massa del sistema. Ma semplificando la Terza legge di Keplero per la Legge di Gravitazione di Newton si può scrivere che:
\begin{equation}
P_{p}^2=\frac{a_{p}^3}{M_{\bigstar}}
\end{equation}
dove appunto \(a_{p}\) è il semiasse maggiore dell’orbita del pianeta. Assumendo come nel caso scorso che sia un’orbita perfettamente circolare, si può dire anche che \(a_{p}\) è uguale al raggio dell’orbita, pertanto la circonferenza orbitale è pari a \(a_{p}\cdot 2\pi\), mentre la velocità orbitale non è altro che questa distanza diviso per il suo periodo \(P_{p}\):
\begin{equation}
v_{p}=\frac{2\pi a_{p}}{P_{p}}
\end{equation}
ecco la nostra velocità orbitale del pianeta e di conseguenza la sua massa!

equazione


Note:

 

Come ti calcolo le proprietà di un esopianeta, la massa

[latexpage]

Nella prima parte ho dimostrato come si possono ottenere con dei semplici calcoli alcune proprietà di un ipotetico pianeta in orbita ad una stella remota. La parte più difficile è però calcolare la massa dell’esopianeta, una sfida difficile ma ricca di soddisfazioni.

Credit: Il Poliedrico.

Credit: Il Poliedrico.

La Seconda Legge del Moto di Newton e la Legge di Gravitazione Universale mostrano che esiste un elegante rapporto tra il semiasse maggiore dell’orbita e il periodo di rivoluzione di un qualsiasi pianeta.
Di conseguenza, conoscendo esattamente il periodo orbitale e la distanza che divide un pianeta dal suo centro di massa con la stella a cui appartiene è possibile estrapolarne la massa:
\begin{equation}
\frac{P^2}{a^3}=\frac{4\pi^2}{G(M_{\bigstar} +M_{p})}
\end{equation}

Pertanto osservando le leggi universali del moto e della gravitazione di Newton potrebbe sembrare che sia abbastanza semplice estrapolare la massa di un esopianeta 1; quello che occorre è la conoscenza più accurata possibile degli elementi orbitali dell’esopianeta.
La distanza prospettica tra la proiezione della corda di transito e la corda del massimo transito è descritta matematicamente come $b=a \hspace{2} cos(i)$, dove $a$ è il raggio dell’orbita del pianeta, assumendo per assurdo che l’orbita dell’esopianeta osservato sia perfettamente circolare ($\varepsilon =0$ e velocità orbitale costante). Osservando la figura qui sotto si nota che il cateto $l$ opposto all’ipotenusa $R_{\bigstar}+R_{p}$ e pari alla metà del percorso del pianeta davanti alla sua stella, lo si può scrivere come :
\begin{equation}
l=\sqrt{\left( R_{\bigstar} + R_{p}\right)^2 – b^2}
\end{equation}.

Pertanto il percorso osservato del’esopianeta (A -> B) sul disco stellare è pari a 2$l$.
Osservando la figura all’inizio è evidente che l’esopianeta mentre transita davanti alla stella muovendosi tra A a  B  compie un angolo (espresso in radianti) $\alpha$ dove il centro è il centro di massa del sistema 2.
Così si ha per il triangolo $\overline{AB}$ e il centro di massa, la durata visibile del transito:
\begin{equation}
sin \left( \frac{\alpha}{2}\right)=\frac{l}{a}
\end{equation}\[\rightarrow\]\begin{equation}
D_{transito}= P\frac{\alpha}{2\pi}=\frac{P}{\pi}sin^{-1} \left(\frac{l}{a}\right)=\frac{P}{\pi}sin^{-1} \left(\frac{\sqrt{\left( R_{\bigstar} + R_{p}\right)^2 – b^2 }}{a}\right)
\end{equation}

Per procedere oltre, occorre stimare la durata massima del transito, come se si osservasse il piano orbitale  proprio di taglio, quando il pianeta cioè attraversa la stella sul suo equatore. Infatti la durata del transito osservato è generalmente minore rispetto a quella massima possibile che si avrebbe solo quando il piano planetario è parallelo all’osservatore, data la casualità dei piani planetari delle altre stelle rispetto all’osservatore.

[virtual_slide_box id=”5″]

Come è possibile osservare nella figura qui sopra la proiezione del pianeta sul disco stellare è falsata dall’angolo $i$, inteso come l’angolo compreso tra la linea di vista e il piano orbitale effettivo dell’esopianeta ($i$=90° se il piano orbitale è sulla stessa linea di vista). Conoscere l’ampiezza dell’angolo $i$ restituisce l’idea di come è pertanto posizionato nello spazio il sistema planetario extrasolare rispetto all’osservatore. Quindi in realtà la durata del transito osservata sarà pari a $D_{transito}= D_{max} \cdot sin(i)$. Ma non solo, come è possibile osservare nella simulazione qui a fianco,  lo sviluppo del transito su una corda diversa dalla corda massima (il diametro) influenza anche la curva di transito osservata, accorciando il periodo del picco minimo osservabile e stirando i periodi parziali [cite]http://arxiv.org/abs/astro-ph/0210099[/cite].
Adesso la durata massima del transito si può descrivere matematicamente come:
\begin{equation}
\frac{P\frac{\alpha}{2\pi}}{sin \left (i \right)}
\end{equation}

perché la lunghezza della corda di transito è falsata (e quindi minore) rispetto alla corda massima disponibile dal $sin(i)$.
Quindi applicando la legge dell’anno siderale di Gauss  si scopre che:
\begin{equation}
\frac{2\pi}{k}=D_{max}\frac{2\pi}{\alpha}
\end{equation}\[\rightarrow
\]
\begin{equation}
\alpha / D_{max}=k
\end{equation}

Il periodo orbitale rilevato dalla frequenza dei transiti restituisce la durata dell’anno siderale reale, ovvero quello che è prodotto con il contributo delle due masse, quella stellare e quella planetaria. Viceversa l’anno gaussiano del pianeta tiene conto solo della massa della stella. La differenza tra i due diversi periodi restituisce il contributo dovuto alla sola massa del pianeta.

[fancybox url=”https://www.google.com/maps/place/Telescopio+Nazionale+Galileo/@28.754061,-17.889222,15z/data=!4m5!3m4!1s0x0:0x31eced4f49d5d60a!8m2!3d28.7540605!4d-17.8892225″ caption=”Il Telescopio nazionale Galileo”]
Il Telescopio nazionale Galileo – Credit: Sabrina Masiero[/fancybox]

La tecnologia osservativa attuale basata sui transiti non è ancora così precisa da consentire di rilevare differenze così piccole 3. Diversa storia invece per l’analisi spettrografica che consente con molta maggiore accuratezza di risolvere le velocità relative del sistema esoplanetario; per ora rimane infatti il solo modo per stabilire con sufficiente approssimazione la massa di un pianeta extrasolare.
Per questo strumenti spettroscopici di grandissima risoluzione sono ospitati nei maggiori complessi astronomici del mondo. Due di questi, gli HARPS sono ospitati in strutture europee: l’HARPS è ospitato presso l’Osservatorio di La Silla, in Cile sul telescopio da 3,6 metri dell’ESO fin dal 2002. L’altro, l’HARPS-N, è stato montato nel 2012 sul Telescopio Nazionale Galileo, all’Osservatorio del Roque de Los Muchachos nell’isola di La Palma, alle Canarie.
Il metodo delle velocità radiali rilevate spettroscopicamente  è molto simile a quello che qui è descritto, solo che è molto più efficace grazie a questa nuova classe di spettroscopi ultra precisi a cui gli HARPS appartengono. Se adesso è possibile fare una stima della massa ad un esopianeta lo si deve ad essi.


Note:

Come ti calcolo le proprietà di un esopianeta (prima parte)

[latexpage]

La scoperta di un enorme numero dei pianeti extrasolari in questi ultimi vent’anni ha sicuramente rivoluzionato l’idea di Cosmo. A giugno di quest’anno erano oltre 1100 i pianeti extrasolari scoperti e accertati nel catalogo di exoplanet.eu, facendo stimare, con le opportune cautele dovute a ogni dato statistico, a circa 60 miliardi di pianeti potenzialmente compatibili con la vita. Questo impressionante numero però non deve far credere immediatamente che 60 miliardi di mondi siano abitabili; Venere, che dimensionalmente è molto simile alla Terra, è totalmente incompatibile con la vita terrestre che, probabilmente, si troverebbe più a suo agio su Marte nonostante questo sia totalmente ricoperto da perossidi, continuamente esposto agli ultravioletti del Sole e molto più piccolo del nostro globo.

In concreto come si fa a calcolare i parametri fisici di un pianeta extrasolare? Prendiamo l’esempio più facile, quello dei transiti. Questo è il metodo usato dal satellite della NASA Kepler, che però soffre dell’handicap geometrico del piano planetario che deve giacere sulla stessa linea di vista della stella,o quasi. Ipotizziamo di stare osservando una debole stellina di 11a magnitudine, che però lo spettro indica come una K7:

 [table “57” not found /]

diagramma di luce

La distanza

La tabella di Morgan-Keenan suggerisce per questo tipo di stella una massa di 0,6 masse solari,  una temperatura superficiale di appena 4000 K. e un raggio pari a 0,72 volte quello del Sole. Analizzando invece questo ipotetico diagramma del flusso di luce 1 proveniente dalla stella, appare evidente  la periodicità dell’affievolimento (qui esagerato) della sua luce.
Un periodo pari a 76,86 giorni terrestri, un classico evento tipico anche di una semplice binaria ad eclisse per esempio, solo molto più veloce. Un semplice calcolo consente di trasformare il periodo espresso qui in giorni in anni (o frazioni di esso). Pertanto il suo periodo rispetto agli anni terrestri è $76,86/365,25= 0,2104$. A questo punto è sufficiente applicare la terza Legge di Keplero per ottenere la distanza del pianeta dalla sua stella espresso in unità astronomiche:

\begin{equation} D_{UA}^3=P_y^2\cdot M_{\bigstar}= \sqrt[3]{0,2104^2 \cdot 0,.6}= 0,2983 \end{equation} Quindi l’esopianeta scoperto ha un periodo orbitale di soli 76,86 giorni e orbita a una distanza media di sole 0,2368 unità astronomiche dalla stella, ossia a poco più di 44.6 milioni di chilometri dalla stella. Una volta scoperto quanto dista il pianeta dalla stella è facile anche calcolare la temperatura di equilibrio del pianeta, per vedere se esso può – in linea di massima – essere in grado di sostenere l’acqua allo stato liquido.

La temperatura di equilibrio

\begin{equation}\frac{\pi R_p^2}{4\pi d^2} = \left ( \frac{R_p}{2d}\right )^2\end{equation} L’energia intercettata da un pianeta di raggio $R_p$ in orbita alla sua stella  a una distanza $d$

Per comodità di calcolo possiamo considerare una stella come un perfetto corpo nero ideale. La sua luminosità è perciò dettata dall’equazione: $L_{\bigstar}=4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4$, dove $\sigma$ è la  costante di Stefan-Boltzmann che vale  $5,67 \cdot{10^{-8}} W/m^2 K^4$). Qualsiasi pianeta di raggio $R_p$ che orbiti a distanza $d$ dalla stella cattura soltanto  l’energia intercettata pari alla sua sezione trasversale $\pi R_p^2$ per unità di tempo e  divisa per l’area della sfera alla distanza $d$ dalla sorgente. Pertanto si può stabilire che l’energia intercettata per unità di tempo dal pianeta è descritta dall’equazione: \begin{equation} 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Ovviamente questo potrebbe essere vero se il pianeta assorbisse tutta l’energia incidente, cosa che per fortuna così non è, e riflette nello spazio parte di questa energia. Questa frazione si chiama albedo ed è generalmente indicata con la lettera $A$. Quindi la precedente formula va corretta così: \begin{equation} \left ( 1-A \right ) \times 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Il pianeta (se questo fosse privo idealmente di una qualsiasi atmosfera) si trova così in uno stato di sostanziale equilibrio termico tra l’energia ricevuta, quella riflessa dall’albedo e la sua temperatura. L’energia espressa dal pianeta si può descrivere matematicamente così: $L_{p}= 4\pi R_{p}^2\sigma T_{p}^4$ e, anche qui per comodità  di calcolo, si può considerare questa emissione come quella di un qualsiasi corpo nero alla temperatura $T_p$. Pertanto la temperatura di equilibrio è: \begin{equation}

4\pi R_{p}^2\sigma T_{p}^4 =\left ( 1-A \right ) \times 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Ora, semplificando quest’equazione si ottiene: \begin{equation} T_{p}^4= (1-A)T_{\bigstar}^4 \left ( \frac{R_{\bigstar}}{2d}\right )^2 \rightarrow T_{p}=T_{\bigstar}(1-A)^{1/4}\sqrt { \frac{R_{\bigstar}}{2d}} \end{equation}

Con i dati ottenuti in precedenza è quindi possibile stabilire la temperatura di equilibrio dell’ipotetico esopianeta ipotizzando un albedo di o,4: \begin{equation}

T_{p}=4000 \enskip K \cdot 0,6 ^{1/4}\sqrt { \frac{500 000 \enskip km}{2\cdot 4,46\cdot 10^7\enskip km}} =263,47 \enskip K.

\end{equation}

Risultato: l’esopianeta pare in equilibrio termico a -9,68 °C, a cui va aggiunto alla superficie l’effetto serra causato dall’atmosfera. Ma in fondo, anche le dimensioni contano …

Il raggio

1353958553795

Il calo della luminosità indica le dimensioni dell’oggetto in transito: $r^2/R^2$

Nel momento del transito, si registra un calo della luminosità della stella.  L’ampiezza di questo calo rispetto alla luminosità standard della stella fornisce una stima della misura del raggio del pianeta. Il calo non è immediato, ma segue un andamento proporzionale alla superficie del pianeta occultante, uguale sia in ingresso che in  uscita. In base a queste osservazioni si possono ricavare i flussi di energia luminosa (indicati appunto dalla lettera $F$) provenienti nei momenti del transito. $F_{\bigstar}$ è la quantità di energia luminosa osservata nella fase di non transito, normalmente normalizzato a 1, mentre l’altra $F_{transito}$ rappresenta il flusso intercettato nel momento di massimo transito:. la differenza tra i due flussi ( $\frac{\Delta F}{F}=\frac{F_{\bigstar}-F_{transito}}{F_{\bigstar}}$) è uguale alla differenza tra i raggi della stella e del pianeta.

\begin{equation} R_p=R_{\bigstar}\sqrt{\frac{\Delta F}{F}} \end{equation}

Il diagramma (ipotetico) a destra nell’immagine qui sopra mostra che il punto più basso della luminosità è il 99,3% della luminosità totale. Risolvendo questa equazione per questo dato si ha: \begin{equation} \frac{R_{p}}{R_{\bigstar}}=\sqrt{\frac{\Delta F}{F}} =\sqrt{\Delta F} = \sqrt{1-0,993}=\sqrt{0,007}=0,08366 \end{equation}

Conoscendo il raggio della stella, 500000 km, risulta che l’esopianeta ha un raggio di quasi 42 mila chilometri,  quasi il doppio di Nettuno!

Seconda Parte

 

 Errata corrige

Un banale errore di calcolo successiva all’equazione (1) ha parzialmente compromesso il risultato finale dell’equazione (7) e del risultato della ricerca. Il valore della distanza del pianeta dalla sua stella è di 44,6 milioni di chilometri invece dei 35,4 milioni indicati in precedenza. Ci scusiamo con i lettori per questo spiacevole inconveniente prontamente risolto.


Note:

L’indice ESI (Earth Similarity Index)

[latexpage]

Il metodo dei transiti, che è quello usato da Kepler è basato sulla lievissima variazione di luce di una stella dovuta al transito di un pianeta davanti a questa. Per un pianeta come la Terra, il transito davanti a una stella simile al Sole causa una variazione di luminosità pari a soltanto 84 parti per milione. Invece il transito di un pianeta come Giove provoca l'affievolimento della luce della stella di circa l'1-2%. La figura mostra in scala sia un transito di Giove attraverso l'immagine del nostro sole sulla sinistra e un transito terrestre sulla destra. L'effetto della Terra è paragonabile a quello di una pulce che passa sui fari di un'auto visto da diversi chilometri di distanza.Image credit: NASA

Il metodo dei transiti, che è quello usato da Kepler è basato sulla lievissima variazione di luce di una stella dovuta al transito di un pianeta davanti a questa. Per un pianeta come la Terra, il transito davanti a una stella simile al Sole causa una variazione di luminosità pari a soltanto 84 parti per milione. Invece il transito di un pianeta come Giove provoca l’affievolimento della luce della stella di circa l’1-2%. La figura mostra in scala sia un transito di Giove attraverso l’immagine del nostro sole sulla sinistra e un transito terrestre sulla destra. L’effetto della Terra è paragonabile a quello di una pulce che passa sui fari di un’auto visto da diversi chilometri di distanza.Image credit: NASA

Appena la tecnologia lo ha permesso, negli ultimi vent’anni abbiamo assistito alla scoperta di nuovi pianeti in orbita attorno ad altre stelle. I primi sistemi planetari rilevati erano anche quelli in cui gli effetti gravitazionali erano più evidenti, come i sistemi con i gioviani caldi o con pianeti in orbite caotiche e retrograde; tant’è che all’inizio si era addirittura supposto che i modelli di formazione planetaria sviluppati per spiegare il nostro Sistema Solare non fossero poi così universalmente validi.
Con l’affinarsi dei mezzi e della ricerca, ecco comparire sistemi planetari un po’ più ordinari e ordinati, simili al nostro. Magari più spesso questi appartengono a stelle un po’ più piccole del Sole – che comunque non è affatto un gigante, semplicemente perché l’influenza di un sistema planetario sulla sua stella è anche in questo caso più facilmente misurabile.
Sono principalmente due le tecniche che hanno permesso, dal 1995 ad oggi, di individuare il maggior numero di pianeti extrasolari: la tecnica delle velocità radiali e quella dei transiti. La tecnica delle velocità radiali misura la variazione della velocità della stella mente si muove attorno al baricentro del sistema stella-pianeta. Infatti, non è corretto dire che il pianeta orbita attorno alla stella: i pianeti orbitano attorno al baricentro comune  del sistema stella-pianeta, un punto che nel caso del sistema Sole-Terra si trova all’interno del Sole e molto vicino al suo centro. Non solo il pianeta orbita attorno al baricentro del sistema, ma anche la stella orbita attorno allo stesso punto. Poiché questo movimento è legato, tramite le leggi di Keplero, alla massa della stella e del pianeta, se si conosce la massa della stella si ricava anche la massa del pianeta.
C’è un problema però: se si osservasse il nostro Sistema Solare dall’esterno e si volesse vedere l’effetto della variazione della velocità radiale della Terra sul Sole si dovrebbe fare una misura della velocità radiale con una precisione di un centimetro al secondo, cosa che al momento non è ancora possibile fare con l’attuale strumentazione. Lo strumento HARPS-N, definito il cacciatore di pianeti extrasolare e montato al Telescopio Nazionale Galileo (TNG), permette di misurare la variazione della velocità radiale delle stelle con una precisone dell’ordine del metro al secondo. Quindi, di fatto pianeti come la Terra attorno a stelle di tipo solare alla distanza Terra-Sole non sono ancora in questo momento identificabili.

L’indice ESI non è universalmente accettato dalla comunità scientifica. Per i pianeti extrasolari confermati, la massa del pianeta indicata spesso ha solo un limite inferiore e non è poi comunque molto precisa. Poi per gli esopianeti indicati da Kepler spesso non c’è una stima della massa ma solo del raggio. D’altra parte, la maggior parte pianeti extrasolari confermati non hanno una stima del raggio. Inoltre, anche la temperatura teorica si basa su ipotesi che potrebbero essere sbagliate anche di centinaia di gradi centigradi. Per finire, nell’attuale formula, l’ESI attribuisce un esponente molto alto alla temperatura col risultato di deviare anche di molto l’indice rispetto al valore effettivo del dato. Questo significa che da uno a tre parametri utilizzati per calcolare l’indice ESI è frutto di supposizioni, calcoli e raffronti col Sistema Solare, senza alcuna evidenza osservativa diretta. Alla luce di queste considerazioni, l’utilità della ESI è certamente discutibile.

La tecnica dei transiti, quella che Kepler ha sfruttato fino al default dei sui giroscopi, è teoricamente una tecnica ancora più efficiente nel trovare pianeti. Però la probabilità di avere un pianeta come la Terra in transito davanti ad una stella come il Sole è dell’ordine dell’1 percento. Inoltre, la diminuzione della luminosità del Sole durante il transito della Terra è meno di 80 parti su un milione per un periodo di appena 8 ore in un anno: una quantità infinitamente piccola in un periodo smisurato di tempo. Questa sensibilità si può ottenere solo con i telescopi spaziali, quelli terrestri sono troppo limitati dalla turbolenza atmosferica.
A  giugno di quest’anno i pianeti extrasolari accertati erano 1795, suddivisi in  1114 sistemi planetari, di cui 461 sono sistemi multipli come il nostro (fonte exoplanets.eu).  Molti di questi sono stati individuati dal fortunato telescopio spaziale Kepler della NASA che ha studiato soltanto un piccolissimo fazzoletto di cielo compreso tra le costellazioni del Cigno e della Lira grande appena 12° quadrati. Una regione  abbastanza vicina al Piano Galattico da potersi ritenere, con le opportune cautele necessarie per un qualsiasi calcolo statistico, abbastanza significativa. È così che Kepler ha potuto studiare oltre 100 ooo stelle comprese tra 600 e 3 000 anni-luce di spazio, portando a supporre che la Galassia ospiti qualcosa come 60 miliardi di pianeti potenzialmente compatibili con la vita.
Come si sia giunti a questo numero è ancora oggetto di dibattito, ma in nocciolo è tutto nel numero delle nane rosse (classi K e M) presenti nella Via Lattea, stimato in almeno 75 miliardi. Anche supponendo che solo il 6 per cento di queste abbia un pianeta compreso nella Fascia Goldilocks si arriva a ben 4,5 miliardi di pianeti considerati biologicamente compatibili. Altri studi sulla sostenibilità planetaria [cite]http://arxiv.org/abs/1307.0515[/cite] fanno lievitare la stima fino a 60 miliardi.
Però dire che ci possono essere fino a 60 miliardi di mondi potenzialmente adatti alla vita e stabilire quali possono esserlo davvero è un altro discorso. Per risolvere questo problema viene in soccorso uno strumento matematico ideato dal Dott. Schulze-Makuch , professore alla School of Earth and Environmental Sciences dell’Università statale di Washington, l’Earth Similarity Index (ESI) – in italiano Indice di Somiglianza alla Terra – che esprime il grado di similitudine tra un qualsiasi pianeta extrasolare – può essere applicato anche ai grandi satelliti naturali  – e la Terra in un valore compreso tra zero (nessuna similarità) e uno (identico alla Terra) [cite]http://online.liebertpub.com/doi/abs/10.1089/ast.2010.0592[/cite]. I parametri dell’equazione vengono calcolati partendo da una o più variabili note, come il periodo orbitale e la distanza del pianeta dalla sua stella. Queste variabili sono ovviamente influenzate dal metodo di osservazione utilizzato, e anche le altre stime successive,  quando non sono conosciute, sono frutto di  calcoli ponderati. Ad esempio, la temperatura della superficie è influenzata da una infinità di altri fattori come l’irraggiamento, l’albedo, l’inclinazione assiale e l’effetto serra atmosferico; quando questa non è conosciuta a priori viene fatto riferimento alla temperatura di equilibrio di irraggiamento.
In sostanza l’ESI è una cifra, o figura, di merito; uno strumento matematico molto usato nell’industria e in ingegneria per indicare un parametro che ne racchiude molti altri. In questo caso però i parametri fondamentali di cui si tiene conto sono indicati nella tabella 1.

[table “54” not found /]

Come vediamo questi parametri sono solo quattro. Si tratta di quattro parametri fisici facilmente ricavabili matematicamente dai dati orbitali della scoperta.

  • Raggio medio
    La scala delle dimensioni dei pianeti extrasolari è pressoché infinita; anche nel nostro Sistema Solare, la Terra è piccola rispetto a Giove e Saturno. Tuttavia alcuni studi suggeriscono che solo i pianeti che hanno un nucleo fluido in rotazione differenziale rispetto al mantello del pianeta possono avere un campo magnetico capace di proteggere la propria ecosfera dal vento stellare e dai raggi cosmici  [cite]http://arxiv.org/abs/1010.5133 [/cite]. Questi dati indicano che pianeti con un raggio superiore a due raggi terrestri possono avere difficoltà a mantenere liquido un loro  nucleo di ferro, mentre altri studi indicano che oltre 1,75 raggi terrestri debbano essere considerati sub-nettuniani i [cite]http://arxiv.org/abs/1311.0329 [/cite]
  • Densità
    Anche le densità che i pianeti extrasolari possono assumere è pressoché infinita. Per appartenere alla classe di Pianeta Roccioso simile alla Terra si considera generalmente una densità compresa tra 0,7 e 1,5 quella terrestre (4,4 -8,3 g/cm3). Questo perché una densità troppo bassa nelle dimensioni indicate, suggerite alla voce precedente, potrebbe indicare un corpo senza un nucleo metallico liquido e quindi senza un campo magnetico ben sviluppato. Questo vale anche per un pianeta troppo massiccio, il cui nucleo cristallizza per la pressione eccessiva  e si ferma.
  • Velocità di fuga
    La velocità di fuga è un parametro fondamentale per stabilire la presenza o meno di una atmosfera planetaria. Anche qui si ritiene che per un pianeta simile alla Terra la velocità di fuga debba poter trattenere gli atomi come l’azoto – e quindi anche il vapore acqueo, l’anidride carbonica e l’ossigeno,  a una temperatura di superficie media compresa tra 0 e 50° Celsius (273-323 K). Questo è un intervallo minimo, ma abbastanza ampio, in cui l’acqua si presenta allo stato liquido e può quindi esercitare il suo ruolo di solvente, funzione fondamentale per la vita.  mentre l’idrogeno, molto più leggero, è libero di disperdersi nello spazio. Pertanto la velocità di fuga di un pianeta compatibile con la vita di tipo terrestre può ritenersi compresa  tra 0,4 e 1,4 volte quelle della Terra (pari rispettivamente a sei volte la velocità di fuga dell’azoto atomico a  -18° C (255 K) e a sei volte quella dell’idrogeno atomico alla medesima temperatura).
  •  Temperatura superficiale
    Credit: Il Poliedrico

    Credit: Il Poliedrico

    La temperatura di equilibrio termico è la temperatura che possiederebbe un pianeta in assenza di una atmosfera e il cui unico fattore di regolazione è rappresentato dall’albedo ed è unicamente dettata della legge di Stefan-Boltzmann 1 e la Legge dell’Inverso del Quadrato. La temperatura di equilibrio della Terra è di soli -18°c che l’effetto serra atmosferico porta a + 15° C.

 

\[

ESI = \prod_{i=1}^n \left(1 – \left| \frac{x_i – x_{i_0}}{x_i + x_{i_0}} \right| \right)^\frac{w_i}{n}

\]

l’equazione dice come questi parametri devono essere utilizzati:

  • x i è il valore del i-esimo parametro planetario (ad esempio la temperatura superficiale)
  • x I0 è il valore del i-esimo parametro planetario di riferimento (la Terra)
  • w i è l’esponente di ponderazione assegnato al i ° parametro planetario (valore arbitrario che indica il valore relativo)
  • n è il numero di parametri planetari trattati

In questo modo vengono definiti tre diversi  indici ESI del pianeta in esame:

  • ESI Interno $\rightarrow ESI_I=(ESI_{r} \cdot ESI_{\rho})^{1/2}$
    Tiene conto del raggio del pianeta (peso dell’esponente = 0,57) e la sua densità (peso dell’esponente =  1,07). Questo indice indica il grado di somiglianza fisica dell’esopianeta alla Terra.
  • ESI Superficiale $\rightarrow ESI_S=(ESI_{ve} \cdot ESI_{Ts})^{1/2}$
    Questo è regolato dai parametri di temperatura della superficie (peso dell’esponente = 5,58) e dalla velocità di fuga (peso dell’esponente =  0,70).
    Questo esprime invece la somiglianza delle caratteristiche ambientali in riferimento alla Terra.
  • ESI Globale $\rightarrow ESI_G=(ESI_{I} \cdot ESI_{S})^{1/2}$
    È il computo basato su tutti i e quattro i parametri nella matrice di calcolo. Pertanto quantifica esattamente quanto un esopianeta sia nel suo complesso simile alla Terra o ‘Earth-like‘ per usare l’espressione anglofona più diffusa.

Riassumendo tutti i dati qui sopra elencati, si deduce che un pianeta per essere considerato simile alla Terra (e l’indice ESI quantifica proprio quanto questo si avvicini) deve essere tra 0,5 e 1,75 raggi terrestri (mantenendo nel caso più grande una densità intorno ai 4,5 g/cm3) e una massa compresa tra 0,1 e 4 volte quella della Terra. Un bel margine che lascia comunque sperare che prima o poi un pianeta davvero molto simile alla Terra si trovi.
Con molta probabilità nel corso dei prossimi vent’anni, grazie alla messa in orbita di nuovi telescopi – quali per esempio Gaia, Cheops e Plato –dotati di una strumentazione più precisa, sarà possibile trovare pianeti dimensionalmente simili alla Terra che orbitano attorno a stelle più simili Sole (classe G) a distanze paragonabili e con indici ESI molto prossimi a 1. E forse saremo anche in grado di rispondere alla domanda: la Terra è l’unico mondo che ospita la vita nell’Universo?


Note:

Echi da un lontano passato: le incertezze

[latexpage]

Le onde gravitazionali infllative producono un debole schema di torsione nella polarizzazione della CMB noto come B-mode. In questa immagine le fluttuazioni di densità – che sono comunque preponderanti nella polarizzazione della CMB – sono state annullate. Quello che resta è l’impronta B-mode rilevata da BICEP2. I due diversi colori mostrano la chiralità registrata nella polarizzazione della radiazione cosmica di fondo.

Le onde gravitazionali infllative producono un debole schema di torsione nella polarizzazione della CMB noto come B-mode.
In questa immagine le fluttuazioni di densità – che sono comunque preponderanti nella polarizzazione della CMB – sono state annullate. Quello che resta è l’impronta B-mode rilevata da BICEP2.
I due diversi colori mostrano la chiralità registrata nella polarizzazione della radiazione cosmica di fondo.

Il 17 marzo scorso un gruppo di scienziati che lavorava con lo strumento BICEP2 annunciò al mondo la scoperta di orme nella radiazione cosmica di fondo a microonde (CMBR o CMB) [cite]http://arxiv.org/abs/1307.5830[/cite].
Quelle impronte (B-mode) per i cosmologi del BICEP2 indicano la polarizzazione nella CMBR che ci si sarebbe dovuti aspettare dalle onde gravitazionali provocate durante il processo inflativo che secondo la teoria del Big Bang si sarebbe verificato pochissimi istanti dopo la nascita dell’Universo.
Come ampiamente descritto nei precedenti articoli [cite]http://ilpoliedrico.com/2014/03/echi-da-un-lontano-passato-la-storia.html[/cite], se la scoperta del team BICEP2 fosse confermata, questa escluderebbe una mole di teorie alternative che cercano di spiegare la nascita dell’Universo senza ricorrere necessariamente alla singolarità iniziale e all’inflazione 1. Ma non solo, l’ampiezza delle fluttuazioni rilevate potrebbero rivoluzionare anche il Modello Standard della fisica quantistica fornendo prove e stime abbastanza precise su particelle esotiche come gli assioni e i gravitoni.
Gli assioni [cite]http://arxiv.org/abs/1301.1123[/cite] sono altre ipotetiche particelle elementari postulate per spiegare la violazione della simmetria CP (teoria di Peccei-Quinn) nella Cromodinamica Quantistica (QCD). Se gli assioni avessero una massa dell’ordine dei $10^{-5}$ $eV$ non avrebbero potuto avere altri processi di decadimento, quindi potrebbero essere una componente importante della materia oscura fredda, rendendo di fatto l’Universo un immenso condensato di Bose-Einstein superfreddo. Prima di BICEP2 non era escluso che gli assioni fossero generati prima o dopo l’inflazione; da questo particolare dipende la massa e il ruolo che queste particelle ipotetiche potrebbero aver nell’evoluzione del Cosmo [cite]http://arxiv.org/abs/0909.0949[/cite]. Bicep2 avrebbe escluso la rottura di simmetria PQ prima del momento inflativo, fornendo così una stima più precisa della massa (e quindi del loro ruolo) che gli assioni dovrebbero possedere [cite]http://arxiv.org/abs/1403.4594[/cite] [cite] http://arxiv.org/abs/1405.1860[/cite].
Un altro aspetto che più ha meravigliato della scoperta è stata la significatività della rivelazione del segnale B-mode [cite]http://ilpoliedrico.com/2014/04/echi-lontano-passato-novita.html[/cite], a livello di sigma 7, il che indica che solo una probabilità su diversi milioni può aver generato casualmente quelle impronte, un po’ come se una scimmia componesse una frase di senso compiuto con una macchina da scrivere.

big_bangMa altre analisi indipendenti mettono in dubbio la scoperta di BICEP2, il che a sua volta rimetterebbe in discussione tutto quanto si è detto e scritto in questi mesi sulle basi di quei risultati [cite]http://arxiv.org/abs/1405.7351[/cite] [cite]http://arxiv.org/abs/arXiv:1405.5857[/cite].
In questi nuovi studi viene messo in evidenza che anche altri fenomeni naturali, come la radiazione di sincrotrone galattica e la polvere stellare in primo piano, possono generare schemi analoghi.  Un altro grosso limite fisico è proprio dello strumento BICEP2, capace di rilevare una sola frequenza. Questo gli impedisce di scandagliare il cielo ad altre lunghezze d’onda e quindi non può sapere quanto del rumore in primo piano contribuisce al segnale cercato; un po’ come guardare il mondo attraverso un filtro fotografico a banda stretta e credere di indovinare i colori. Per risolvere questo handicap, il team di BICEP2 ha usato altre misurazioni, come i dati  raccolti dai satelliti Wilkinson Microwave Anisotropy Probe e Planck, ognuno operanti su lunghezze d’onda diverse. E forse, ingenuamente, i cosmologi di BICEP2 hanno più peccato, usando i risultati ancora non definitivi del satellite Plank per impostare la loro maschera di ricerca.

Comunque non tutto è perduto. Bicep2 e tutti gli altri lavori correlati indicano in quale direzione guardare per scovare – se ci sono – queste impronte lasciate dalle onde gravitazionali espresse durante il periodo inflativo. .Almeno altri otto esperimenti, tra cui BICEP3, Array Keck e lo stesso Planck le stanno cercando.


Note:

Materia esotica per le stelle a neutroni

[latexpage]

I componenti della materia sono fatti di leptoni (come l’elettrone e i neutrini) e quark (che costituiscono protoni, neutroni ed altre particelle). I quark sono molto diversi dalle altre particelle. Oltre alla carica elettrica particolare ($\frac{1}{3}$ o $\frac{2}{3}$ quella dell’elettrone e del protone), essi possiedono infatti anche un diverso tipo di carica ​​chiamato colore. Il peculiare meccanismo in cui opera questa carica può aiutarci a far luce su alcuni oggetti astrofisici più esotici: le stelle di neutroni.

Le combinazionii di carica  colore devono produrre un colore neutro (ovvero si devono annullare) per produrre una particella libera dalla Interazione Forte.

Le combinazioni di carica colore devono produrre un colore neutro (ovvero si devono annullare) per produrre una particella libera dalla Interazione Forte.

I quark sono particelle elementari (fermioni,  cioè che obbediscono alla statistica di Fermi-Dirac e  al principio di esclusione di Pauli) che risentono dell’Interazione Forte, una delle 4 forze fondamentali. I mediatori principali di questa forza sono i gluoni, bosoni senza massa come gli analoghi del campo elettromagnetico, i fotoni. Ma a differenza di questi che non hanno carica, i gluoni sono portatori di una particolare forma di carica chiamata colore 1, per analogia al comportamento dei colori primari dello spettro visibile, non perché essi siano colorati. Per il modo in cui la forza forte agisce, è impossibile osservare un quark libero.

La carica di colore  è esapolare, composta cioè da 3 cariche (verde, rosso e blu) e 3 anticariche (anti-verde, anti-rossso e anti-blu) ) che si comportano in maniera analoga ai colori primari: quando la somma delle cariche di colore restituisce un colore neutro, come il bianco, , allora la particella composta è rilevabile. Così si possono avere particelle di colore neutro composte da tre quark con i colori verde rosso e blu chiamate barioni (i protoni e i neutroni sono i barioni più comuni), oppure particelle composte da due soli quark possessori di un colore e il suo corrispettivo anti-colore chiamate mesoni, che svolgono un ruolo importante nella coesione del nucleo atomico. Per l’interazione forte, questi sono solo i più comuni modi per ottenere un adrone. Infatti è previsto che ci siano anche altre combinazioni di carica colore per formarne una di colore neutro. Uno di questi, il tetraquark, combina fra loro quattro quark, dove due di essi hanno un colore particolare e gli altri due posseggono i corrispettivi anti-colori.

LHCb-Z (4430)

La particella$Z (4430)^-$ appare composta da un quark charm, , un anti-charm , un down e un anti-up. I  punti neri rappresentano i dati, la curva rossa il risultato della simulazione dello stato previsto per la $Z (4430)^-$. La  curva tratteggiata marrone indica quello che ci aspetterebbe  in assenza di questa. Questo dato afferma l’esistenza dell’esotica particella con 13,9 σ (cioè che il segnale è 13,9 volte più forte di tutte le possibili fluttuazioni statistiche combinate).

Segnali sull’esistenza di questo adrone esotico si ebbero nel 2007 dall’Esperimento Belle [cite]http://arxiv.org/abs/0708.1790[/cite],  che ricevette il nome di $Z (4430)^-$ 2. Ora questa particella con una massa di $4430 MeV/c^2$  (circa quattro volte quella del protone) è stata confermata dall’Esperimento LHCb di Ginevra con una significatività molto alta (13,9 $\sigma$) [cite]http://arxiv.org/abs/1404.1903v1[/cite]. Questo significa che i quark si possono combinare fra loro in modi molto più complessi di quanto finora osservato 3. Questo è un enorme passo avanti nella comprensione di come si può comportare la materia in condizioni estreme. Barioni e mesoni esotici detti glueball 4 o una miscela di questi può esistere in un solo posto in natura: nel nucleo di una stella a neutroni.

Le stelle compatte inferiori alle 1,44 masse solari sono nane bianche, stelle in cui la pressione di degenerazione degli elettroni riesce a controbilanciare la gravità. Oltre questo limite, chiamato limite di Chandrasekhar, il peso della stella supera il limite di degenerazione degli elettroni che si fondono coi protoni dando origine a una stella a neutroni 5.

quark_star (1)

Credit: NASA/Chandra

Il risultato è una stella fatta da soli neutroni dominata dalla gravità che in questo caso vince sulla repulsione elettrica. Di questo stato esotico della materia degenere non si sa molto di più delle speculazioni teoriche, ma questo potrebbe essere solo l’inizio: si calcola che la densità media delle stelle di neutroni vada da $3,7$ a $5,9 \times 10^{14} g/cm^3$ (un nucleo atomico ha una densità stimata di circa $3 \times 10^{14} g/cm^3$), con la densità passi da circa $1 \times 10^6 g/cm^3$ della superficie fino ai $6$ o $7 \times 10^{14} g/cm^3$ del loro nucleo. Come il limite di Chandrasekhar delinea il limite inferiore di una stella di neutroni, esiste un limite superiore la quale nessun’altra forza riesce ad impere il collassso gravitazionale che porta a formare un buco nero. Questo limite superiore è il limite di Tolman-Oppenheimer-Volkoff. È in questo intervallo di massa che esistono le stelle di neutroni [cite]http://www.scribd.com/doc/219247197/The-maximum-mass-of-a-neutron-star[/cite]. È probabile che solo le stelle di neutroni più leggere siano composte di neutroni degeneri, mentre man mano sale la massa verso il limite superiore la materia di neutroni degeneri ulteriormente in prossimità del nucleo e poi sempre più verso il guscio esterno in un brodo indistinto di quark tenuti insieme dalla gravità che riesce a soppiantare perfino l’interazione forte [cite]http://www.scribd.com/doc/219246949/Nuclear-equation-of-state-from-neutron-stars-and-core-collapse-supernovae[/cite]. Il tetraquark individuato dall’LHC è sicuramente solo il primo di una lunga serie di adroni esotici che può aiutare a comprendere meglio questi stati degeneri della materia che immaginiamo essere al centro di questi minuscoli e compatti resti stellari.


Note:

Echi da un lontano passato, le novità

[latexpage]

I risultati di BICEP2

Modelli di impronte di polarizzazione nella Radiazione Cosmica di Fondo.

Modelli di impronte di polarizzazione nella Radiazione Cosmica di Fondo.
L’E-mode (per analogia col campo elettrostatico) indica una perturbazione di tipo scalare unicamente dovuta a fluttuazioni di densità di energia del campo inflatone (φ) del mezzo.
Il B-mode invece è di tipo tensoriale ed è dovuto  alla propagazione di onde gravitazionali.
Ulteriori informazioni sono disponibili qui

Per comprendere meglio il seguito dell’articolo, occorre anche qui partire da principio. La polarità è una proprietà ondulatoria comune a molti fenomeni fisici dei campi come ad esempio quello elettromagnetico  che possono oscillare con orientamenti diversi 1. È l’interazione del flusso radiativo col mezzo di propagazione a determinare molto spesso la polarizzazione della radiazione, come quando osserviamo la luce di una stella lontana che viene polarizzata dalle polveri interstellari. Come la radiazione termica stellare che in origine non è polarizzata, è lecito sostenere che anche la CMB quando sorse dal disaccoppiamento materia-energia 380000 anni dopo il Big Bang non  lo fosse. Ma dovremmo aspettarci anche che un processo violento come quello inflattivo seguito al Big Bang che ha dato origine all’Universo può aver lasciato la sua impronta sulla radiazione che descrive il tessuto del cosmo. E in effetti eccessi di polarizzazione nelle anisotropie della CMB furono notate fin dal 2002 da John Kovac  [cite]http://arxiv.org/abs/astro-ph/0209478[/cite].

Le onde gravitazionali infllative producono un debole schema di torsione nella polarizzazione della CMB noto come B-mode.
In questa immagine le fluttuazioni di densità – che sono comunque preponderanti nella polarizzazione della CMB – sono state annullate. Quello che resta è l’impronta B-mode rilevata da BICEP2.
I due diversi colori mostrano la chiralità registrata nella polarizzazione della radiazione cosmica di fondo.

Nella mappa della polarizzazione nella CMB ricavata dal celebre team del BICEP2 [cite]http://arxiv.org/abs/1307.5830[/cite] appaiono dei piccoli tratti che indicano la direzione dell’oscillazione del campo elettrico nella radiazione elettromagnetica. Da una mappatura così ampia si possono osservare i due diversi tracciati (E-mode e B-mode) spiegati meglio nella figura qui sopra.

Sia che le perturbazioni gravitazionali che di densità derivano dalle fluttuazioni quantistiche durante lo stadio inflativo; le loro dimensioni indicano quindi le scale di energia in gioco in quel momento. Le perturbazioni di densità (E-mode) che sono state rilevate sono attribuite all’oscillazione quantistica dell’ipotetico campo inflatone (indicato dalla lettera $\varphi$), legato alla densità di energia potenziale, da cui discende l’energia effettiva dell’Universo. Le perturbazioni gravitazionali (B-mode) invece sono assai diverse. Esse non dipendono da un ancora ipotetico campo, ma sono frutto di una forza invece ben conosciuta. Generalmente nei modelli inflativi semplici, si assume che l’ampiezza delle onde gravitazionali sia direttamente proporzionale all’energia inflativa. Se tale ipotesi fosse corretta, i dati di BICEP2 indicherebbero per le onde gravitazionali  un valore appena al di sotto della scala di Plank.
BICEP2 indica che le grandezze in gioco in quel momento erano enormi: circa $10^{16} GeV$, cioè circa 12 ordini di grandezza più grande di quella dell’HLC di Ginevra. Questo è un dato molto importante perché pone limiti alle teorie GUT (Grand Unified Theory) che dovrebbero accadere a $10^{15} GeV$ e allo sfuggente decadimento del protone che dovrebbe avvenire a temperature appena un po’ più basse 2. Questo conferma che l’inflazione si è verificata intorno alla scala GUT, poco al di sotto della scala di Planck.

Riassumendo i tratti che distinguono l’Universo, questo risulta essere omogeneo, sostanzialmente isotropo su grandi scale, e piatto. Di conseguenza,  le perturbazioni scalari di densità dovevano essere correlate alla scala dell’orizzonte cosmologico, avere una distribuzione Gaussiana ed essere invarianti di scala.  Questo significa che globalmente tutte le perturbazioni  dovrebbero aver interessato tutta l’energia potenziale disponibile, e questo corrisponde esattamente a quanto il satellite Plank dimostrò nel 2003 [cite]http://arxiv.org/abs/1303.5082[/cite].
Un altro importante risultato è lo sfoltimento di tante alternative proposte via via negli anni per spiegare il ritratto che le osservazioni avevano fatto dell’Universo. Quindi addio alle interpretazioni ekpyrotiche 3 [cite]http://arxiv.org/abs/hep-th/0103239[/cite] e a tante altre teorie che limitavano o cercavano di escludere il modello inflazionario. Comunque per dovere di cronaca ci sono anche altre proposte che mettono in dubbio l’interpretazione inflazionistica dei risultati di BICEP2 [cite]http://arxiv.org/abs/1403.5166[/cite] che potrebbero rimettere in auge le teorie soppresse.

Una simulazione computerizzata del modello di Inflazione Caotica di A.  Linde. Le cime rappresentano nuovi Big Bang, la cui altezza è determinata dalla loro energia. i diversi colori indicano leggi fisiche diverse che sui picchi non sono ancora stabili, Solo le valli (una è la nostra) dispongono di leggi fisiche stabili.

Una simulazione computerizzata del modello di Inflazione Caotica di A. Linde.
Le cime rappresentano nuovi Big Bang, la cui altezza è determinata dalla loro energia. i diversi colori indicano leggi fisiche diverse che sui picchi non sono ancora stabili, Solo le valli (una è la nostra) dispongono di leggi fisiche stabili.

Quindi pare che le anisotropie nella temperatura della radiazione cosmica di fondo e la distribuzione delle struttura a larga scala osservate nell’Universo proverrebbero dalle fluttuazioni quantistiche nel campo inflatone, mentre le perturbazioni tensoriali responsabili della polarizzazione B-mode riscontrate da BICEP2 sarebbero il risultato delle fluttuazioni quantistiche del gravitone. Il momento inflazionistico attraversato dall’Universo deriva quindi tutto da queste due.
Conseguenza non poi tanto indiretta – se le osservazioni venissero confermate – è che la mitica Gravità Quantistica, tanto a lungo cercata dai fisici e cosmologi, è forse scritta nel cielo. Forse, perché anche se  le fluttuazioni quantistiche del campo gravitazionale offrono la spiegazione più semplice e immediata di ciò che viene osservato, ci possono essere anche altri meccanismi – come le stringhe – che possono riprodurre gli stessi schemi della polarizzazione B-mode [cite]http://arxiv.org/abs/1109.0542[/cite].

Un modello che si adatta alle osservazioni esiste già ed è abbastanza in accordo con i dati osservati. È il modello dell’inflazione caotica di Andrei Linde, descritto verso la metà degli anni ’80 e rivisto di recente (2010) [cite]http://arxiv.org/abs/1008.3375[/cite], ispirato per implementare in esso anche la gravità quantistica.
Il modello di Linde suggerisce che non ci sia stato un unico Big Bang, piuttosto che il substrato che ha originato il nostro ribolla di infiniti Big Bang e di infiniti stati inflativi innescati dalle fluttuazioni quantistiche dell’inflatone. Le diverse energie disponibili dal decadimento sarebbero responsabili di diversi punti di rottura della simmetria delle costanti fisiche e delle conseguenti leggi che le governano. In pratica questo modello rende possibile l’esistenza di altri universi governati da diverse leggi e costanti fisiche in cui le stelle non potrebbero essersi mai accese, altri dominati dai buchi neri e così via.
Questa idea rende gli universi molto più simili ai semi di un frattale in dinamica evoluzione: così simili eppure così diversi tra loro, mentre il quadro generale dei multiversi a grande scala appare comunque omogeneo.
Un’idea così rivoluzionaria che non solo risolve i ben noti problemi dell’isotropia e della geometria dell’Universo (per non parlare dei monopoli magnetici che ho voluto tralasciare nella trattazione di questi due articoli piuttosto travagliati) ma che offre una elegante interpretazione al noto dilemma introdotto dal Principio Antropico: noi semplicemente viviamo in uno degli infiniti universi in cui le leggi fisiche hanno reso possibile la nostra esistenza.

A questo punto non resta che la conferma dei dati espressi da BICEP2 per sapere quale sia la natura dell’Universo.


Note:

Echi da un lontano passato, la storia

[latexpage]

Nel Modello Cosmologico Standard  l’universo ha avuto inizio  partendo da una singolarità di densità infinita e raggio tendente a zero. Però questa è soltanto una descrizione che deriva della versione classica della Relatività Generale. Ma non ha senso applicare la Relatività Generale a tempi inferiori al tempo di Planck 1 e a energie così alte 2 quindi ha senso chiedersi quali fossero le proprietà dell’universo solo subito dopo il tempo di Planck; quelle sono le condizioni iniziali che chiamiamo Big Bang.

big_bangL’annuncio, preceduto da diversi rumors nella giornata precedente,  è arrivato lunedì scorso, 17 marzo 2014, alle 16:00 GMT (alle 17:00 locali).
Finalmente, è stata rilevata l’impronta lasciata dalle onde gravitazionali sulla radiazione cosmica di fondo (CMB), la luce più antica del nostro Universo, impressa in tutto lo spazio quando l’Universo aveva appena 380 mila anni.
>A lungo era stata cercata questa testimonianza, finora senza risultato. Ma per poter comprendere meglio quello che è stato scoperto è meglio partire dal principio, o meglio da Edwin Hubble e Milton Humason quando nel 1929 dimostrarono che tutte le galassie si stanno allontanando l’una dall’altra indistintamente, come se lo spazio si stesse espandendo.

Come conseguenza all’espansione appena scoperta, una volta l’Universo deve essere stato più piccolo, fino ad un momento in cui tutto lo spazio e la materia erano racchiusi in un punto.
Questa era la teoria dell’atomo primigenio del gesuita Georges Edouard Lemaître,  basata sulle equazioni della relatività generale di Albert Einstein e sul lavoro di Alexander Friedmann formulata un paio di anni prima della scoperta di Hubble e Humason.
Paradossalmente a dare il nome a questa teoria poi divenuta famosa, fu uno dei più acerrimi oppositori: l’astronomo britannico Fred Hoyle, strenuo sostenitore del modello dell’‘universo stazionario, che nel ’49 chiamò l’idea di Lemaître Big Bang.

Wilson e Pensias con la loro antenna scoprirono la Radiazione Cosmica di Fondo. Per questo vinsero il Premio Nobel nel 1978.

Wilson e Penzias con la loro antenna scoprirono la Radiazione Cosmica di Fondo.
Per questo vinsero il Premio Nobel nel 1978.

Fu solo dopo il 1964 che il dibattito tra queste due teorie si risolse in favore del Big Bang. In quell’anno infatti due ingegneri che lavoravano presso i  Bell Telephone Laboratory stavano mettendo a punto un’antenna per le comunicazioni satellitari ma avevano un problema: ovunque puntassero il loro corno – era la forma dell’antenna – ricevevano un segnale di disturbo. Anche dopo che una coppia di piccioni che aveva nidificato nell’antenna fu sloggiata (qualche malizioso suggerì che ci fu un succulento arrosto a base di piccioni in quei giorni a  Holmdel Township, nel New Jersey), il disturbo rimase. Eliminati ogni difetto intrinseco nell’impianto e scartato ogni altra ipotesi di origine terrena, non rimaneva che seguire l’esempio di Karl Jansky, affidarsi all’origine extraterrestre. Solo che questo disturbo era isotropo nel cielo, non seguiva il moto siderale del pianeta. Era stata scoperta la prima luce dopo il Big Bang che permeava il cosmo, la Radiazione Cosmica di Fondo (CMB).
La più grande prova della teoria del Big Bang, la CMB, fu anche la sua maledizione: perché questa radiazione è così isotropa? C’è da aspettarsi comunque una certa disomogeneità nel cosmo in seguito a questo evento così drammatico, eppure invece no.
In ogni istante e per qualsiasi osservatore nell’Universo esiste un raggio di universo osservabile chiamato orizzonte cosmologico, che corrisponde alla distanza che la luce ha percorso dall’istante del Big Bang, in questo momento per il nostro Universo è 13,82 miliardi di anni luce (ad esempio, 10 secondi dopo alla nascita dell’Universo l’orizzonte cosmologico era di soli 3 milioni di chilometri). In pratica, l’orizzonte cosmologico cresce insieme all’età dell’Universo. Questo significa quindi che per un qualsiasi osservatore è impossibile vedere, influenzare, o essere influenzato,  oltre questo limite.

Mentre l'osservatorepuò osservare una buona parte degli orizzonti cosmologici A e B, da questi solo un piccola parte dell'altro e concesso di vedere. Credit: Il Poliedrico

Mentre l’osservatore centrale può osservare una buona parte di spazio degli orizzonti cosmologici A e B, da questi solo un piccola parte dell’altro è concesso di vedere.
Credit: Il Poliedrico

Spingendo all’estremo di questo concetto, si nota che due regioni lontane fra loro nell’universo, oltre il proprio orizzonte cosmologico, semplicemente non possono conoscere nulla delle condizioni fisiche dell’altra. Eppure l’Universo appare nel suo complesso omogeneo e isotropo, come mostra la CMB. Stesse leggi e condizioni fisiche governano regioni che non possono mai avere contatto tra loro.
Poi un altro problema affliggeva il Big Bang originale: Perché l’Universo appare piatto?
Si sapeva che l’Universo era in espansione. Questo significa ovviamente che la sua densità media cambia nel tempo. Se la densità media fosse stata anche di poco superiore di una certa densità detta critica 3, l’Universo sarebbe collassato rapidamente su sé stesso sotto il suo peso; se fosse stata appena al di sotto l’Universo si sarebbe rapidamente espanso raffreddandosi  troppo velocemente impedendo così alla materia di coagularsi in stelle.
Dopo quasi 14 miliardi di anni  invece l’Universo ci mostra strutture complesse che vanno dai superammassi di galassie agli atomi sintetizzati dalle stelle, eppure nel suo complesso è sostanzialmente omogeneo e con un rapporto $\Omega$ molto prossimo a 1.
Queste erano le domande irrisolte della teoria dell’Atomo Primordiale fino alla metà degli anni ’70, quando in Unione Sovietica David Kirzhnits e il suo allievo Andrei Linde studiando le condizioni fisiche che erano prossime al Big Bang si accorsero che le leggi fondamentali di campo – di gauge – della fisica quantistica rispondevano e potevano essere scritte allo stesso modo 4 l’interazione forte, l’interazione debole e l’elettromagnetismo -e probabilmente anche la gravità -sembravano essere un’unica forza ancestrale nata col Big Bang 5. Da allora teorie simili ne sono uscite diverse, per spiegare l’asimmetria tra materia e antimateria, la gravità quantistica, etc.
Però gli studi sovietici erano in gran parte sconosciuti in Occidente, fino a che nel 1980 Alan Guth le riscoprì e le inserì in un contesto più ampio. Ipotizzando un processo d’espansione molto rapido dell’Universo appena nato, così si risolvevano in modo elegante tutti i difetti del Big Bang fino ad allora esposti.

big bang Secondo la teoria inflazionistica di Alan Guth, appena prima dell’evento Big Bang, ma comunque in un istante successivo al Tempo di Plank ($t_p$), una regione adimensionale di falso vuoto 6 dominata da un campo scalare chiamato inflatone, decade verso uno stato di minima energia per effetto di fluttuazioni quantistiche.  Una delle peculiarità del falso vuoto è la sua densità di energia, grande e negativa. Per la Relatività Generale una densità di energia positiva crea un campo gravitazionale attrattivo. La densità di energia negativa del falso vuoto crea quindi un campo gravitazionale repulsivo, il motore del fenomeno inflattivo.
Appena $10^{-35}$ secondi dopo la transizione di fase del falso vuoto la forza gravitazionale repulsiva porta questa regione ad espandersi e a raddoppiare il suo volume ogni $10^{-34}$ secondi. Questo fenomeno iperrafredda e stira le disomogeneità indotte dalle fluttuazioni quantistiche nella fase precedente, mentre rompe la simmetria che tiene unite le forze di gauge  in condizioni estreme di densità e temperatura.  .$10^{-32}$ secondi la densità di energia diviene positiva e  la gravità assume il ruolo di forza solo attrattiva e cessa quindi l’era inflattiva del Big Bang. Quando termina l’inflazione il campo inflatone raggiunge il suo minimo potenziale e decade in radiazione che riscalda nuovamente l’Universo.
L’Universo neonato adesso ha un rapporto di densità $\Omega$ prossimo a 1 qualunque sia stato il suo valore precedente, la sua geometria ora è prettamente euclidea e può espandersi all’infinito.

Continua …


Note:

Segnali di Materia Oscura nei pressi del nucleo galattico

[latexpage]

Una coppia di neutralini si annichila e decade in una pioggia di normali particelle elementari. Credit: Il Poliedrico

Una coppia di neutralini si annichila e decade in una pioggia di normali particelle elementari.
Credit: Il Poliedrico

All’interno del Modello Cosmologico Standard,  la Teoria della Nucleosintesi Primordiale descrive esattamente la composizione [cite]http://www.einstein-online.info/spotlights/BBN[/cite] della materia presente nell’Universo e indica che  l’84,54% di questa è di natura non barionica, cioè non è composta da leptoni e quark ma da una forma di materia totalmente sconosciuta che non possiede alcuna carica elettromagnetica o di colore chiamata WIMP (Weakly  Interacting  Massive  Particle). Questa è una classe di nuove e ipotetiche particelle con una massa compresa tra poche decine e un migliaio di $GeV/c^2$ (un $GeV/c^2$ è circa la massa di un atomo di idrogeno). L’esistenza di queste particelle è stata proposta per risolvere il problema della materia oscura teorizzata dal Modello Cosmologico Standard. L’esistenza delle WIMP non è stata ancora provata con certezza, però alcune delle caratteristiche fondamentali che queste particelle dovrebbero possedere indicano in quale direzione cercare.
L’esistenza stessa delle strutture a piccola scala come le galassie e gli ammassi di galassie esclude che da una fase inizialmente isotropa come quella descritta dalla radiazione cosmica di fondo queste si siano potute evolvere; la presenza di massicce quantità di materia oscura calda ($v >95\%  c$) avrebbe finito invece per dissolverle. Per questo, non escludendone a priori l’esistenza 1, l’esistenza di una sola forma di materia oscura calda è dubbia. A questo punto non resta che ipotizzare una forma di materia oscura che si muove a velocità non relativistiche, fino all’1 per cento di quella della luce.
Il problema nasce con il Modello Standard che non prevede altre forme di materia se non quelle finora conosciute. Per ovviare a questo inconveniente e ad altri problemi irrisolti dal Modello Standard 2 sono state elaborate dozzine di teorie alternative dette Beyond the Standard Model (BSM, ovvero oltre il Modello Standard) che propongono soluzioni – almeno in parte – i problemi menzionati nella nota e a quello oggetto di questo articolo.

[table “49” not found /]

Un po’ tutte le BSM introducono nuove particelle, una di queste è la Supersimmetria. La Supersimmetria introduce una nuova classe di particelle chiamate superpartner all’interno del classico Modello Standard. Nonostante che il tentativo di identificare questi nuovi partner supersimmetrici – sparticelle – sia per ora fallito, le BSM riescono agevolmente a risolvere i problemi che il Modello Standard non è mai riuscito a superare.
Secondo queste teorie, i fermioni, che costituiscono la materia, hanno come superpartner altrettanti bosoni che trasmettono le forze, mentre i bosoni conosciuti hanno i loro fermioni superpartner. Poiché le particelle e le loro superpartner sono di tipo opposto, il loro contributo energetico al campo di Higgs si annulla.

Dalla tabella qui accanto si nota come per ogni bosone di gauge si ha un superpartner detto gaugino, mentre per il gravitone esiste il gravitino. Il problema essenziale è nella massa di questi superpartner che, almeno in teoria, dovrebbe essere la stessa delle altre particelle normali corrispondenti. In realtà non pare così. Finora nessuno di questi partner supersimmmetrici è stato ancora mai rilevato, tant’è che è stato supposto che anche per le superparticelle sia accaduto un fenomeno di rottura di simmetria, portando di fatto ad avere dei partner supersimmetrici molto più massicci dei loro corrispondenti di quanto ci si aspettasse, oltre il migliaio di $GeV$.
I più promettenti candidati della materia oscura fredda  sono quindi i più leggeri superpartners indicati dalle BSM. Escludendo i superpartners degli elettroni e dei quark che anch’essi dispongono di carica elettrica e di colore, rimangono disponibili lo zino (il superpartner fermionico del bosone Z), il fotino e l’higgsino, tutti altrettanti fermioni 3. Queste sparticelle in sé non sono rilevabili, interagiscono solo con l’interazione debole e la gravità ma possono legarsi tra loro formando una particella esotica molto particolare: il neutralino. In quanto miscela quantistica di diverse altre sparticelle, ne possono esistere fino a 4 tipi diversi di neutralini, tutti fermioni di Majorana e senza alcun tipo di carica, il più leggero dei quali è in genere ritenuto stabile. Il fatto che i neutralini  siano fermioni di Majorana è molto importante, perché dà in qualche modo la chiave per rilevarli, se esistono. Essendo sia particelle che antiparticelle di loro stessi, esiste la possibilità che due diversi neutralini dello stesso tipo si scontrino e si annichilino di conseguenza. Il risultato è una pioggia di radiazione gamma e di altre particelle elementari come sottoprodotti, esattamente come avviene per le particelle conosciute quando si scontrano  con le loro rispettive antiparticelle [cite]http://arxiv.org/abs/0806.2214[/cite].

 Le mappe a raggi gamma prima (a sinistra) e le mappe a cui è stato sottratto il piano galattico (a destra), in unità di photons/cm2 / s / sr.I telai destra contengono chiaramente significativo eccesso centrale e spazialmente esteso, con un picco a ~ 1-3 GeV. I risultati sono mostrati in coordinate galattiche, e tutte le mappe sono state levigate da una gaussiana 0,25

Le mappe a raggi gamma prima (a sinistra) e le mappe a cui è stato sottratto il piano galattico (a destra), in unità di fotoni/cm2/s/sr.
Le immagini sulla destra mostrano un significativo eccesso centrale e spazialmente esteso, con un picco a ~ 1-3 GeV. I risultati sono mostrati in coordinate galattiche, e tutte le mappe sono state levigate da una gaussiana di 0,25°.

E dove cercare la materia oscura, questi neutralini che ne sono soltanto un aspetto di un panorama ben più ampio? Se la materia oscura è davvero sensibile alla gravità, perché non cercarla dove la gravità è più accentuata, ovvero nei pressi dei nuclei galattici e nelle stelle? Nei pressi dei buchi neri centrali i neutralini sarebbero costretti a muoversi piuttosto rapidamente sotto l’influenza gravitazionale, e quindi anche a collidere e annichilirsi con una certa facilità. Il risultato delle annichilazioni e del loro decadimento successivo dovrebbe essere così rilevabile.
Appunto questo è stato fatto, studiando i dati che in  5 anni di attività il Fermi Gamma-ray Space Telescope   ha prodotto. Un gruppo di scienziati coordinato da Dan Hooper ed altri, ha esaminando i dati forniti dal satellite riguardanti il centro della nostra galassia e creato una mappa ad alta risoluzione che si estende per 5000 anni luce dal centro della galassia nel regno dei raggi gamma [cite]http://arxiv.org/abs/1402.6703[/cite]  [cite]http://arxiv.org/abs/0910.2998[/cite].
Una volta eliminato il segnale spurio prodotto da altri fenomeni naturali conosciuti, come ad esempio le pulsar millisecondo nei pressi del centro galattico, il risultato (visibile nei riquadri di destra dell’immagine qui accanto) è interessante. Qui risalta un segnale attorno ai  31-40 $GeV$ che gli autori dello studio attribuiscono all’annichilazione di materia oscura e dei suoi sottoprocessi di decadimento per una densità di materia oscura nei pressi del centro galattico stimata attorno ai 0,3 $GeV/cm^3$.
Le dimensioni di questa bolla di materia oscura non sono note, i dati di questo studio dimostrano che fino a 5000 anni luce la distribuzione angolare della materia oscura è sferica e centrata sul centro dinamico della Via Lattea (entro ~ 0,05° da Sgr A*), senza mostrare alcun andamento preferenziale rispetto al piano galattico o la sua perpendicolare.
Questo dato non è poi lontano da quello estrapolato da Lisa Randall e Matthew Reece dell’Università di Harvard, che sostengono di aver calcolato le dimensioni e la densità di un disco di materia oscura che permea la Via Lattea [cite]http://arxiv.org/abs/1403.0576[/cite] attraverso lo studio delle periodiche estinzioni di massa avvenute sulla Terra e le tracce di impatto di meteoriti di grandi dimensioni sul nostro pianeta 4. Questo disco avrebbe un raggio di circa 10000 anni luce e una densità di una massa solare per anno luce cubico.
A questo punto potrà essere il satellite Gaia, che mappando il campo gravitazionale della Galassia, potrà accertare o meno l’esistenza di questo o di un altro disco che permea la Via Lattea.

Il lavoro del gruppo di Hooper, che per ora è solo un pre-print, è piuttosto incoraggiante nella sua tesi. Se venisse confermato, o nei dati o da altre osservazioni su altre galassie, potrebbe essere la conferma dell’esistenza della materia oscura non barionica fredda che da anni è stata ipotizzata e finora mai confermata. Intanto, altri lavori [cite]http://arxiv.org/abs/1402.2301[/cite] indicano una debole emissione nei raggi X in altre galassie proprio dove ci si aspetta di trovare le traccie dovute al decadimento del neutrino sterile, un’altra ipotetica particella non prevista dal Modello Standard.
La fine di questo modello? Non credo, semmai sarebbe più corretto parlare di un suo superamento da parte delle BSM. Così come la Meccanica Newtoniana si dimostra comunque valida fino a velocità non relativistiche, e nessuno penserebbe di sostituirla con la Relatività Generale per calcolare ad esempio l’orbita di una cometa, Il Modello Standard rimarrà valido fino a quando non sarà stata scritta una Teoria del Tutto elegante e altrettanto funzionante.


Note:

Rielaborazione del concetto di Buco Nero

[latexpage]

Riuscire ad immaginare oggi un buco nero non è difficile, anzi. La fantascienza del XX secolo e il cinema hanno reso i buchi neri talmente familiari quasi da distorcerne il significato. Per la fisica invece sono semplicemente delle regioni di spazio dove materia – o energia – è collassata oltre una certa densità critica, dove la velocità di fuga supera anche la velocità della luce. Tutto quello che è o finisce all’interno di questa regione di spazio si suppone converga verso una singolarità, ovvero un punto geometrico di densità infinita, questo almeno per la meccanica relativistica. Il confine tra questa regione di spazio collassato e il resto dell’universo si chiama orizzonte degli eventi, sede di tutta una serie di bizzarri fenomeni quantistici ancora lungi dall’essere pienamente compresi.

La storia dei buchi neri

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Il concetto di buco nero nacque molto prima della Relatività Generale. Verso la fine dell’Settecento, quando la Meccanica di Newton sembrava fosse in grado di spiegare la gravità, all’astronomo inglese John Michell (che per primo fornì un’accurata misura della costante gravitazionale) e, successivamente, il marchese Pierre-Simon Laplace, uno dei più grandi scienziati del periodo napoleonico,  ebbero indipendentemente l’idea che potessero esistere corpi celesti con una velocità di fuga superiore a quella della luce. In particolare si chiesero quale potesse essere il raggio $R$ di una stella di massa $M$ fissata la cui velocità di fuga fosse pari a quella della luce $c$ 1.

Tenendo conto della legge di conservazione dell’energia meccanica totale, si ricava: \[ \frac{1}{2} mv_f^2-G \frac{mM}{R}=0 \]

Da qui si può di conseguenza ricavare la velocità di fuga $v_f$: \[ v_f=\sqrt{\frac{2GM}{R}} \]

Dove $G$ e’ la costante di gravitazione universale. In questa formula il raggio $R$ della stella si trova al denominatore. Questo significa che se la massa della stella rimane costante mentre il suo raggio diminuisce (dato che la stella si contrae) la velocità di fuga aumenta. Con il diminuire del raggio, la velocità di fuga può aumentare fino a superare la velocità della luce nel vuoto $c$. Dato che secondo la relatività generale, niente può avere una velocità superiore a questo valore, è impossibile che un qualsiasi oggetto, anche un raggio di luce, possa allontanarsi da questa stella. Il valore critico del raggio $R$ per il quale la velocità di fuga diventa uguale alla velocità della luce nel vuoto lo calcolò esattamente nel 1916 Karl Schwarzschild, da cui ha preso il nome. Imponendo allora $v_f = c$ e $R = R_S$, si ricava:

\[ c^2=\frac {2GM}{R_S}

\]

da cui: \[ R_S=\frac{2GM}{c^2} \]

Queste stelle all’inizio vennero chiamate dark star, ma in seguito allo sviluppo della teoria ondulatoria e corpuscolare della luce il loro studio viene abbandonato quasi subito. Infatti la teoria ondulatoria e corpuscolare della luce stabilisce che i fotoni abbiano una massa nulla, quindi, secondo la teoria di Newton i fotoni non possono risentire dell’attrazione di alcuna stella, dunque le dark star non possono esistere.

Poi nel XX secolo la teoria dei buchi neri riaccese l’interesse degli scienziati, in seguito allo sviluppo di due potenti teorie che avrebbero riscritto la fisica macroscopica classica, la Relatività Ristretta e la Relatività Generale, e la fisica delle particelle, la Meccanica Quantistica. A questo punto, giusto per non generare equivoci, è bene sottolineare che col termine buco nero si intende una regione di spazio collassato su sé stesso. Quella parte di spazio ancora accessibile allo studio si chiama orizzonte degli eventi, sede di tutta una serie di fenomeni bizzarri che vanno dall’emissione spontanea di particelle (Radiazione di Hawking) fino a fenomeni di dilatazione temporale. La parte a noi sconosciuta e – per adesso – inconoscibile, è quello che rimane dell’oggetto (materia o radiazione) che ha prodotto lo spazio collassato: per la relatività generale è un punto geometrico di densità infinita chiamato singolarità. Dato che secondo la relatività generale niente può viaggiare più veloce della luce, dai buchi neri non sarebbe dovuto sfuggire niente, nemmeno un briciolo di radiazione termica. Per questa ragione all’inizio si era creduto che la temperatura dell’orizzonte degli eventi pari a zero Kelvin (ossia allo zero assoluto, $-273,15$ gradi centigradi). Questo assunto però era in contrasto con uno dei mostri sacri della fisica: il secondo principio della termodinamica.

Non importa se l'osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Non importa se l’osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Karl Schwarzschild, risolvendo le equazioni di Einstein (il campo gravitazionale è determinato dalla distribuzione di materia e dice alla materia come muoversi) in un caso molto particolare di perfetta simmetria sferica dello spazio-tempo, trovò una coincidenza molto interessante con la teoria newtoniana: se una stella di massa $M$ si contrae fino al raggio di Schwarzschild, il tempo sulla sua superficie si ferma e la luce che parte da quest’ultima subite un redshift infinito per cui non può raggiungere nessun osservatore al di fuori della stella. Cosa succede se il raggio della stella diventasse ancora più piccolo è ancora tema di dibattito. La relatività generale di Einstein non pone limiti al collasso della materia verso un punto di densità infinita. Per questo caso venne coniato il termine di singolarità di Schwarzschild, ma questa ipotesi fu accolta con grande scetticismo dalla comunità scientifica, oltre che dallo stesso Schwarzschild, convinti del fatto che la natura avrebbe trovato un modo per impedire simile ipotesi Grazie a una maggiore conoscenza e comprensione dei fenomeni fisici che avvengono all’interno delle stelle, tra gli anni Trenta e Cinquanta si arrivò alla conclusione che  l’ipotesi della singolarità era reale e che la relatività generale non aveva alcun problema con la materia concentrata entro il raggio di Schwarzschild, anzi essa era in grado di spiegare chiaramente cosa succedeva fino all’orizzonte degli eventi: materia e luce intrappolate al suo interno e senza possibilità alcuna di uscire: una regione dello spazio-tempo che non può comunicare con il resto dell’universo. Il termine buco nero venne introdotto da Wheeler alla fine degli anni Sessanta, quando l’importanza fisica di tali oggetti era oramai chiara alla maggior parte dei fisici teorici e a gran parte degli astrofisici. Molti furono gli esperimenti compiuti per la ricerca di buchi neri e in effetti i telescopi furono in grado di rilevare dei candidati sempre più promettenti, anche se ancora oggi l’osservazione certa di un buco nero non sia stata confermata in modo assoluto. Ma sono rimasti in pochi a dubitare della loro esistenza. Negli stessi anni gli strumenti matematici impiegati dalla relatività generale furono notevolmente ampliati, comprendendo meglio i limiti di tale teoria. Le equazioni di Einstein vennero risolte sotto ipotesi meno restrittive di quelle di Schwarzschild insieme ad altri risultati. Grazie al contributo di numerosi teorici della relatività generale emersero quattro leggi fondamentali che regolano la meccanica dei buchi neri e presentano una straordinaria somiglianza formale con i principi della termodinamica. Inizialmente tale somiglianza venne considerata una pura coincidenza, a causa di evidenti incompatibilità tra le variabili che determinano la meccanica di un buco nero e le variabili termodinamiche a cui dovrebbero corrispondere.

La termodinamica dei buchi neri

Secondo Hawking non vi è alcun pericolo di perdere la popolazione di buchi neri nel nostro universo. Attualmente   la radiazione di Hawking avrebbe un effetto rilevante solo sui buchi neri di piccola massa. 2. Questo perché la temperatura di un buco nero, cioè la radiazione di Hawking che emette il suo orizzonte degli eventi, deve superare la materia e l’energia che intercetta. Dato che la temperatura di un buco nero è inversamente proporzionale alla sua massa, allora con l’aumentare della massa la quantità di energia che riesce ad emettere diminuisce.
In questo modo, i buchi neri più massicci di quel limite, nati dal collasso di stelle  massicce 3 4, presentano un’emissione di energia piuttosto bassa. E dato che ricevono continuamente luce dalle stelle, dalla radiazione cosmica di fondo e dalla materia che vi cade, è evidente che tali buchi neri non cessano di crescere.
Sarà solo quando in una data imprecisata nel futuro tutte le stelle si saranno spente, la poca materia ancora rimasta in un universo ormai freddo si troverà al di là  della portata dei più grandi buchi neri ; quando la temperatura dell’universo sara’ inferiore a quella della radiazione di Hawking dei buchi neri neri che questi evaporeranno.

Nel 1974 il matematico inglese Stephen Hawking provò ad applicare la Meccanica Quantistica al concetto previsto dalla Relatività Generale conosciuto come Buco Nero. Questo dimostrò come i buchi neri non siano realmente neri, ma che emettano una temperatura di corpo nero inversamente proporzionale alla loro massa 5 6 [cite]10.1103/PhysRevD.23.287[/cite].

Il meccanismo della radiazione di Hawking introduce un paradosso insidioso e di difficile soluzione: la conservazione dell’informazione all’interno di un Buco Nero.

Detta così appare terribile, ma per la relatività generale non importa se la materia originale del buco nero sia materia o antimateria, di carica elettrica o  di un sapore quantico particolare, potrebbe essere un astronauta, un libro o l’intera vostra collezione di CD; di tutto quello che supera l’orizzonte degli eventi se ne perde traccia e la radiazione di Hawking che ne esce non  contiene alcuna informazione che consenta di risalire a ciò che era prima. Per la meccanica quantistica, lo stato di un sistema in qualsiasi momento è descritto da una funzione d’onda. Per la loro natura casuale, le particelle che compongono la radiazione di Hawking non hanno una funzione d’onda definita, ma solo una matrice di densità. Questo significa che la radiazione ha molte funzioni d’onda possibili, con una certa probabilità distribuita tra le particelle. Oltre all’incertezza usuale tipica della meccanica quantistica, nella radiazione si inserisce anche l’incertezza della funzione d’onda delle singole particelle: l’informazione è stata distrutta. Come Hawking ebbe a dire in proposito: “Non solo Dio gioca a dadi, ma a volte ci confonde gettandoli là dove non possono essere visti“.

buco neroAl contrario, per la meccanica quantistica l’informazione non può essere distrutta. Qui ogni stato quantico di un insieme di due o più sistemi fisici, virtuali o reali,  dipende dallo stato di quando ciascun sistema viene creato e si mantiene anche quando i singoli componenti dello stesso sistema sono spazialmente separati. Questo significa che se a una delle due particelle create insieme (un esempio classico sono un fascio di fotoni) viene imposto un particolare stato di polarizzazione esso si trasmette istantaneamente anche all’altra particella, senza alcuna limitazione spaziale 7. Quindi ogni modifica dello stato di una delle due particelle (o quella che cade oltre l’orizzonte degli eventi o quella che sfugge dal buco nero) si ripercuote anche sull’altra trasferendo informazione in un senso o nell’altro. Per comprendere meglio questo concetto è opportuno fare ricorso a un  gedankenexperiment, un esperimento ideale tanto caro alla fisica teorica. Supponiamo due particelle entangled con spin $\nwarrow \hspace{0.75in} \nwarrow$ in prossimità dell’orizzonte degli eventi e una delle due cade nel buco nero mentre l’altra sfugge. Per il principio di equivalenza alla particella che cade non succede niente di particolare: lo spin $\nwarrow$ finisce oltre l’orizzonte degli eventi senza problemi. Ora all’esterno c’è una particella con spin $\nwarrow$ uguale a quella caduta all’interno, imbrigliata con questa; qualsiasi cambiamento di stato che una delle due subisce, si riflette istantaneamente attraverso l’orizzonte degli eventi.

È evidente che questo è il nodo centrale di tutta la discussione: o si rinuncia alla trasmissione dello stato quantico delle particelle che oltrepassano l’orizzonte degli eventi oppure si rinuncia alla casualità della radiazione di Hawking. Un modo elegante per uscire da questa impasse consiste nel congelare l’informazione – e la rispettiva particella – proprio sull’orizzonte degli eventi, interrompendo così anche l’azione di entanglement che trasporta l’informazione di stato all’esterno. In questo modo, tutta l’informazione che precipita in un buco nero rimane congelata sul suo orizzonte degli eventi.

l’Effetto Unruh e il Principio Olografico

Per il Principio Olografico l'informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell'acqua si proiettano nei giochi di luce sul fondo di una piscina.,

Per il Principio Olografico l’informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell’acqua si proiettano nei giochi di luce sul fondo di una piscina.

Nel 1993, Lenny Susskind ed altri [cite]http://arxiv.org/abs/hep-th/9306069[/cite][cite]http://arxiv.org/abs/hep-th/9308100[/cite] provano a definire una situazione non locale che non comprenda una perdita delle informazioni 8[cite]http://prd.aps.org/abstract/PRD/v14/i4/p870_1[/cite][cite]http://arxiv.org/abs/0710.5373[/cite]. Qui l’orizzonte degli eventi appare come una matrice di celle delle dimensioni di Plank, dove le informazioni di stato di ciò che cade nel buco nero vengono assorbite, mentre per il solito osservatore lontano pare che siano perse. Quindi i fenomeni entanglement non scompaiono ma vengono congelati sull’orizzonte degli eventi e l’informazione in realtà non è andata persa. Questa nuova interpretazione che voleva un orizzonte degli eventi caldo, all’inizio non era poi tanto convincente fino a che nel campo delle teorie quantistiche non apparvero le teorie delle stringhe e la teoria M, che avevano lo scopo di riunificare la meccanica quantistica con la gravità. Qui il contributo del fisico argentino Juan Maldacena fu determinante per comprendere meglio cos’è questo nuovo aspetto dell’orizzonte degli eventi caldo [cite]http://arxiv.org/abs/hep-th/9711200[/cite]. Anche alla luce della corrispondenza fra Spazio Anti de Sitter e Teoria di campo conforme (AdS / CFT) i risultati sono analoghi ai precedenti. Qui l’orizzonte degli eventi viene visto come un ologramma, una superficie che contiene tutte le informazione del buco nero 9. Così la corrispondenza AdS / CFT risolve, almeno in una certa misura, il paradosso dell’informazione dei buchi neri, mostrando come un buco nero possa evolvere coerente alla meccanica quantistica, senza alcuna perdita di informazioni.

Le ultime proposte di Hawking

black-hole-wallpaper-hdNella sua ultima opera Hawking [cite]http://arxiv.org/abs/1401.5761[/cite] avanza delle critiche al concetto di firewall (come è stato ribattezzato l’effetto Unruh  presso l’orizzonte degli eventi) trovando almeno tre grandi obiezioni a questo costrutto. Ha suggerito che occorre un cambio di passo (quello sì reale) nel modo di concepire i buchi neri pensandoli come oggetti finiti nel tempo, anche se lontanissimo, piuttosto che eterni e immutabili come spesso fatto finora. In quest’ottica anche il costrutto matematico che conosciamo come orizzonte degli eventi e descritto da Schwarzschild cambia di significato: è solo un limite del campo gravitazionale destinato a cambiare nel tempo, quindi si può definire come metastabile. Per questo Hawking lo definisce apparente, perché così appare all’osservatore per un tempo $T$. In questa nuova interpretazione il principio di unitarietà rimane intatto. La metrica di Kerr che può essere usata per descrivere un collasso di un buco nero reale indica che lo spazio oltre l’orizzonte degli eventi è essenzialmente caotico, quindi non occorre ricorrere al teorema olografico (e al firewall) per preservare l’informazione: questa passa nella radiazione di Hawking, ma talmente confusa da essere irriconoscibile. In questo modo  la radiazione non appare più essere casuale come finora si era creduto, ma talmente caotica da sembrare tale.

Quindi interpretare il pensiero di Hawking che chiede un nuovo approccio sui buchi neri come un rifiuto a  questi è solo buttarla in caciara. I buchi esattamente neri non lo sono mai stati, e lo si sapeva dal 1974. Adesso sappiamo che l’orizzonte eventuale dura solo un tempo finito, e anche questa appare come la scoperta dell’acqua calda.


Note: