Segnali di Materia Oscura nei pressi del nucleo galattico

[latexpage]

Una coppia di neutralini si annichila e decade in una pioggia di normali particelle elementari. Credit: Il Poliedrico

Una coppia di neutralini si annichila e decade in una pioggia di normali particelle elementari.
Credit: Il Poliedrico

All’interno del Modello Cosmologico Standard,  la Teoria della Nucleosintesi Primordiale descrive esattamente la composizione [cite]http://www.einstein-online.info/spotlights/BBN[/cite] della materia presente nell’Universo e indica che  l’84,54% di questa è di natura non barionica, cioè non è composta da leptoni e quark ma da una forma di materia totalmente sconosciuta che non possiede alcuna carica elettromagnetica o di colore chiamata WIMP (Weakly  Interacting  Massive  Particle). Questa è una classe di nuove e ipotetiche particelle con una massa compresa tra poche decine e un migliaio di $GeV/c^2$ (un $GeV/c^2$ è circa la massa di un atomo di idrogeno). L’esistenza di queste particelle è stata proposta per risolvere il problema della materia oscura teorizzata dal Modello Cosmologico Standard. L’esistenza delle WIMP non è stata ancora provata con certezza, però alcune delle caratteristiche fondamentali che queste particelle dovrebbero possedere indicano in quale direzione cercare.
L’esistenza stessa delle strutture a piccola scala come le galassie e gli ammassi di galassie esclude che da una fase inizialmente isotropa come quella descritta dalla radiazione cosmica di fondo queste si siano potute evolvere; la presenza di massicce quantità di materia oscura calda ($v >95\%  c$) avrebbe finito invece per dissolverle. Per questo, non escludendone a priori l’esistenza 1, l’esistenza di una sola forma di materia oscura calda è dubbia. A questo punto non resta che ipotizzare una forma di materia oscura che si muove a velocità non relativistiche, fino all’1 per cento di quella della luce.
Il problema nasce con il Modello Standard che non prevede altre forme di materia se non quelle finora conosciute. Per ovviare a questo inconveniente e ad altri problemi irrisolti dal Modello Standard 2 sono state elaborate dozzine di teorie alternative dette Beyond the Standard Model (BSM, ovvero oltre il Modello Standard) che propongono soluzioni – almeno in parte – i problemi menzionati nella nota e a quello oggetto di questo articolo.

[table “49” not found /]

Un po’ tutte le BSM introducono nuove particelle, una di queste è la Supersimmetria. La Supersimmetria introduce una nuova classe di particelle chiamate superpartner all’interno del classico Modello Standard. Nonostante che il tentativo di identificare questi nuovi partner supersimmetrici – sparticelle – sia per ora fallito, le BSM riescono agevolmente a risolvere i problemi che il Modello Standard non è mai riuscito a superare.
Secondo queste teorie, i fermioni, che costituiscono la materia, hanno come superpartner altrettanti bosoni che trasmettono le forze, mentre i bosoni conosciuti hanno i loro fermioni superpartner. Poiché le particelle e le loro superpartner sono di tipo opposto, il loro contributo energetico al campo di Higgs si annulla.

Dalla tabella qui accanto si nota come per ogni bosone di gauge si ha un superpartner detto gaugino, mentre per il gravitone esiste il gravitino. Il problema essenziale è nella massa di questi superpartner che, almeno in teoria, dovrebbe essere la stessa delle altre particelle normali corrispondenti. In realtà non pare così. Finora nessuno di questi partner supersimmmetrici è stato ancora mai rilevato, tant’è che è stato supposto che anche per le superparticelle sia accaduto un fenomeno di rottura di simmetria, portando di fatto ad avere dei partner supersimmetrici molto più massicci dei loro corrispondenti di quanto ci si aspettasse, oltre il migliaio di $GeV$.
I più promettenti candidati della materia oscura fredda  sono quindi i più leggeri superpartners indicati dalle BSM. Escludendo i superpartners degli elettroni e dei quark che anch’essi dispongono di carica elettrica e di colore, rimangono disponibili lo zino (il superpartner fermionico del bosone Z), il fotino e l’higgsino, tutti altrettanti fermioni 3. Queste sparticelle in sé non sono rilevabili, interagiscono solo con l’interazione debole e la gravità ma possono legarsi tra loro formando una particella esotica molto particolare: il neutralino. In quanto miscela quantistica di diverse altre sparticelle, ne possono esistere fino a 4 tipi diversi di neutralini, tutti fermioni di Majorana e senza alcun tipo di carica, il più leggero dei quali è in genere ritenuto stabile. Il fatto che i neutralini  siano fermioni di Majorana è molto importante, perché dà in qualche modo la chiave per rilevarli, se esistono. Essendo sia particelle che antiparticelle di loro stessi, esiste la possibilità che due diversi neutralini dello stesso tipo si scontrino e si annichilino di conseguenza. Il risultato è una pioggia di radiazione gamma e di altre particelle elementari come sottoprodotti, esattamente come avviene per le particelle conosciute quando si scontrano  con le loro rispettive antiparticelle [cite]http://arxiv.org/abs/0806.2214[/cite].

 Le mappe a raggi gamma prima (a sinistra) e le mappe a cui è stato sottratto il piano galattico (a destra), in unità di photons/cm2 / s / sr.I telai destra contengono chiaramente significativo eccesso centrale e spazialmente esteso, con un picco a ~ 1-3 GeV. I risultati sono mostrati in coordinate galattiche, e tutte le mappe sono state levigate da una gaussiana 0,25

Le mappe a raggi gamma prima (a sinistra) e le mappe a cui è stato sottratto il piano galattico (a destra), in unità di fotoni/cm2/s/sr.
Le immagini sulla destra mostrano un significativo eccesso centrale e spazialmente esteso, con un picco a ~ 1-3 GeV. I risultati sono mostrati in coordinate galattiche, e tutte le mappe sono state levigate da una gaussiana di 0,25°.

E dove cercare la materia oscura, questi neutralini che ne sono soltanto un aspetto di un panorama ben più ampio? Se la materia oscura è davvero sensibile alla gravità, perché non cercarla dove la gravità è più accentuata, ovvero nei pressi dei nuclei galattici e nelle stelle? Nei pressi dei buchi neri centrali i neutralini sarebbero costretti a muoversi piuttosto rapidamente sotto l’influenza gravitazionale, e quindi anche a collidere e annichilirsi con una certa facilità. Il risultato delle annichilazioni e del loro decadimento successivo dovrebbe essere così rilevabile.
Appunto questo è stato fatto, studiando i dati che in  5 anni di attività il Fermi Gamma-ray Space Telescope   ha prodotto. Un gruppo di scienziati coordinato da Dan Hooper ed altri, ha esaminando i dati forniti dal satellite riguardanti il centro della nostra galassia e creato una mappa ad alta risoluzione che si estende per 5000 anni luce dal centro della galassia nel regno dei raggi gamma [cite]http://arxiv.org/abs/1402.6703[/cite]  [cite]http://arxiv.org/abs/0910.2998[/cite].
Una volta eliminato il segnale spurio prodotto da altri fenomeni naturali conosciuti, come ad esempio le pulsar millisecondo nei pressi del centro galattico, il risultato (visibile nei riquadri di destra dell’immagine qui accanto) è interessante. Qui risalta un segnale attorno ai  31-40 $GeV$ che gli autori dello studio attribuiscono all’annichilazione di materia oscura e dei suoi sottoprocessi di decadimento per una densità di materia oscura nei pressi del centro galattico stimata attorno ai 0,3 $GeV/cm^3$.
Le dimensioni di questa bolla di materia oscura non sono note, i dati di questo studio dimostrano che fino a 5000 anni luce la distribuzione angolare della materia oscura è sferica e centrata sul centro dinamico della Via Lattea (entro ~ 0,05° da Sgr A*), senza mostrare alcun andamento preferenziale rispetto al piano galattico o la sua perpendicolare.
Questo dato non è poi lontano da quello estrapolato da Lisa Randall e Matthew Reece dell’Università di Harvard, che sostengono di aver calcolato le dimensioni e la densità di un disco di materia oscura che permea la Via Lattea [cite]http://arxiv.org/abs/1403.0576[/cite] attraverso lo studio delle periodiche estinzioni di massa avvenute sulla Terra e le tracce di impatto di meteoriti di grandi dimensioni sul nostro pianeta 4. Questo disco avrebbe un raggio di circa 10000 anni luce e una densità di una massa solare per anno luce cubico.
A questo punto potrà essere il satellite Gaia, che mappando il campo gravitazionale della Galassia, potrà accertare o meno l’esistenza di questo o di un altro disco che permea la Via Lattea.

Il lavoro del gruppo di Hooper, che per ora è solo un pre-print, è piuttosto incoraggiante nella sua tesi. Se venisse confermato, o nei dati o da altre osservazioni su altre galassie, potrebbe essere la conferma dell’esistenza della materia oscura non barionica fredda che da anni è stata ipotizzata e finora mai confermata. Intanto, altri lavori [cite]http://arxiv.org/abs/1402.2301[/cite] indicano una debole emissione nei raggi X in altre galassie proprio dove ci si aspetta di trovare le traccie dovute al decadimento del neutrino sterile, un’altra ipotetica particella non prevista dal Modello Standard.
La fine di questo modello? Non credo, semmai sarebbe più corretto parlare di un suo superamento da parte delle BSM. Così come la Meccanica Newtoniana si dimostra comunque valida fino a velocità non relativistiche, e nessuno penserebbe di sostituirla con la Relatività Generale per calcolare ad esempio l’orbita di una cometa, Il Modello Standard rimarrà valido fino a quando non sarà stata scritta una Teoria del Tutto elegante e altrettanto funzionante.


Note:

Un altro caso marziano: Yamato 000.593

Yamato 000593

Questa è una serie di immagini riprese al microscopio elettronico a scansione di una sezione sottile lucida di Yamato 000.593. Il iddingsite presente in questo meteorite è un minerale argilloso (vedi nota articolo). Qui sono evidenti anche dei microtuboli 
La barra di scala in basso a sinistra è di 2 micron.
Credit: NASA

Dopo il pluridecennale caso di ALH84001 1, adesso a tenere banco nella comunità scientifica è un altro meteorite marziano, conosciuto come Yamato 000.593. Il meteorite, che pesa 13,7 chilogrammi, è una acondrite trovata durante la spedizione giapponese Antarctic Research Expedition del 2000 presso il ghiacciaio antartico Yamato. Le analisi mostrano che la roccia si è formata circa 1,3 miliardi di anni fa da un flusso di lava su Marte. Circa 12 milioni di anni fa un violento impatto meteorico ha scagliato dei detriti dalla superficie di Marte fin nello spazio e, dopo un viaggio  quasi altrettanto lungo, uno di questi è caduto in Antartide circa 50.000 anni fa. Adesso, gli stessi autori che nel 1996 annunciarono la scoperta di tracce di batteri alieni all’interno di ALH840001 [cite]http://www.sciencemag.org/content/273/5277/924[/cite], si sono concentrati sullo studio del meteorite Yamato [cite]http://online.liebertpub.com/doi/abs/10.1089/ast.2011.0733[/cite] scoprendo così la presenza di un tipo di argilla chiamata iddingsite 2 che si forma in presenza di acqua liquida [cite]http://www.researchgate.net/publication/234234597_Yamato_nahklites_Petrography_and_mineralogy[/cite].

caratteristiche incorporate in uno strato di iddingsite.  Sedi di EDS spettri delle sferule  e lo sfondo è dato dal rosso e  cerchi blu, rispettivamente. (B) EDS spettri  di sferule (rossi) e lo sfondo (blu).  Le sferule sono arricchiti * 2 volte in  carbonio rispetto allo sfondo. (C)  Vista SEM delle caratteristiche spherulitic incassato  sia in un superiore (arancione falsi colori)  e strato inferiore di iddingsite. Credit: NASA

(A) Le nanostrutture ricche di carbonio incorporate in uno strato di iddingsite.
(B) Gli spettri delle sferule e lo sfondo sono evidenziati dai cerchi rosso e blu Le sferule mostrano il doppio di carbonio rispetto allo sfondo.
(C) Le sferule appaiono incassate tra due diversi strati di iddingsite: qui il superiore (in falsi colori) e uno inferiore.
Credit: NASA

Dai margini di queste vene di iddingsite partono delle strutture filamentose che contengono aree ricche di carbonio non dissimili al cherogene 3. La presenza di materiale organico complesso come il cherogene in una meteorite marziana non deve trarre in inganno: la sua presenza è stata registrata anche all’interno di molte altre meteoriti: le condriti carbonacee di solito ne sono abbastanza ricche [cite]https://www.jstage.jst.go.jp/article/jmps/100/6/100_6_260/_article[/cite]. Occorre anche ricordare che l’origine dei cherogeni non è necessariamente di origine biologica, visto che è presente anche nelle polveri interstellari [cite]http://www.aanda.org/articles/aa/abs/2001/41/aah2968/aah2968.html[/cite].

Un’altra caratteristica del meteorite Yamato sono le sferule particolarmente ricche di carbonio, circa il doppio rispetto all’area circostante, situate tra due diversi strati di minerale argilloso che le separa dai carbonati e i silicati circostanti. Solo un altro meteorite marziano , il Nakhla 4 presenta strutture simili 5.

La presenza di acqua liquida su Marte in un intervallo di tempo compreso tra 1,3 miliardi e 650 milioni di anni fa è stata confermata anche da altre meteoriti [cite]http://onlinelibrary.wiley.com/doi/10.1111/j.1945-5100.2000.tb01978.x/abstract[/cite] e da diversi studi effettuati con sonde automatiche, ma essa da sola non è sufficiente per confermare – o confutare – una antica presenza di vita marziana.
Oltre all’acqua occorrono una fonte di energia e i materiali necessari per il suo sviluppo, ma sopratttutto occorre che siano presenti opportune condizioni ambientali [cite]http://www.researchgate.net/publication/258613544_Technologies_for_the_Discovery_and_Characterization_of_Subsurface_Habitable_Environments_on_Mars[/cite] che – attualmente – Marte non ha.
Anche se la contemporanea presenza di materiali organici complessi come i cherogeni e l’acqua liquida sulla superficie del Pianeta Rosso suggeriscono che lì in passato vi siano stati alcuni fattori ambientali necessari a sostenere la vita, e nonostante alcune somiglianze strutturali di alcuni campioni provenienti da Marte con materiali terrestri, questo comunque non prova che la vita su Marte sia mai realmente esistita. Solo uno studio di laboratorio su campioni di suolo marziano può darci la risposta definitiva.
Per ora è meglio essere cauti.


Note:

Incontri ravvicinati del mattino

Tempo permettendo, mercoledì 26 febbraio alle 04:16 UTC (05:16 ora locale) si presenterà l’occasione di vedere e fotografare un magnifica congiunzione stretta tra Venere (fase 0.347, magn. -4.29) e Luna (fase 0.139, magn. -9.05), circa 13 minuti d’arco dai due bordi!
I più fortunati sono quelli che osserveranno il fenomeno dall’equatore, dove Venere entrerà in contatto col bordo della Luna già alle 3:17 UTC.
Ma lasciamo le immagini parlare da sole! Cieli sereni 🙂

Credit: Il Poliedrico

Credit: Il Poliedrico

Credit: Il Poliedrico

Credit: Il Poliedrico

Credit: Il Poliedrico

Credit: Il Poliedrico

Rielaborazione del concetto di Buco Nero

[latexpage]

Riuscire ad immaginare oggi un buco nero non è difficile, anzi. La fantascienza del XX secolo e il cinema hanno reso i buchi neri talmente familiari quasi da distorcerne il significato. Per la fisica invece sono semplicemente delle regioni di spazio dove materia – o energia – è collassata oltre una certa densità critica, dove la velocità di fuga supera anche la velocità della luce. Tutto quello che è o finisce all’interno di questa regione di spazio si suppone converga verso una singolarità, ovvero un punto geometrico di densità infinita, questo almeno per la meccanica relativistica. Il confine tra questa regione di spazio collassato e il resto dell’universo si chiama orizzonte degli eventi, sede di tutta una serie di bizzarri fenomeni quantistici ancora lungi dall’essere pienamente compresi.

La storia dei buchi neri

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Il concetto di buco nero nacque molto prima della Relatività Generale. Verso la fine dell’Settecento, quando la Meccanica di Newton sembrava fosse in grado di spiegare la gravità, all’astronomo inglese John Michell (che per primo fornì un’accurata misura della costante gravitazionale) e, successivamente, il marchese Pierre-Simon Laplace, uno dei più grandi scienziati del periodo napoleonico,  ebbero indipendentemente l’idea che potessero esistere corpi celesti con una velocità di fuga superiore a quella della luce. In particolare si chiesero quale potesse essere il raggio $R$ di una stella di massa $M$ fissata la cui velocità di fuga fosse pari a quella della luce $c$ 1.

Tenendo conto della legge di conservazione dell’energia meccanica totale, si ricava: \[ \frac{1}{2} mv_f^2-G \frac{mM}{R}=0 \]

Da qui si può di conseguenza ricavare la velocità di fuga $v_f$: \[ v_f=\sqrt{\frac{2GM}{R}} \]

Dove $G$ e’ la costante di gravitazione universale. In questa formula il raggio $R$ della stella si trova al denominatore. Questo significa che se la massa della stella rimane costante mentre il suo raggio diminuisce (dato che la stella si contrae) la velocità di fuga aumenta. Con il diminuire del raggio, la velocità di fuga può aumentare fino a superare la velocità della luce nel vuoto $c$. Dato che secondo la relatività generale, niente può avere una velocità superiore a questo valore, è impossibile che un qualsiasi oggetto, anche un raggio di luce, possa allontanarsi da questa stella. Il valore critico del raggio $R$ per il quale la velocità di fuga diventa uguale alla velocità della luce nel vuoto lo calcolò esattamente nel 1916 Karl Schwarzschild, da cui ha preso il nome. Imponendo allora $v_f = c$ e $R = R_S$, si ricava:

\[ c^2=\frac {2GM}{R_S}

\]

da cui: \[ R_S=\frac{2GM}{c^2} \]

Queste stelle all’inizio vennero chiamate dark star, ma in seguito allo sviluppo della teoria ondulatoria e corpuscolare della luce il loro studio viene abbandonato quasi subito. Infatti la teoria ondulatoria e corpuscolare della luce stabilisce che i fotoni abbiano una massa nulla, quindi, secondo la teoria di Newton i fotoni non possono risentire dell’attrazione di alcuna stella, dunque le dark star non possono esistere.

Poi nel XX secolo la teoria dei buchi neri riaccese l’interesse degli scienziati, in seguito allo sviluppo di due potenti teorie che avrebbero riscritto la fisica macroscopica classica, la Relatività Ristretta e la Relatività Generale, e la fisica delle particelle, la Meccanica Quantistica. A questo punto, giusto per non generare equivoci, è bene sottolineare che col termine buco nero si intende una regione di spazio collassato su sé stesso. Quella parte di spazio ancora accessibile allo studio si chiama orizzonte degli eventi, sede di tutta una serie di fenomeni bizzarri che vanno dall’emissione spontanea di particelle (Radiazione di Hawking) fino a fenomeni di dilatazione temporale. La parte a noi sconosciuta e – per adesso – inconoscibile, è quello che rimane dell’oggetto (materia o radiazione) che ha prodotto lo spazio collassato: per la relatività generale è un punto geometrico di densità infinita chiamato singolarità. Dato che secondo la relatività generale niente può viaggiare più veloce della luce, dai buchi neri non sarebbe dovuto sfuggire niente, nemmeno un briciolo di radiazione termica. Per questa ragione all’inizio si era creduto che la temperatura dell’orizzonte degli eventi pari a zero Kelvin (ossia allo zero assoluto, $-273,15$ gradi centigradi). Questo assunto però era in contrasto con uno dei mostri sacri della fisica: il secondo principio della termodinamica.

Non importa se l'osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Non importa se l’osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Karl Schwarzschild, risolvendo le equazioni di Einstein (il campo gravitazionale è determinato dalla distribuzione di materia e dice alla materia come muoversi) in un caso molto particolare di perfetta simmetria sferica dello spazio-tempo, trovò una coincidenza molto interessante con la teoria newtoniana: se una stella di massa $M$ si contrae fino al raggio di Schwarzschild, il tempo sulla sua superficie si ferma e la luce che parte da quest’ultima subite un redshift infinito per cui non può raggiungere nessun osservatore al di fuori della stella. Cosa succede se il raggio della stella diventasse ancora più piccolo è ancora tema di dibattito. La relatività generale di Einstein non pone limiti al collasso della materia verso un punto di densità infinita. Per questo caso venne coniato il termine di singolarità di Schwarzschild, ma questa ipotesi fu accolta con grande scetticismo dalla comunità scientifica, oltre che dallo stesso Schwarzschild, convinti del fatto che la natura avrebbe trovato un modo per impedire simile ipotesi Grazie a una maggiore conoscenza e comprensione dei fenomeni fisici che avvengono all’interno delle stelle, tra gli anni Trenta e Cinquanta si arrivò alla conclusione che  l’ipotesi della singolarità era reale e che la relatività generale non aveva alcun problema con la materia concentrata entro il raggio di Schwarzschild, anzi essa era in grado di spiegare chiaramente cosa succedeva fino all’orizzonte degli eventi: materia e luce intrappolate al suo interno e senza possibilità alcuna di uscire: una regione dello spazio-tempo che non può comunicare con il resto dell’universo. Il termine buco nero venne introdotto da Wheeler alla fine degli anni Sessanta, quando l’importanza fisica di tali oggetti era oramai chiara alla maggior parte dei fisici teorici e a gran parte degli astrofisici. Molti furono gli esperimenti compiuti per la ricerca di buchi neri e in effetti i telescopi furono in grado di rilevare dei candidati sempre più promettenti, anche se ancora oggi l’osservazione certa di un buco nero non sia stata confermata in modo assoluto. Ma sono rimasti in pochi a dubitare della loro esistenza. Negli stessi anni gli strumenti matematici impiegati dalla relatività generale furono notevolmente ampliati, comprendendo meglio i limiti di tale teoria. Le equazioni di Einstein vennero risolte sotto ipotesi meno restrittive di quelle di Schwarzschild insieme ad altri risultati. Grazie al contributo di numerosi teorici della relatività generale emersero quattro leggi fondamentali che regolano la meccanica dei buchi neri e presentano una straordinaria somiglianza formale con i principi della termodinamica. Inizialmente tale somiglianza venne considerata una pura coincidenza, a causa di evidenti incompatibilità tra le variabili che determinano la meccanica di un buco nero e le variabili termodinamiche a cui dovrebbero corrispondere.

La termodinamica dei buchi neri

Secondo Hawking non vi è alcun pericolo di perdere la popolazione di buchi neri nel nostro universo. Attualmente   la radiazione di Hawking avrebbe un effetto rilevante solo sui buchi neri di piccola massa. 2. Questo perché la temperatura di un buco nero, cioè la radiazione di Hawking che emette il suo orizzonte degli eventi, deve superare la materia e l’energia che intercetta. Dato che la temperatura di un buco nero è inversamente proporzionale alla sua massa, allora con l’aumentare della massa la quantità di energia che riesce ad emettere diminuisce.
In questo modo, i buchi neri più massicci di quel limite, nati dal collasso di stelle  massicce 3 4, presentano un’emissione di energia piuttosto bassa. E dato che ricevono continuamente luce dalle stelle, dalla radiazione cosmica di fondo e dalla materia che vi cade, è evidente che tali buchi neri non cessano di crescere.
Sarà solo quando in una data imprecisata nel futuro tutte le stelle si saranno spente, la poca materia ancora rimasta in un universo ormai freddo si troverà al di là  della portata dei più grandi buchi neri ; quando la temperatura dell’universo sara’ inferiore a quella della radiazione di Hawking dei buchi neri neri che questi evaporeranno.

Nel 1974 il matematico inglese Stephen Hawking provò ad applicare la Meccanica Quantistica al concetto previsto dalla Relatività Generale conosciuto come Buco Nero. Questo dimostrò come i buchi neri non siano realmente neri, ma che emettano una temperatura di corpo nero inversamente proporzionale alla loro massa 5 6 [cite]10.1103/PhysRevD.23.287[/cite].

Il meccanismo della radiazione di Hawking introduce un paradosso insidioso e di difficile soluzione: la conservazione dell’informazione all’interno di un Buco Nero.

Detta così appare terribile, ma per la relatività generale non importa se la materia originale del buco nero sia materia o antimateria, di carica elettrica o  di un sapore quantico particolare, potrebbe essere un astronauta, un libro o l’intera vostra collezione di CD; di tutto quello che supera l’orizzonte degli eventi se ne perde traccia e la radiazione di Hawking che ne esce non  contiene alcuna informazione che consenta di risalire a ciò che era prima. Per la meccanica quantistica, lo stato di un sistema in qualsiasi momento è descritto da una funzione d’onda. Per la loro natura casuale, le particelle che compongono la radiazione di Hawking non hanno una funzione d’onda definita, ma solo una matrice di densità. Questo significa che la radiazione ha molte funzioni d’onda possibili, con una certa probabilità distribuita tra le particelle. Oltre all’incertezza usuale tipica della meccanica quantistica, nella radiazione si inserisce anche l’incertezza della funzione d’onda delle singole particelle: l’informazione è stata distrutta. Come Hawking ebbe a dire in proposito: “Non solo Dio gioca a dadi, ma a volte ci confonde gettandoli là dove non possono essere visti“.

buco neroAl contrario, per la meccanica quantistica l’informazione non può essere distrutta. Qui ogni stato quantico di un insieme di due o più sistemi fisici, virtuali o reali,  dipende dallo stato di quando ciascun sistema viene creato e si mantiene anche quando i singoli componenti dello stesso sistema sono spazialmente separati. Questo significa che se a una delle due particelle create insieme (un esempio classico sono un fascio di fotoni) viene imposto un particolare stato di polarizzazione esso si trasmette istantaneamente anche all’altra particella, senza alcuna limitazione spaziale 7. Quindi ogni modifica dello stato di una delle due particelle (o quella che cade oltre l’orizzonte degli eventi o quella che sfugge dal buco nero) si ripercuote anche sull’altra trasferendo informazione in un senso o nell’altro. Per comprendere meglio questo concetto è opportuno fare ricorso a un  gedankenexperiment, un esperimento ideale tanto caro alla fisica teorica. Supponiamo due particelle entangled con spin $\nwarrow \hspace{0.75in} \nwarrow$ in prossimità dell’orizzonte degli eventi e una delle due cade nel buco nero mentre l’altra sfugge. Per il principio di equivalenza alla particella che cade non succede niente di particolare: lo spin $\nwarrow$ finisce oltre l’orizzonte degli eventi senza problemi. Ora all’esterno c’è una particella con spin $\nwarrow$ uguale a quella caduta all’interno, imbrigliata con questa; qualsiasi cambiamento di stato che una delle due subisce, si riflette istantaneamente attraverso l’orizzonte degli eventi.

È evidente che questo è il nodo centrale di tutta la discussione: o si rinuncia alla trasmissione dello stato quantico delle particelle che oltrepassano l’orizzonte degli eventi oppure si rinuncia alla casualità della radiazione di Hawking. Un modo elegante per uscire da questa impasse consiste nel congelare l’informazione – e la rispettiva particella – proprio sull’orizzonte degli eventi, interrompendo così anche l’azione di entanglement che trasporta l’informazione di stato all’esterno. In questo modo, tutta l’informazione che precipita in un buco nero rimane congelata sul suo orizzonte degli eventi.

l’Effetto Unruh e il Principio Olografico

Per il Principio Olografico l'informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell'acqua si proiettano nei giochi di luce sul fondo di una piscina.,

Per il Principio Olografico l’informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell’acqua si proiettano nei giochi di luce sul fondo di una piscina.

Nel 1993, Lenny Susskind ed altri [cite]http://arxiv.org/abs/hep-th/9306069[/cite][cite]http://arxiv.org/abs/hep-th/9308100[/cite] provano a definire una situazione non locale che non comprenda una perdita delle informazioni 8[cite]http://prd.aps.org/abstract/PRD/v14/i4/p870_1[/cite][cite]http://arxiv.org/abs/0710.5373[/cite]. Qui l’orizzonte degli eventi appare come una matrice di celle delle dimensioni di Plank, dove le informazioni di stato di ciò che cade nel buco nero vengono assorbite, mentre per il solito osservatore lontano pare che siano perse. Quindi i fenomeni entanglement non scompaiono ma vengono congelati sull’orizzonte degli eventi e l’informazione in realtà non è andata persa. Questa nuova interpretazione che voleva un orizzonte degli eventi caldo, all’inizio non era poi tanto convincente fino a che nel campo delle teorie quantistiche non apparvero le teorie delle stringhe e la teoria M, che avevano lo scopo di riunificare la meccanica quantistica con la gravità. Qui il contributo del fisico argentino Juan Maldacena fu determinante per comprendere meglio cos’è questo nuovo aspetto dell’orizzonte degli eventi caldo [cite]http://arxiv.org/abs/hep-th/9711200[/cite]. Anche alla luce della corrispondenza fra Spazio Anti de Sitter e Teoria di campo conforme (AdS / CFT) i risultati sono analoghi ai precedenti. Qui l’orizzonte degli eventi viene visto come un ologramma, una superficie che contiene tutte le informazione del buco nero 9. Così la corrispondenza AdS / CFT risolve, almeno in una certa misura, il paradosso dell’informazione dei buchi neri, mostrando come un buco nero possa evolvere coerente alla meccanica quantistica, senza alcuna perdita di informazioni.

Le ultime proposte di Hawking

black-hole-wallpaper-hdNella sua ultima opera Hawking [cite]http://arxiv.org/abs/1401.5761[/cite] avanza delle critiche al concetto di firewall (come è stato ribattezzato l’effetto Unruh  presso l’orizzonte degli eventi) trovando almeno tre grandi obiezioni a questo costrutto. Ha suggerito che occorre un cambio di passo (quello sì reale) nel modo di concepire i buchi neri pensandoli come oggetti finiti nel tempo, anche se lontanissimo, piuttosto che eterni e immutabili come spesso fatto finora. In quest’ottica anche il costrutto matematico che conosciamo come orizzonte degli eventi e descritto da Schwarzschild cambia di significato: è solo un limite del campo gravitazionale destinato a cambiare nel tempo, quindi si può definire come metastabile. Per questo Hawking lo definisce apparente, perché così appare all’osservatore per un tempo $T$. In questa nuova interpretazione il principio di unitarietà rimane intatto. La metrica di Kerr che può essere usata per descrivere un collasso di un buco nero reale indica che lo spazio oltre l’orizzonte degli eventi è essenzialmente caotico, quindi non occorre ricorrere al teorema olografico (e al firewall) per preservare l’informazione: questa passa nella radiazione di Hawking, ma talmente confusa da essere irriconoscibile. In questo modo  la radiazione non appare più essere casuale come finora si era creduto, ma talmente caotica da sembrare tale.

Quindi interpretare il pensiero di Hawking che chiede un nuovo approccio sui buchi neri come un rifiuto a  questi è solo buttarla in caciara. I buchi esattamente neri non lo sono mai stati, e lo si sapeva dal 1974. Adesso sappiamo che l’orizzonte eventuale dura solo un tempo finito, e anche questa appare come la scoperta dell’acqua calda.


Note:

Altri tasselli al puzzle della massa barionica mancante.

Il quasar UM 287 illumina la più grande nube di gas mai vista nell'Universo.

Il quasar UM 287 illumina la più grande nube di gas mai vista nell’Universo.
Credit: Nature

Oltre che la genesi e l’evoluzione, l’attuale  Modello Cosmologico Standard riesce ad indicare con discreta precisione anche la composizione dell’Universo 1 [cite]http://www.einstein-online.info/spotlights/BBN[/cite].
Nel 1933 l’astrofisico svizzero Fritz Zwicky, dimostrò una importante discrepanza tra la materia visibile e la massa misurata dell’ammasso di galassie della  Chioma 2.
Quello fu solo il primo dei tanti indizi che indicavano un’importante discrepanza tra le stime teoriche basate su leggi matematiche consistenti e i dati osservati.
Purtroppo almeno la metà della materia barionica prevista teoricamente finora è apparsa sfuggire da ogni tecnica di rilevazione diretta 3 4.

Tempo fa illustrai in queste stesse pagine [cite]http://ilpoliedrico.com/2012/09/la-materia-oscura-forse-solo-una-bolla.html[/cite] che enormi bolle di gas caldo (attorno a 1 – 2 milioni di kelvin) circondano le galassie. La massa complessiva di queste bolle è paragonabile a quello attualmente stimato per le galassie al loro centro.
Adesso altri recenti studi [cite]http://pa.as.uky.edu/circumgalactic-medium-and-galaxy-missing-baryon-problem[/cite] hanno rivelato che gli aloni galattici contengono anche una forma di gas molto più freddo (10.000° kelvin).
Gas così freddi non sono direttamente visibili ai telescopi 5 ma  alcuni aloni di questi aloni è stato possibile individuarli grazie all’impronta lasciata sulla luce di lontani quasar che li attraversano.

Il 7 gennaio scorso all’American Astronomical Society è stato presentato uno studio svolto sulla luce proveniente da diversi quasar posti accanto ad altre galassie in primo piano ripresi dal Telescopio Spaziale Hubble. Gli spettri di alcuni di questi oggetti hanno mostrato la presenza di significative quantità di carbonio, silicio e magnesio insieme alla presenza rivelatrice di tracce di idrogeno neutro (H I). Secondo i ricercatori, questo indica la presenza di aloni di gas relativamente freddo che circondano le galassie osservate attraverso la luce dei quasar. Aloni di materiale circumgalattico  freddo che possono contenere importanti quantità (dalle 10 alle 100 volte superiori di quanto finora stimato) di materia ancora nascosta e non conteggiata nelle stime della massa barionica mancante. Il team che ha realizzato questo studio è guidato da  Jessica Werk, astrofisica, dell’Università della California.

Questa sezione grande 10 milioni di anni luce simulazione del primordiale mostra come la materia si fonde in galassie collegate da filamenti di gas rarefatto. Credit: Nature

Una simulazione  del gas primordiale grande 10 milioni di anni luce  mostra come la materia riesce a fondersi in galassie collegate da filamenti di gas rarefatto.
Credit: Nature

All’incirca stessa tecnica è stata usata per osservare la più grande nube di gas conosciuta nell’Universo [cite]2014.14550[/cite]. Questa nebulosa pare essere uno dei filamenti di materia a grande scala del cosmo. Potrebbe essere la prima immagine diretta della ragnatela cosmica che pervade tutto l’Universo.
Gli autori di quest’altra scoperta sono gli astronomi Sebastiano Cantalupo e Xavier Prochaska anche loro dell’Università della California, Santa Cruz, che hanno usato il Keck Observatory, posto sulla cima del vulcano Mauna Kea alle Hawaii. Le immagini mostrano una nube di gas grande 460.000 parsec (1,5 milioni di anni luce) di lunghezza.
Sempre per il Modello Cosmologico Standard, prima della formazione delle galassie, L’Universo conteneva gas primordiale frutto della bariogenesi che disaccoppiò la materia dall’energia e che vide questa prevalere sull’antimateria e materia oscura. La materia oscura, predominante sulla materia barionica ordinaria, si addensò poi in estesi aloni gravitazionali in cui la materia ordinaria sarebbe poi finita per creare le galassie.
Ma come mostrano anche le simulazioni, non tutta la materia, sia la barionica che quella oscura, è finita per creare le galassie. Anzi, molta di questa avrebbe finito per creare la ragnatela tridimensionale che pervade il cosmo che collega tutte le galassie.
In effetti i ricercatori hanno trovato prove dell’esistenza di questi filamenti chiamati WHIM (Warm-Hot Intergalactic Medium), ovvero mezzo intergalattico caldo [cite]http://ilpoliedrico.com/2013/05/il-mistero-dei-barioni-mancanti.html[/cite].

Tutte queste nuove forme di materia -barionica – finora inosservate possono essere la risposta al dilemma della massa barionica mancante? forse è presto per dirlo ma credo di sì. Questa sarebbe un’altra prova della bontà del Modello Cosmologico Standard.


 

Note:

Gemini Planet Imager: alla ricerca di nuovi pianeti

light scattered by a disk of dust orbiting the young star HR4796A

L’immagine della “prima luce” del Gemini Planet Imager (GPI) della luce scatterata da un disco di polvere che orbita attorno alla giovane stella HR4796A. Si fa l’ipotesi che l’anello piu’ piccolo ed interno sia formato di polvere di origine asteroidale e cometaria durante la formazione planetaria, quelli che vengono definiti planetesimi. Alcuni scienziati hanno anche ipotizzato che il bordo ben definito dell’anerllo sia dato dalla presenza di un pianeta (ancora non individuato). L’immagine di sinistra (1,9-2,1 micron) mostra la luce nel visibile tra cui entrambi gli anelli di polvere e la luce residua dalla stella centrale scatterata dalla turbolenza dell’atmosfera terrestre. L’immagine di destra mostra solo la luce polarizzata. La luce dal bordo posteriore del disco e’ fortemente polarizzata in quando viene scatterata verso di noi. Immagine in grandi dimensioni disponibile qui . Crediti: Processing by Marshall Perrin, Space Telescope Science Institute.

 

 

Dopo quasi un decennio di sviluppo, costruzione e di collaudi lo strumento piu’ sofisticato al mondo per il direct imaging (immagine diretta) e per lo studio di pianeti extrasolari attorno ad altre stelle viene puntato verso il cielo per raccogliere e studiare la luce di questi mondi lontani.

Lo strumento, denominato Gemini Planet Imager (GPI) e’ stato progettato, costruito e ottimizzato per l’imaging di pianeti deboli attorno a stelle molto brillanti e per analizzarne le loro atmosfere. Sara’ pure un ottimo strumento per studiare i dischi di formazione planetaria ricchi di polvere intorno a giovani stelle. E’ lo strumento piu’ avanzato del suo genere che viene montato su uno dei telescopi piu’ grandi al mondo, il Gemini South Telescope di 8 metri, in Cile.

“Le immagini della prima luce del telescopio sono almeno un fattore 10 migliori di quelle degli strumenti di generazione precedente. In un minuto osserviamo pianeti per i quali di solito ci si impiega un’ora per la loro rivelazione” ha affermato Bruce Macintosh del lawrence Kivermore National Laboratory che ha guidato il team dei costruttori dello strumento.

GPI rivela la radiazione infrarossa dai giovani pianeti di tipo gioviano che orbitano a grande distanza dalla stella madre (e quindi hanno orbite piuttosto ampie), quelli che possono essere confrontati con i pianeti giganti gassosi nel nostro Sistema Solare non molto tempo dopo la loro formazione. Ogni pianeta che GPI osserva puo’ venir studiato in grande dettaglio.

“La maggior parte dei pianeti che oggi conosciamo sono noti grazie ai metodi indiretti che ci permettono di dire se c’e’ o meno un pianeta, ci permettono di dire qualcosa sulla sua orbita e sulla massa, ma non molto di piu'” ha affermato Macintosh. “Con GPI fotografiamo direttamente i pianeti attorno alle loro stelle – e’ un po’ come essere in grado di sezionare il sistema e di scavare dentro alle caratteristiche dell’atmosfera del pianeta”.

GPI ha compiuto le sue prime osservazioni lo scorso novembre, durante un debutto senza problemi. Si tratta di uno straordinario e complesso strumento astronomico delle dimensioni di una piccola automobile. “Questa e’ stata una delle run di prima luce piu’ lisce che abbia mai visto” ha affermato Stephen Goodsell, che gestisce il progetto per l’osservatorio.

Per le prime osservazioni di GPI il team di ricercatori ha preso come target dei sistemi planetari ben noti, tra cui il sistema di Beta Pictoris. GPI ha ottenuto il primo spettro del giovane pianeta, Beta Pictoris b. Allo stesso e’ stato utilizzato il modo di polarizzazione dello strumento, che permette di rilevare la luce della stella scatterata da particelle sottile, per studiare l’anello debole di polvere che orbita attorno alla giovane stella HR4796A. Con la strumentazione precedente era stato possibile osservare solo i bordi di questo anelli di polvere, che potrebbero essere i detriti che rimangono dalla formazione planetaria, con con questo numero strumento si puo’ osservare l’intera circonferenza dell’anello.

Anche se GPI e’ stato progettato per l’osservazione di pianeti lontani, e’ possibile utilizzarlo per osservare oggetti nel nostro Sistema Solare, e quindi molto vicini.

Europa_Gemini Planet Imager

Confronto di Europa osservato con il Gemini Planet Imager nella banda K1 a destra e immagine composita ottenuta dalla Galileo SSI e Voyager 1 e 2 (USGS), sulla sinistra. Sebbene GPI non sia stato progettato per oggetti estesi come un satellite, le sue osservazioni potrebbero aiutare nel trovare delle alterazioni superficiali dei satelliti gioviani ghiacciati oppure fenomeni atmosferici (come la formazione di nubi) sulla luna di Saturno, Titano. L’immagine nel vicino infrarosso a colori di GPI e’ una combinazione di tre differenti lunghezze d’onda. Crediti: Processing by Marshall Perrin, Space Telescope Science Institute and Franck Marchis SETI Institute.

Le immagini test della luna Europa di Giove, per esempio, possono permettere di mappare i cambiamenti della composizione superficiale del satellite. Le immagini qui sotto sono state presentate per la prima volta durante il 22esimo Meeting dell’American Astronomical Society a Washington DC.

“Osservare un pianeta vicino ad una stella in appena un minuto e’ sicuramente da brivido e l’abbiamo visto dopo una sola settimana che lo strumento e’ stato posizionato sul telescopio” ha affermato Fredrik Rantakyro, scienziato che fa parte dello staff di Gemini e che lavora sullo strumento. “Immaginate cosa sara’ in grado di fare questo strumento una volta che avremo completato e ottimizzato le sue prestazioni”.

“I pianeti extrrasolari sono estremamente deboli e difficili da rilevare accanto ad una stella luminosa” ha notato il Professor James R. Graham, Chied Scientist Professor dell’Universit’ della California che ha lavorato con Macintosh sin dall’inizio del progetto. GPI puo’ vedere i pianeti che hanno una luminosita’  un milione di volte piu’ debole di quella della loro stella. Spesso si descrive questo fenomeno come l’osservare una lucciola volteggiare attorno ad un lampione a migliaia di chilometri di distanza dall’osservatore. Gli strumenti utilizzati per individuare gli esopianeti devono essere progettati e costruiti con estrema precisione. GPI rappresenta un risultato tecnico estremamente incredibile per il team internazionale di ricercatori che hanno ideato, progettato e costruito lo strumento. Notevoli sono anche le capacita’ del telescopio Gemini.

Dopo anni di sviluppo e di test di simulazione e’ sicuramente uno dei traguardi piu’ ambiziosi nello studio della ricerca di esopianeti. Quest’anno il team di GPI iniziera’ una survey a grande campo considerando ben 600 stelle giovani alla ricerca di quanti pianeti giganti orbitano attorno ad esse. GPI verra’ utilizzato anche per altri progetti all’interno della comunita’ Gemini, progetti che vanno dalla formazione di dischi planetari all’emissione di polvere da stelle massicce nelle loro fasi finali evolutive.

GPI scruta il cielo attraverso l’atmosfera terrrestre e quindi attraverso la turbolenza atmosferica del nostro pianeta, ma grazie all’ottica adattiva avanzata lo strumento sara’ in grado di vedere pianeti delle dimensioni di Giove. Una simile tecnologia sta per essere proposta anche per i futuri telescopi spaziali.

Fonte Gemini Telescope – World’s most powerful exoplanet camera turns its eye to the sky

Sabrina

Le prime luci di Gaia

Il punto lagrangiano L2, dove orbita l'osservatorio spaziale Gaia. Credit: Wikipedia

Il punto lagrangiano L2, dove orbita l’osservatorio spaziale Gaia.
Credit: Wikipedia

Il 19 dicembre 2013 un vettore Soyuz ST-B/Fregat-MT 1 partito dallo spazioporto di Kourou (Guiana Francese), ha lanciato nello spazio Gaia 2, l’erede della fortunata missione Hipparcos (1989 – 1993).
Il 7 gennaio scorso il satellite Gaia ha finalmente raggiunto il punto lagrangiano L2, del sistema Terra-Sole, un’ottima, anche se affollata 3, finestra verso lo spazio. Il punto lagrangiano L2 è stato scelto per la sua  stabilità ‘orbitale 4 e perché offre una schermatura quasi totale alla radiazione solare grazie al cono d’ombra della Terra 5.

La prima luce di Gaia. α Aquarii. Credit: ESA/Gaia

La prima luce di Gaia. α Aquarii.
Credit: ESA/Gaia

Il 15 gennaio Gaia ha trasmesso la sua prima immagine pubblica: Il bersaglio scelto era Sadalmelik, una supergigante gialla distante 161 parsec (525 anni luce) conosciuta anche come α Aquarii.
L’immagine non era ancora perfettamente a fuoco, e anche tutti gli altri strumenti hanno bisogno di essere calibrati prima di diventare pienamente operativi. Ma già il 9 gennaio, quindi poco dopo aver raggiunto la sua orbita operativa, aveva dato un piccolo assaggio delle sue capacità mostrando di riuscire a vedere ben 17000 stelle in sole tre ore. Gaia sta dimostrando di essere un ottimo osservatorio.

Gaia si propone di compilare un catalogo tridimensionale dello spazio di circa un miliardo di oggetti astronomici della Via Lattea cercando anche di evidenziare così anche il loro moto. Si spera a questo modo di comprendere meglio la struttura della nostra galassia e la sua evoluzione futura.
Le misure spettrofotometriche di Gaia forniranno le proprietà fisiche dettagliate di ogni stella osservata 6, la loro luminosità assoluta 7, la temperatura effettiva , la gravità e  la composizione.

Come Hipparcos prima di lei, Gaia rivoluzionerà le nostre conoscenze del nostro angolo di cosmo. Studierà anche altre galassie e quasar, scoprirà un sacco di altri sistemi planetari extrasolari e darà la possibilità di confermare gli altri già identificati dagli osservatori a terra. Sarà un vero coltellino svizzero, anzi europeo, del cosmo nelle mani degli scienziati.


Note:

La caratterizzazione delle Super-Terre: Il ciclo geologico del carbonio

[latexpage]

Se credi che una certa cosa possa essere improbabile, almeno cerca di togliere l’impossibile e forse quello che ne rimane è potenzialmente vero.
Se un giorno riuscissimo a scoprire un’altra Terra, è altamente improbabile che questa presenti uno stadio evolutivo simile al nostro. La Terra è infatti ben lontana dall’essere un sistema statico fin dal momento della sua formazione avvenuta circa 4,6 miliardi di anni fa. Al contrario, per tutto questo tempo ha subito numerosi cambiamenti nella composizione atmosferica, nella temperatura, nella distribuzione dei continenti, senza parlare delle numerose e diverse forme di vita che l’hanno occupata. Tutti questi cambiamenti si sono riflessi nell’aspetto che potrebbe essere visto a distanze astronomiche. Ogni scenario ha avuto la sua firma caratteristica, e adesso saper riconoscere queste impronte in altri pianeti può aiutarci a capire se questi possono essere stati o esserlo nel futuro, potenzialmente abitabili.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Nel corso degli ultimi quattro anni è stato possibile scoprire parecchi pianeti nell’intervallo di massa tra 2 e 10 masse terrestri, quelli che vengono definiti  Super-Terre; alcuni di questi pianeti si vengono a trovare dentro oppure si trovano vicini alla zona di abitabilità della loro stella ospite. Recentemente sono stati annunciati nuovi pianeti delle dimensioni della nostra Terra e della nostra Luna, e questo numero sicuramente aumenterà in futuro.
Le prime statistiche hanno messo in evidenza che circa il 62% delle stelle della nostra Galassia potrebbero ospitare un pianeta delle dimensioni della nostra Terra mentre studi compiuti dalla missione Kepler della NASA indicano che circa il 16,5% delle stelle hanno almeno un pianeta delle dimensioni del nostro con periodi orbitali fino a 85 giorni.
Per poter caratterizzare queste esoterre scoperte dobbiamo prima di tutto dare uno sguardo al nostro Sistema Solare e ai suoi pianeti. La Terra è per ora l’unico pianeta conosciuto in cui esiste la vita; di conseguenza le osservazioni del nostro pianeta saranno una chiave fondamentale per lo studio e la ricerca della vita altrove.

Intanto, poter definire come un pianeta sia potenzialmente vivibile non è affatto facile, ci sono talmente tante condizioni al contorno da soddisfare che non è facile considerarle tutte. Una di queste impone che per sostenere la vita come la conosciamo, un pianeta debba permettere all’acqua di esistere allo stato liquido sulla sua superficie. Indicativamente, e forse in modo piuttosto semplicistico, spesso questa condizione viene identificata come la fascia – o zona – Goldilocks, quella zona né troppo lontana e né troppo vicina alla stella dove la radiazione consente all’acqua di esistere allo stato liquido su un pianeta. Quindi si tratta solo di un mero dato orbitale che ben poco ha a che vedere con la realtà: ad esempio, sulla Luna la presenza di ‘acqua allo stato liquido non è possibile anche se ne esiste una certa quantità allo stato solido (ghiaccio); eppure condivide con la Terra la stessa zona di abitabilità.

Quello che veramente occorre ad un pianeta perché possa essere considerato potenzialmente vivibile è un ambiente abbastanza stabile nel tempo che non sia soggetto a parossismi orbitali che periodicamente farebbero congelare o arrostire la sua superficie e un ambiente abbastanza ricco di energia da poter essere sfruttata dalle forme di vita. Se per risolvere il primo caso basta che l’eccentricità dell’orbita del pianeta sia prossima a zero, per il secondo caso il discorso si fa un attimino più complicato: occorre che la pressione ambientale consenta all’acqua di mantenere lo stato liquido in un ampio spettro di temperature e un meccanismo che garantisca che anche la temperatura sia più o meno stabile all’interno di questo intervallo 1 .

Il ciclo geologico del carbonio

Per la sua capacità di trattenere la radiazione infrarossa, l’anidride carbonica è un importante termoregolatore per la superficie di un pianeta 2.
Il modo in cui questa molecola riesce a passare dall’atmosfera al mare, al fondale marino e poi di nuovo all’atmosfera è affascinate, anche se richiede molto tempo e un prerequisito essenziale: la presenza di una tettonica a placche [cite] http://ilpoliedrico.com/2013/07/venere-e-terra-gemelli-diversi.html [/cite].

In questo ciclo alcune molecole di anidride carbonica ($CO_2$) atmosferica si disciolgono nell’acqua ($H_2O$) 3 formando acido carbonico .

\[
CO_2 + H_2O \rightleftharpoons H_2CO_3
\]

Un meccanismo molto efficace e che deve essere stato senz’altro presente fin dalle prime fasi della costituzione di una crosta solida è la pioggia. La pioggia ha anche un altro compito importante nell’evoluzione planetaria: desaturando un’atmosfera primordiale ricchissima di vapore acqueo 4 rafforza il processo di raffreddamento della superficie e facilita lo scorrimento delle prime zolle tettoniche necessarie per l’ultima fase del ciclo del carbonio.
Adesso l’acido carbonico disciolto nell’acqua è libero di dissolversi nelle rocce con cui viene a contatto, siano esse quelle esposte alle precipitazioni o i fondali marini. Una reazione che potrebbe essere piuttosto comune è la seguente, dove i silicati di calcio ($CaSiO_3$) svolgono un ruolo fondamentale nel ciclo:

\[
CaSiO_3 + 2H_2CO_3 \rightarrow Ca^{2+} + {2HCO_3}^{-} + H_2SiO_3
\]

tutti i membri di destra, gli ioni di calcio ($Ca^{2+}$), gli ioni  di idrogenocarbonato (${2HCO_3}^{-}$) 5 e l’acido silicico ($H_2 SiO_3$) sono ancora soluzioni acquose che potrebbero finire negli oceani.
Ben presto l’idrogenocarbonato viene a trovarsi in equilibrio con l’anidride carbonica disciolta nell’acqua secondo la seguente formula:

\[
{2HCO_3}^{-} \rightleftharpoons {CO_3}ì{2-} + H_2O + CO_2
\]

Quando la concentrazione di ioni carbonato (${CO_3}^{2-}$) aumenta, questi interagiscono con gli ioni di calcio visti prima e precipitano sotto forma di carbonato di calcio ($CaCO_3$) creando così minerari come la calcite e l’aragonite.
Questo è solo un esempio di come il carbonio atmosferico riesca a passare dalla forma gassosa nell’aria alla forma solida nella crosta planetaria. Il ruolo fondamentale di questo meccanismo è la presenza dell’acqua come solvente che ne consente il transito.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Il risultato di questo scambio sono minerali come la calcite che testimoniano la sottrazione del carbonio dall’atmosfera e che possono finire sepolti anche molto in profondità, al di sotto delle zolle tettoniche. Da qui poi, grazie all’attività vulcanica, il carbonio intrappolato nelle rocce potrebbe tornare di nuovo nell’atmosfera.
Se il meccanismo di sottrazione del carbonio dall’atmosfera dovesse venir meno per un calo eccessivo della temperatura globale, il naturale degassamento della crosta e del mantello tramite l’attività vulcanica dovrebbe far aumentare la concentrazione di $CO_2$ atmosferica e di conseguenza la temperatura. Altresì, un aumento eccessivo della temperatura dovrebbe permettere una maggior efficienza dei meccanismi di estrazione e quindi all’abbassamento di questa 6.
Il meccanismo del ciclo geologico del carbonio è complesso e comunque i suoi tempi di risposta sono piuttosto lunghi. Penso piuttosto a come l’equilibrio tra solvente (l’acqua del pianeta) e soluto (anidride carbonica) possa già di per sé portare ad una sottrazione dei due maggiori gas serra dall’atmosfera planetaria e alla stabilizzazione verso il basso della temperatura planetaria quando le condizioni ambientali consentono l’innescarsi di questo processo.

(continua …)


Note:

L’epopea di una manciata di fotoni

[latexpage]

Baldacchino di S. Pietro

Credit: Il Poliedrico

Circa 15 milioni di anni fa nel nucleo del Sole, un gruppo di protoni riuscirono a superare la barriera coloumbiana di altrettanti loro simili fondendosi con questi.

\[
\textsuperscript{1}H + \textsuperscript{1}H \rightarrow \textsuperscript{2}H + e\textsuperscript{+}+ \nu_{e}
\]

Il nucleo di ogni stella però è formato in più o meno egual numero dei protoni ($\textsuperscript{1}H$) anche da elettroni ($e$), un tempo legati insieme a formare atomi di idrogeno ($H$). Per questo i positroni ($e\textsuperscript{+}$) hanno una vita molto breve: appena prodotti incontrano un elettrone e … bang! si annichiliscono con questi producendo 2 bei fotoni gamma da 1,02 MeV.

\[
e\textsuperscript{+}+ e\textsuperscript{+}\rightarrow 2\gamma
\]

Tutta questa energia viene assorbita dai protoni circostanti dando loro la forza necessaria per tentare di fondersi con altri protoni. Non sempre la fusione avviene e l’energia ricevuta viene riemessa per essere catturata da altri protoni, meno quella spesa nel tentativo di fondersi, è ovvio.
E così, con un lento processo di assorbimento e riemissione che può durare anche 15 milioni di anni, pian pianino i fotoni prodotti da quella lontana fusione raggiungono la superficie del Sole, stremati e spenti da quella fatica che è costata loro quasi tutta la loro energia 1.
Ma la loro strada non è ancora finita. Finalmente liberi dalla densa materia del Sole si tuffano giù in un’ultima folle corsa che dura poco più di 8 dei nostri minuti e si infrangono sotto i miei occhi sull’altare della Basilica di San Pietro, dopo aver attraversato le vetrate orientali della chiesa.

Sapere la natura del raggio di luce, come è nato e quando, comprendere la dualità onda-particella dei fotoni, la sua energia e tutto il resto, non svilisce la maestosità della scena che ho visto accadere sotto i miei occhi. Al contrario, me l’ha resa più bella e misteriosa nel suo accadere.
Tutta la scienza possibile può aiutarmi a comprendere come avvengono le cose che mi circondano; il perché io le possa osservare, no.

Buon Natale


Note:

 

L’oscura origine della Luna (II parte)

Dee pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

Due pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

È chiaro a chiunque che la Terra e la Luna siano diverse, non solo nelle dimensioni.
Il nucleo della Terra è composto soprattutto di ferro e occupa circa il 30% della sua massa, mentre quello della Luna è proporzionalmente molto più piccolo: appena un decimo della massa del satellite è costituito dal ferro e il suo nucleo rappresenta solo il 20% circa delle sue dimensioni. Inoltre la scarsità di elementi piuttosto volatili come il potassio nella composizione chimica indicano che probabilmente la Luna si è formata in un ambiente piuttosto caldo dove questi siano evaporati.
Eppure i campioni di suolo riportati dalle missioni Apollo mostrano che i silicati terrestri e lunari sono virtualmente identici: i rapporti isotopici di elementi come l’ossigeno [cite]http://www.ncbi.nlm.nih.gov/pubmed/11598294[/cite], il cromo e il silicio sono gli stessi, indicando pertanto una origine comune per la crosta e il mantello superiore della Terra con la Luna [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403[/cite] [cite]http://dx.doi.org/10.1038/ngeo1429[/cite].
Di pari passo, lo studio del campo gravitazionale della Luna per merito della misssione Gravity Recovery and Interior Laboratory (GRAIL) della NASA, combinato con i dati topografici prodotti dal Lunar Reconnaissance Orbiter sempre della NASA, hanno ridimensionato lo spessore della crosta della Luna e la sua percentuale relativa di alluminio. Anche questi dati suggeriscono che la percentuale di metalli con alte temperature di condensazione  sia la stessa su entrambi i corpi celesti.
Tutti questi dati fisici mostrano che la Luna e il mantello superiore terrestre si siano originati insieme, quindi o la Luna si è staccata dal mantello terrestre ancora fluido oppure l’opposto, il mantello e la Luna si sono generati con lo stesso materiale in un ambiente estremamente caldo che, nel caso della Luna,  ha conservato solo i materiali più refrattari e fatto evaporare gli altri.

Una giornata memorabile

Ormai si vedeva a occhio nudo quando si apriva uno squarcio nella giusta direzione tra le perenni nubi di vapore e metano che uscivano copiose dalla roccia. Dapprima era come una macchiolina nel cielo, tanti giorni fa, e adesso, dopo essere stata grande come una moneta occupava minacciosa più di metà del cielo a occidente. Toglieva  il respiro, sembrava quasi che cascasse dal cielo. E così fu. Nel giro di appena un’ora almeno metà del globo fuse e venne scagliato a 25000 chilometri di quota mentre il nucleo di ferro rovente del piccolo mondo era rimbalzato nell’urto e stava per crollare di nuovo. Dopo cinque ore tutta la crosta e il mantello del mondo era fuso, mentre tutta l’atmosfera venne spazzata via. Un quarto del piccolo mondo si vaporizzò nell’impatto mentre questo pianeta iniziò a ruotare su sé stesso all’impazzata: un giro in appena 5 ore! Dopo poche altre ore il materiale  che non era ancora ricaduto sulla nuova Terra formò un anello instabile di detriti  in orbita  che nell’arco di un centinaio d’anni avrebbe poi generato la Luna.

Nel 1975 William K. Hartmann e Donald R. Davis proposero la teoria dell’Impatto Gigante riprendendo l’idea originale del geologo canadese Reginald Aldworth Daly proposta nel 1946.
Questa teoria riesce abbastanza bene a tener conto di molte delle similitudini che ho elencato qui sopra, del momento angolare totale del sistema Terra – Luna, e anche delle divergenze più importanti, come l’estrema scarsità degli elementi chimici più volatili della Luna rispetto alla Terra.
Ma solo recentemente è stato potuto studiarla in dettaglio grazie alle simulazioni computerizzate [cite]http://www.nature.com/nature/journal/v412/n6848/abs/412708a0.html[/cite].
Gli scenari che portano alla formazione della Luna richiedono la presenza di due pianeti formatisi sui punti lagrangiani di  una stessa orbita, uno con una massa simile a quella attuale del nostro pianeta, la proto-Terra, e un altro più piccolo, grande più o meno come Marte come dimensioni e massa, che gli scienziati hanno battezzato Theia.
Il gigante Giove destabilizza l’orbita dei due pianeti che nell’arco di 50 milioni di anni finiscono per scontrarsi con un angolo di 45 gradi rispetto alla proto-Terra a una velocità relativa piuttosto bassa, inferiore a 4 km/s. 1. Il risultato dello scontro è che fino a un quarto di Theia si vaporizza nell’impatto e la primordiale atmosfera della proto-Terra viene dispersa, mentre almeno il 20% della massa dei due pianeti si disperde in un anello incandescente attorno ai 4 raggi terrestri, poco fuori al limite di Roche.
La maggior parte del materiale eiettato e il nucleo ferroso di Theia ricade sulla proto-Terra nelle ore successive all’impatto, invece una minuscola frazione della massa del disco originale, il 6%, rimane in orbita, e nel giro di un secolo dà origine a più corpi distinti che poi si uniranno per creare la Luna 2.

I meriti di questa teoria sono molti. In primis riesce a spiegare tutte le similitudini isotopiche riscontrate tra le rocce terrestri e lunari:  l’anello successivo all’impatto ha mescolato il materiale di Theia e della proto-Terra rendendo di fatto indistinguibile ogni differenza. Il calore sprigionato nell’impatto e trasferito all’anello ha alterato di poco la composizione chimica di questo nelle poche ore prima che ricadesse sulla Terra, mentre quello rimasto in orbita ha avuto più tempo per perdere gli elementi più volatili, forse anche grazie all’azione del vento solare e al bombardamento dei raggi cosmici che ne hanno in parte modificato la composizione chimica [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403 [/cite].
Infine, riesce a spiegare il notevole momento angolare complessivo del sistema Terra-Luna, parametro che ogni modello deve riuscire a spiegare.

Una delle obiezioni principali a questo modello è che la composizione di Theia porta con sé percentuali isotopiche diverse da quelle della Terra 3, e tracce di questa differenza dovrebbero essere ancora visibili.
Secondo me no, sia la proto-Terra che Theia si formarono alla stessa distanza dal Sole, quindi la differenza isotopica dei vari elementi deve essere stata nulla o quasi, tanto da non essere oggi significativamente rilevabile.
In seguito, il degassamento tardivo del mantello e della crosta ha ricreato una primitiva atmosfera, forse un po’ più sottile rispetto alla prima, mentre il bombardamento cometario proveniente dalla fascia di Kuiper [cite]http://ilpoliedrico.com/2011/10/oceani-di-comete.html[/cite] avrebbe portato acqua e sostanze organiche che poi si sarebbero evolute in esseri viventi [cite]http://tuttidentro.wordpress.com/2013/12/17/come-gli-impatti-meteoritici-e-cometari-hanno-portato-la-vita-sulla-terra[/cite] sulla nuova Terra..
L’azione mareale del nuovo satellite combinata a quella del Sole avrebbe poi rallentato la Terra fino alle attuali 24 ore, mentre l’orbita della Luna sarebbe passata da 30000 chilometri a 384000 nei successivi 4,5 miliardi di anni.,