Rielaborazione del concetto di Buco Nero

[latexpage]

Riuscire ad immaginare oggi un buco nero non è difficile, anzi. La fantascienza del XX secolo e il cinema hanno reso i buchi neri talmente familiari quasi da distorcerne il significato. Per la fisica invece sono semplicemente delle regioni di spazio dove materia – o energia – è collassata oltre una certa densità critica, dove la velocità di fuga supera anche la velocità della luce. Tutto quello che è o finisce all’interno di questa regione di spazio si suppone converga verso una singolarità, ovvero un punto geometrico di densità infinita, questo almeno per la meccanica relativistica. Il confine tra questa regione di spazio collassato e il resto dell’universo si chiama orizzonte degli eventi, sede di tutta una serie di bizzarri fenomeni quantistici ancora lungi dall’essere pienamente compresi.

La storia dei buchi neri

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Il concetto di buco nero nacque molto prima della Relatività Generale. Verso la fine dell’Settecento, quando la Meccanica di Newton sembrava fosse in grado di spiegare la gravità, all’astronomo inglese John Michell (che per primo fornì un’accurata misura della costante gravitazionale) e, successivamente, il marchese Pierre-Simon Laplace, uno dei più grandi scienziati del periodo napoleonico,  ebbero indipendentemente l’idea che potessero esistere corpi celesti con una velocità di fuga superiore a quella della luce. In particolare si chiesero quale potesse essere il raggio $R$ di una stella di massa $M$ fissata la cui velocità di fuga fosse pari a quella della luce $c$ 1.

Tenendo conto della legge di conservazione dell’energia meccanica totale, si ricava: \[ \frac{1}{2} mv_f^2-G \frac{mM}{R}=0 \]

Da qui si può di conseguenza ricavare la velocità di fuga $v_f$: \[ v_f=\sqrt{\frac{2GM}{R}} \]

Dove $G$ e’ la costante di gravitazione universale. In questa formula il raggio $R$ della stella si trova al denominatore. Questo significa che se la massa della stella rimane costante mentre il suo raggio diminuisce (dato che la stella si contrae) la velocità di fuga aumenta. Con il diminuire del raggio, la velocità di fuga può aumentare fino a superare la velocità della luce nel vuoto $c$. Dato che secondo la relatività generale, niente può avere una velocità superiore a questo valore, è impossibile che un qualsiasi oggetto, anche un raggio di luce, possa allontanarsi da questa stella. Il valore critico del raggio $R$ per il quale la velocità di fuga diventa uguale alla velocità della luce nel vuoto lo calcolò esattamente nel 1916 Karl Schwarzschild, da cui ha preso il nome. Imponendo allora $v_f = c$ e $R = R_S$, si ricava:

\[ c^2=\frac {2GM}{R_S}

\]

da cui: \[ R_S=\frac{2GM}{c^2} \]

Queste stelle all’inizio vennero chiamate dark star, ma in seguito allo sviluppo della teoria ondulatoria e corpuscolare della luce il loro studio viene abbandonato quasi subito. Infatti la teoria ondulatoria e corpuscolare della luce stabilisce che i fotoni abbiano una massa nulla, quindi, secondo la teoria di Newton i fotoni non possono risentire dell’attrazione di alcuna stella, dunque le dark star non possono esistere.

Poi nel XX secolo la teoria dei buchi neri riaccese l’interesse degli scienziati, in seguito allo sviluppo di due potenti teorie che avrebbero riscritto la fisica macroscopica classica, la Relatività Ristretta e la Relatività Generale, e la fisica delle particelle, la Meccanica Quantistica. A questo punto, giusto per non generare equivoci, è bene sottolineare che col termine buco nero si intende una regione di spazio collassato su sé stesso. Quella parte di spazio ancora accessibile allo studio si chiama orizzonte degli eventi, sede di tutta una serie di fenomeni bizzarri che vanno dall’emissione spontanea di particelle (Radiazione di Hawking) fino a fenomeni di dilatazione temporale. La parte a noi sconosciuta e – per adesso – inconoscibile, è quello che rimane dell’oggetto (materia o radiazione) che ha prodotto lo spazio collassato: per la relatività generale è un punto geometrico di densità infinita chiamato singolarità. Dato che secondo la relatività generale niente può viaggiare più veloce della luce, dai buchi neri non sarebbe dovuto sfuggire niente, nemmeno un briciolo di radiazione termica. Per questa ragione all’inizio si era creduto che la temperatura dell’orizzonte degli eventi pari a zero Kelvin (ossia allo zero assoluto, $-273,15$ gradi centigradi). Questo assunto però era in contrasto con uno dei mostri sacri della fisica: il secondo principio della termodinamica.

Non importa se l'osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Non importa se l’osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Karl Schwarzschild, risolvendo le equazioni di Einstein (il campo gravitazionale è determinato dalla distribuzione di materia e dice alla materia come muoversi) in un caso molto particolare di perfetta simmetria sferica dello spazio-tempo, trovò una coincidenza molto interessante con la teoria newtoniana: se una stella di massa $M$ si contrae fino al raggio di Schwarzschild, il tempo sulla sua superficie si ferma e la luce che parte da quest’ultima subite un redshift infinito per cui non può raggiungere nessun osservatore al di fuori della stella. Cosa succede se il raggio della stella diventasse ancora più piccolo è ancora tema di dibattito. La relatività generale di Einstein non pone limiti al collasso della materia verso un punto di densità infinita. Per questo caso venne coniato il termine di singolarità di Schwarzschild, ma questa ipotesi fu accolta con grande scetticismo dalla comunità scientifica, oltre che dallo stesso Schwarzschild, convinti del fatto che la natura avrebbe trovato un modo per impedire simile ipotesi Grazie a una maggiore conoscenza e comprensione dei fenomeni fisici che avvengono all’interno delle stelle, tra gli anni Trenta e Cinquanta si arrivò alla conclusione che  l’ipotesi della singolarità era reale e che la relatività generale non aveva alcun problema con la materia concentrata entro il raggio di Schwarzschild, anzi essa era in grado di spiegare chiaramente cosa succedeva fino all’orizzonte degli eventi: materia e luce intrappolate al suo interno e senza possibilità alcuna di uscire: una regione dello spazio-tempo che non può comunicare con il resto dell’universo. Il termine buco nero venne introdotto da Wheeler alla fine degli anni Sessanta, quando l’importanza fisica di tali oggetti era oramai chiara alla maggior parte dei fisici teorici e a gran parte degli astrofisici. Molti furono gli esperimenti compiuti per la ricerca di buchi neri e in effetti i telescopi furono in grado di rilevare dei candidati sempre più promettenti, anche se ancora oggi l’osservazione certa di un buco nero non sia stata confermata in modo assoluto. Ma sono rimasti in pochi a dubitare della loro esistenza. Negli stessi anni gli strumenti matematici impiegati dalla relatività generale furono notevolmente ampliati, comprendendo meglio i limiti di tale teoria. Le equazioni di Einstein vennero risolte sotto ipotesi meno restrittive di quelle di Schwarzschild insieme ad altri risultati. Grazie al contributo di numerosi teorici della relatività generale emersero quattro leggi fondamentali che regolano la meccanica dei buchi neri e presentano una straordinaria somiglianza formale con i principi della termodinamica. Inizialmente tale somiglianza venne considerata una pura coincidenza, a causa di evidenti incompatibilità tra le variabili che determinano la meccanica di un buco nero e le variabili termodinamiche a cui dovrebbero corrispondere.

La termodinamica dei buchi neri

Secondo Hawking non vi è alcun pericolo di perdere la popolazione di buchi neri nel nostro universo. Attualmente   la radiazione di Hawking avrebbe un effetto rilevante solo sui buchi neri di piccola massa. 2. Questo perché la temperatura di un buco nero, cioè la radiazione di Hawking che emette il suo orizzonte degli eventi, deve superare la materia e l’energia che intercetta. Dato che la temperatura di un buco nero è inversamente proporzionale alla sua massa, allora con l’aumentare della massa la quantità di energia che riesce ad emettere diminuisce.
In questo modo, i buchi neri più massicci di quel limite, nati dal collasso di stelle  massicce 3 4, presentano un’emissione di energia piuttosto bassa. E dato che ricevono continuamente luce dalle stelle, dalla radiazione cosmica di fondo e dalla materia che vi cade, è evidente che tali buchi neri non cessano di crescere.
Sarà solo quando in una data imprecisata nel futuro tutte le stelle si saranno spente, la poca materia ancora rimasta in un universo ormai freddo si troverà al di là  della portata dei più grandi buchi neri ; quando la temperatura dell’universo sara’ inferiore a quella della radiazione di Hawking dei buchi neri neri che questi evaporeranno.

Nel 1974 il matematico inglese Stephen Hawking provò ad applicare la Meccanica Quantistica al concetto previsto dalla Relatività Generale conosciuto come Buco Nero. Questo dimostrò come i buchi neri non siano realmente neri, ma che emettano una temperatura di corpo nero inversamente proporzionale alla loro massa 5 6 [cite]10.1103/PhysRevD.23.287[/cite].

Il meccanismo della radiazione di Hawking introduce un paradosso insidioso e di difficile soluzione: la conservazione dell’informazione all’interno di un Buco Nero.

Detta così appare terribile, ma per la relatività generale non importa se la materia originale del buco nero sia materia o antimateria, di carica elettrica o  di un sapore quantico particolare, potrebbe essere un astronauta, un libro o l’intera vostra collezione di CD; di tutto quello che supera l’orizzonte degli eventi se ne perde traccia e la radiazione di Hawking che ne esce non  contiene alcuna informazione che consenta di risalire a ciò che era prima. Per la meccanica quantistica, lo stato di un sistema in qualsiasi momento è descritto da una funzione d’onda. Per la loro natura casuale, le particelle che compongono la radiazione di Hawking non hanno una funzione d’onda definita, ma solo una matrice di densità. Questo significa che la radiazione ha molte funzioni d’onda possibili, con una certa probabilità distribuita tra le particelle. Oltre all’incertezza usuale tipica della meccanica quantistica, nella radiazione si inserisce anche l’incertezza della funzione d’onda delle singole particelle: l’informazione è stata distrutta. Come Hawking ebbe a dire in proposito: “Non solo Dio gioca a dadi, ma a volte ci confonde gettandoli là dove non possono essere visti“.

buco neroAl contrario, per la meccanica quantistica l’informazione non può essere distrutta. Qui ogni stato quantico di un insieme di due o più sistemi fisici, virtuali o reali,  dipende dallo stato di quando ciascun sistema viene creato e si mantiene anche quando i singoli componenti dello stesso sistema sono spazialmente separati. Questo significa che se a una delle due particelle create insieme (un esempio classico sono un fascio di fotoni) viene imposto un particolare stato di polarizzazione esso si trasmette istantaneamente anche all’altra particella, senza alcuna limitazione spaziale 7. Quindi ogni modifica dello stato di una delle due particelle (o quella che cade oltre l’orizzonte degli eventi o quella che sfugge dal buco nero) si ripercuote anche sull’altra trasferendo informazione in un senso o nell’altro. Per comprendere meglio questo concetto è opportuno fare ricorso a un  gedankenexperiment, un esperimento ideale tanto caro alla fisica teorica. Supponiamo due particelle entangled con spin $\nwarrow \hspace{0.75in} \nwarrow$ in prossimità dell’orizzonte degli eventi e una delle due cade nel buco nero mentre l’altra sfugge. Per il principio di equivalenza alla particella che cade non succede niente di particolare: lo spin $\nwarrow$ finisce oltre l’orizzonte degli eventi senza problemi. Ora all’esterno c’è una particella con spin $\nwarrow$ uguale a quella caduta all’interno, imbrigliata con questa; qualsiasi cambiamento di stato che una delle due subisce, si riflette istantaneamente attraverso l’orizzonte degli eventi.

È evidente che questo è il nodo centrale di tutta la discussione: o si rinuncia alla trasmissione dello stato quantico delle particelle che oltrepassano l’orizzonte degli eventi oppure si rinuncia alla casualità della radiazione di Hawking. Un modo elegante per uscire da questa impasse consiste nel congelare l’informazione – e la rispettiva particella – proprio sull’orizzonte degli eventi, interrompendo così anche l’azione di entanglement che trasporta l’informazione di stato all’esterno. In questo modo, tutta l’informazione che precipita in un buco nero rimane congelata sul suo orizzonte degli eventi.

l’Effetto Unruh e il Principio Olografico

Per il Principio Olografico l'informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell'acqua si proiettano nei giochi di luce sul fondo di una piscina.,

Per il Principio Olografico l’informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell’acqua si proiettano nei giochi di luce sul fondo di una piscina.

Nel 1993, Lenny Susskind ed altri [cite]http://arxiv.org/abs/hep-th/9306069[/cite][cite]http://arxiv.org/abs/hep-th/9308100[/cite] provano a definire una situazione non locale che non comprenda una perdita delle informazioni 8[cite]http://prd.aps.org/abstract/PRD/v14/i4/p870_1[/cite][cite]http://arxiv.org/abs/0710.5373[/cite]. Qui l’orizzonte degli eventi appare come una matrice di celle delle dimensioni di Plank, dove le informazioni di stato di ciò che cade nel buco nero vengono assorbite, mentre per il solito osservatore lontano pare che siano perse. Quindi i fenomeni entanglement non scompaiono ma vengono congelati sull’orizzonte degli eventi e l’informazione in realtà non è andata persa. Questa nuova interpretazione che voleva un orizzonte degli eventi caldo, all’inizio non era poi tanto convincente fino a che nel campo delle teorie quantistiche non apparvero le teorie delle stringhe e la teoria M, che avevano lo scopo di riunificare la meccanica quantistica con la gravità. Qui il contributo del fisico argentino Juan Maldacena fu determinante per comprendere meglio cos’è questo nuovo aspetto dell’orizzonte degli eventi caldo [cite]http://arxiv.org/abs/hep-th/9711200[/cite]. Anche alla luce della corrispondenza fra Spazio Anti de Sitter e Teoria di campo conforme (AdS / CFT) i risultati sono analoghi ai precedenti. Qui l’orizzonte degli eventi viene visto come un ologramma, una superficie che contiene tutte le informazione del buco nero 9. Così la corrispondenza AdS / CFT risolve, almeno in una certa misura, il paradosso dell’informazione dei buchi neri, mostrando come un buco nero possa evolvere coerente alla meccanica quantistica, senza alcuna perdita di informazioni.

Le ultime proposte di Hawking

black-hole-wallpaper-hdNella sua ultima opera Hawking [cite]http://arxiv.org/abs/1401.5761[/cite] avanza delle critiche al concetto di firewall (come è stato ribattezzato l’effetto Unruh  presso l’orizzonte degli eventi) trovando almeno tre grandi obiezioni a questo costrutto. Ha suggerito che occorre un cambio di passo (quello sì reale) nel modo di concepire i buchi neri pensandoli come oggetti finiti nel tempo, anche se lontanissimo, piuttosto che eterni e immutabili come spesso fatto finora. In quest’ottica anche il costrutto matematico che conosciamo come orizzonte degli eventi e descritto da Schwarzschild cambia di significato: è solo un limite del campo gravitazionale destinato a cambiare nel tempo, quindi si può definire come metastabile. Per questo Hawking lo definisce apparente, perché così appare all’osservatore per un tempo $T$. In questa nuova interpretazione il principio di unitarietà rimane intatto. La metrica di Kerr che può essere usata per descrivere un collasso di un buco nero reale indica che lo spazio oltre l’orizzonte degli eventi è essenzialmente caotico, quindi non occorre ricorrere al teorema olografico (e al firewall) per preservare l’informazione: questa passa nella radiazione di Hawking, ma talmente confusa da essere irriconoscibile. In questo modo  la radiazione non appare più essere casuale come finora si era creduto, ma talmente caotica da sembrare tale.

Quindi interpretare il pensiero di Hawking che chiede un nuovo approccio sui buchi neri come un rifiuto a  questi è solo buttarla in caciara. I buchi esattamente neri non lo sono mai stati, e lo si sapeva dal 1974. Adesso sappiamo che l’orizzonte eventuale dura solo un tempo finito, e anche questa appare come la scoperta dell’acqua calda.


Note:

Altri tasselli al puzzle della massa barionica mancante.

Il quasar UM 287 illumina la più grande nube di gas mai vista nell'Universo.

Il quasar UM 287 illumina la più grande nube di gas mai vista nell’Universo.
Credit: Nature

Oltre che la genesi e l’evoluzione, l’attuale  Modello Cosmologico Standard riesce ad indicare con discreta precisione anche la composizione dell’Universo 1 [cite]http://www.einstein-online.info/spotlights/BBN[/cite].
Nel 1933 l’astrofisico svizzero Fritz Zwicky, dimostrò una importante discrepanza tra la materia visibile e la massa misurata dell’ammasso di galassie della  Chioma 2.
Quello fu solo il primo dei tanti indizi che indicavano un’importante discrepanza tra le stime teoriche basate su leggi matematiche consistenti e i dati osservati.
Purtroppo almeno la metà della materia barionica prevista teoricamente finora è apparsa sfuggire da ogni tecnica di rilevazione diretta 3 4.

Tempo fa illustrai in queste stesse pagine [cite]http://ilpoliedrico.com/2012/09/la-materia-oscura-forse-solo-una-bolla.html[/cite] che enormi bolle di gas caldo (attorno a 1 – 2 milioni di kelvin) circondano le galassie. La massa complessiva di queste bolle è paragonabile a quello attualmente stimato per le galassie al loro centro.
Adesso altri recenti studi [cite]http://pa.as.uky.edu/circumgalactic-medium-and-galaxy-missing-baryon-problem[/cite] hanno rivelato che gli aloni galattici contengono anche una forma di gas molto più freddo (10.000° kelvin).
Gas così freddi non sono direttamente visibili ai telescopi 5 ma  alcuni aloni di questi aloni è stato possibile individuarli grazie all’impronta lasciata sulla luce di lontani quasar che li attraversano.

Il 7 gennaio scorso all’American Astronomical Society è stato presentato uno studio svolto sulla luce proveniente da diversi quasar posti accanto ad altre galassie in primo piano ripresi dal Telescopio Spaziale Hubble. Gli spettri di alcuni di questi oggetti hanno mostrato la presenza di significative quantità di carbonio, silicio e magnesio insieme alla presenza rivelatrice di tracce di idrogeno neutro (H I). Secondo i ricercatori, questo indica la presenza di aloni di gas relativamente freddo che circondano le galassie osservate attraverso la luce dei quasar. Aloni di materiale circumgalattico  freddo che possono contenere importanti quantità (dalle 10 alle 100 volte superiori di quanto finora stimato) di materia ancora nascosta e non conteggiata nelle stime della massa barionica mancante. Il team che ha realizzato questo studio è guidato da  Jessica Werk, astrofisica, dell’Università della California.

Questa sezione grande 10 milioni di anni luce simulazione del primordiale mostra come la materia si fonde in galassie collegate da filamenti di gas rarefatto. Credit: Nature

Una simulazione  del gas primordiale grande 10 milioni di anni luce  mostra come la materia riesce a fondersi in galassie collegate da filamenti di gas rarefatto.
Credit: Nature

All’incirca stessa tecnica è stata usata per osservare la più grande nube di gas conosciuta nell’Universo [cite]2014.14550[/cite]. Questa nebulosa pare essere uno dei filamenti di materia a grande scala del cosmo. Potrebbe essere la prima immagine diretta della ragnatela cosmica che pervade tutto l’Universo.
Gli autori di quest’altra scoperta sono gli astronomi Sebastiano Cantalupo e Xavier Prochaska anche loro dell’Università della California, Santa Cruz, che hanno usato il Keck Observatory, posto sulla cima del vulcano Mauna Kea alle Hawaii. Le immagini mostrano una nube di gas grande 460.000 parsec (1,5 milioni di anni luce) di lunghezza.
Sempre per il Modello Cosmologico Standard, prima della formazione delle galassie, L’Universo conteneva gas primordiale frutto della bariogenesi che disaccoppiò la materia dall’energia e che vide questa prevalere sull’antimateria e materia oscura. La materia oscura, predominante sulla materia barionica ordinaria, si addensò poi in estesi aloni gravitazionali in cui la materia ordinaria sarebbe poi finita per creare le galassie.
Ma come mostrano anche le simulazioni, non tutta la materia, sia la barionica che quella oscura, è finita per creare le galassie. Anzi, molta di questa avrebbe finito per creare la ragnatela tridimensionale che pervade il cosmo che collega tutte le galassie.
In effetti i ricercatori hanno trovato prove dell’esistenza di questi filamenti chiamati WHIM (Warm-Hot Intergalactic Medium), ovvero mezzo intergalattico caldo [cite]http://ilpoliedrico.com/2013/05/il-mistero-dei-barioni-mancanti.html[/cite].

Tutte queste nuove forme di materia -barionica – finora inosservate possono essere la risposta al dilemma della massa barionica mancante? forse è presto per dirlo ma credo di sì. Questa sarebbe un’altra prova della bontà del Modello Cosmologico Standard.


 

Note:

Gemini Planet Imager: alla ricerca di nuovi pianeti

light scattered by a disk of dust orbiting the young star HR4796A

L’immagine della “prima luce” del Gemini Planet Imager (GPI) della luce scatterata da un disco di polvere che orbita attorno alla giovane stella HR4796A. Si fa l’ipotesi che l’anello piu’ piccolo ed interno sia formato di polvere di origine asteroidale e cometaria durante la formazione planetaria, quelli che vengono definiti planetesimi. Alcuni scienziati hanno anche ipotizzato che il bordo ben definito dell’anerllo sia dato dalla presenza di un pianeta (ancora non individuato). L’immagine di sinistra (1,9-2,1 micron) mostra la luce nel visibile tra cui entrambi gli anelli di polvere e la luce residua dalla stella centrale scatterata dalla turbolenza dell’atmosfera terrestre. L’immagine di destra mostra solo la luce polarizzata. La luce dal bordo posteriore del disco e’ fortemente polarizzata in quando viene scatterata verso di noi. Immagine in grandi dimensioni disponibile qui . Crediti: Processing by Marshall Perrin, Space Telescope Science Institute.

 

 

Dopo quasi un decennio di sviluppo, costruzione e di collaudi lo strumento piu’ sofisticato al mondo per il direct imaging (immagine diretta) e per lo studio di pianeti extrasolari attorno ad altre stelle viene puntato verso il cielo per raccogliere e studiare la luce di questi mondi lontani.

Lo strumento, denominato Gemini Planet Imager (GPI) e’ stato progettato, costruito e ottimizzato per l’imaging di pianeti deboli attorno a stelle molto brillanti e per analizzarne le loro atmosfere. Sara’ pure un ottimo strumento per studiare i dischi di formazione planetaria ricchi di polvere intorno a giovani stelle. E’ lo strumento piu’ avanzato del suo genere che viene montato su uno dei telescopi piu’ grandi al mondo, il Gemini South Telescope di 8 metri, in Cile.

“Le immagini della prima luce del telescopio sono almeno un fattore 10 migliori di quelle degli strumenti di generazione precedente. In un minuto osserviamo pianeti per i quali di solito ci si impiega un’ora per la loro rivelazione” ha affermato Bruce Macintosh del lawrence Kivermore National Laboratory che ha guidato il team dei costruttori dello strumento.

GPI rivela la radiazione infrarossa dai giovani pianeti di tipo gioviano che orbitano a grande distanza dalla stella madre (e quindi hanno orbite piuttosto ampie), quelli che possono essere confrontati con i pianeti giganti gassosi nel nostro Sistema Solare non molto tempo dopo la loro formazione. Ogni pianeta che GPI osserva puo’ venir studiato in grande dettaglio.

“La maggior parte dei pianeti che oggi conosciamo sono noti grazie ai metodi indiretti che ci permettono di dire se c’e’ o meno un pianeta, ci permettono di dire qualcosa sulla sua orbita e sulla massa, ma non molto di piu'” ha affermato Macintosh. “Con GPI fotografiamo direttamente i pianeti attorno alle loro stelle – e’ un po’ come essere in grado di sezionare il sistema e di scavare dentro alle caratteristiche dell’atmosfera del pianeta”.

GPI ha compiuto le sue prime osservazioni lo scorso novembre, durante un debutto senza problemi. Si tratta di uno straordinario e complesso strumento astronomico delle dimensioni di una piccola automobile. “Questa e’ stata una delle run di prima luce piu’ lisce che abbia mai visto” ha affermato Stephen Goodsell, che gestisce il progetto per l’osservatorio.

Per le prime osservazioni di GPI il team di ricercatori ha preso come target dei sistemi planetari ben noti, tra cui il sistema di Beta Pictoris. GPI ha ottenuto il primo spettro del giovane pianeta, Beta Pictoris b. Allo stesso e’ stato utilizzato il modo di polarizzazione dello strumento, che permette di rilevare la luce della stella scatterata da particelle sottile, per studiare l’anello debole di polvere che orbita attorno alla giovane stella HR4796A. Con la strumentazione precedente era stato possibile osservare solo i bordi di questo anelli di polvere, che potrebbero essere i detriti che rimangono dalla formazione planetaria, con con questo numero strumento si puo’ osservare l’intera circonferenza dell’anello.

Anche se GPI e’ stato progettato per l’osservazione di pianeti lontani, e’ possibile utilizzarlo per osservare oggetti nel nostro Sistema Solare, e quindi molto vicini.

Europa_Gemini Planet Imager

Confronto di Europa osservato con il Gemini Planet Imager nella banda K1 a destra e immagine composita ottenuta dalla Galileo SSI e Voyager 1 e 2 (USGS), sulla sinistra. Sebbene GPI non sia stato progettato per oggetti estesi come un satellite, le sue osservazioni potrebbero aiutare nel trovare delle alterazioni superficiali dei satelliti gioviani ghiacciati oppure fenomeni atmosferici (come la formazione di nubi) sulla luna di Saturno, Titano. L’immagine nel vicino infrarosso a colori di GPI e’ una combinazione di tre differenti lunghezze d’onda. Crediti: Processing by Marshall Perrin, Space Telescope Science Institute and Franck Marchis SETI Institute.

Le immagini test della luna Europa di Giove, per esempio, possono permettere di mappare i cambiamenti della composizione superficiale del satellite. Le immagini qui sotto sono state presentate per la prima volta durante il 22esimo Meeting dell’American Astronomical Society a Washington DC.

“Osservare un pianeta vicino ad una stella in appena un minuto e’ sicuramente da brivido e l’abbiamo visto dopo una sola settimana che lo strumento e’ stato posizionato sul telescopio” ha affermato Fredrik Rantakyro, scienziato che fa parte dello staff di Gemini e che lavora sullo strumento. “Immaginate cosa sara’ in grado di fare questo strumento una volta che avremo completato e ottimizzato le sue prestazioni”.

“I pianeti extrrasolari sono estremamente deboli e difficili da rilevare accanto ad una stella luminosa” ha notato il Professor James R. Graham, Chied Scientist Professor dell’Universit’ della California che ha lavorato con Macintosh sin dall’inizio del progetto. GPI puo’ vedere i pianeti che hanno una luminosita’  un milione di volte piu’ debole di quella della loro stella. Spesso si descrive questo fenomeno come l’osservare una lucciola volteggiare attorno ad un lampione a migliaia di chilometri di distanza dall’osservatore. Gli strumenti utilizzati per individuare gli esopianeti devono essere progettati e costruiti con estrema precisione. GPI rappresenta un risultato tecnico estremamente incredibile per il team internazionale di ricercatori che hanno ideato, progettato e costruito lo strumento. Notevoli sono anche le capacita’ del telescopio Gemini.

Dopo anni di sviluppo e di test di simulazione e’ sicuramente uno dei traguardi piu’ ambiziosi nello studio della ricerca di esopianeti. Quest’anno il team di GPI iniziera’ una survey a grande campo considerando ben 600 stelle giovani alla ricerca di quanti pianeti giganti orbitano attorno ad esse. GPI verra’ utilizzato anche per altri progetti all’interno della comunita’ Gemini, progetti che vanno dalla formazione di dischi planetari all’emissione di polvere da stelle massicce nelle loro fasi finali evolutive.

GPI scruta il cielo attraverso l’atmosfera terrrestre e quindi attraverso la turbolenza atmosferica del nostro pianeta, ma grazie all’ottica adattiva avanzata lo strumento sara’ in grado di vedere pianeti delle dimensioni di Giove. Una simile tecnologia sta per essere proposta anche per i futuri telescopi spaziali.

Fonte Gemini Telescope – World’s most powerful exoplanet camera turns its eye to the sky

Sabrina

Le prime luci di Gaia

Il punto lagrangiano L2, dove orbita l'osservatorio spaziale Gaia. Credit: Wikipedia

Il punto lagrangiano L2, dove orbita l’osservatorio spaziale Gaia.
Credit: Wikipedia

Il 19 dicembre 2013 un vettore Soyuz ST-B/Fregat-MT 1 partito dallo spazioporto di Kourou (Guiana Francese), ha lanciato nello spazio Gaia 2, l’erede della fortunata missione Hipparcos (1989 – 1993).
Il 7 gennaio scorso il satellite Gaia ha finalmente raggiunto il punto lagrangiano L2, del sistema Terra-Sole, un’ottima, anche se affollata 3, finestra verso lo spazio. Il punto lagrangiano L2 è stato scelto per la sua  stabilità ‘orbitale 4 e perché offre una schermatura quasi totale alla radiazione solare grazie al cono d’ombra della Terra 5.

La prima luce di Gaia. α Aquarii. Credit: ESA/Gaia

La prima luce di Gaia. α Aquarii.
Credit: ESA/Gaia

Il 15 gennaio Gaia ha trasmesso la sua prima immagine pubblica: Il bersaglio scelto era Sadalmelik, una supergigante gialla distante 161 parsec (525 anni luce) conosciuta anche come α Aquarii.
L’immagine non era ancora perfettamente a fuoco, e anche tutti gli altri strumenti hanno bisogno di essere calibrati prima di diventare pienamente operativi. Ma già il 9 gennaio, quindi poco dopo aver raggiunto la sua orbita operativa, aveva dato un piccolo assaggio delle sue capacità mostrando di riuscire a vedere ben 17000 stelle in sole tre ore. Gaia sta dimostrando di essere un ottimo osservatorio.

Gaia si propone di compilare un catalogo tridimensionale dello spazio di circa un miliardo di oggetti astronomici della Via Lattea cercando anche di evidenziare così anche il loro moto. Si spera a questo modo di comprendere meglio la struttura della nostra galassia e la sua evoluzione futura.
Le misure spettrofotometriche di Gaia forniranno le proprietà fisiche dettagliate di ogni stella osservata 6, la loro luminosità assoluta 7, la temperatura effettiva , la gravità e  la composizione.

Come Hipparcos prima di lei, Gaia rivoluzionerà le nostre conoscenze del nostro angolo di cosmo. Studierà anche altre galassie e quasar, scoprirà un sacco di altri sistemi planetari extrasolari e darà la possibilità di confermare gli altri già identificati dagli osservatori a terra. Sarà un vero coltellino svizzero, anzi europeo, del cosmo nelle mani degli scienziati.


Note:

La caratterizzazione delle Super-Terre: Il ciclo geologico del carbonio

[latexpage]

Se credi che una certa cosa possa essere improbabile, almeno cerca di togliere l’impossibile e forse quello che ne rimane è potenzialmente vero.
Se un giorno riuscissimo a scoprire un’altra Terra, è altamente improbabile che questa presenti uno stadio evolutivo simile al nostro. La Terra è infatti ben lontana dall’essere un sistema statico fin dal momento della sua formazione avvenuta circa 4,6 miliardi di anni fa. Al contrario, per tutto questo tempo ha subito numerosi cambiamenti nella composizione atmosferica, nella temperatura, nella distribuzione dei continenti, senza parlare delle numerose e diverse forme di vita che l’hanno occupata. Tutti questi cambiamenti si sono riflessi nell’aspetto che potrebbe essere visto a distanze astronomiche. Ogni scenario ha avuto la sua firma caratteristica, e adesso saper riconoscere queste impronte in altri pianeti può aiutarci a capire se questi possono essere stati o esserlo nel futuro, potenzialmente abitabili.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Nel corso degli ultimi quattro anni è stato possibile scoprire parecchi pianeti nell’intervallo di massa tra 2 e 10 masse terrestri, quelli che vengono definiti  Super-Terre; alcuni di questi pianeti si vengono a trovare dentro oppure si trovano vicini alla zona di abitabilità della loro stella ospite. Recentemente sono stati annunciati nuovi pianeti delle dimensioni della nostra Terra e della nostra Luna, e questo numero sicuramente aumenterà in futuro.
Le prime statistiche hanno messo in evidenza che circa il 62% delle stelle della nostra Galassia potrebbero ospitare un pianeta delle dimensioni della nostra Terra mentre studi compiuti dalla missione Kepler della NASA indicano che circa il 16,5% delle stelle hanno almeno un pianeta delle dimensioni del nostro con periodi orbitali fino a 85 giorni.
Per poter caratterizzare queste esoterre scoperte dobbiamo prima di tutto dare uno sguardo al nostro Sistema Solare e ai suoi pianeti. La Terra è per ora l’unico pianeta conosciuto in cui esiste la vita; di conseguenza le osservazioni del nostro pianeta saranno una chiave fondamentale per lo studio e la ricerca della vita altrove.

Intanto, poter definire come un pianeta sia potenzialmente vivibile non è affatto facile, ci sono talmente tante condizioni al contorno da soddisfare che non è facile considerarle tutte. Una di queste impone che per sostenere la vita come la conosciamo, un pianeta debba permettere all’acqua di esistere allo stato liquido sulla sua superficie. Indicativamente, e forse in modo piuttosto semplicistico, spesso questa condizione viene identificata come la fascia – o zona – Goldilocks, quella zona né troppo lontana e né troppo vicina alla stella dove la radiazione consente all’acqua di esistere allo stato liquido su un pianeta. Quindi si tratta solo di un mero dato orbitale che ben poco ha a che vedere con la realtà: ad esempio, sulla Luna la presenza di ‘acqua allo stato liquido non è possibile anche se ne esiste una certa quantità allo stato solido (ghiaccio); eppure condivide con la Terra la stessa zona di abitabilità.

Quello che veramente occorre ad un pianeta perché possa essere considerato potenzialmente vivibile è un ambiente abbastanza stabile nel tempo che non sia soggetto a parossismi orbitali che periodicamente farebbero congelare o arrostire la sua superficie e un ambiente abbastanza ricco di energia da poter essere sfruttata dalle forme di vita. Se per risolvere il primo caso basta che l’eccentricità dell’orbita del pianeta sia prossima a zero, per il secondo caso il discorso si fa un attimino più complicato: occorre che la pressione ambientale consenta all’acqua di mantenere lo stato liquido in un ampio spettro di temperature e un meccanismo che garantisca che anche la temperatura sia più o meno stabile all’interno di questo intervallo 1 .

Il ciclo geologico del carbonio

Per la sua capacità di trattenere la radiazione infrarossa, l’anidride carbonica è un importante termoregolatore per la superficie di un pianeta 2.
Il modo in cui questa molecola riesce a passare dall’atmosfera al mare, al fondale marino e poi di nuovo all’atmosfera è affascinate, anche se richiede molto tempo e un prerequisito essenziale: la presenza di una tettonica a placche [cite] http://ilpoliedrico.com/2013/07/venere-e-terra-gemelli-diversi.html [/cite].

In questo ciclo alcune molecole di anidride carbonica ($CO_2$) atmosferica si disciolgono nell’acqua ($H_2O$) 3 formando acido carbonico .

\[
CO_2 + H_2O \rightleftharpoons H_2CO_3
\]

Un meccanismo molto efficace e che deve essere stato senz’altro presente fin dalle prime fasi della costituzione di una crosta solida è la pioggia. La pioggia ha anche un altro compito importante nell’evoluzione planetaria: desaturando un’atmosfera primordiale ricchissima di vapore acqueo 4 rafforza il processo di raffreddamento della superficie e facilita lo scorrimento delle prime zolle tettoniche necessarie per l’ultima fase del ciclo del carbonio.
Adesso l’acido carbonico disciolto nell’acqua è libero di dissolversi nelle rocce con cui viene a contatto, siano esse quelle esposte alle precipitazioni o i fondali marini. Una reazione che potrebbe essere piuttosto comune è la seguente, dove i silicati di calcio ($CaSiO_3$) svolgono un ruolo fondamentale nel ciclo:

\[
CaSiO_3 + 2H_2CO_3 \rightarrow Ca^{2+} + {2HCO_3}^{-} + H_2SiO_3
\]

tutti i membri di destra, gli ioni di calcio ($Ca^{2+}$), gli ioni  di idrogenocarbonato (${2HCO_3}^{-}$) 5 e l’acido silicico ($H_2 SiO_3$) sono ancora soluzioni acquose che potrebbero finire negli oceani.
Ben presto l’idrogenocarbonato viene a trovarsi in equilibrio con l’anidride carbonica disciolta nell’acqua secondo la seguente formula:

\[
{2HCO_3}^{-} \rightleftharpoons {CO_3}ì{2-} + H_2O + CO_2
\]

Quando la concentrazione di ioni carbonato (${CO_3}^{2-}$) aumenta, questi interagiscono con gli ioni di calcio visti prima e precipitano sotto forma di carbonato di calcio ($CaCO_3$) creando così minerari come la calcite e l’aragonite.
Questo è solo un esempio di come il carbonio atmosferico riesca a passare dalla forma gassosa nell’aria alla forma solida nella crosta planetaria. Il ruolo fondamentale di questo meccanismo è la presenza dell’acqua come solvente che ne consente il transito.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Rappresentazione artistica di un pianeta potenzialmente abitabile.

Il risultato di questo scambio sono minerali come la calcite che testimoniano la sottrazione del carbonio dall’atmosfera e che possono finire sepolti anche molto in profondità, al di sotto delle zolle tettoniche. Da qui poi, grazie all’attività vulcanica, il carbonio intrappolato nelle rocce potrebbe tornare di nuovo nell’atmosfera.
Se il meccanismo di sottrazione del carbonio dall’atmosfera dovesse venir meno per un calo eccessivo della temperatura globale, il naturale degassamento della crosta e del mantello tramite l’attività vulcanica dovrebbe far aumentare la concentrazione di $CO_2$ atmosferica e di conseguenza la temperatura. Altresì, un aumento eccessivo della temperatura dovrebbe permettere una maggior efficienza dei meccanismi di estrazione e quindi all’abbassamento di questa 6.
Il meccanismo del ciclo geologico del carbonio è complesso e comunque i suoi tempi di risposta sono piuttosto lunghi. Penso piuttosto a come l’equilibrio tra solvente (l’acqua del pianeta) e soluto (anidride carbonica) possa già di per sé portare ad una sottrazione dei due maggiori gas serra dall’atmosfera planetaria e alla stabilizzazione verso il basso della temperatura planetaria quando le condizioni ambientali consentono l’innescarsi di questo processo.

(continua …)


Note:

L’epopea di una manciata di fotoni

[latexpage]

Baldacchino di S. Pietro

Credit: Il Poliedrico

Circa 15 milioni di anni fa nel nucleo del Sole, un gruppo di protoni riuscirono a superare la barriera coloumbiana di altrettanti loro simili fondendosi con questi.

\[
\textsuperscript{1}H + \textsuperscript{1}H \rightarrow \textsuperscript{2}H + e\textsuperscript{+}+ \nu_{e}
\]

Il nucleo di ogni stella però è formato in più o meno egual numero dei protoni ($\textsuperscript{1}H$) anche da elettroni ($e$), un tempo legati insieme a formare atomi di idrogeno ($H$). Per questo i positroni ($e\textsuperscript{+}$) hanno una vita molto breve: appena prodotti incontrano un elettrone e … bang! si annichiliscono con questi producendo 2 bei fotoni gamma da 1,02 MeV.

\[
e\textsuperscript{+}+ e\textsuperscript{+}\rightarrow 2\gamma
\]

Tutta questa energia viene assorbita dai protoni circostanti dando loro la forza necessaria per tentare di fondersi con altri protoni. Non sempre la fusione avviene e l’energia ricevuta viene riemessa per essere catturata da altri protoni, meno quella spesa nel tentativo di fondersi, è ovvio.
E così, con un lento processo di assorbimento e riemissione che può durare anche 15 milioni di anni, pian pianino i fotoni prodotti da quella lontana fusione raggiungono la superficie del Sole, stremati e spenti da quella fatica che è costata loro quasi tutta la loro energia 1.
Ma la loro strada non è ancora finita. Finalmente liberi dalla densa materia del Sole si tuffano giù in un’ultima folle corsa che dura poco più di 8 dei nostri minuti e si infrangono sotto i miei occhi sull’altare della Basilica di San Pietro, dopo aver attraversato le vetrate orientali della chiesa.

Sapere la natura del raggio di luce, come è nato e quando, comprendere la dualità onda-particella dei fotoni, la sua energia e tutto il resto, non svilisce la maestosità della scena che ho visto accadere sotto i miei occhi. Al contrario, me l’ha resa più bella e misteriosa nel suo accadere.
Tutta la scienza possibile può aiutarmi a comprendere come avvengono le cose che mi circondano; il perché io le possa osservare, no.

Buon Natale


Note:

 

L’oscura origine della Luna (II parte)

Dee pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

Due pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

È chiaro a chiunque che la Terra e la Luna siano diverse, non solo nelle dimensioni.
Il nucleo della Terra è composto soprattutto di ferro e occupa circa il 30% della sua massa, mentre quello della Luna è proporzionalmente molto più piccolo: appena un decimo della massa del satellite è costituito dal ferro e il suo nucleo rappresenta solo il 20% circa delle sue dimensioni. Inoltre la scarsità di elementi piuttosto volatili come il potassio nella composizione chimica indicano che probabilmente la Luna si è formata in un ambiente piuttosto caldo dove questi siano evaporati.
Eppure i campioni di suolo riportati dalle missioni Apollo mostrano che i silicati terrestri e lunari sono virtualmente identici: i rapporti isotopici di elementi come l’ossigeno [cite]http://www.ncbi.nlm.nih.gov/pubmed/11598294[/cite], il cromo e il silicio sono gli stessi, indicando pertanto una origine comune per la crosta e il mantello superiore della Terra con la Luna [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403[/cite] [cite]http://dx.doi.org/10.1038/ngeo1429[/cite].
Di pari passo, lo studio del campo gravitazionale della Luna per merito della misssione Gravity Recovery and Interior Laboratory (GRAIL) della NASA, combinato con i dati topografici prodotti dal Lunar Reconnaissance Orbiter sempre della NASA, hanno ridimensionato lo spessore della crosta della Luna e la sua percentuale relativa di alluminio. Anche questi dati suggeriscono che la percentuale di metalli con alte temperature di condensazione  sia la stessa su entrambi i corpi celesti.
Tutti questi dati fisici mostrano che la Luna e il mantello superiore terrestre si siano originati insieme, quindi o la Luna si è staccata dal mantello terrestre ancora fluido oppure l’opposto, il mantello e la Luna si sono generati con lo stesso materiale in un ambiente estremamente caldo che, nel caso della Luna,  ha conservato solo i materiali più refrattari e fatto evaporare gli altri.

Una giornata memorabile

Ormai si vedeva a occhio nudo quando si apriva uno squarcio nella giusta direzione tra le perenni nubi di vapore e metano che uscivano copiose dalla roccia. Dapprima era come una macchiolina nel cielo, tanti giorni fa, e adesso, dopo essere stata grande come una moneta occupava minacciosa più di metà del cielo a occidente. Toglieva  il respiro, sembrava quasi che cascasse dal cielo. E così fu. Nel giro di appena un’ora almeno metà del globo fuse e venne scagliato a 25000 chilometri di quota mentre il nucleo di ferro rovente del piccolo mondo era rimbalzato nell’urto e stava per crollare di nuovo. Dopo cinque ore tutta la crosta e il mantello del mondo era fuso, mentre tutta l’atmosfera venne spazzata via. Un quarto del piccolo mondo si vaporizzò nell’impatto mentre questo pianeta iniziò a ruotare su sé stesso all’impazzata: un giro in appena 5 ore! Dopo poche altre ore il materiale  che non era ancora ricaduto sulla nuova Terra formò un anello instabile di detriti  in orbita  che nell’arco di un centinaio d’anni avrebbe poi generato la Luna.

Nel 1975 William K. Hartmann e Donald R. Davis proposero la teoria dell’Impatto Gigante riprendendo l’idea originale del geologo canadese Reginald Aldworth Daly proposta nel 1946.
Questa teoria riesce abbastanza bene a tener conto di molte delle similitudini che ho elencato qui sopra, del momento angolare totale del sistema Terra – Luna, e anche delle divergenze più importanti, come l’estrema scarsità degli elementi chimici più volatili della Luna rispetto alla Terra.
Ma solo recentemente è stato potuto studiarla in dettaglio grazie alle simulazioni computerizzate [cite]http://www.nature.com/nature/journal/v412/n6848/abs/412708a0.html[/cite].
Gli scenari che portano alla formazione della Luna richiedono la presenza di due pianeti formatisi sui punti lagrangiani di  una stessa orbita, uno con una massa simile a quella attuale del nostro pianeta, la proto-Terra, e un altro più piccolo, grande più o meno come Marte come dimensioni e massa, che gli scienziati hanno battezzato Theia.
Il gigante Giove destabilizza l’orbita dei due pianeti che nell’arco di 50 milioni di anni finiscono per scontrarsi con un angolo di 45 gradi rispetto alla proto-Terra a una velocità relativa piuttosto bassa, inferiore a 4 km/s. 1. Il risultato dello scontro è che fino a un quarto di Theia si vaporizza nell’impatto e la primordiale atmosfera della proto-Terra viene dispersa, mentre almeno il 20% della massa dei due pianeti si disperde in un anello incandescente attorno ai 4 raggi terrestri, poco fuori al limite di Roche.
La maggior parte del materiale eiettato e il nucleo ferroso di Theia ricade sulla proto-Terra nelle ore successive all’impatto, invece una minuscola frazione della massa del disco originale, il 6%, rimane in orbita, e nel giro di un secolo dà origine a più corpi distinti che poi si uniranno per creare la Luna 2.

I meriti di questa teoria sono molti. In primis riesce a spiegare tutte le similitudini isotopiche riscontrate tra le rocce terrestri e lunari:  l’anello successivo all’impatto ha mescolato il materiale di Theia e della proto-Terra rendendo di fatto indistinguibile ogni differenza. Il calore sprigionato nell’impatto e trasferito all’anello ha alterato di poco la composizione chimica di questo nelle poche ore prima che ricadesse sulla Terra, mentre quello rimasto in orbita ha avuto più tempo per perdere gli elementi più volatili, forse anche grazie all’azione del vento solare e al bombardamento dei raggi cosmici che ne hanno in parte modificato la composizione chimica [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403 [/cite].
Infine, riesce a spiegare il notevole momento angolare complessivo del sistema Terra-Luna, parametro che ogni modello deve riuscire a spiegare.

Una delle obiezioni principali a questo modello è che la composizione di Theia porta con sé percentuali isotopiche diverse da quelle della Terra 3, e tracce di questa differenza dovrebbero essere ancora visibili.
Secondo me no, sia la proto-Terra che Theia si formarono alla stessa distanza dal Sole, quindi la differenza isotopica dei vari elementi deve essere stata nulla o quasi, tanto da non essere oggi significativamente rilevabile.
In seguito, il degassamento tardivo del mantello e della crosta ha ricreato una primitiva atmosfera, forse un po’ più sottile rispetto alla prima, mentre il bombardamento cometario proveniente dalla fascia di Kuiper [cite]http://ilpoliedrico.com/2011/10/oceani-di-comete.html[/cite] avrebbe portato acqua e sostanze organiche che poi si sarebbero evolute in esseri viventi [cite]http://tuttidentro.wordpress.com/2013/12/17/come-gli-impatti-meteoritici-e-cometari-hanno-portato-la-vita-sulla-terra[/cite] sulla nuova Terra..
L’azione mareale del nuovo satellite combinata a quella del Sole avrebbe poi rallentato la Terra fino alle attuali 24 ore, mentre l’orbita della Luna sarebbe passata da 30000 chilometri a 384000 nei successivi 4,5 miliardi di anni.,

 

L’oscura origine della Luna

Se visto dallo spazio il sistema Terra-Luna pare decisamente un pianeta doppio. Credit: Illustration by AOES Medialab, ESA 2002

Se visto dallo spazio il sistema Terra-Luna pare decisamente un pianeta doppio.
Credit: Illustration by AOES Medialab, ESA 2002

Vedere la Luna nel cielo fa tornare alla mente immagini legate alle nostre emozioni; tantissima letteratura e musica è stata dedicata alla sorella più piccola della Terra. Alcuni di noi magari rivivranno per un attimo le eroiche gesta dei primi passi umani su un altro mondo frutto delle missioni Apollo, mentre i più pratici penseranno alle maree o ai tempi improcrastinabili dell’orto.

Ben pochi pensano però che alla Luna dobbiamo molto di più, forse l’esistenza della vita stessa, o almeno quella come noi la conosciamo. Questa infatti governa le condizioni ambientali del nostro pianeta.

Al contrario di Phobos e Deimos, i due satelliti naturali di Marte, l’unico altro pianeta roccioso del Sistema Solare ad avere compagni, la Luna è molto più grande e massiccia 1, abbastanza da stabilizzare il moto di rotazione della Terra attorno al suo asse in modo che esso sia quasi 2 perpendicolare all’eclittica. Senza la Luna l’asse terrestre varierebbe caoticamente di diverse decine di gradi, con conseguenze davvero estreme in fatto di abitabilità del pianeta .
Escursioni stagionali terribili, importanti porzioni di un emisfero sarebbero in ombra per metà anno mentre l’altra metà arrostisce letteralmente in estati senza notti. Sicuramente la vita come oggi conosciamo sul nostro pianeta sarebbe ben diversa nel Mondo senza la Luna.

Per questo oggi chiedersi come si sia formata la Luna e come mai l’unico posto del Sistema Solare abitato da una specie senziente sia anche quello con il satellite così grande rispetto al pianeta, sono due delle domande più urgenti a cui la scienza deve dare risposta.
La più grande sfida che un modello sulle origini del sistema Terra-Luna deve superare è  paradossalmente l’enorme mole di dati che si hanno su di questo.
Le analisi chimiche e isotopiche sui campioni che le missioni Apollo hanno restituito, le ricognizioni dallo spazio delle altre missioni che ci hanno mostrato la forte disomogeneità tra l’emisfero visibile e quello opposto, e così via, ma occorre tener sempre tenere conto del dato più importante di tutti: il momento angolare totale del sistema 3.
La composizione chimica della Luna è molto simile a quella del mantello terrestre, tanto da far pensare un’origine comune per entrambi, e spiegare questa similitudine non è affatto facile.
Ma ci sono anche alcune differenze che devono essere prese in considerazione. Non importa quanto queste possano sembrare insignificanti, ognuna di loro può essere la chiave per comprendere ciò che veramente accadde 4,5 miliardi di anni fa.

(continua …)


Note:

Requiem per la Ison

La C/2012 S1 (ISON) è stata una delle più seguite e studiate comete di tutti i tempi. Questo sicuramente per l’enorme curiosità suscitata dalle sue aspettative di Cometa del Secolo poi rivelatesi infondate. La mole di dati, di spettri, di fotografie e di ipotesi del dopo perielio – era una sungrazing – sono immense. Ora, anche alla luce di come è finita, è giunto il momento di rimettere insieme tutte le tessere di questo mosaico per comprendere meglio l’evoluzione di questa straordinaria cometa.

Credit: ESA/NASA Solar and Heliospheric Observatory

Credit: ESA/NASA Solar and Heliospheric Observatory

A questo punto è ormai certo, la C/2012 S1 (ISON) non esiste più.
Quella che appena un anno fa veniva descritta come la cometa del secolo adesso non c’è più.
Della famosa cometa è rimasta solo una nuvola di detriti ormai invisibile che si allontana dal Sole e dal piano dell’eclittica, negandoci così anche lo spettacolo di una pioggia meteorica con pochi precedenti per la fine dell’anno.
La traiettoria seguita dalla cometa nel suo avvicinamento al Sole passa molto vicino al piano terrestre 1 2 [cite]http://comets-asteroids.findthedata.org/l/621233/C-2012-S1-ISON[/cite], e la Terra la attraverserà intorno la metà del mese di gennaio 2014.

Anche se alcuni parametri fondamentali dell’orbita cometaria (argomento al perielio, distanza eliocentrica dei nodi) paiono essere simili a quelli di altre comete che danno origine a piogge meteoriche, questi non paiono però sufficienti a produrne una, in quanto la velocità media del materiale espulso dalla cometa, 1 km/sec-1, non pare essere sufficiente a disperdere abbastanza la polvere affinché questa intercetti la Terra nel posto giusto al momento giusto [cite]arXiv:1310.3171[/cite].
Inoltre l’attività della Ison da metà maggio a metà novembre è stata piuttosto scarsa rispetto al periodo della scoperta (indice Af[rho] di 341 cm nel periodo, equivalenti a circa 340 kg di polvere al secondo), il che non è poi molto rispetto alle attese, quindi anche la densità dello sciame è sicuramente piuttosto basso.
Questo significa che molto probabilmente non avremo alcuna pioggia meteorica legata alla Ison nel mese di gennaio, forse avremo un lieve aumento delle meteore sporadiche di fondo per qualche giorno, ma niente di più.


Note:

La storia infinita della Ison

 

Nelle ultime ore si sono levate voci piuttosto allarmate sulle sorti di C/23012 S1 (ISON). E anche se, al momento in cui scrivo, queste non sono state affatto né confermate o smentite, riassumo i fatti finora accertati.

La C/2012 S1 (ISON) nel campo della LASCO C3 della SOHO. Credit: ESA/NASA Solar and Heliospheric Observatory

La C/2012 S1 (ISON) nel campo della LASCO C3 della SOHO.
Credit: ESA/NASA Solar and Heliospheric Observatory

Tutto è partito il 25 novembre da una segnalazione sulla mailing list di un gruppo su Yahoo.com che si occupa di comete 1.

Il radioastronomo Michael Drahus, del Caltech / NRAO, che lavora con il radiotelescopio millimetrico Iram, a Granada in Spagna, ha riferito di un rapido calo, circa 20 volte tra il 21 e il 25, delle emissioni molecolari nella Ison. Questo calo è netto contrasto con le altre (poche) osservazioni che continuano a indicare la presenza di una chioma 2.
Intanto, anche il telescopio robotico TRAPPIST dell’ESO, in Cile, ha rilevato un calo nel tasso di produzione delle polveri di un fattore 3.
Poi pure la posizione non torna: la Ison appare essere circa 3000 chilometri  – dalla Terra sono circa 5 arcosecondi – più indietro nella sua orbita. Questo potrebbe significare che il nucleo solido si è dissolto e la pressione della radiazione solare ora frena una nube di detriti sciolti tra loro.
In più alcuni osservatori non sono riusciti a vedere la Ison la mattina del 25,  ma qui i motivi possono essere diversi, la cometa era troppo bassa all’orizzonte prima della levata del Sole, circa 10° di elevazione, e velature di nubi nell’alta atmosfera possono aver estinto la luce di questa che era prevista essere di magnitudine 2,5.

Comunque adesso la Ison è entrata nel campo visivo dei diversi strumenti dei telescopi solari Stereo A e B e della SOHO, per cui  è possibile seguirla di nuovo fino al suo perielio.
E anche qui le voci di una completa dissoluzione del nucleo non si fermano. Anche se le diverse camere a bordo degli osservatori solari mostrano ancora una cometa intera, salta subito all’occhio l’irregolarità della coda, non si sa bene se per effetto di una CME che in queste ore avrebbe sconvolto la coda di ioni 3,  oppure se è la coda di polveri generata dalla dissoluzione del nucleo che inizia a disperdersi.
D’altronde la Ison non ha mai generato grandi quantità di polveri, o almeno non quante ci se ne aspettava poco dopo la sua scoperta, come  anche i dati Afrho della cometa finora hanno confermato. Questa invece adesso potrebbe essere la pistola fumante di una dissoluzione, almeno parziale, del nucleo.

 


Note: