Molecole organiche su Marte (prima parte)

Quando mi è stato concesso, ho sempre cercato di osservare le cose nel modo più ampio possibile e a cercare di stabilire dei collegamenti logici tra tutte le informazioni che mi sarebbero state utili per cercare di descriverle. Spesso è difficile star dietro al mio modo di ragionare, ma questo genere di approccio mi è sempre stato di aiuto per comprendere meglio ciò che in quel momento era alla mia attenzione. E forse anche per questo che sono sempre stato moderatamente scettico sul passato biologico marziano. È vero, ci sono stati i controversi risultati del Labeled Released Experiment [1] e sono state indicate alcune similitudini tra le microbialiti terrestri (ex. le stromatoliti) e le strutture osservate nei depositi argillosi su Marte [2], ma diciamocelo: finora non è mai stata accertata la presenza di vita ora o nel passato di Marte.
Affermare l’opposto o velatamente ammiccare alla scoperta della Vita su Marte come molti — anche autorevoli — siti e testate giornalistiche stanno facendo in queste ore è falso.

La ciclicità del metano

Andamento stagionale delle emissioni di metano nell’atmosfera di Marte in parti per miliardo correlati alla pressione atmosferica e alla posizione del pianeta nella sua orbita (longitudine solare). Le stagioni marziane sono analoghe a quelle terrestri ma molto più lunghe: un anno marziano corrisponde a 686,96 giorni terrestri. Credit: Christopher R. Webster, NASA/JPL — Edit: Il Poliedrico

Se avete seguito in questi anni questo blog, saprete senz’altro che la presenza sporadica di metano nell’atmosfera marziana era nota da anni: dal 2003 per la precisione [3]. In assenza di prove della presenza di organismi biologici per la metanogenesi (principalmente archaea) su Marte, è ovvio rivolgersi verso i meccanismi abiotici di produzione del metano [4][5], che qui sulla Terra sono responsabili di circa il 10% della produzione annua di questo gas rilasciato nell’atmosfera. Finora non erano note esattamente le cause della presenza del metano nell’atmosfera di Marte: si era creduto a una sporadicità magari derivata da un qualche impatto cometario  passato inosservato. Ma a causa dell’ambiente continuamente bombardato dalle radiazioni ultraviolette del Sole, il metano marziano rilasciato nell’atmosfera non potrebbe esistere per più di 100-300 anni, in contrasto quindi con quanto viene registrato fin dall’anno della scoperta della sua presenza (si tratta pur sempre di una manciata di molecole per miliardo vista la tenuità dell’atmosfera marziana) e soprattutto in seguito quando vennero scoperti dei rilasci altamente localizzati di metano ritenuti allora sporadici.
Per questi si era teorizzata una qualche forma di attività geotermica ancora esistente ma si sa anche che Marte ha cesaato ogni sua attività vulcanica importante da miliardi di anni. 
La scoperta della ciclicità stagionale del metano atmosferico marziano è la notizia. Questa è la conferma che l’ambiente marziano risente del cambiamento stagionale ben più di quanto finora era stato supposto. Qui i principali indiziati potrebbero essere i clarati 1 intrappolati nel sottosuolo che per effetto del mutare delle condizioni di insolazione e temperatura stagionali possono venire decomposti. l’acqua così liberata potrebbe anche avviare i processi di serpentinizzazione del basalto arricchendo così le quantità di metano rilasciato nell’atmosfera.

Questa scoperta è illustrata meglio nell’articolo di Science e nei suoi allegati che vi invito a leggere [6] nell’attesa che scriva anche la seconda parte.
Cieli sereni.

Zenone, Olbers e l’energia oscura (terza parte)

Nei precedenti articoli ho cercato di spiegare che il nostro Universo è in realtà freddo e buio fatto perlopiù di vuoto in perenne espansione. È impossibile che il peso di tutto il suo contenuto possa infine provocarne il collasso, non c’è abbastanza materia e energia (anche l’energia ha la sua importanza: ricordate il rapporto di equivalenza tra massa ed energia \(E=mc^2\)?) per farlo chiudere su sé stesso. Ma se l’idea di un Big Crunch finale, ossia una fine dell’Universo governata da pressioni e temperature inimmaginabili tanto da far impallidire l’Inferno dantesco certamente non è piacevole, l’idea che tutta la già poca materia esistente finisca disgregata in una manciata di fotoni solitari nel nulla del vuoto che corre ancora più veloce della luce è spaventoso; inimmaginabile. Ma tranquillizzatevi, questo accadrà forse fra migliaia di eoni ma intanto il fenomeno che condanna a morte l’Universo potrebbe essere lo stesso che permette oggi la nostra esistenza.

La Hubble Ultra Deep Field (HUDF) è stata ripresa tra il 24 settembre 2003 e il 16 gennaio successivo mostra che stelle e galassie già dominavano l'Universo 13 miliardi di ani fa. Questo campo è circa un decimo della luna piena ma contiene qualcosa come dieci mila galassie! Credit: NASA

La Hubble Ultra Deep Field (HUDF) è stata ripresa tra il 24 settembre 2003 e il 16 gennaio successivo mostra che stelle e galassie già dominavano l’Universo 13 miliardi di ani fa. Questo campo è circa un decimo della luna piena ma contiene qualcosa come dieci mila galassie! Credit: NASA

Cercare di immaginare  la vastità dell’Universo è quasi impossibile e descriverlo senza ricorrere agli artifici matematici lo è ancora di più.
La naturale percezione umana è troppo limitata per descriverlo; essa già fallisce quando cerca di dimostrare la piattezza della Terra che è una sfera 7 milioni di volte più grande di un uomo.
Quindi quando sentiamo parlare di “universo in espansione” è spontaneo chiedersi anche “Entro cosa?“. In realtà non c’è un dentro e un fuori, così come non può esserci un punto di partenza e uno di arrivo in una circonferenza. Idealmente il tessuto dell’Universo, lo spazio-tempo, lo si può far coincidere con l’espansione dello stato di falso vuoto provocato dal decadimento del campo inflatone che chiamiamo Big Bang. Una metafora che uso spesso è quella del panettone che lievita: i canditi sono in quiete fra loro, proprio come lo sono le galassie; è il panettone che gonfiandosi fa crescere la loro distanza relativa.  L’Universo fa altrettanto e come non può esserci panettone fuori dal panettone, non può esserci spazio fuori dallo spazio.

Nel 1917 ancora si dava per scontato che l’Universo nel suo insieme fosse statico e immutabile ma le equazioni di campo derivate dalla Relatività Generale asserivano il contrario. Einstein stesso cercò di conciliare le sue equazioni di campo ad un modello statico di universo introducendo una costante, indicata con la lettera greca \(\Lambda\), capace di contrastare il collasso gravitazionale del contenuto dell’universo assegnandole quindi una natura repulsiva. L’aspetto matematico di questa costante è quello di una densità energetica del vuoto  (\(\rho_\Lambda=\frac{\Lambda c^4}{8\pi G}\)) espresse in unità di energia per unità di volume (\(J/m^3\)). Essendo essa il prodotto di altre costanti fisiche, \(\pi\), \(c\) e \(G\),  una volta indicato il suo valore numerico, esso non varia col tempo, con la dimensione di scala o altre condizioni fisiche: è costante comunque.
In seguito la scoperta dell’espansione dell’universo fece decadere l’ipotesi di una costante repulsiva capace di contrastare il collasso dell’Universo, ma nel 1998 due studi indipendenti, Supernova Cosmology Project [cite]https://arxiv.org/abs/0907.3526[/cite] e il High-Z Supernova Search Team [cite]http://arxiv.org/abs/astro-ph/9805200[/cite], dimostrarono che in realtà l’espansione dell’Universo stava accelerando.
La scoperta ovviamente giungeva inaspettata. L’Universo appariva sì in espansione, frutto del residuo della spinta iniziale dell’era inflazionaria; era anche chiaro come i modelli  cosmologici indicassero – come si è visto – che non c’è abbastanza materia ed energia perché il processo di spinta espansiva potesse infine arrestarsi e invertirsi verso un futuro Big Crunch, ma al più ci si poteva aspettare un minimo cenno di rallentamento nel ritmo verso una espansione illimitata, invece una accelerazione era proprio inattesa. E così che il concetto di una una proprietà repulsiva del vuoto, la famosa costante \(Lambda\) introdotta da Einstein ma poi quasi dimenticata perché  ritenuta inutile, tornò alla ribalta.

Ipotesi cosmologica dell’Energia Oscura, il modello della Costante Cosmologica \(\Lambda\)

Dovessimo descrivere il tessuto dello spaziotempo come un fluido, che non è materia o energia ma come più volte detto esiste energeticamente come uno stato di falso vuoto,  allora la densità energetica descritta da \(\rho_\Lambda\) attribuibile ad esso appare invariante rispetto a qualsiasi stato di materia e di energia che occupa lo spazio. In questo modello \(\rho_\Lambda\) è costante, così come lo era nei microsecondi successivi al Big Bang e lo sarà anche in un incalcolabile futuro.

Uno stato di falso vuoto in un campo scalare \(\varphi\). Si noti che l'energia E è più grande di quella dello stato fondamentale o vero vuoto. Una barriera energetica impedisce il campo di decadere verso lo stato di vero vuoto.L'effetto più immediato di questa barriera è la continua creazione di particelle virtuali tramite fenomeni di tunneling quantistico .

Uno stato di falso vuoto (il pallino) in un campo scalare \(\varphi\). Si noti che l’energia \(E\) è più grande di quella dello stato fondamentale o vero vuoto. Una barriera energetica impedisce il campo di decadere verso lo stato di vero vuoto. L’effetto più immediato di questa barriera è la continua creazione di particelle virtuali tramite fenomeni di tunneling quantistico .

È il Principio di Indeterminazione di Heisenberg che permette all’energia del falso vuoto di manifestarsi tramite la perpetua produzione spontanea di particelle virtuali:. $$\tag{1}\Delta x \cdot \Delta p \ge \frac{\hslash}{2}$$
Dove \(\Delta x\) indica il grado di indeterminazione della posizione e \(\Delta p\) quello dell’energia posseduta da una particella \(p\) rispetto alla Costante di Planck ridotta \(\hslash\). La stessa relazione lega l’energia \(E\) e il tempo \(t\): $$\tag{2}\Delta E \cdot \Delta t \ge \frac{\hslash}{2}$$
Questo significa che per un periodo di tempo brevissimo (questo è strettamente legato all’energia della particella) è possibile violare la ferrea regola della conservazione dell’energia, permettendo così  la formazione di coppie di particelle e antiparticelle virtuali che esistono solo per questo brevissimo lasso di tempo prima di annichilirsi a vicenda 1.
Non solo: i gluoni responsabili dell’Interazione Forte che legano insieme i quark sono particelle virtuali, i bosoni delle interazioni deboli sono virtuali e anche i fotoni che si scambiano gli elettroni all’interno degli atomi sono solo virtuali.
Comprendere come questa energia faccia espandere l’Universo è un attimino più complicato.
Immaginatevi di strizzare un palloncino. L’aria, o il gas, al suo interno si concentrerà così in un volume minore e premerà di conseguenza sulle pareti di gomma con una forza maggiore. L’intensità della pressione è ovviamente data dal numero delle particelle per unità di volume per l’energia cinetica delle particelle stesse ed è chiamata appunto densità energetica. Quando rilasciamo il palloncino, il volume di questo aumenta e le particelle d’aria che facevano pressione su un volume minore si ridistribuiscono allentando così la pressione; si ha così un calo della densità energetica.
Ma se la densità energetica dovesse essere una costante come lo è la densità energetica relativa al falso vuoto, ecco che a maggior volume corrisponderebbe una maggiore pressione sulle pareti del palloncino ideale e, più questo si espande, sempre maggiore sarebbe la spinta espansiva.
Questo è ciò che accade all’Universo: dopo un momento inflattivo iniziale provocato dal collasso del campo inflatone verso uno stato di falso vuoto che ha reso omogeneo (\(\Omega =1\)) l’Universo, la densità energetica residua ha continuato il processo di espansione dell’Universo sino alle dimensioni attuali. All’inizio della sua storia, finché l’Universo era più piccolo e giovane, la densità della materia \(\rho\) è stata abbastanza vicina al valore di densità critica \(\rho_c\), permettendo così che l’azione gravitazionale della materia contrastasse in parte la spinta espansiva; ma abbiamo visto che comunque a maggiore volume corrisponde una maggiore spinta espansiva, e è per questo che la materia ha perso la partita a braccio di ferro con l’energia di falso vuoto fino a ridurre la densità media dell’Universo ai valori attuali. In cambio però tutti i complessi meccanismi che regolano ogni forma di materia e di energia non potrebbero esistere in assenza dell’energia del falso vuoto dell’Universo.
Se il destino ultimo dell’Universo è davvero quello del Big Rip, però è anche quello che oggi permette la nostra esistenza, e di questo dovremmo esserne grati.

Qui ho provato a descrivere l’ipotesi più semplice che cerca di spiegare l’Energia Oscura. Ci sono altre teorie che vanno da una revisione della Gravità su scala cosmologica fino all’introduzione di altre forze assolutamente repulsive come nel caso della Quintessenza (un tipo di energia del vuoto che cambia nel tempo al contrario della \(\Lambda\)). Si sono ipotizzate anche bolle repulsive locali piuttosto che un’unica espansione accelerata universale; un po’ di tutto e forse anche di più, solo il tempo speso nella ricerca può dire quale di questi modelli sia vero.
Però spesso nella vita reale e nella scienza in particolare, vale il Principio del Rasoio di Occam, giusto per tornare dalle parti di dove eravamo partiti in questo lungo cammino. Spesso la spiegazione più semplice è anche la più corretta e in questo caso l’ipotesi della Costante Cosmologica è in assoluto quella che lo è di più.
Cieli Sereni

Zenone, Olbers e l’energia oscura (seconda parte)

Nella prima parte di quest’articolo credo di aver dimostrato come nella risposta al paradosso di Olbers si nasconda la prova principe dell’Universo in espansione. Tale affermazione ci svela l’Universo per quello che veramente è. L’Energia Oscura per ora lasciamola per un attimo in disparte e diamo uno sguardo all’aspetto reale dell’Universo prima di approfondire questa voce.

La geometria locale dell'universo è determinato dal fatto che l'Ω densità relativa è inferiore, uguale o maggiore di 1. Dall'alto in basso: un sferica universo con maggiore densità critica (Ω> 1, k> 0); un iperbolica , universo underdense (Ω <1, k <0); e un universo piatto con esattamente la densità critica (Ω = 1, k = 0). L'universo, a differenza dei diagrammi, è tridimensionale.

La geometria locale dell’universo è determinata dalla sua densità. media come indicato nell’articolo.  Dall’alto in basso: un universo è sferico se il rapporto di densità media supera il valore critico 1 (Ω> 1, k> 0) e in questo caso si ha il suo successivo collasso (Big Crunch); un universo iperbolico nel caso di un rapporto di densità media inferiore a 1 (Ω <1, k <0) e quindi destinato all’espansione perpetua (Big Rip); e un universo piatto possiede esattamente il rapporto di densità critico (Ω = 1, k = 0). L’universo, a differenza dei diagrammi, è tridimensionale.

È nella natura dell’uomo tentare di decifrare l’Universo.  Le tante cosmogonie concepite nel passato lo dimostrano.  Un Uovo  Cosmico,  il Caos, la guerra tra forze divine contrapposte, sono stati tutti tentativi di comprendere qualcosa che è immensamente più grande. Ma solo per merito degli strumenti matematici e tecnologici che sono stati sviluppati negli ultimi 400 anni possiamo affermare oggi che si è appena scalfito l’enorme complessità del  Creato.
Fino a neanche cento anni fa l’idea che il cosmo fosse così enormemente vasto non era neppure contemplata: si pensava che le altre galassie lontane fossero soltanto delle nebulose indistinte appartenenti alla Via Lattea [cite]https://it.wikipedia.org/wiki/Grande_Dibattito[/cite].
Il dilemma nel descrivere matematicamente l’Universo apparve ancora più evidente con l’applicazione delle equazioni di campo della Relatività Generale [cite]https://it.wikipedia.org/wiki/Equazione_di_campo_di_Einstein[/cite] in questo contesto. Emergeva così però un quadro ben diverso rispetto a quanto supposto. Fino ad allora era sembrato ragionevole descrivere l’universo ipotizzando che le diverse relazioni tra le diverse quantità fisiche fossero invarianti col variare dell’unità di misura e del sistema di riferimento. In pratica si ipotizzava un universo statico, isotropo sia nello spazio che nel tempo. Un universo così semplificato senza tener conto del suo contenuto di materia ed energia potremmo descriverlo geometricamente piatto (\(\Omega=1\) che indica il rapporto tra la densità rilevata e la densità critica \(\rho / \rho_c\)), dove la somma degli angoli di un triangolo arbitrariamente grande e idealmente infinito restituisce sempre i 180° come abbiamo imparato a scuola [cite]https://it.wikipedia.org/wiki/Universo_di_de_Sitter[/cite]. Il problema è che l’Universo non è vuoto; contiene materia, quindi massa, e energia. In questo caso le equazioni di campo usate nei modelli di Friedmann propongono due soluzioni molto diverse tra loro. Infatti se il rapporto di densità media della materia, indicata dalla lettera greca \(\Omega\), dell’universo fosse minore o uguale rispetto a un certo valore critico (\(\Omega \le 1 \)), allora l’universo risulterebbe destinato a essere spazialmente infinito. Oppure, se il rapporto di densità media dell’universo fosse più alto (\(\Omega> 1\)) allora il campo gravitazionale prodotto da tutta la materia (non importa quanto distante) finirebbe per far collassare di nuovo l’universo su se stesso in un Big Crunch. Comunque, in entrambi i casi queste soluzioni implicano che ci fosse stato nel passato un inizio di tutto: spazio, tempo, materia ed energia, da un punto geometricamente ideale, il Big Bang [1. Chiedersi cosa ci fosse spazialmente al di fuori dell’Universo o prima della sua nascita a questo punto diventa solo speculazione metafisica, il tempo e lo spazio come li intendiamo noi sono una peculiarità intrinseca a questo Universo.].

Were the succession of stars endless, then the background of the sky would present us an uniform luminosity, like that displayed by the Galaxy – since there could be absolutely no point, in all that background, at which would not exist a star. The only mode, therefore, in which, under such a state of affairs, we could comprehend the voids which our telescopes find in innumerable directions, would be by supposing the distance of the invisible background so immense that no ray from it has yet been able to reach us at all.
Se la successione delle stelle fosse senza fine, allora il fondo del cielo si presenterebbe come una luminosità uniforme, come quella mostrata dalla Galassia, dato che non ci sarebbe assolutamente alcun punto, in tutto il cielo, nel quale non esisterebbe una stella. La sola maniera, perciò, con la quale, in questo stato di cose, potremmo comprendere i vuoti che i nostri telescopi trovano in innumerevoli direzioni, sarebbe supporre che la distanza del fondo invisibile sia così immensa che nessun raggio proveniente da esso ha potuto finora raggiungerci”

Tornando un passo indietro al famoso Paradosso di Olbers. Una soluzione alquanto intelligente venne proposta dal poeta americano Edgard Allan Poe in un saggio intitolato Eureka: A Prose Poem [cite]http://www.eapoe.org/works/editions/eurekac.htm[/cite], tratto da una conferenza precedente da lui presentata a New York. Vi cito il brano nel riquadro qui accanto (perdonate per la traduzione forse raffazzonata).  Sarebbe bastato indagare un po’ di più sui limiti imposti dalla fisica per capire che la soluzione fino ad allora proposta, ossia che una moltitudine di nebulose oscure avrebbero oscurato la radiazione stellare più distante, non era quella giusta. Invece un universo dinamico in espansione e  che avesse avuto un inizio certo in un momento passato lo sarebbe stato, più o meno come suggerito da H. A. Poe. Con la scoperta della recessione delle galassie grazie agli studi di Edwin Hubble tra il 1920 e il 1923 divenne evidente che l’Universo era in realtà un universo dinamico in espansione come le soluzioni proposte da Lemaitre e Friedmann usando le equazioni di campo di Albert Einstein suggerivano.

La teoria cosmologica del Big Bang, il modello inflazionario

Il quadro che finalmente emergeva dalle equazioni di Friedman e che come ho descritto la volta scorsa tiene conto dell’espansione metrica del tessuto spazio-tempo, dalla recessione delle galassie al paradosso da me citato più volte, indica un inizio temporale dell’Universo nel passato insieme a tutta la materia e l’energia che oggi osserviamo. Per spiegare la piattezza (\(\Omega =1\)) dell’Universo attuale nel 1979 il fisico americano Alan Guth – e indipendentemente da altri cosmologi come il russo Andrej Linde – suggerì che l’Universo subito dopo la sua formazione (da 10-35 secondi a 10-32 secondi) si sia gonfiato così rapidamente da provocare un superaffreddamento della sua energia, da 1027 K fino a 1022 K.  In questa fase tutto l’Universo sarebbe passato dalle dimensioni di 10-26 metri (un centimiliardesimo delle dimensioni di un protone) a 10 metri di diametro, ben 27 ordini di grandezza in una infinitesima frazione di secondo. Durante quest’era chiamata inflattiva, un sussulto nell’energia, un po’ come una campana che risuona dopo esser stata colpita da un battacchio, avrebbe avviato un processo di ridistribuzione dell’energia verso uno stato di equilibro contrastando così il superrafreddamento causato dall’espansione. Questo processo avrebbe finito per far decadere il campo inflativo, chiamato appunto Campo Inflatone e responsabile dell’inflazione iniziale, verso uno stato abbastanza stabile chiamato falso vuoto e provocando una transizione di fase dello stesso campo che ha quindi dato origine a tutta la materia, compresa ovviamente quella oscura, e tutta l’energia che oggi osserviamo nell’Universo.

Permettetemi un breve digressione: Quando accendiamo una candela, facciamo esplodere qualcosa, che sia un esplosivo al plastico oppure del granturco per fare il pop corn, o più semplicemente sentiamo sulla pelle il calore del sole che ha origine nelle reazioni termonucleari al centro della nostra stella, quella è ancora l’energia, riprocessata in migliaia di modi diversi, che scaturì col Big Bang.

Fu appunto quest’era inflattiva, dominata dal campo inflatone a dilatare così tanto l’Universo da fargli assumere l’aspetto così sorprendentemente piatto che oggi conosciamo, una curvatura così ampia da sembrate piatta 1, così vicina al canonico valore di \(\Omega =1\).

L’espansione post inflazionistica: il problema della densità

Se volete dilettarvi sulla transizione di fase, provate a gettare una tazzina d’acqua bollente nell’aria fredda abbondantemente sotto zero. Più o meno è lo stesso processo accaduto al campo inflatone: un campo energetico (l’ acqua calda nella tazzina) che viene liberata nell’aria super fredda (universo inflazionato). Il nevischio sono le particelle scaturite dalla transizione di fase dell’acqua.

Con il suo decadimento, la spinta del campo inflatone cessa di essere il motore dell’espansione dell’Universo ma la spinta continua per inerzia, con una piccola differenza: la presenza della materia.
Ormai il campo inflatone è decaduto  attraverso un cambiamento di fase che ha dato origine a tutta la materia che osserviamo direttamente e indirettamente oggi nel cosmo. Piccole fluttuazioni quantistiche in questa fase possono essere state le responsabili della formazione di buchi neri primordiali [cite]http://ilpoliedrico.com/2016/06/materia-oscura-e-se-fossero-anche-dei-buchi-neri.html[/cite]. Ma al di là di quale natura la materia essa sia, materia ordinaria, materia oscura, antimateria, essa esercita una debolissima forza di natura esclusivamente attrattiva su tutto il resto; la forza gravitazionale. 
Quindi, come previsto dalle succitate equazioni di Friedmann, è la naturale attrazione gravitazionale prodotta dalla materia a ridurre quasi ai ritmi oggi registrati per l’espansione.
Ma tutta la materia presente nell’Universo comunque non pare sufficiente a frenare e fermare l’espansione.
La densità critica teorica dell’Universo \(\rho_c\) è possibile calcolarla partendo proprio dal valore dell’espansione metrica del cosmo espressa come Costante di Hubble \(H_0\) [cite]http://arxiv.org/abs/1604.01424[/cite] secondo le più recenti stime:
$$\rho_c = \frac{3{H_{0}}^2}{8\pi G}$$ 
Assumendo che \(H_0\) valga 73,24 km/Mpc allora si ha un valore metrico di $$H_0=\frac{(73,24\times 1000)}{3,086\times 10^{22}}= 2,3733\times 10^{-18} m$$
Quindi $$ \frac{3\times {2,3733\times 10^{-18}}^2}{8\times\pi\times 6,67259^{-11}}=1,00761^{-26} kg/m^3$$
Conoscendo il peso di un singolo protone (1,67 x 10-24 grammi) o al noto Numero di Avogadro che stabilisce il numero di atomi per una data massa, si ottiene che $$ \frac{1,00761\times 10^{-26}\times 1000}{1,67\times 10^{-24}}= 6,003 $$che sono appena 6 atomi di idrogeno neutro per metro cubo di spazio (ovviamente per valori \(H_0\) diversi anche il valore assunto come densità critica \(\rho_c\) cambia e di conseguenza anche il numero di atomi per  volume di spazio).
Ora se volessimo vedere quanta materia c’è nell’Universo potremmo avere qualche problema di scala. Assumendo una distanza media tra le galassie di 2 megaparsec e usando la massa della nostra galassia a confronto, 2 x 1042 chilogrammi, otterremo all’incirca il valore \(\rho\) quasi corrispondente a quello critico (5 atomi per metro cubo di spazio). Eppure, se usassimo come paragone l’intero Gruppo Locale (La Via Lattea, la Galassia di Andromeda, più un’altra settantina di galassie più piccole) che si estende per una decina di Mpc di diametro per una massa complessiva di appena 8,4 x 1042 kg [cite]http://arxiv.org/abs/1312.2587[/cite], otteniamo un valore meno di cento volte inferiore (0,04 atomi per metro cubo di spazio). E su scala maggiore la cosa non migliora, anzi.
L’Universo appare per quel che è oggi, un luogo freddo e desolatamente vuoto, riscaldato solo dalla lontana eco di quello che fu fino a 380 mila anni dopo il suo inizio.
(fine seconda parte)

Zenone , Olbers e l’energia oscura (prima parte)

Mi pareva di aver già trattato in passato lo spinoso problema dell’Energia Oscura. Questo è un dilemma abbastanza nuovo della cosmologia (1998 se non erro) e sin oggi il più incompreso e discusso (spesso a sproposito). Proverò a parlarne partendo da lontano …

[video_lightbox_youtube video_id=”HRoJW2Fu6D4&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]Alvy: «L’universo si sta dilatando»
Madre: «L’universo si sta dilatando?»
Alvy: «Beh, l’universo è tutto e si sta dilatando: questo significa che un bel giorno scoppierà, e allora quel giorno sarà la fine di tutto»
Madre: «Ma sono affari tuoi, questi?»
(Io e Annie, Woody Allen 1997)

Attorno al V secolo a.C. visse un filosofo che soleva esprimersi per paradossi. Si chiamava Zenone di Elea e sicuramente il suo più celebre fu quello di “Achille e la tartaruga“.
In questo nonsense Zenone affermava che il corridore Achille non avrebbe mai potuto raggiungere e superare una tartaruga se questa in un’ipotetica sfida fosse partita in vantaggio indipendentemente dalle doti del corridore; questo perché nel tempo in cui Achille avesse raggiunto il punto di partenza della tartaruga, quest’ultima sarebbe intanto andata avanti e così via percorrendo sì spazi sempre più corti rispetto ad Achille ma comunque infiniti impedendo così al corridore di raggiungere mai l’animale. Si narra anche che un altro filosofo,  Diogene di Sinope, a questo punto del racconto si fosse alzato e camminato, dimostrando l’infondatezza di quel teorema.
È abbastanza evidente l’infondatezza empirica di quel paradosso, nella sua soluzione Aristotele parlava di spazio e di tempo divisibili all’infinito in potenza ma non di fatto, una nozione oggi cara che si riscopre nella Meccanica Quantistica con i concetti di spazio e di tempo di Planck, ma ragionare su questo ora non è il caso.
Piuttosto, immaginiamoci cosa succederebbe se lo spazio tra \(A\) (la linea di partenza di Achille) e \(B\) (la tartaruga) nel tempo \(t\) che impiega Achille a percorrerlo si fosse dilatato. Chiamiamo \(D\) la distanza iniziale e \(v\) la velocità costante con cui Achille si muove: nella fisica classica diremmo che \(D\) è dato da \(t \times v\), ovvio. Ma se nel tempo \(t/2\) la \(D\) è cresciuta di una lunghezza che chiameremo \(d\), alla fine quando Achille coprirà la distanza \(D\), il punto \(B\) sarà diventato \(D + 2d\) e la tartaruga non sarebbe stata raggiunta nel tempo finito \(t\) neppure se fosse rimasta ferma.

Animazione artistica del Paradosso di Olbers.

Animazione artistica del Paradosso di Olbers.

Se sostituissimo ad Achille un quanto di luce, un fotone come ad esempio il buon vecchio Phòs, e alla pista della sfida il nostro Universo, avremmo allora ricreato esattamente il medesimo quadro fisico. Nel 1826 un medico e astrofilo tedesco, Heinrich Wilhelm Olbers, si chiese perché mai osservando il cielo di notte questo fosse nero. Supponendo che l’universo fosse esistito da sempre, fosse infinito e isotropo (oggi sappiamo che non è vera quasi nessuna di queste condizioni e l’Universo è isotropo solo su grande scala, ma facciamo per un attimo finta che lo siano), allora verso qualsiasi punto noi volgessimo lo sguardo dovremmo vedere superfici stellari senza soluzione di continuità. Questa domanda in realtà se l’erano posta anche Keplero, Isaac Newton e Edmund Halley prima di lui ma non sembrava allora forse una questione importante come invece lo è.
138 anni dopo, nel 1964, due ricercatori della Bell Telephone Company che stavano sperimentando un nuovo tipo di antenna a microonde, Arno Penzias e Robert Wilson [cite]http://ilpoliedrico.com/2014/03/echi-da-un-lontano-passato-la-storia.html[/cite] scoprirono uno strano tipo di radiazione che pareva provenire con la stessa intensità da ogni punto del cielo. Era la Radiazione Cosmica di Fondo a Microonde (Cosmic Microwave Background Radiation) che l’astrofisico rosso naturalizzato statunitense George Gamow negli anni ’40 aveva previsto 1 [cite]https://arxiv.org/abs/1411.0172[/cite] sulle soluzioni di Alexander Friedmann che descrivono un universo non statico come era stato dimostrato dal precedente lavoro di Hubble e Humason sulla recessione delle galassie. Questa intuizione è oggi alla base delle attuali teorie cosmologiche che mostrano come i primi istanti dell’Universo siano stati in realtà dominati dall’energia piuttosto che la materia, e che anche l’Universo stesso ha avuto un’inizio temporalmente ben definito – anzi il tempo ha avuto inizio con esso – circa 13,7 miliardi di anni fa, giorno più giorno meno. Il dominio dell’energia nell’Universo durò fino all’epoca della Ricombinazione, cioè fin quando il protoni e gli elettroni smisero di essere un plasma caldissimo e opaco alla radiazione elettromagnetica e si combinarono in atomi di idrogeno. In quel momento tutto l’Universo era caldissimo (4000 K, quasi come la superficie di una nana rossa). E qui che rientra in gioco il Paradosso di Olbers: perché oggi osserviamo che lo spazio fra le stelle e le galassie è freddo e buio permeato però da un fondo costante di microonde? Per lo stesso motivo per cui in un tempo finito \(t\) Achille non può raggiungere la linea di partenza della tartaruga, lo spazio si dilata.
Electromagneticwave3DI fotoni, i quanti dell’energia elettromagnetica come Phòs, si muovono a una velocità molto grande che comunque è finita, 299792,458 chilometri al secondo nel vuoto, convenzionalmente indicata con \(c\). Queste particelle, che appartengono alla famiglia dei bosoni, sono i mediatori dei campi elettromagnetici. La frequenza di oscillazione di questi campi in un periodo di tempo \(t\) ben definito (si usa in genere per questo il secondo: \(f= 1/t\)) determina la natura del fotone e è indicata con \(f\): più è bassa la frequenza e maggiore la lunghezza d’onda: frequenze molto basse sono quelle delle onde radio (onde lunghe e medie, che in genere corrispondono alle bande LF e  AM della vostra radio, anche se AM sarebbe un termine improprio 2), poi ci sono le frequenze ben più alte per le trasmissioni FM 3, VHF, UHF, microonde, infrarossi, luce visibile, ultravioletti, raggi X e Gamma, in quest’ordine. Tutte queste sono espressioni del campo elettromagnetico si muovono nello spazio alla medesima velocità \(c\), quello che cambia è solo la frequenza: $$f=\frac{c}{\lambda}$$
Ma è anche vero che una velocità è l’espressione di una distanza \(D\) per unità di tempo (\( D=t \times v\)), pertanto nel caso della luce potremmo anche scrivere che \(D=t \times c\). Ma se \(D\) cambia mentre \(c\) è costante, allora è anche \(t\) a dover cambiare. Per questo ogni variazione delle dimensioni dello spazio si ripercuote automaticamente nella natura dei campi associati ai fotoni: un aumento di \(D\) significa anche un aumento della lunghezza d’onda, quello che in cosmologia si chiama redshift cosmologico. Potremmo vederla anche come l’aumento della distanza tra diversi punti di un’onda con i medesimi valori del campo elettromagnetico (creste o valli) ma è esattamente la stessa cosa.
Per questo percepiamo buio il cielo: la natura finita e immutabile della velocità della luce trasla verso frequenze più basse la natura della luce stessa, tant’è che quello che noi oggi percepiamo la radiazione cosmica di fondo a microonde con una temperatura di appena 2,7 kelvin è la medesima radiazione caldissima che permeava l’intero Universo  380000 anni dopo che si era formato.
La migliore stima dell’attuale ritmo di espansione dell’Universo è di 73,2 chilometri per megaparsec per secondo, un valore enormemente piccolo, appena un decimo di millimetro al secondo su una distanza paragonabile a quella che c’è tra il Sole e la stella più vicina. Eppure l’Universo è così vasto che questo è sufficiente per traslare verso lunghezze d’onda maggiori tutto quello che viene osservato su scala cosmologica, dalla luce proveniente da altre galassie agli eventi parossistici che le coinvolgono. Questo perché l’effetto di stiramento è cumulativo, al raddoppiare della distanza l’espansione raddoppia, sulla distanza di due megaparsec lo spazio si dilata per 146,4 chilometri e così via, e questo vale anche per il tempo considerato, in due secondi la dilatazione raddoppia.
Le implicazioni cosmologiche sono enormi, molto più dell’arrossamento della luce cosmologico fin qui discusso. Anche le dimensioni dello stesso Universo sono molto diverse da quello che ci è dato vedere. Noi percepiamo solo una parte dell’Universo, ciò che viene giustamente chiamato Universo Osservabile che è poi è la distanza che può aver percorso il nostro Phòs nel tempo che ci separa dal Big Bang, 13,7 miliardi di anni luce.

Ora dovrei parlare del perché l’Universo si espande e del ruolo dell’Energia Oscura in tutto questo, ma preferisco discuterne in una seconda puntata. Abbiate pazienza ancora un po’.
Cieli sereni.

L’eterno Paradosso di Fermi (III parte)

Mentre nella prima puntata mi sono concentrato sul percorso che parte dalla vita e arriva fino allo sviluppo – almeno sulla Terra – di  una civiltà tecnologicamente avanzata, nella seconda credo di aver ampiamente dimostrato che un realistico piano di colonizzazione galattica non è poi di così difficile attuazione per una società abbastanza avanzata e motivata. Ma allora come rispondere alla domanda di Fermi “Dove sono gli altri?”?
La risposta quasi sicuramente è racchiusa nell’ultima incognita dell’Equazione di Drake: il fattore \(L\) che si occupa di stabilire quanto possa durare una civiltà tecnologicamente evoluta (qualcuno suggerì almeno 10 mila anni). Finora si è sostenuto che essa sottintendesse la capacità di una società tecnologicamente avanzata ad evitare l’autodistruzione per disastri ambientali estremi, guerre nucleari, etc.,  ma dobbiamo prendere in considerazione che possono esserci anche molti altri ostacoli, di certo meno violenti, che comunque portano al collasso di una civiltà in tempi molto più brevi.

Schemi ripetitivi nelle società umane

Le rovine di Tadmor (Palmira), che in aramaico significa Palma. Era conosciuta anche come La sposa del deserto, dove Oriente e Occidente si incontravano sulla Via della Seta.

Le rovine di Tadmor (Palmira), che in aramaico significa palma. Era conosciuta anche come La sposa del deserto, dove Oriente e Occidente si incontravano sulla Via della Seta. Qui sono fiorite e poi estinte molte civiltà  del passato.

Continuando a ipotizzare che il percorso evolutivo della Terra sia tipico anche per il resto dell’Universo, si può ritenere che dall’analisi delle diverse esperienze sociali umane sia possibile estrapolare modelli plausibili che possono poi essere utili a dare una risposta al dilemma di Fermi.
Il caso del drammatico crollo dell’Impero Romano (seguito da molti secoli di declino della popolazione, deterioramento economico  e regressione intellettuale) è ben noto, ma non era che uno dei tanti cicli di  ascesa e crollo delle civiltà europee. Prima della civiltà greco-romana, erano fiorite altre civiltà (come quella minoica e quella micenea) che erano risorte da crolli precedenti e avevano raggiunto livelli molto avanzati di civiltà prima del crollo definitivo. La storia della Mesopotamia è in realtà la somma di varie civiltà sorte e crollate in quei luoghi come Sumer,  l’Impero Akkad, Assiria, Babilonia, etc. [cite]http://goo.gl/i43lrZ[/cite]. Lo stesso può dirsi dell’Antico Egitto, delle diverse civiltà anatoliche (come gli Ittiti), in India (imperi Maurya e Gupta) e nel sud-est asiatico (Impero Khmer). Ci sono inoltre evidenti analogie tra le diverse dinastie dell’Antico Egitto e le varie dinastie imperiali cinesi, dove periodi di splendore si alternavano a periodi di crollo politico e socio-economico.
Anche il Nuovo Mondo non era immune a questi cicli storici. Le civiltà Maya, Inca e Atzeca traevano origine da altre culture precedenti, ma il loro collasso definitivo avvenne col contatto con la civiltà europea che si stava espandendo nel nuovo continente. Le culture nord americane della valle del Mississippi (Cahokia), del sud-ovest americano (Anasazi, Hohokam e Pueblo) e la complessa civiltà polinesiana [1.

Il Triangolo Polinesiano

TongatopTra il 3000 e il 1000 a.C. popolazioni di lingua austronesiana si diffusero in tutte le isole del Sud-Est asiatico. Probabilmente il loro ceppo comune è da cercarsi negli  aborigeni dell’isola di Taiwan (la popolazione attuale dell’isola è di origine cinese perché questa fu al centro di una migrazione su larga scala nel corso del 1600). Le più antiche testimonianze archeologiche mostrano l’esistenza di questa cultura – chiamata Lapita – già 3500 anni fa e che sia apparsa nell’Arcipelago Bismarck , a nord-ovest della Melanesia. Si sostiene che questa cultura sia stata sviluppata là o più probabilmente, di essersi diffusa dall’isola di Taiwan. Il sito più orientale per i resti archeologici Lapita recuperati finora si trovano nelle isole di Mulifanua e Upolu. Il sito Mulifanua ha un’ età di circa 3.000 anni stabilita con la datazione C14.
Nel giro di soli tre o quattro secoli circa tra il 1300 e il 900 a.C., la cultura Lapita – che includeva anche la ceramica, si diffuse 6.000 km più a est dell’arcipelago di Bismarck, fino a raggiungere le Figi, Tonga e Samoa. Intorno al 300 a.C. questo nuovo popolo polinesiano si diffuse da est delle Figi, Samoa, Tonga fino alle Isole Cook, Tahiti, le Tuamotu e le Isole Marchesi.
Tra il 300 e il 1200 d.C. (la data è incerta), i polinesiani scoprirono e si installarono nell’Isola di Pasqua. Questo è supportato da evidenze archeologiche, nonché dall’introduzione di flora e fauna coerente con la cultura polinesiana e le caratteristiche climatiche di quest’isola. Intorno al 500 d.C., anche le Hawaii vennero colonizzate dai polinesiani mentre solo intorno all’anno 1000, quest’ultimi colonizzarono infine la Nuova Zelanda.] si estinsero da sé dopo secoli di dominio culturale.
Tutto questo dimostra che l’evoluzione dei gruppi sociali segue da sempre dei cicli di crescita e declino, come dimostrano anche altri studi sulle società neolitiche [cite]http://goo.gl/Qg0dcC[/cite]. Di solito questi cicli di espansione e declino (della durata media di 300-500 anni) non sono frutto di eventi eccezionali come epidemie o cataclismi naturali, ma sono il frutto di una rapida crescita della popolazione unito allo sfruttamento naturale oltre i livelli sostenibili.

I modelli sociali

Uno serio studio sugli schemi evolutivi dei gruppi sociali è stato fatto nel 2012 da Safa Motesharrei e Eugenia Kalnay dell’Università del Maryland e Jorge Rivas dell’Università del Minnesota [cite]http://goo.gl/Em99bt[/cite]. Gli autori hanno ridotto gli schemi sociali a poche macrovariabili capaci comunque di descrivere abbastanza fedelmente le dinamiche che governano una società:

  • Popolazione (elite e popolo)
  • Risorse (esauribili e rinnovabili)
  • Ricchezza (risorse redistribuite)
[virtual_slide_box id=”4″]

Il modello adottato per questo studio è anche quello che più si ritrova in natura: il Modello Predatore vs Preda; per questo è anche quello che probabilmente può descrivere di più una possibile società extraterrestre. Infatti il modello predatore-preda – in questo caso gli esseri umani e la natura – è piuttosto comune presso anche molte altre specie animali.

In sintesi, i risultati ottenuti indicano che i crolli sociali storici (come l’eccessivo sfruttamento delle risorse naturali e/o una forte disparità economica tra le diverse classi sociali) possono essere causa di un crollo completo delle civiltà, come è avvenuto per l’Impero Romano, i Maya e la società Lapita.

L’unicità che contraddistingue la specie umana dagli altri animali è la sua capacità di accumulare grandi eccedenze (cioè ricchezza) per tamponare in parte o del tutto i periodi di scarsità di risorse quando esse non possono più soddisfare le esigenze abituali di consumo. Questa è la stessa capacità che ha permesso alla specie umana di creare strutture sociali più complesse del semplice branco e l’evolversi dell’intelligenza.
Queste strutture di solito prevedono che sia una elìte a controllare la quantità di eccedenze  prodotte e a redistribuire il minimo utile al resto del gruppo. Questa stratificazione sociale è importante per la dinamica del ciclo di evoluzione del gruppo sociale. Senza entrare nel dettaglio delle simulazioni, che comunque consiglio a chiunque fosse interessato di leggere, gli scenari presi in considerazione sono diversi e ognuno di loro presenta delle criticità evidenti che comunque convergono tutte verso uno scenario di crollo quando le sfruttamento delle risorse pro capite (ricchezza distribuita) supera il tasso di risorse  (pro capite) disponibile;  in fondo questo è quel che succede a tutti gli organismi viventi in natura quando le risorse diventano troppo scarse. Proverò a riassumere i quattro quadri che a mio giudizio sono i più indicativi:

  1. Modello sociale diseguale
    Una qualsiasi redistribuzione ineguale di ricchezza porta alla stratificazione sociale, dove l’elìte può permettersi di sopravvivere ai periodi di carestia a scapito del resto del gruppo che è invece destinato al declino dopo aver esaurito la sua parte di ricchezza. Il risultato è un crollo sociale, spesso accompagnato da episodi violenti e rifiuto di ciò che è stato, un po’ come avvenne con la Rivoluzione Francese. Un modo per invertire la tendenza verso il collasso richiede scelte politiche importanti come il controllo della crescita della popolazione e la riduzione delle diseguaglianze sociali.
  2. Modello sociale egalitario
    Anche una redistribuzione equa comunque non è affatto esente dal crollo sociale se la produzione di ricchezza supera la quantità di risorse disponibili; magari non è altrettanto brusca e violenta quanto la prima ipotesi ma lo scenario finale è comunque lo stesso: calo demografico e regressione culturale. Anche qui l’unica soluzione è che in qualche modo sia raggiunto un equilibrio tra risorse naturali consumate e quelle redistribuite.
  3. Modello sociale equilibrato
    Una qualsiasi società che impari a bilanciare la ricchezza prodotta con le risorse disponibili (non importa se il modello redistributivo sia equo o ineguale) non è esente da fenomeni di declino sociale, ma magari subisce oscillazioni più o meno ampie attorno ai valori che non le consentono affatto di evolversi (stagnazione sociale). In questo caso la destinazione di parte della ricchezza per progetti diversi alla semplice sopravvivenza del gruppo sociale potrebbe portare al suo crollo definitivo.
  4. Modello sociale espansionismo egalitario
    L’unico scenario che resta possibile è quello dell’espansione continua. Lungi da me giustificare scientificamente l’imperialismo europeo, resta comunque il dato che se l’Europa post-rinascimentale non avesse cercato altre vie per attingere risorse, non sarebbe sopravvissuta alle guerre al suo interno, mentre L’impero Romano segnò il suo destino quando decise di interrompere le sue conquiste, le risorse furono distratte per fronteggiare il malcontento interno e le elìte erano impegnate più a badare alle proprie ricchezze che alla cura dell’Impero.
    Quindi una società equa che si ponesse l’obbiettivo di espandere la sua area di sfruttamento delle risorse naturali disponibili è lo scenario a lungo termine preferibile, perché allontanerebbe da sé ogni rischio di conflitto sociale causato dalla stratificazione economica e dall’esaurimento delle ricchezze che potrebbero portare ad un crollo della civiltà, e sarebbe immune alla quasi altrettanto triste ipotesi della stagnazione del modello sociale equilibrato.

Ma quello che è più evidente è che se una qualsiasi civiltà inizia a erodere le risorse ambientali del proprio mondo troppo in fretta rispetto al naturale tasso di ricostituzione (come accade adesso per il caso terrestre) tende quasi inevitabilmente al collasso prima che possa acquisire la capacità di poter sfruttare l’inesauribile riserva di risorse posta al di fuori del suo pianeta.

Conclusioni

Dopo aver quindi ripercorso la vicenda terrestre, possiamo tentare di imporre qualche limite alle ipotesi di risposta alla domanda di Fermi.

  • Le attuali conoscenze scientifiche umane affermano che niente è più veloce della luce nel vuoto e che esplorare la galassia sarebbe certamente possibile ma unicamente a senso unico; anche le comunicazioni interstellari sarebbero comunque troppo lente per poter intavolare qualsiasi forma di dialogo con altre civiltà. Alla luce dell’importanza delle risorse naturali necessarie allo sviluppo di una civiltà planetaria è anche lecito supporre che una civiltà extraterrestre potrebbe considerare solo una grande perdita di tempo e spreco di risorse tentare intenzionalmente una qualsiasi forma di comunicazione con mezzi tradizionali (onde radio, laser etc).
  • Le condizioni per poter ospitare un pianeta di tipo terrestre nella nostra galassia esistono da almeno 8 miliardi di anni, anche se questo non significa necessariamente che ci siano pianeti  che ospitino o meno alcuna forma di vita.
  • Per la Terra sono occorsi 4 miliardi di anni prima che le più semplici forme di vita si evolvessero in organismi ben più complessi. Estrapolando questi dati verso altri mondi si può ragionevolmente ipotizzare che, se non avvengono fenomeni parossistici capaci di sterilizzare un pianeta come una supernova o un GRB vicino, oppure una improvvisa instabilità stellare o del sistema planetario, occorrono dai 4 ai 6 miliardi di anni per avere forme di vita complesse capaci di adattarsi – e adattare – l’ambiente circostante e sviluppare una qualche primitiva forma di consapevolezza.
  • Continuando ad usare lo stesso metro terrestre come paragone si ottiene che una qualche forma di intelligenza e tecnologia potrebbe essersi sviluppata su altri mondi tra gli 800 milioni e 5 miliardi di anni fa. Una civiltà così evoluta o potrebbe nel frattempo essersi estinta come illustrato in questo studio o aver trovato il modo  di prevenire il suo collasso imparando a gestire le sue risorse disponibili..

Anche se non è detto che il percorso vita – consapevolezza – intelligenza – tecnologia avvenga sempre e comunque su tutti i pianeti potenzialmente adatti, ognuna di queste condizioni deve superare delle criticità che possono compromettere uno qualsiasi degli stadi successivi. A fronte di qualche decina di milioni di pianeti potenzialmente disponibili forse in questo momento la Galassia può contare di ospitare una decina o forse meno di Civiltà tecnologicamente evolute tanto da dedicarsi all’esplorazione dello spazio e dotate di capacità di ascolto, ma questo porta a supporre che esse possono anche essere troppo lontane fra loro perché possa avvenire un qualsiasi contatto.


Note:

L’eterno paradosso di Fermi (parte II)

L’aspetto più curioso da comprendere circa il paradosso di Fermi è che non affatto necessario viaggiare più veloce della luce per colonizzare la galassia. Ma allora la domanda di Fermi “Dove sono tutti gli altri?” diventa ancora più importante, tanto che una delle possibili risposte può spaventare: “Gli alieni non sono qui perché non esistono. Siamo l’unica specie senziente e tecnologica di tutta la galassia“.
Le conseguenze in questo caso sarebbero meravigliose e terrificanti allo stesso tempo …

La colonizzazione dello spazio

L'interno di un'a possibile arca spaziale, una Sfera di Bernal. Credit: Rick Guidice - NASA Ames Research Center

L’interno di un’a possibile arca spaziale generazionale, una Sfera di Bernal.
Un habitat simile può essere ricavato scavando l’interno di alcuni asteroidi più grandi. Una sfera di 16 km di diametro potrebbe ospitare stabilmente dai 20 ai 50 mila abitanti.
Credit: Rick Guidice – NASA Ames Research Center

Il cinema e la fantascienza televisiva hanno talmente condizionato l’immaginario collettivo fino a far passare il messaggio che solo le tecnologie che consentono viaggi superluminari possono rendere possibile la colonizzazione interstellare.
Questo non è poi del tutto vero, per arrivare  fino alla stella più vicina nell’arco di tempo di una vita umana, mettiamo 75 anni, basterebbe viaggiare a 6 centesimi della velocità della luce, cioè ad appena 18000 chilometri al secondo. E anche se per ora ci appaiono come velocità ancora improponibili per la nostra attuale tecnologia, esse sono quasi sicuramente raggiungibili in un futuro abbastanza prossimo piuttosto che aspettare – forse mai – di viaggiare alla velocità della luce. Inoltre queste velocità avrebbero dalla loro i vantaggi di rendere irrilevanti gli effetti relativistici e le radiazioni indotte dalle velocità.
Certo, sarebbero dei viaggi di sola andata, un po’ come quelli dei pionieri della frontiera americana o dei coloni australiani, ma non sarebbero richieste le avveniristiche tecnologie di Star Trek o i sofisticati metodi di ibernazione suggeriti in Alien 1. Sarebbero delle arche spaziali, strutture artificiali ecologicamente autosufficienti capaci di sostenere una popolazione di diverse migliaia di persone, magari costruite all’interno di asteroidi o partendo dai materiali estratti da essi. I nuovi coloni sarebbero gente del tutto comune, perlopiù agricoltori, tecnici e artigiani, consapevoli che il loro sacrificio darà i suoi frutti solo ai discendenti.

Questo significa che qualsiasi civiltà con un grado di sviluppo paragonabile al nostro da qui a cento anni sarebbe in grado di colonizzare l’intera galassia nell’arco di pochi milioni di anni.
Nell’arco di poche centinaia di migliaia di anni, un battito di ciglia nell’età di una tipica galassia, una qualsiasi civiltà tecnologicamente evoluta può colonizzare interi settori di spazio con i suoi discendenti usando semplicemente arche generazionali  che consentono unicamente viaggi di sola andata.
Nel giro di diecimila anni e con un intervallo di 500 anni tra un viaggio e l’altro una qualsiasi civiltà abbastanza determinata può raggiungere almeno 100 mila stelle. Della civiltà originale a quel punto ne sopravvivrebbe forse solo il mito. Un mito delle Origini Lontane che potrebbe addirittura perdersi nell’oblio dopo i tanti passaggi necessari alla colonizzazione del cosmo; un piccolo prezzo in fondo per aver avuto il coraggio di abbracciare la Galassia.

Alcune risposte

Scala di Kardašëv

 La scala Kardashev  fu proposto per la prima nel 1964 dall’astronomo  russo Nikolai Kardashev. Essa  è un metodo per misurare il livello tecnologico di una civiltà basato sulla quantità di energia che essa è in grado di utilizzare. La scala è composta da almeno cinque livelli:
Una civiltà di tipo I utilizza tutte le risorse disponibili sul suo pianeta natale (\(4\times 10^{12}\) watt), il tipo II sfrutta tutta l’energia della sua stella (\(4\times 10^{26}\) watt), quella di tipo III della sua galassia (\(4\times 10^{37}\)  watt), mentre quella di tipo IV è in  grado di controllare l’energia di un intero superammasso di galassie (\(1\times 10^{46}\)  watt).
Il livello successivo, il tipo V, sarebbe invece capace di controllare tutta l’energia dell’universo visibile (\(1\times 10^{56}\)  watt), come Frank Tipler e  John Barrow suggeriscono con il loro Principio Antropico Ultimo.
Successivamente l’astronomo americano  Carl Sagan definì un metodo per calcolare, a partire dai tipi iniziali, anche i decimali, per mezzo della seguente formula: \(K = \frac{\log_{10}{W}-6} {10} \) nella quale K rappresenta il livello di civiltà della scala e W i watt utilizzati. Secondo questo metodo la civiltà umana sarebbe ad un livello di 0,7.

La scala è solo ipotetica, ma mette consumo di energia in una prospettiva cosmica.

Con tutte queste premesse ecco perché diventa importante la domanda di Fermi “Dove sono gli Altri?”. Ragionevoli supposizioni teoriche ci mostrano – come descritto nella prima parte – un universo brulicante di vita e, in alcuni casi, intelligente. Insieme a quanto descritto qui sopra sappiamo che le civiltà aliene abbastanza evolute e determinate possono arrivare a colonizzare buona parte della Galassia nel giro di poche centinaia di migliaia di anni; è quindi lecito immaginare che prima o poi altre razze aliene potrebbero aver visitato e magari lasciato qualche loro manufatto a memoria del loro passaggio, magari se non sulla Terra ma comunque nel Sistema Solare.
Per la nostra scala il Sistema Solare è enorme, abbiamo imparato a studiarlo da appena 400 anni coi telescopi e da 40 con le sonde automatiche; non è certo molto ma finora di manufatti alieni come per esempio il monolite suggerito da Arthur C. Clarke nel romanzo 2001 Odissea nello spazio (probabilmente un sonda di von Neumann 2 ) non è stata trovata alcuna traccia, né qui sulla Terra e né là fuori. Questo ovviamente non esclude che la Terra sia mai stata visitata in passato o che possa esserlo in futuro, è che a tutt’ora non esistono prove per affermare che sia mai accaduto.
Le risposte allo storico quesito si sprecano: la non contemporaneità dello sviluppo delle civiltà nella nostra galassia che limiterebbe l’esistenza a pochissime civiltà – o forse nessun’altra – nello stesso periodo temporale e nel raggio di comunicazione; di conseguenza esse possono essere troppo lontane sia nel tempo che nello spazio per potersi accorgere di noi e noi di loro. Il che ci renderebbe unici, almeno in quest’angolo remoto dell’Universo, e pertanto immensamente preziosi; sarebbe un vero insulto al Creato se per qualche nostra sconsiderata miopia o per qualche irresponsabile egoismo dovessimo estinguerci, In questo istante dello spazio-tempo potremmo essere l’unico momento in cui l’Universo inizia lentamente a prendere coscienza di sé stesso!

Oppure, secondo un loro codice etico, ogni civiltà interstellare ha deciso di non contattarci perché non ci ritiene abbastanza maturi per un Primo Contatto e ha deciso che noi ci si debba sviluppare in totale autonomia fino a che non saremmo pronti ad affrontare un simile evento 3. Questo però non esclude sporadiche visite al nostro sistema solare o che comunque potremmo essere  noi quelli osservati di nascosto [cite]http://goo.gl/Nxd098[/cite]. Una variante di questa linea di pensiero è che a causa della nostra – ancora – immaturità tecnologica e/o morale potremmo rappresentare un pericolo per noi e/o gli altri casomai venissimo in possesso di tecnologie più avanzate delle nostre; questo motivo spingerebbe le altre civiltà aliene a starsene in disparte allo stesso modo in cui un adulto responsabile tiene fuori portata dei bambini di casa gli oggetti più pericolosi ed evita di maneggiarli davanti a loro.

La sonda berserker di un episodio di Babylon 5

La sonda berserker di un episodio di Babylon 5

Un’altra idea non banale e che riprende un po’ l’ultimo concetto espresso, è quello che vuole che in questo momento esistano solo poche civiltà, o forse addirittura solo una, dominanti e che vedono come un potenziale pericolo qualsiasi altra civiltà abbastanza sviluppata. È nel loro interesse far sì che le altre civiltà emergenti – come la nostra – non rappresentino per loro una minaccia. In questo caso possono impedirne l’evoluzione, manipolarne lo sviluppo o addirittura cancellarle. Magari queste civiltà aliene possono aver creato sonde Berserker 4 – che magari potrebbero benissimo, a patto che le si riconosca, essere scambiate per degli innocui manufatti alieni – con lo scopo di testare il grado di sviluppo delle civiltà emergenti ed annientarle qualora si dimostrino un potenziale pericolo.
Costruite sullo stesso principio delle sonde di von Neumann, le Berserker avrebbero il compito di eliminare le civiltà emergenti oppure di adattare i pianeti (noi diremmo terraformazione) alla successiva ondata di colonizzazione; in fondo il risultato è lo stesso.
Comunque la storia delle sonde di von Neumamn, le Berserker o altri tipi di sonde automatiche che teoricamente sono capaci di visitare ogni angolo della galassia in pochi milioni di anni [cite]http://goo.gl/REwAME[/cite] sposta solo la domanda principale “Dove sono gli altri?” a “Dove sono queste sonde?“.
A parte il fatto che – come ho detto prima – probabilmente  non le sapremmo neppure riconoscere per quanto ci apparirebbero aliene, questa domanda se la pose il fisico americano Frank Tipler nel 1981, il quale giunse alla conclusione che questo genere di sonde interstellari non potrebbero esistere perché semplicemente non esisterebbero neanche i loro costruttori [cite]http://goo.gl/vHGkcB[/cite], sostenendo quindi in pratica l’unicità della specie umana in quest’angolo del cosmo. Carl Sagan e William Newman replicarono che Tipler aveva in realtà sottovalutato il tasso di replicazione delle sonde nei suoi calcoli, e che – secondo i due scienziati – nel caso della loro esistenza, queste macchine avrebbero già dovuto iniziare a consumare la maggior parte della massa della galassia; consapevole del pericolo quindi, una razza intelligente non progetterebbe mai simili macchine, ma che anzi si sarebbe spesa per eliminare qualsiasi tecnologia autoreplicante potesse incontrare [cite]http://goo.gl/J6pacL[/cite]. Come spesso accade, però anche qui la verità potrebbe essere nel mezzo: magari una civiltà che volesse davvero avvalersi delle sonde di von Neumann può benissimo programmarle con un tasso di replicazione limitato (il che comporterebbe anche una molto minore capacità di diffusione nella Galassia), programmarle per avere il massimo riguardo per ogni forma di vita, di disattivarsi in questo caso e di riprodursi solo ove questo non possa arrecare danno alla vita autoctona.

E se tutto quello ce conosciamo fosse semplicemente il frutto di un esperimento di laboratorio?

E se tutto quello ce conosciamo fosse semplicemente il frutto di un esperimento di laboratorio?

Invece un’inquietante ipotesi prende spunto dal racconto di Isaac Asimov “Coltura Microbica” 5 dove si suggerisce che l’umanità sia in realtà un esperimento genetico condotto da  altre intelligenze aliene superiori a noi quanto – noi – lo siamo ai nostri microbi. In questo caso la risposta alla domanda di Fermi è semplice: la realtà che percepiamo è in realtà un’illusione creata allo scopo di testare le nostre reazioni come fossimo cavie da laboratorio; e che se casomai arrivassimo un giorno ad un contatto alieno è perché lo hanno voluto le entità superiori che ci studiano.
Un ‘intero universo che magari è una simulazione governata da un supercomputer, come in Matrix, oppure una simulazione come quelle che Frank Tipler suggerisce, e che per molti è solo pseudoscienza, nella sua Teoria del Punto Omega [1. Il concetto di Punto Omega fu introdotto per primo dal gesuita paleontologo Pierre Teilhard de Chardin (1881 – 1955) nelle discussioni tra scienza e religione come un riferimento al Cristo come l’obiettivo finale del processo evolutivo. La teoria del fisico e matematico Frank Tipler The Point Theory Omega, ispirata comunque dal pensiero del gesuita, è ben lontana dall’originale.  Questa teoria fu avanzata in una serie di articoli pubblicati verso la fine del 1980 e reso popolare nel 1994 nel libro La fisica dell’immortalità. Qui Tipler teorizzò che al termine dell’universo (chiuso) tutta la materia convergerà verso un infinito punto onnisciente chiamato Omega seguendo le normali leggi fisiche e le loro conseguenze; la Vita infatti è una di quelle. Anche se nell’idea del Punto Omega si scorge un figura onnisciente e onnipresente come il Dio del teismo tradizionale, questo è il frutto della convergenza di tutte le leggi fisiche, non il Dio dettato dalla fede religiosa.].

Principio Antropico Forte

L’universo possiede tutte quelle proprietà (leggi fisiche) che ad un certo punto della sua storia permettono l’esistenza di osservatori  al suo interno.”

Questa teoria in pratica è un’estensione del cosiddetto Principio Antropico Forte che si spinge fino alla sua sua riformulazione in “L’universo possiede quelle proprietà (leggi fisiche) che portano allo sviluppo della vita intelligente in modo tale che essa possa poi acquisire vita eterna anche attraverso mezzi tecnologici“. Diventare eterna e onnisciente significa che prima o poi la vita acquisirà il controllo totale dell’Universo, una civiltà con un livello tecnologico spaventoso, di tipo V nella scala Kardashev che forte di tutta l’energia che può controllare può eseguire simulazioni reali di ogni suo momento passato. Scoprire così che la risposta al Quesito di Fermi è che noi potremmo essere soltanto una simulazione è quasi altrettanto inquietante che scoprire di essere una coltura microbica.

Oppure più realisticamente siamo noi che non sappiamo cosa, come e dove ascoltare per trovare le altre civiltà aliene. Magari l’ipotesi di Giuseppe Cocconi (anche lui conobbe Enrico Fermi e ebbe l’occasione di lavorare all’Istituto di Fisica di via Panisperna) e Philip Morrison di aspettarci comunicazioni interstellari nei pressi dei 21 cm di lunghezza d’onda è sbagliata, forse ancora non abbiamo la più pallida idea di come un segnale alieno potesse essere modulato, di come i dati potrebbero essere stati codificati all’interno del segnale e neppure che tipo di dati aspettarci. Magari gli alieni comunicano tra loro in  modi completamente a noi sconosciuti, modulando magari fasci di neutrini o sfruttando l’entanglement quantistico. O magari semplicemente … non ci sono, o forse ci sono stati nel passato del nostro pianeta, quando ancora appariva totalmente inospitale alla vita da non ritenersi adatto, fino a che qualcuno ha pensato di usarlo come incubatrice per la sua discendenza.
Questa è la Panspermia Guidata; una teoria che ipotizza che un’antica civiltà consapevole della propria estinzione avrebbe disseminato il proprio DNA o una reingegnerizzazione di esso. La cosa curiosa è che fu proprio il Nobel Francis Crick (uno degli scopritori della struttura a doppia elica del DNA) ad avanzare per primo questa teoria nel lontano 1973,  sostenendo che il DNA è troppo complesso per essere di origine naturale. Certo che scienziati e biologi finora non sono ancora riusciti a riprodurre i passi che separano la Non-Vita dalla Vita, ma comunque – come ho scritto nella prima parte di questo articolo – il puzzle si sta pian piano componendo. Tornando all’idea di Crick che una lontana – nello spazio e nel tempo – civiltà avesse disseminato nel cosmo i mattoni della nostra esistenza è allettante e allo stesso tempo non risponde affatto al quesito principale in quanto adesso dovrebbero esserci migliaia di altre specie aliene più o meno simili a noi e all’incirca col nostro stesso grado di sviluppo tecnologico  (nella scala Kardashev) nella Galassia.

Tornando un attimo alle navi-arca, potrebbe a questo punto della discussione speculare che potremmo essere noi i discendenti di una antica colonia proveniente da un altro mondo di coloni, anch’essi provenienti da una civiltà ormai scomparsa da eoni. Gli animali che prosperano con noi potremmo averli portati appresso da qualche altro mondo; oppure no? In questo caso dovremmo trovare traccia di organismi assolutamente estranei a noi nel lontano passato del la Terra. E invece parte del nostro genoma lo si ritrova in organismi ancestrali a noi molto lontani, perfino con i dinosauri abbiamo qualcosa in comune perché entrambi discendiamo da organismi comuni più semplici.
Forse la risposta al quesito di Fermi è in una di queste risposte o forse risiede nel fattore \(L\) dell’equazione di Drake che si occupa di stabilire quanto possa esistere una civiltà tecnologicamente evoluta. Proverò a spiegare questo nella prossima parte.

(fine  seconda parte)

Note:

L’eterno paradosso di Fermi (parte I)

Se il dialogo da cui scaturì il celebre Paradosso di Fermi [cite] http://www.fas.org/sgp/othergov/doe/lanl/la-10311-ms.pdf[/cite] abbia mai avuto luogo o meno non sta a me accertarlo, ma ormai esso è talmente entrato nell’immaginario collettivo che è diventato come la celebre Mela di Newton. Apocrifa o meno, comunque è una leggenda a cui merita dare una risposta. Una risposta che per certi versi è come tentare di risolvere l’Equazione di Drake o almeno l’ultima e più grande incognita dell’Equazione: il fattore \(L\) 1. A differenza di altri studi passati, qui si è cercato di basare questo studio sull’ipotesi (altrettanto opinabile quanto supporre l’esistenza certa di altre forme di vita intelligenti nell’universo basandosi sul fatto che Noi esistiamo) che l’esperienza umana sia tipica anche per il resto dell’universo. Partendo da questa ipotesi si è infine tentato di applicare le stesse spinte sociali umane per tentare una risposta a questa domanda.

“Ammesso che la vita sia un fenomeno abbastanza comune nell’Universo, allora dove sono gli altri?”

ienLa domanda precisa di Fermi pare che fosse posta in termini diversi, ma il succo non cambia. Anche se per ora conosciamo  soltanto un luogo dell’Universo dominato dalla Vita, molte attuali scoperte e conoscenze portano a credere che essa sia un fenomeno abbastanza comune nel cosmo. Sono state infatti trovate traccie di molecole organiche 2 complesse nelle comete, nei meteoriti e nelle nubi interstellari [cite]http://www.cv.nrao.edu/~awootten/allmols.html[/cite], scoperte influenze quantistiche nei meccanismi biomolecolari [cite]http://goo.gl/6Gq7SQ[/cite], nella trascrizione del DNA [cite]http://goo.gl/U5G9TN[/cite] e anche le stesse leggi fisiche fondamentali che governano la materia inanimata pare che svolgano un ruolo essenziale nella formazione delle ben più complesse strutture necessarie allo sviluppo della vita stessa [cite]http://goo.gl/fexb02[/cite].  Le molecole organiche complesse sono un fondamentale passo per lo sviluppo successivo di catene proteiche ancora più complesse necessarie alla nascita della Vita 3.
Per questi motivi è lecito pensare che lo sviluppo della Vita non ponga poi dei paletti molto stringenti; fondamentalmente le serve solo abbastanza tempo per attecchire sui mondi dove sia presente un flusso abbastanza stabile nel tempo di energia da sfruttare per sé.
Un altro aspetto spesso trascurato ma fondamentale per la Vita è l’ambiente cosmico in cui essa può attecchire. La Terra è in una posizione piuttosto periferica della Via Lattea, circa 7,62 kpc (più o meno 26 000 anni luce) dal centro galattico. Questa è una zona piuttosto tranquilla dalle turbolenze gravitazionali – e non solo – del nucleo galattico. Può sembrare una cosa di poco conto ma anche la posizione nella galassia invece è rilevante [cite]http://goo.gl/RGVZSB[/cite] per stabilire in linea di massima quali possibilità ha ogni pianeta di supportare la Vita.
Con un ambiente sostanzialmente privo di pericoli, una fonte di energia costante destinata a durare qualche miliardo di anni (come quelle fornite da stelle medio-piccole nella loro sequenza principale [cite]http://goo.gl/7waC7J[/cite]), si può altrettanto ragionevolmente supporre che anche le più semplici forme di vita procariotiche possono evolversi prima o poi in strutture multicellulari molto più efficienti e diversificate.
Ora rimane la domanda più difficile: anche ammesso che la Vita sia abbastanza comune nell’Universo, per contro quanto può esserlo l’intelligenza?
orologio-geologicoNon avendo altri metri di paragone, guardiamo un attimo a ritroso la storia della Vita sulla Terra, ammettendo per un attimo che essa sia tipica nell’Universo. Dal diagramma qui accanto si nota che le prime forme di vita procariotiche si svilupparono sulla Terra 3,8 – 3,4 miliardi di anni fa. Eppure, forme di vita moderne, complesse quasi quanto quelle attuali, sono comparse solo 541 milioni di anni fa con quella che è stata chiamata Esplosione Cambriana. I motivi di quell’improvviso sviluppo di forme di vita – tanto che in passato questo aveva addirittura messo in crisi l’ipotesi dell’evoluzione darwiniana ma che probabilmente poi tanto repentino non fu  – non sono ancora del tutto noti 4 ed esulano dall’argomento di questo studio, ma tutto questo significa che le forme di vita superiori sono presenti su questo pianeta per un periodo che rappresenta appena il 12% della sua storia.
Recentemente si è iniziato a comprendere che alcune caratteristiche neurali – come la consapevolezza e la capacità di elaborazione  – finora considerate  tipiche dei primati e dei mammiferi e ritenute residenti nella neocorteccia in realtà siano molto più primitive e antiche, tanto da far supporre che esse si siano sviluppate ed evolute insieme alla vita animale [cite]http://goo.gl/Iw0GkJ[/cite]. Questo ovviamente suggerisce che dato un tempo abbastanza lungo, è inevitabile che prima o poi si sviluppi una specie con capacità senzienti [cite]http://goo.gl/OQPIFM[/cite] [1. Molti scienziati suggeriscono al contrario che i dinosauri – che non erano senzienti neppure lontanamente di quanto lo fosse il più lontano primate –  se non si fossero estinti 65 milioni di anni fa adesso la Terra sarebbe ancora dominata da quegli stupidi bestioni che erano esistiti per 165 milioni di anni. Eppure è anche lecito supporre che prima o poi una crisi alimentare o climatica abbastanza seria – come accadde ai primati nostri antenati quando dovettero adattarsi alla savana – avrebbe potuto selezionare una forma rettile più adatta e magari più capace di altri di manipolare consapevolmente l’ambiente circostante; questo purtroppo non ci è dato saperlo.].

Dalla vita alla tecnologia – l’esperienza sulla Terra

Gli esseri viventi che si mostrano capaci di manipolare l’ambiente circostante non necessariamente posseggono una qualche intelligenza evoluta; più o meno un po’ tutte le specie animate lo fanno: dalle stuoie microbiche dei coralli marini che seguono le correnti oceaniche fino agli uccelli coi loro nidi, ai castori con le loro dighe fino ai primati più evoluti. E anche inventarsi nuove strategie di sopravvivenza borderline come hanno imparato certi corvi [cite]http://goo.gl/9aFBMc[/cite] o sapersi adattare alle mutate condizioni ambientali come fanno le piante non indica necessariamente una qualche forma di raziocinio.

L'albero dell'evoluzione umana

L’albero dell’evoluzione umana

Definire cosa sia l’intelligenza ci porterebbe troppo fuori dal seminato ma si può supporre che la sopravvivenza in un contesto inospitale come lo era la savana africana 5 qualche milione di anni fa e la perenne competizione con altri predatori naturali molto più abili, abbiano selezionato tra gli ominidi che più erano capaci di elaborare convenienti strategie di sopravvivenza 6. Non appena la raccolta di risorse necessarie alla sopravvivenza quotidiana superò stabilmente il loro consumo, quella stessa capacità di elaborazione prima indirizzata a garantire la continuità del gruppo e dell’individuo ecco che diventa linguaggio, pensiero astratto e logica; in altre parole, intelligenza.
I primi ominidi si svilupparono da precedenti primati circa 6 milioni di anni fa ma l’uomo moderno risale ad appena 45 mila anni fa, questo per dire quanto  comunque lunga e difficile sia stata la strada che ha portato dai primati consapevoli all’Homo Sapiens dotato di intelligenza.
Ma analizzando più da vicino questi ultimi 45 mila anni vediamo che solo una civiltà, la nostra, si è evoluta abbastanza da sviluppare l’esplorazione spaziale. Il livello tecnologico che oggi abbiamo è frutto della globalizzazione delle idee e delle conoscenze che 500 anni di esplorazioni e di egemonia economico-politica europea hanno esportato nel mondo. A sua volta la civiltà europea ha radici che affondano nella cultura greca e più giù fino a alle estinte civiltà mesopotamiche. Adesso non possiamo ovviamente sapere se qualcuna delle altre civiltà esistite nell’arco della storia umana avrebbe potuto sviluppare un qualche interesse per lo spazio e le comunicazioni interstellari.
Fino al XVII secolo la Cina è stata per molti versi la nazione tecnologicamente  più evoluta del globo. Essi conoscevano la polvere pirica, i razzi e la stampa ben prima degli europei, già nel XI secolo avevano conoscenze matematiche che in Europa si sarebbero viste soltanto nel XVI secolo [cite]http://goo.gl/xqxbMc[/cite] ed erano eccellenti osservatori del cielo. Però nonostante tutto era una società tradizionalista, e anche se padroneggiavano benissimo l’ingegneria navale 7 non furono mai degli esploratori come gli europei che, nonostante le continue guerre che martoriavano il continente politicamente frammentato, erano sempre in cerca di nuove risorse da sfruttare 8.
Altre realtà sociali raccontano una ben altra storia. Moltissime altre culture isolate o comunque refrattarie all’integrazione verso la nostra cultura tecnologica (Indios dell’Amazzonia, Aborigeni australiani, molte società tribali africane etc.) si sono limitate ad usare le risorse ambientali disponibili e a fermarsi lì. Alcune non hanno mai sviluppato interesse allo sfruttamento intensivo del territorio e al commercio (magari sostituito dal baratto o dalla semplice appropriazione), e preferito la stagnazione culturale adottando un modello di società tribale che a noi appare primitivo. In molti casi l’inospitalità ambientale ha costretto loro alla continua lotta per la semplice sopravvivenza del gruppo (Aborigeni australiani), mentre in altri casi (Indios dell’Amazzonia)  è accaduto l’esatto contrario: le fin troppe risorse di base disponibili hanno paradossalmente limitato la necessità e l’interesse nel cercare altri contatti culturali e la stagnazione sociale ha preso il sopravvento.

Apertura dei Giochi Olimpici di Berlino 1936.

Ma torniamo all’unica civiltà tecnologicamente evoluta capace di poter ascoltare messaggi interstellari e inviare sonde automatiche nello spazio: la nostra.
Questa tecnologia è apparsa solo nell’ultimo secolo, conseguenza delle scoperte scientifiche sull’elettricità e l’elettromagnetismo, della meccanica relativistica e quantistica. Il primo segnale elettromagnetico di una certa rilevanza emesso dall’uomo fu nel 1936 per l’occasione delle Olimpiadi di Berlino 9.
Più o meno lo stesso discorso vale per l’esplorazione spaziale. Anche se esistono leggende su maldestri tentativi di sperimentazione del volo umano tramite razzi 10, solo nel XX secolo la nostra tecnologia ha raggiunto la capacità di raggiungere l’intero Sistema Solare. Ma, sarebbe ipocrita non ammetterlo, molta di questa tecnologia è stata sviluppata all’inizio per un uso bellico. Le celebri conquiste spaziali, da Gagarin fino all’allunaggio dell’Apollo 11, furono in realtà il frutto di una competizione militare tra due superpotenze politiche.
Senz’altro la naturale evoluzione tecnologica avrebbe prima o poi portato agli stessi successi, ma questi si sarebbero avuti sicuramente in tempi molto più lunghi.

(fine  prima parte)

Note:

 

Fotografare il cielo: l’astroinseguitore (2a parte)

Prosegue il ciclo dedicato allo studio della tecnologia degli astroinseguitori speriando che possa in futuro suscitare interesse anche presso la Comunità degli autocostruttori italiani.
La fonte principale di questa puntata è ripresa dalla pagina inglese di Wikipedia.

 

I vari schemi apparsi su Sky & Telescope nel 1988

Fig. 1
I vari schemi apparsi su Sky & Telescope nel 1988

Lo scopo di un astroinseguitore è quello di muovere una macchina fotografica con la stessa velocità con cui si muove la volta celeste senza per questo usare, o comprare,  una costosa montatura equatoriale. I motivi di questa scelta possono essere i più disparati: si può immaginare che tra i più comuni vi siano l’ingombro, la facilità di stazionamento, il costo, etc.
L’unica cosa da tenere sempre ben presente è che anche un astroinseguitore richiede il puntamento preciso del suo asse verso il Polo Nord Celeste esattamente come una qualsiasi altra montatura equatoriale da telescopi. 
Non starò a ripetere la storia di questo strumento, per cui come ho promesso, adesso un po’ di teoria. 

 

Scotch_mount

Fig. 2

Qui è rappresentato lo schema più semplice, detto a braccio singolo e vite senza fine verticale, o tangente all’asse di rotazione sul cardine. Il problema è che questo schema introduce degli errori nella velocità angolare tanto più ci si discosta lungo la tangente teorica dalla circonferenza immaginaria del cerchio di raggio Rtan.
La precisione di inseguimento non supera i 5 – 10 minuti a basse focali (< 50 mm), il che non lo rende affatto adatto per pose a lunga esposizione e grandi obiettivi.

Isoscele-mount

Fig. 3

Una parziale soluzione è questa con la vite senza fine montata di sghembo, seguendo una linea secante tra i due vertici della vite e il cerchio immaginario Riso. in questo modo la deviazione tra la velocità angolare dello strumento e la velocità siderale sarà molto ridotta rispetto al primo schema, ma non nulla. La massima deviazione si avrà attorno alla metà corsa della vite per poi di nuovo ridursi verso la fine. Con questa configurazione si possono raggiungere fino a circa 20 minuti di esposizione sempre con basse focali.

Curved_rod_mount

Fig. 4

Come si sarà intuito, la soluzione migliore per uno schema a singolo braccio è quello di curvare la vite secondo una circonferenza di raggio Rarc. In questo modo ogni errore introdotto dalla linearità della vite dei modelli precedenti decade[cite]http://www.garyseronik.com/?q=node/52[/cite].
Con un’accurata sincronia col moto celeste, questa configurazione può virtualmente estendere all’infinito il tempo di esposizione; in pratica, errori nella creazione dell’asta curva e nella velocità dell’asta possono vanificare la bontà di questa soluzione.

Double-arm-mount

Fig. 5

Una novità introdotta nel 1988 da Dave Trott e pubblicata su Sky & Telescope fu la soluzione a doppio braccio, che a fronte di una maggiore complessità di progettazione e realizzazione rispetto ai modelli precedenti qui sopra illustrati, la precisione nell’inseguimento è molte volte superiore, permettendo di ottenere addirittura tempi di esposizione di oltre un’ora.  In sostanza un secondo braccio mobile semplicemente appoggiato al primo consente quel grado di libertà necessario per trasformare il movimento lineare della vite senza fine in movimento circolare su cui appoggia la fotocamera. 

Era quel salto qualitativo che gli astrofili che non potevano permettersi una vera montatura equatoriale da tanto attendevano; a quei tempi non erano disponibili reflex a CCD così economiche come oggi e per il profondo cielo si usavano ancora pellicole ed acidi. Era frustrante scoprire che il lavoro di una notte era stato inutile.

[table “60” not found /]

Questa tabella mostra l’errore di inseguimento in secondi d’arco calcolata per gli schemi proposti dalla rivista Sky & Telescope nel 1988 e visibili qui all’inizio dell’articolo (Fig. 1).
Il quarto schema  a doppio braccio consente, in via del tutto teorica s’intende, di arrivare fino a 75 minuti di esposizione senza che l’errore apparente superi il secondo d’arco.  Per questo infatti è l’approccio più studiato oltre a quello del braccio singolo e vite curva (Fig. 4), costruttivamente più semplice.

Fig. 5a
RISO.II = distanza tra il fulcro del braccio pilota (rosso) e la vite motrice (giallo) lungo la base portante (grigio).
B = distanza tra punto di contatto del braccio pilota con il braccio della fotocamera (blu) e il suo fulcro.
C = distanza tra i fulcri dei due bracci lungo la base portante.

Osserviamo ora in dettaglio la figura 5a che rappresenta uno schema a doppio braccio di tipo 4, il più interessante. In questo schema il braccio pilota nella configurazione a isoscele aziona un secondo braccio su cui è montata la fotocamera. Esperimenti degli astrofili americani su questo schema hanno evidenziato che esistono condizioni particolari in cui l’errore di inseguimento è ridotto al minimo. Queste si ottengono quando il rapporto (che potremo chiamare β) tra la lunghezza del segmento B  e la distanza dei  fulcri rosso e verde (segmento C) è tra 2 e 2,186. L’angolo $\Phi$ attraverso cui il braccio della fotocamera si muove è dato da:
\begin{equation}
\Phi = \Theta+ arcsin \frac{sin\ \Theta}{\beta}
\end{equation}

Caratteristiche_filettatura

Fig. 6

La distanza invece tra il fulcro e il braccio motorizzato (rosso) RISO.II stabilisce direttamente la velocità di inseguimento del sistema tenendo conto del passo della vite motrice e la sua rotazione espressa in giri al minuto. 
In Europa, dove vale il sistema metrico decimale, il passo (fig. 6) posseduto dalle barre filettate i commercio è espresso in millimetri. Una barra comune spendibile come esempio è la M6, dove 6 sta ad indicare il suo diametro medio, che è di 6 mm e ha il passo di 1,00 mm (vedi tabella).

[table “62” not found /]

I motori passo-passo per uso hobbistico sono perfetti per questo tipo di congegni. Un comune NEMA 1 [cite]http://www.circuitspecialists.com/stepper-motor[/cite] con micropassi da 0,9° 2 è l’ideale per pilotare un astroinseguitore. Si tratta di un motore passo-passo che richiede ben 400 singoli impulsi (360/0,9)  per completare un singolo giro e che quindi può garantire una precisione di movimento molto fine, fino a un quarto di secondo; molto più di quella che si potrebbe richiedere ad un progetto a così basso costo .
Tenendo conto della lunghezza del giorno siderale in minuti e decimali (23h 56m 4,1″), ossia 1436,068, la velocità dell’asta motrice in secondi (supponiamo per semplicità di calcolo di farle compiere un giro in 60 secondi) e il suo passo (in questo caso 1,00 mm), con questa equazione dovremmo ottenere il valore di RISO.II:

\begin{equation}\label{eq:Raggio}
 R_{ISO.II}=\frac{\left (  (passo_{vite} *\frac{60}{secondi \times giro}\right )*1436,068}{2\pi}
\end{equation}

\[\rightarrow\]
\begin{equation}
 R_{ISO.II}=\frac{\left (  1,00\ mm * \frac {60}{60}\right ) *1436,068 }{2\pi}= 228,55 \ mm
\end{equation}

A questo punto credo di aver detto molto sulla teoria che sta dietro a questi congegni. Adesso valuterò l’idea per la realizzazione pratica di un astroinseguitore a doppio braccio di tipo 4 come quello descritto in questo articolo. Se avete idee, suggerimenti o critiche, oppure volete dare il vostro aiuto alla realizzazione di questo progetto, vi invito ad usare la form direttamente qui sotto o a scrivere direttamente a : astroinseguitore_at_ilpoliedrico_dot_com. 

[contact-form][contact-field label=’Nome’ type=’name’ required=’1’/][contact-field label=’E-mail’ type=’email’ required=’1’/][contact-field label=’Sito web’ type=’url’/][contact-field label=’Commento’ type=’textarea’ required=’1’/][/contact-form]

 (continua)


Note:

Come ti calcolo le proprietà di un esopianeta (prima parte)

[latexpage]

La scoperta di un enorme numero dei pianeti extrasolari in questi ultimi vent’anni ha sicuramente rivoluzionato l’idea di Cosmo. A giugno di quest’anno erano oltre 1100 i pianeti extrasolari scoperti e accertati nel catalogo di exoplanet.eu, facendo stimare, con le opportune cautele dovute a ogni dato statistico, a circa 60 miliardi di pianeti potenzialmente compatibili con la vita. Questo impressionante numero però non deve far credere immediatamente che 60 miliardi di mondi siano abitabili; Venere, che dimensionalmente è molto simile alla Terra, è totalmente incompatibile con la vita terrestre che, probabilmente, si troverebbe più a suo agio su Marte nonostante questo sia totalmente ricoperto da perossidi, continuamente esposto agli ultravioletti del Sole e molto più piccolo del nostro globo.

In concreto come si fa a calcolare i parametri fisici di un pianeta extrasolare? Prendiamo l’esempio più facile, quello dei transiti. Questo è il metodo usato dal satellite della NASA Kepler, che però soffre dell’handicap geometrico del piano planetario che deve giacere sulla stessa linea di vista della stella,o quasi. Ipotizziamo di stare osservando una debole stellina di 11a magnitudine, che però lo spettro indica come una K7:

 [table “57” not found /]

diagramma di luce

La distanza

La tabella di Morgan-Keenan suggerisce per questo tipo di stella una massa di 0,6 masse solari,  una temperatura superficiale di appena 4000 K. e un raggio pari a 0,72 volte quello del Sole. Analizzando invece questo ipotetico diagramma del flusso di luce 1 proveniente dalla stella, appare evidente  la periodicità dell’affievolimento (qui esagerato) della sua luce.
Un periodo pari a 76,86 giorni terrestri, un classico evento tipico anche di una semplice binaria ad eclisse per esempio, solo molto più veloce. Un semplice calcolo consente di trasformare il periodo espresso qui in giorni in anni (o frazioni di esso). Pertanto il suo periodo rispetto agli anni terrestri è $76,86/365,25= 0,2104$. A questo punto è sufficiente applicare la terza Legge di Keplero per ottenere la distanza del pianeta dalla sua stella espresso in unità astronomiche:

\begin{equation} D_{UA}^3=P_y^2\cdot M_{\bigstar}= \sqrt[3]{0,2104^2 \cdot 0,.6}= 0,2983 \end{equation} Quindi l’esopianeta scoperto ha un periodo orbitale di soli 76,86 giorni e orbita a una distanza media di sole 0,2368 unità astronomiche dalla stella, ossia a poco più di 44.6 milioni di chilometri dalla stella. Una volta scoperto quanto dista il pianeta dalla stella è facile anche calcolare la temperatura di equilibrio del pianeta, per vedere se esso può – in linea di massima – essere in grado di sostenere l’acqua allo stato liquido.

La temperatura di equilibrio

\begin{equation}\frac{\pi R_p^2}{4\pi d^2} = \left ( \frac{R_p}{2d}\right )^2\end{equation} L’energia intercettata da un pianeta di raggio $R_p$ in orbita alla sua stella  a una distanza $d$

Per comodità di calcolo possiamo considerare una stella come un perfetto corpo nero ideale. La sua luminosità è perciò dettata dall’equazione: $L_{\bigstar}=4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4$, dove $\sigma$ è la  costante di Stefan-Boltzmann che vale  $5,67 \cdot{10^{-8}} W/m^2 K^4$). Qualsiasi pianeta di raggio $R_p$ che orbiti a distanza $d$ dalla stella cattura soltanto  l’energia intercettata pari alla sua sezione trasversale $\pi R_p^2$ per unità di tempo e  divisa per l’area della sfera alla distanza $d$ dalla sorgente. Pertanto si può stabilire che l’energia intercettata per unità di tempo dal pianeta è descritta dall’equazione: \begin{equation} 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Ovviamente questo potrebbe essere vero se il pianeta assorbisse tutta l’energia incidente, cosa che per fortuna così non è, e riflette nello spazio parte di questa energia. Questa frazione si chiama albedo ed è generalmente indicata con la lettera $A$. Quindi la precedente formula va corretta così: \begin{equation} \left ( 1-A \right ) \times 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Il pianeta (se questo fosse privo idealmente di una qualsiasi atmosfera) si trova così in uno stato di sostanziale equilibrio termico tra l’energia ricevuta, quella riflessa dall’albedo e la sua temperatura. L’energia espressa dal pianeta si può descrivere matematicamente così: $L_{p}= 4\pi R_{p}^2\sigma T_{p}^4$ e, anche qui per comodità  di calcolo, si può considerare questa emissione come quella di un qualsiasi corpo nero alla temperatura $T_p$. Pertanto la temperatura di equilibrio è: \begin{equation}

4\pi R_{p}^2\sigma T_{p}^4 =\left ( 1-A \right ) \times 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Ora, semplificando quest’equazione si ottiene: \begin{equation} T_{p}^4= (1-A)T_{\bigstar}^4 \left ( \frac{R_{\bigstar}}{2d}\right )^2 \rightarrow T_{p}=T_{\bigstar}(1-A)^{1/4}\sqrt { \frac{R_{\bigstar}}{2d}} \end{equation}

Con i dati ottenuti in precedenza è quindi possibile stabilire la temperatura di equilibrio dell’ipotetico esopianeta ipotizzando un albedo di o,4: \begin{equation}

T_{p}=4000 \enskip K \cdot 0,6 ^{1/4}\sqrt { \frac{500 000 \enskip km}{2\cdot 4,46\cdot 10^7\enskip km}} =263,47 \enskip K.

\end{equation}

Risultato: l’esopianeta pare in equilibrio termico a -9,68 °C, a cui va aggiunto alla superficie l’effetto serra causato dall’atmosfera. Ma in fondo, anche le dimensioni contano …

Il raggio

1353958553795

Il calo della luminosità indica le dimensioni dell’oggetto in transito: $r^2/R^2$

Nel momento del transito, si registra un calo della luminosità della stella.  L’ampiezza di questo calo rispetto alla luminosità standard della stella fornisce una stima della misura del raggio del pianeta. Il calo non è immediato, ma segue un andamento proporzionale alla superficie del pianeta occultante, uguale sia in ingresso che in  uscita. In base a queste osservazioni si possono ricavare i flussi di energia luminosa (indicati appunto dalla lettera $F$) provenienti nei momenti del transito. $F_{\bigstar}$ è la quantità di energia luminosa osservata nella fase di non transito, normalmente normalizzato a 1, mentre l’altra $F_{transito}$ rappresenta il flusso intercettato nel momento di massimo transito:. la differenza tra i due flussi ( $\frac{\Delta F}{F}=\frac{F_{\bigstar}-F_{transito}}{F_{\bigstar}}$) è uguale alla differenza tra i raggi della stella e del pianeta.

\begin{equation} R_p=R_{\bigstar}\sqrt{\frac{\Delta F}{F}} \end{equation}

Il diagramma (ipotetico) a destra nell’immagine qui sopra mostra che il punto più basso della luminosità è il 99,3% della luminosità totale. Risolvendo questa equazione per questo dato si ha: \begin{equation} \frac{R_{p}}{R_{\bigstar}}=\sqrt{\frac{\Delta F}{F}} =\sqrt{\Delta F} = \sqrt{1-0,993}=\sqrt{0,007}=0,08366 \end{equation}

Conoscendo il raggio della stella, 500000 km, risulta che l’esopianeta ha un raggio di quasi 42 mila chilometri,  quasi il doppio di Nettuno!

Seconda Parte

 

 Errata corrige

Un banale errore di calcolo successiva all’equazione (1) ha parzialmente compromesso il risultato finale dell’equazione (7) e del risultato della ricerca. Il valore della distanza del pianeta dalla sua stella è di 44,6 milioni di chilometri invece dei 35,4 milioni indicati in precedenza. Ci scusiamo con i lettori per questo spiacevole inconveniente prontamente risolto.


Note:

L’oscura origine della Luna (II parte)

Dee pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

Due pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

È chiaro a chiunque che la Terra e la Luna siano diverse, non solo nelle dimensioni.
Il nucleo della Terra è composto soprattutto di ferro e occupa circa il 30% della sua massa, mentre quello della Luna è proporzionalmente molto più piccolo: appena un decimo della massa del satellite è costituito dal ferro e il suo nucleo rappresenta solo il 20% circa delle sue dimensioni. Inoltre la scarsità di elementi piuttosto volatili come il potassio nella composizione chimica indicano che probabilmente la Luna si è formata in un ambiente piuttosto caldo dove questi siano evaporati.
Eppure i campioni di suolo riportati dalle missioni Apollo mostrano che i silicati terrestri e lunari sono virtualmente identici: i rapporti isotopici di elementi come l’ossigeno [cite]http://www.ncbi.nlm.nih.gov/pubmed/11598294[/cite], il cromo e il silicio sono gli stessi, indicando pertanto una origine comune per la crosta e il mantello superiore della Terra con la Luna [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403[/cite] [cite]http://dx.doi.org/10.1038/ngeo1429[/cite].
Di pari passo, lo studio del campo gravitazionale della Luna per merito della misssione Gravity Recovery and Interior Laboratory (GRAIL) della NASA, combinato con i dati topografici prodotti dal Lunar Reconnaissance Orbiter sempre della NASA, hanno ridimensionato lo spessore della crosta della Luna e la sua percentuale relativa di alluminio. Anche questi dati suggeriscono che la percentuale di metalli con alte temperature di condensazione  sia la stessa su entrambi i corpi celesti.
Tutti questi dati fisici mostrano che la Luna e il mantello superiore terrestre si siano originati insieme, quindi o la Luna si è staccata dal mantello terrestre ancora fluido oppure l’opposto, il mantello e la Luna si sono generati con lo stesso materiale in un ambiente estremamente caldo che, nel caso della Luna,  ha conservato solo i materiali più refrattari e fatto evaporare gli altri.

Una giornata memorabile

Ormai si vedeva a occhio nudo quando si apriva uno squarcio nella giusta direzione tra le perenni nubi di vapore e metano che uscivano copiose dalla roccia. Dapprima era come una macchiolina nel cielo, tanti giorni fa, e adesso, dopo essere stata grande come una moneta occupava minacciosa più di metà del cielo a occidente. Toglieva  il respiro, sembrava quasi che cascasse dal cielo. E così fu. Nel giro di appena un’ora almeno metà del globo fuse e venne scagliato a 25000 chilometri di quota mentre il nucleo di ferro rovente del piccolo mondo era rimbalzato nell’urto e stava per crollare di nuovo. Dopo cinque ore tutta la crosta e il mantello del mondo era fuso, mentre tutta l’atmosfera venne spazzata via. Un quarto del piccolo mondo si vaporizzò nell’impatto mentre questo pianeta iniziò a ruotare su sé stesso all’impazzata: un giro in appena 5 ore! Dopo poche altre ore il materiale  che non era ancora ricaduto sulla nuova Terra formò un anello instabile di detriti  in orbita  che nell’arco di un centinaio d’anni avrebbe poi generato la Luna.

Nel 1975 William K. Hartmann e Donald R. Davis proposero la teoria dell’Impatto Gigante riprendendo l’idea originale del geologo canadese Reginald Aldworth Daly proposta nel 1946.
Questa teoria riesce abbastanza bene a tener conto di molte delle similitudini che ho elencato qui sopra, del momento angolare totale del sistema Terra – Luna, e anche delle divergenze più importanti, come l’estrema scarsità degli elementi chimici più volatili della Luna rispetto alla Terra.
Ma solo recentemente è stato potuto studiarla in dettaglio grazie alle simulazioni computerizzate [cite]http://www.nature.com/nature/journal/v412/n6848/abs/412708a0.html[/cite].
Gli scenari che portano alla formazione della Luna richiedono la presenza di due pianeti formatisi sui punti lagrangiani di  una stessa orbita, uno con una massa simile a quella attuale del nostro pianeta, la proto-Terra, e un altro più piccolo, grande più o meno come Marte come dimensioni e massa, che gli scienziati hanno battezzato Theia.
Il gigante Giove destabilizza l’orbita dei due pianeti che nell’arco di 50 milioni di anni finiscono per scontrarsi con un angolo di 45 gradi rispetto alla proto-Terra a una velocità relativa piuttosto bassa, inferiore a 4 km/s. 1. Il risultato dello scontro è che fino a un quarto di Theia si vaporizza nell’impatto e la primordiale atmosfera della proto-Terra viene dispersa, mentre almeno il 20% della massa dei due pianeti si disperde in un anello incandescente attorno ai 4 raggi terrestri, poco fuori al limite di Roche.
La maggior parte del materiale eiettato e il nucleo ferroso di Theia ricade sulla proto-Terra nelle ore successive all’impatto, invece una minuscola frazione della massa del disco originale, il 6%, rimane in orbita, e nel giro di un secolo dà origine a più corpi distinti che poi si uniranno per creare la Luna 2.

I meriti di questa teoria sono molti. In primis riesce a spiegare tutte le similitudini isotopiche riscontrate tra le rocce terrestri e lunari:  l’anello successivo all’impatto ha mescolato il materiale di Theia e della proto-Terra rendendo di fatto indistinguibile ogni differenza. Il calore sprigionato nell’impatto e trasferito all’anello ha alterato di poco la composizione chimica di questo nelle poche ore prima che ricadesse sulla Terra, mentre quello rimasto in orbita ha avuto più tempo per perdere gli elementi più volatili, forse anche grazie all’azione del vento solare e al bombardamento dei raggi cosmici che ne hanno in parte modificato la composizione chimica [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403 [/cite].
Infine, riesce a spiegare il notevole momento angolare complessivo del sistema Terra-Luna, parametro che ogni modello deve riuscire a spiegare.

Una delle obiezioni principali a questo modello è che la composizione di Theia porta con sé percentuali isotopiche diverse da quelle della Terra 3, e tracce di questa differenza dovrebbero essere ancora visibili.
Secondo me no, sia la proto-Terra che Theia si formarono alla stessa distanza dal Sole, quindi la differenza isotopica dei vari elementi deve essere stata nulla o quasi, tanto da non essere oggi significativamente rilevabile.
In seguito, il degassamento tardivo del mantello e della crosta ha ricreato una primitiva atmosfera, forse un po’ più sottile rispetto alla prima, mentre il bombardamento cometario proveniente dalla fascia di Kuiper [cite]http://ilpoliedrico.com/2011/10/oceani-di-comete.html[/cite] avrebbe portato acqua e sostanze organiche che poi si sarebbero evolute in esseri viventi [cite]http://tuttidentro.wordpress.com/2013/12/17/come-gli-impatti-meteoritici-e-cometari-hanno-portato-la-vita-sulla-terra[/cite] sulla nuova Terra..
L’azione mareale del nuovo satellite combinata a quella del Sole avrebbe poi rallentato la Terra fino alle attuali 24 ore, mentre l’orbita della Luna sarebbe passata da 30000 chilometri a 384000 nei successivi 4,5 miliardi di anni.,