Sistemi stellari multipli e orbite stabili

Nei giorni scorsi è rimbalzata sui media la scoperta di un sistema planetario in un sistema ternario. La notizia in  sé è eccitante, ma il modo in cui è stata trattata da alcune testate a tiratura nazionale è quasi comico, soprattutto perché le stesse esatte parole sono state copiate pari pari da diversi siti generalisti senza alcun controllo. Io stesso avevo provato a segnalare alcune inesattezze 1 attraverso un commento presso un importante quotidiano nazionale ma questo è stato eliminato mentre altri commenti alquanto sciocchi erano stati accolti dai moderatori. Il quadro che ne esce non è confortante per tanta editoria cartacea italiana ma questo purtroppo l’avevo sospettato da tempo.

Una parte della costellazione australe del Centauro centrata sul sistema triplo HD131399, in dettaglio sulla sinistra.

Una parte della costellazione australe del Centauro centrata sul sistema triplo HD131399, in dettaglio sulla sinistra.

HD131399A b è solo uno degli ultimi sistemi stellari multipli che mostrano di ospitare anche un sistema planetario. Non sono molti quelli conosciuti e confermati perché è molto difficile discernere i moti perturbativi radiali dovuti al sistema planetario da quello dovuto alle altre stelle del sistema o usare il metodo dei transiti.
L’intero sistema HD 131399 infatti non è infatti l’unico del suo genere: 55 Cancri , distante 40,3 anni luce dalla Terra 2, è composto da due stelle di cui la principale è solo di poco più piccola del Sole e la compagna, 55 Cancri B, che è almeno sette volte più piccola della prima e a sua volta sospettata di essere doppia, divise da una distanza di 1065 UA. Ebbene, 55 Cancri A possiede un sistema planetario di ben cinque corpi, di cui il più distante 55 Cancri A d [cite]http://arxiv.org/abs/0712.3917[/cite] è a 5,7 UA dalla stella principale.
Altri sistemi stellari doppi o multipli sono ad esempio Tau Boötis, Upsilon Andromedae, Gamma Cephei (la stella polare del prossimo millennio) e così via.
Comunque, i sistemi stellari multipli (cioè composti da più di due stelle), se disposti gerarchicamente [cite]http://adsabs.harvard.edu/abs/1968QJRAS…9..388E[/cite], sono noti per essere stabili; in questi casi le orbite sono divise in coppie vicine che ruotano attorno a un baricentro reciproco che a loro volta orbitano attorno al baricentro comune dell’intero sistema che può essere composto da una stella più massiccia o un’altra coppia di stelle. In fondo questo lo vediamo anche nel Sistema Solare che dinamicamente non è poi così dissimile da un qualsiasi sistema multiplo: i diversi satelliti orbitano attorno ai loro rispettivi pianeti senza che l’attrazione del Sole disturbi significativamente le loro traiettorie mentre questi a loro volta orbitano attorno al Sole. Questo accade perché un qualsiasi oggetto dotato di massa in equilibrio gravitazionale con un corpo più grande può a sua volta esprimere una sfera di influenza che si estende dal proprio centro di massa, chiamata sfera di Hill. La sua espressione matematica deriva dalle equazioni di Newton – e gli studi di Eduard Roche – ma semplificata al massimo  può essere espressa come una sfera di raggio \(r\approx a(1-e){\sqrt[{3}]{\frac {m}{3M}}}\) dove \(a\) è la distanza tra i due corpi e \(M\) e \(m\) sono le loro masse ed \(e\) l’eccentricità dell’orbita. Tutto ciò che quindi ricade all’interno di questa sfera è gravitazionalmente legato al corpo responsabile. Ad esempio la sfera di Hill della Terra si estende per un milione e mezzo di chilometri mentre la Luna ne è abbondantemente dentro (384 mila km circa) e così via.

Rappresentazione artistica dell'asteroide 1999 KW4.

Rappresentazione artistica dell’asteroide 1999 KW4.

Un curioso caso di sistema multiplo stabile è testimoniato dall’asteroide lunato (66391) 1999 KW4; in questo caso la sua sfera di Hill varia tra i 120 dell’afelio e i 22 km di raggio al suo perielio, mentre il suo satellite dista  solo a 2,6 km dal centro di massa del sistema.

Orbite planetarie nei sistemi multipli

Tornando a parlare di sistemi stellari multipli, nel 1978 Robert S. Harrington del US Naval Observatory analizzò la stabilità di un sistema planetario all’interno di un sistema stellare multiplo (trovate lo studio originale tra le note a fondo pagina). Egli concluse che un pianeta come la Terra attorno al Sole avrebbe posseduto un’orbita stabile purché l’altra componente del sistema fosse stata almeno tre volte e mezzo più lontana. Se al posto di Giove, o anche un poco più vicino, avessimo avuto invece una stella non più massiccia del Sole stesso la nostra orbita non ne sarebbe stata influenzata. E se tale compagna fosse significativamente meno luminosa del Sole, dal punto di vista radiativo non avrebbe potuto avere un ruolo significativo per lo sviluppo della vita sulla Terra; solo che avremmo avuto due soli nel cielo e che per meta dell’anno le notti non sarebbero state molto buie.
Lo stesso varrebbe anche per i sistemi binari stretti, come Capella 3 per intenderci, ma al contrario. Infatti in un sistema siffatto un pianeta per avere un’orbita abbastanza stabile  attorno a una sola delle due dovrebbe essere ben all’interno della spera di Hill di questa, a non più di due decimi di unità astronomiche, meno di due terzi la distanza di Mercurio dal Sole al suo perielio. Tuttavia, un pianeta distante almeno tre volte e mezza la separazione delle due stelle dal comune centro di massa avrebbe un’orbita stabile trattando le due stelle gravitazionalmente come un singolo oggetto a forma di manubrio. In questo caso, nel sistema capellano, un pianeta simile alla Terra potrebbe avere un’orbita stabile a soli 400 milioni di chilometri dal centro di massa; più o meno la distanza che c’è tra Cerere e il Sole.

Conclusioni

Per completare il quadro riferendosi a una ecosfera utile [cite]http://ilpoliedrico.com/2016/07/lampiezza-zona-goldilocks.html[/cite] si può affermare che essa potrebbe esistere in un sistema multiplo se la distanza tra le due stelle di riferimento fosse almeno 3,5 volte questa, oppure, se questa dovesse essere almeno 3,5 volte più lontana da centro del sistema di riferimento precedente.

Alcuni sistemi planetari scoperti attorno a sistemi stellari multipli:

[table “74” not found /]

[table “75” not found /]

[table “76” not found /]

[table “77” not found /]

[table “78” not found /]


Allegati:

[fancybox url=”https://ilpoliedrico.com/wp-content/uploads/2016/07/Planetary-orbits-in-binary-stars.pdf” caption=”Planetary orbits in a binary stars”]Planetary orbits in a binary stars [/fancybox]

Zenone, Olbers e l’energia oscura (terza parte)

Nei precedenti articoli ho cercato di spiegare che il nostro Universo è in realtà freddo e buio fatto perlopiù di vuoto in perenne espansione. È impossibile che il peso di tutto il suo contenuto possa infine provocarne il collasso, non c’è abbastanza materia e energia (anche l’energia ha la sua importanza: ricordate il rapporto di equivalenza tra massa ed energia \(E=mc^2\)?) per farlo chiudere su sé stesso. Ma se l’idea di un Big Crunch finale, ossia una fine dell’Universo governata da pressioni e temperature inimmaginabili tanto da far impallidire l’Inferno dantesco certamente non è piacevole, l’idea che tutta la già poca materia esistente finisca disgregata in una manciata di fotoni solitari nel nulla del vuoto che corre ancora più veloce della luce è spaventoso; inimmaginabile. Ma tranquillizzatevi, questo accadrà forse fra migliaia di eoni ma intanto il fenomeno che condanna a morte l’Universo potrebbe essere lo stesso che permette oggi la nostra esistenza.

La Hubble Ultra Deep Field (HUDF) è stata ripresa tra il 24 settembre 2003 e il 16 gennaio successivo mostra che stelle e galassie già dominavano l'Universo 13 miliardi di ani fa. Questo campo è circa un decimo della luna piena ma contiene qualcosa come dieci mila galassie! Credit: NASA

La Hubble Ultra Deep Field (HUDF) è stata ripresa tra il 24 settembre 2003 e il 16 gennaio successivo mostra che stelle e galassie già dominavano l’Universo 13 miliardi di ani fa. Questo campo è circa un decimo della luna piena ma contiene qualcosa come dieci mila galassie! Credit: NASA

Cercare di immaginare  la vastità dell’Universo è quasi impossibile e descriverlo senza ricorrere agli artifici matematici lo è ancora di più.
La naturale percezione umana è troppo limitata per descriverlo; essa già fallisce quando cerca di dimostrare la piattezza della Terra che è una sfera 7 milioni di volte più grande di un uomo.
Quindi quando sentiamo parlare di “universo in espansione” è spontaneo chiedersi anche “Entro cosa?“. In realtà non c’è un dentro e un fuori, così come non può esserci un punto di partenza e uno di arrivo in una circonferenza. Idealmente il tessuto dell’Universo, lo spazio-tempo, lo si può far coincidere con l’espansione dello stato di falso vuoto provocato dal decadimento del campo inflatone che chiamiamo Big Bang. Una metafora che uso spesso è quella del panettone che lievita: i canditi sono in quiete fra loro, proprio come lo sono le galassie; è il panettone che gonfiandosi fa crescere la loro distanza relativa.  L’Universo fa altrettanto e come non può esserci panettone fuori dal panettone, non può esserci spazio fuori dallo spazio.

Nel 1917 ancora si dava per scontato che l’Universo nel suo insieme fosse statico e immutabile ma le equazioni di campo derivate dalla Relatività Generale asserivano il contrario. Einstein stesso cercò di conciliare le sue equazioni di campo ad un modello statico di universo introducendo una costante, indicata con la lettera greca \(\Lambda\), capace di contrastare il collasso gravitazionale del contenuto dell’universo assegnandole quindi una natura repulsiva. L’aspetto matematico di questa costante è quello di una densità energetica del vuoto  (\(\rho_\Lambda=\frac{\Lambda c^4}{8\pi G}\)) espresse in unità di energia per unità di volume (\(J/m^3\)). Essendo essa il prodotto di altre costanti fisiche, \(\pi\), \(c\) e \(G\),  una volta indicato il suo valore numerico, esso non varia col tempo, con la dimensione di scala o altre condizioni fisiche: è costante comunque.
In seguito la scoperta dell’espansione dell’universo fece decadere l’ipotesi di una costante repulsiva capace di contrastare il collasso dell’Universo, ma nel 1998 due studi indipendenti, Supernova Cosmology Project [cite]https://arxiv.org/abs/0907.3526[/cite] e il High-Z Supernova Search Team [cite]http://arxiv.org/abs/astro-ph/9805200[/cite], dimostrarono che in realtà l’espansione dell’Universo stava accelerando.
La scoperta ovviamente giungeva inaspettata. L’Universo appariva sì in espansione, frutto del residuo della spinta iniziale dell’era inflazionaria; era anche chiaro come i modelli  cosmologici indicassero – come si è visto – che non c’è abbastanza materia ed energia perché il processo di spinta espansiva potesse infine arrestarsi e invertirsi verso un futuro Big Crunch, ma al più ci si poteva aspettare un minimo cenno di rallentamento nel ritmo verso una espansione illimitata, invece una accelerazione era proprio inattesa. E così che il concetto di una una proprietà repulsiva del vuoto, la famosa costante \(Lambda\) introdotta da Einstein ma poi quasi dimenticata perché  ritenuta inutile, tornò alla ribalta.

Ipotesi cosmologica dell’Energia Oscura, il modello della Costante Cosmologica \(\Lambda\)

Dovessimo descrivere il tessuto dello spaziotempo come un fluido, che non è materia o energia ma come più volte detto esiste energeticamente come uno stato di falso vuoto,  allora la densità energetica descritta da \(\rho_\Lambda\) attribuibile ad esso appare invariante rispetto a qualsiasi stato di materia e di energia che occupa lo spazio. In questo modello \(\rho_\Lambda\) è costante, così come lo era nei microsecondi successivi al Big Bang e lo sarà anche in un incalcolabile futuro.

Uno stato di falso vuoto in un campo scalare \(\varphi\). Si noti che l'energia E è più grande di quella dello stato fondamentale o vero vuoto. Una barriera energetica impedisce il campo di decadere verso lo stato di vero vuoto.L'effetto più immediato di questa barriera è la continua creazione di particelle virtuali tramite fenomeni di tunneling quantistico .

Uno stato di falso vuoto (il pallino) in un campo scalare \(\varphi\). Si noti che l’energia \(E\) è più grande di quella dello stato fondamentale o vero vuoto. Una barriera energetica impedisce il campo di decadere verso lo stato di vero vuoto. L’effetto più immediato di questa barriera è la continua creazione di particelle virtuali tramite fenomeni di tunneling quantistico .

È il Principio di Indeterminazione di Heisenberg che permette all’energia del falso vuoto di manifestarsi tramite la perpetua produzione spontanea di particelle virtuali:. $$\tag{1}\Delta x \cdot \Delta p \ge \frac{\hslash}{2}$$
Dove \(\Delta x\) indica il grado di indeterminazione della posizione e \(\Delta p\) quello dell’energia posseduta da una particella \(p\) rispetto alla Costante di Planck ridotta \(\hslash\). La stessa relazione lega l’energia \(E\) e il tempo \(t\): $$\tag{2}\Delta E \cdot \Delta t \ge \frac{\hslash}{2}$$
Questo significa che per un periodo di tempo brevissimo (questo è strettamente legato all’energia della particella) è possibile violare la ferrea regola della conservazione dell’energia, permettendo così  la formazione di coppie di particelle e antiparticelle virtuali che esistono solo per questo brevissimo lasso di tempo prima di annichilirsi a vicenda 1.
Non solo: i gluoni responsabili dell’Interazione Forte che legano insieme i quark sono particelle virtuali, i bosoni delle interazioni deboli sono virtuali e anche i fotoni che si scambiano gli elettroni all’interno degli atomi sono solo virtuali.
Comprendere come questa energia faccia espandere l’Universo è un attimino più complicato.
Immaginatevi di strizzare un palloncino. L’aria, o il gas, al suo interno si concentrerà così in un volume minore e premerà di conseguenza sulle pareti di gomma con una forza maggiore. L’intensità della pressione è ovviamente data dal numero delle particelle per unità di volume per l’energia cinetica delle particelle stesse ed è chiamata appunto densità energetica. Quando rilasciamo il palloncino, il volume di questo aumenta e le particelle d’aria che facevano pressione su un volume minore si ridistribuiscono allentando così la pressione; si ha così un calo della densità energetica.
Ma se la densità energetica dovesse essere una costante come lo è la densità energetica relativa al falso vuoto, ecco che a maggior volume corrisponderebbe una maggiore pressione sulle pareti del palloncino ideale e, più questo si espande, sempre maggiore sarebbe la spinta espansiva.
Questo è ciò che accade all’Universo: dopo un momento inflattivo iniziale provocato dal collasso del campo inflatone verso uno stato di falso vuoto che ha reso omogeneo (\(\Omega =1\)) l’Universo, la densità energetica residua ha continuato il processo di espansione dell’Universo sino alle dimensioni attuali. All’inizio della sua storia, finché l’Universo era più piccolo e giovane, la densità della materia \(\rho\) è stata abbastanza vicina al valore di densità critica \(\rho_c\), permettendo così che l’azione gravitazionale della materia contrastasse in parte la spinta espansiva; ma abbiamo visto che comunque a maggiore volume corrisponde una maggiore spinta espansiva, e è per questo che la materia ha perso la partita a braccio di ferro con l’energia di falso vuoto fino a ridurre la densità media dell’Universo ai valori attuali. In cambio però tutti i complessi meccanismi che regolano ogni forma di materia e di energia non potrebbero esistere in assenza dell’energia del falso vuoto dell’Universo.
Se il destino ultimo dell’Universo è davvero quello del Big Rip, però è anche quello che oggi permette la nostra esistenza, e di questo dovremmo esserne grati.

Qui ho provato a descrivere l’ipotesi più semplice che cerca di spiegare l’Energia Oscura. Ci sono altre teorie che vanno da una revisione della Gravità su scala cosmologica fino all’introduzione di altre forze assolutamente repulsive come nel caso della Quintessenza (un tipo di energia del vuoto che cambia nel tempo al contrario della \(\Lambda\)). Si sono ipotizzate anche bolle repulsive locali piuttosto che un’unica espansione accelerata universale; un po’ di tutto e forse anche di più, solo il tempo speso nella ricerca può dire quale di questi modelli sia vero.
Però spesso nella vita reale e nella scienza in particolare, vale il Principio del Rasoio di Occam, giusto per tornare dalle parti di dove eravamo partiti in questo lungo cammino. Spesso la spiegazione più semplice è anche la più corretta e in questo caso l’ipotesi della Costante Cosmologica è in assoluto quella che lo è di più.
Cieli Sereni

L’ampiezza di una zona Goldilocks

Questo articolo nasce in seno alla preparazione del materiale di studio per lo stage per i finalisti delle Olimpiadi di Astronomia 2016 presso l’INAF-Osservatorio Astrofisico di Asiago due lezioni, tra le tante, dedicate interamente ai pianeti extrasolari. Sabrina Masiero e il sottoscritto hanno studiato e rivisto i calcoli, più volte, perciò fidatevi!

goldilocksOgni volta che sentiamo parlare della scoperta di qualche nuovo pianeta in orbita attorno a qualche stella, viene spontaneo chiederci se esso può ospitare una qualche forma di vita. La vita come la conosciamo ha bisogno di acqua allo stato liquido per poter esistere, e poter stabilire i limiti dove questo è possibile è di notevole importanza. Questa zona è chiamata Goldilocks o Riccioli d’Oro 1 perché ricorda la bambina della favola, Goldilocks appunto, quando deve scegliere tra le tre ciotole di zuppa, quella che non sia né troppo calda né troppo fredda, giusta.
Calcolare le dimensioni e ‘estensione della fascia di abitabilità di una stella ci permette di capire quanto debba essere grande l’orbita di un pianeta per essere potenzialmente in grado di sostenere la vita.
Per comodità di calcolo verranno qui usati i parametri del nostro Sistema Solare ma conoscendo il flusso energetico (ossia la temperatura superficiale) di una qualsiasi stella e il suo raggio, allora sarà possibile usare questi nei calcoli che qui presentiamo purché si usino le stesse unità di misura.

  • Temperatura superficiale del Sole \(T_\odot\) \(5778 \) Kelvin
  • Raggio del Sole in unità astronomiche \(R_\odot\) \(\frac{6,96\times 10^{05} km}{1,496\times 10^{08} km} = 4,652 \times 10^{-03} AU\)
  • Distanza dal Sole in unità astronomiche \(a\)
  • Albedo del pianeta \(A\) (nel caso della Terra è 0,36)
Credit: Il Poliedrico

Credit: Il Poliedrico

Come spiegato anche nell’illustrazione qui accanto il flusso luminoso, e quindi ovviamente anche la temperatura, obbedisce alla semplice legge geometrica dell’inverso del quadrato della distanza.
La luminosità di una stella non è altro che la quantità di energia emessa per unità di tempo e considerando una stella come un corpo nero perfetto, si trova che \(L_\odot= 4 \pi {R_\odot}^2\sigma {T_\odot}^4\), dove \(\sigma\) è la costante di Stefan-Boltzmann.
Pertanto un pianeta di raggio \(R_p\) in orbita alla distanza \(a\) dalla sua stella di raggio \(R_\odot\) riceve una certa quantità di energia che riemette nello spazio come un corpo nero e raggiungendo perciò un equilibrio termico con il flusso di energia ricevuto. $$\frac{\pi {R_p}^2}{4\pi a^2}=\left ( \frac{R_p}{2a} \right )^2\tag{1}$$
Il pianeta offre solo metà di tutta la sua superficie alla stella (\( 2 \pi {R_p}^2\)), per questo si è usato questa forma, perché il flusso intercettato è pari alla sezione trasversale del pianeta (\(\pi {R_p}^2\)), non tutta la sua superficie, mentre invece tutta la superficie del pianeta, quindi anche la parte in ombra, è coinvolta nella riemissione di energia (\( 4 \pi {R_p}^2\)).
Una parte del’energia ricevuta dal pianeta viene riflessa comunque nello spazio in base al suo indice di riflessione (fosse idealmente bianco la rifletterebbe tutta così come se fosse idealmente nero l’assorbirebbe tutta); questo indice si chiama albedo \(A\) e varia di conseguenza tra 1 e 0. La forma “\(1- A\)” consente di stabilire quanta energia è quindi assorbita da un pianeta: $$ (1-A) \times 4 \pi {R_\odot}^2 \sigma {T_\odot}^2\times \left ( \frac{R_p}{2a} \right )^2\tag{2}$$

Semplificando il tutto e eliminando per un attimo anche la superficie della sezione trasversale del pianeta, quasi insignificante come contributo al calcolo, si raggiunge questo risultato: $$ {T_{eq}}^4 =(1-A){T_\odot}^4\left ( \frac{R_\odot}{2a} \right )^2\tag{3}$$ $$T_{eq} =(1-A)^{1/4}{T_\odot}\sqrt{\left ( \frac{R_\odot}{2a} \right )}\tag{4}$$
Se usassimo questi valori per la Terra usando come è stato detto le lunghezze espresse in unità astronomiche otterremo: $$T{eq}= (1-0,36)^{1/4} \cdot 5778 \sqrt{ \left(\frac{4,625 \times 10^{-03}}{2 \cdot 1 }\right )}=249 K\tag{5}$$

Purtroppo non è dato sapere a priori l’albedo di un qualsiasi pianeta, esso varia infatti col tipo e composizione chimica dell’atmosfera e del suolo di un pianeta, per questo può risultare conveniente omettere il computo dell’albedo nel caso di un calcolo generale senza per questo inficiarne nella bontà, un po’ come è stato fatto anche per la superficie del pianeta prima. Così la formula può essere riscritta più semplicemente come $$ T_{eq} ={T_\odot}\sqrt{\left ( \frac{R_\odot}{2a} \right )}\tag{6}$$
Se ora volessimo calcolare entro quale intervallo di distanza dalla stella vogliamo trovare un certo intervallo di temperatura potremmo semplicemente fare l’inverso per aver il risultato espresso in unità astronomiche:$$ a=\frac{1}{2} \left (\frac{T_\odot}{T_{eq}} \right)^{2}R_\odot\tag{7}$$

Diagramma di fase dell'acqua. La possibilità dell'acqua di rimanere allo stato liquido a pressioni molto elevate le consente di svolgere il ruolo di lubrificante delle placche continentali. Fonte dell'immagine: Wikipedia.

Diagramma di fase dell’acqua in ordine alla temperatura e pressione.
Fonte dell’immagine: Wikipedia.

Per trovare un intervallo di temperature compreso tra 240 K e 340 K nel Sistema Solare dovremmo andare tra i 1,35 e 0,67 AU.
Perché ho usato questo strano intervallo di temperature pur sapendo che alla pressione canonica di 1 atmosfera l’acqua esiste allo stato liquido tra i 273 e i 373 K?
Semplice 2! Ogni pianeta possiede una sua atmosfera (ce l’ha anche la Luna anche se questa è del tutto insignificante) che è in grado di assorbire e trattenere calore, è quello che viene chiamato effetto serra. L’atmosfera della Terra ad esempio garantisce a seconda dei modelli presi come riferimento da 15 a 30 e più gradi centigradi di temperatura in più rispetto alla temperatura di equilibrio planetario, consentendo così all’acqua di essere liquida pur restando ai margini superiori della zona Goldilocks del Sole.

Aggiornamento

Non riporterò questo aggiornamento di stato nel sito Tutti Dentro dove questo articolo è uscito in contemporanea a qui. Questa aggiunta è mia e me ne assumo ogni responsabilità verso i lettori per quello che sto per scrivere.

[table “70” not found /]

Forse non è stato compreso bene che nonostante il ruolo dell’albedo sia importantissimo nel calcolo esatto per stabilire se una precisa orbita cade all’interno di una zona Goldilocks, esso purtroppo è un dato che non è possibile stabilire per adesso nel caso dei pianeti extrasolari. Si possono considerare un ampio spettro di possibilità, diciamo tra un albedo di 0,99 e 0,01, indicare un valore medio tra questi due oppure scegliere tra uno de valori che sono suggeriti in questa tabella o oppure ancora si può scegliere di non usare affatto l’indice albedo in questa fase di calcolo, come ho fatto deliberatamente io in questa fase. Dopotutto si deve stabilire un discreto intervallo di possibili orbite di un pianeta di massa non bene definita su un ampio intervallo di possibili temperature di equilibrio attorno ad una stella lontana.
Prendiamo ad esempio il Sistema Solare visto da una manciata di parsec e si supponga fosse stato possibile identificare sia Venere che la Terra, di conoscere la loro distanza e il loro  albedo.
Applicando l’equazione sprovvista del computo dell’albedo qui sopra (\(\frac{1}{2} \left (\frac{T_\odot}{T_{eq}} \right)^{2}R_\odot\)) , essa restituisce una temperatura di equilibrio, che per Venere sappiamo essere di  253 kelvin, di 327  K, ma che corretta per l’albedo, ossia: $$ a=\frac{1}{2} \left (\frac{T_\odot}{T_{eq}} \right)^{2} R_\odot \sqrt{1-A}$$ dà esattamente il valore corretto. Un errore del 29% in più ma che per albedo inferiori tende quasi ad annullarsi.
Un altro metodo che era stato proposto e fatto passare come l’unico valido $$ a=\frac{\sqrt{1-A}}{2} R_\odot \left (\frac{T_\odot}{T_{eq}}\right)^2 $$ sembra esattamente equivalente allo stesso metodo corretto per l’albedo qui suggerito (\(\frac{1}{2} \left (\frac{T_\odot}{T_{eq}} \right)^{2} R_\odot \sqrt{1-A}\)), ma si dimostra essere del tutto fallace se usato senza tenere conto dell’albedo; con lo stesso esempio precedente si arriva a definire la temperatura di equilibrio di Venere a 462 K, l’83% in più.

Sono piccolezze, è vero, e di solito non amo polemizzare – anche se qualcuno potrebbe pensare il contrario – e ammetto che non sono un gran genio nella matematica, di solito faccio dei casini enormi nelle semplificazioni (ma non in questo caso). Ma amo sperimentare, rifare i calcoli decine di volte prima di scriverli e pubblicarli, per cui quando lo faccio so che sono corretti e testati decine di volte come in questo caso.
Ho scelto di offrire il mio modesto aiuto a una cara amica per questo appuntamento e scoprire che presuntuosamente veniva affermato che questo lavoro era sostanzialmente errato non l’ho proprio digerito. Con questo  stupido esempio ho voluto mostrare la bontà di questo lavoro  che consente a scapito di un lieve margine di errore di poter essere usato anche senza tener conto dell’albedo di un pianeta; ho scelto Venere perché avendo l’albedo più elevata era quello che più avrebbe messo in difficoltà il procedimento descritto in questo articolo (se avessi usato la Terra avrei avuto un 12% a fronte di 58%).
Quindi il mio invito è quello di non raccattare formule a caso qua e là sulle pubblicazioni più disparate e spacciarle per buone senza averle prima provate, smembrate e ricomposte; qui l’errore è evidente, non serve molto per vederlo. Potreste dire poi delle castronerie che prima o poi si rivelano per quel che sono: ciarpame.

Zenone, Olbers e l’energia oscura (seconda parte)

Nella prima parte di quest’articolo credo di aver dimostrato come nella risposta al paradosso di Olbers si nasconda la prova principe dell’Universo in espansione. Tale affermazione ci svela l’Universo per quello che veramente è. L’Energia Oscura per ora lasciamola per un attimo in disparte e diamo uno sguardo all’aspetto reale dell’Universo prima di approfondire questa voce.

La geometria locale dell'universo è determinato dal fatto che l'Ω densità relativa è inferiore, uguale o maggiore di 1. Dall'alto in basso: un sferica universo con maggiore densità critica (Ω> 1, k> 0); un iperbolica , universo underdense (Ω <1, k <0); e un universo piatto con esattamente la densità critica (Ω = 1, k = 0). L'universo, a differenza dei diagrammi, è tridimensionale.

La geometria locale dell’universo è determinata dalla sua densità. media come indicato nell’articolo.  Dall’alto in basso: un universo è sferico se il rapporto di densità media supera il valore critico 1 (Ω> 1, k> 0) e in questo caso si ha il suo successivo collasso (Big Crunch); un universo iperbolico nel caso di un rapporto di densità media inferiore a 1 (Ω <1, k <0) e quindi destinato all’espansione perpetua (Big Rip); e un universo piatto possiede esattamente il rapporto di densità critico (Ω = 1, k = 0). L’universo, a differenza dei diagrammi, è tridimensionale.

È nella natura dell’uomo tentare di decifrare l’Universo.  Le tante cosmogonie concepite nel passato lo dimostrano.  Un Uovo  Cosmico,  il Caos, la guerra tra forze divine contrapposte, sono stati tutti tentativi di comprendere qualcosa che è immensamente più grande. Ma solo per merito degli strumenti matematici e tecnologici che sono stati sviluppati negli ultimi 400 anni possiamo affermare oggi che si è appena scalfito l’enorme complessità del  Creato.
Fino a neanche cento anni fa l’idea che il cosmo fosse così enormemente vasto non era neppure contemplata: si pensava che le altre galassie lontane fossero soltanto delle nebulose indistinte appartenenti alla Via Lattea [cite]https://it.wikipedia.org/wiki/Grande_Dibattito[/cite].
Il dilemma nel descrivere matematicamente l’Universo apparve ancora più evidente con l’applicazione delle equazioni di campo della Relatività Generale [cite]https://it.wikipedia.org/wiki/Equazione_di_campo_di_Einstein[/cite] in questo contesto. Emergeva così però un quadro ben diverso rispetto a quanto supposto. Fino ad allora era sembrato ragionevole descrivere l’universo ipotizzando che le diverse relazioni tra le diverse quantità fisiche fossero invarianti col variare dell’unità di misura e del sistema di riferimento. In pratica si ipotizzava un universo statico, isotropo sia nello spazio che nel tempo. Un universo così semplificato senza tener conto del suo contenuto di materia ed energia potremmo descriverlo geometricamente piatto (\(\Omega=1\) che indica il rapporto tra la densità rilevata e la densità critica \(\rho / \rho_c\)), dove la somma degli angoli di un triangolo arbitrariamente grande e idealmente infinito restituisce sempre i 180° come abbiamo imparato a scuola [cite]https://it.wikipedia.org/wiki/Universo_di_de_Sitter[/cite]. Il problema è che l’Universo non è vuoto; contiene materia, quindi massa, e energia. In questo caso le equazioni di campo usate nei modelli di Friedmann propongono due soluzioni molto diverse tra loro. Infatti se il rapporto di densità media della materia, indicata dalla lettera greca \(\Omega\), dell’universo fosse minore o uguale rispetto a un certo valore critico (\(\Omega \le 1 \)), allora l’universo risulterebbe destinato a essere spazialmente infinito. Oppure, se il rapporto di densità media dell’universo fosse più alto (\(\Omega> 1\)) allora il campo gravitazionale prodotto da tutta la materia (non importa quanto distante) finirebbe per far collassare di nuovo l’universo su se stesso in un Big Crunch. Comunque, in entrambi i casi queste soluzioni implicano che ci fosse stato nel passato un inizio di tutto: spazio, tempo, materia ed energia, da un punto geometricamente ideale, il Big Bang [1. Chiedersi cosa ci fosse spazialmente al di fuori dell’Universo o prima della sua nascita a questo punto diventa solo speculazione metafisica, il tempo e lo spazio come li intendiamo noi sono una peculiarità intrinseca a questo Universo.].

Were the succession of stars endless, then the background of the sky would present us an uniform luminosity, like that displayed by the Galaxy – since there could be absolutely no point, in all that background, at which would not exist a star. The only mode, therefore, in which, under such a state of affairs, we could comprehend the voids which our telescopes find in innumerable directions, would be by supposing the distance of the invisible background so immense that no ray from it has yet been able to reach us at all.
Se la successione delle stelle fosse senza fine, allora il fondo del cielo si presenterebbe come una luminosità uniforme, come quella mostrata dalla Galassia, dato che non ci sarebbe assolutamente alcun punto, in tutto il cielo, nel quale non esisterebbe una stella. La sola maniera, perciò, con la quale, in questo stato di cose, potremmo comprendere i vuoti che i nostri telescopi trovano in innumerevoli direzioni, sarebbe supporre che la distanza del fondo invisibile sia così immensa che nessun raggio proveniente da esso ha potuto finora raggiungerci”

Tornando un passo indietro al famoso Paradosso di Olbers. Una soluzione alquanto intelligente venne proposta dal poeta americano Edgard Allan Poe in un saggio intitolato Eureka: A Prose Poem [cite]http://www.eapoe.org/works/editions/eurekac.htm[/cite], tratto da una conferenza precedente da lui presentata a New York. Vi cito il brano nel riquadro qui accanto (perdonate per la traduzione forse raffazzonata).  Sarebbe bastato indagare un po’ di più sui limiti imposti dalla fisica per capire che la soluzione fino ad allora proposta, ossia che una moltitudine di nebulose oscure avrebbero oscurato la radiazione stellare più distante, non era quella giusta. Invece un universo dinamico in espansione e  che avesse avuto un inizio certo in un momento passato lo sarebbe stato, più o meno come suggerito da H. A. Poe. Con la scoperta della recessione delle galassie grazie agli studi di Edwin Hubble tra il 1920 e il 1923 divenne evidente che l’Universo era in realtà un universo dinamico in espansione come le soluzioni proposte da Lemaitre e Friedmann usando le equazioni di campo di Albert Einstein suggerivano.

La teoria cosmologica del Big Bang, il modello inflazionario

Il quadro che finalmente emergeva dalle equazioni di Friedman e che come ho descritto la volta scorsa tiene conto dell’espansione metrica del tessuto spazio-tempo, dalla recessione delle galassie al paradosso da me citato più volte, indica un inizio temporale dell’Universo nel passato insieme a tutta la materia e l’energia che oggi osserviamo. Per spiegare la piattezza (\(\Omega =1\)) dell’Universo attuale nel 1979 il fisico americano Alan Guth – e indipendentemente da altri cosmologi come il russo Andrej Linde – suggerì che l’Universo subito dopo la sua formazione (da 10-35 secondi a 10-32 secondi) si sia gonfiato così rapidamente da provocare un superaffreddamento della sua energia, da 1027 K fino a 1022 K.  In questa fase tutto l’Universo sarebbe passato dalle dimensioni di 10-26 metri (un centimiliardesimo delle dimensioni di un protone) a 10 metri di diametro, ben 27 ordini di grandezza in una infinitesima frazione di secondo. Durante quest’era chiamata inflattiva, un sussulto nell’energia, un po’ come una campana che risuona dopo esser stata colpita da un battacchio, avrebbe avviato un processo di ridistribuzione dell’energia verso uno stato di equilibro contrastando così il superrafreddamento causato dall’espansione. Questo processo avrebbe finito per far decadere il campo inflativo, chiamato appunto Campo Inflatone e responsabile dell’inflazione iniziale, verso uno stato abbastanza stabile chiamato falso vuoto e provocando una transizione di fase dello stesso campo che ha quindi dato origine a tutta la materia, compresa ovviamente quella oscura, e tutta l’energia che oggi osserviamo nell’Universo.

Permettetemi un breve digressione: Quando accendiamo una candela, facciamo esplodere qualcosa, che sia un esplosivo al plastico oppure del granturco per fare il pop corn, o più semplicemente sentiamo sulla pelle il calore del sole che ha origine nelle reazioni termonucleari al centro della nostra stella, quella è ancora l’energia, riprocessata in migliaia di modi diversi, che scaturì col Big Bang.

Fu appunto quest’era inflattiva, dominata dal campo inflatone a dilatare così tanto l’Universo da fargli assumere l’aspetto così sorprendentemente piatto che oggi conosciamo, una curvatura così ampia da sembrate piatta 1, così vicina al canonico valore di \(\Omega =1\).

L’espansione post inflazionistica: il problema della densità

Se volete dilettarvi sulla transizione di fase, provate a gettare una tazzina d’acqua bollente nell’aria fredda abbondantemente sotto zero. Più o meno è lo stesso processo accaduto al campo inflatone: un campo energetico (l’ acqua calda nella tazzina) che viene liberata nell’aria super fredda (universo inflazionato). Il nevischio sono le particelle scaturite dalla transizione di fase dell’acqua.

Con il suo decadimento, la spinta del campo inflatone cessa di essere il motore dell’espansione dell’Universo ma la spinta continua per inerzia, con una piccola differenza: la presenza della materia.
Ormai il campo inflatone è decaduto  attraverso un cambiamento di fase che ha dato origine a tutta la materia che osserviamo direttamente e indirettamente oggi nel cosmo. Piccole fluttuazioni quantistiche in questa fase possono essere state le responsabili della formazione di buchi neri primordiali [cite]http://ilpoliedrico.com/2016/06/materia-oscura-e-se-fossero-anche-dei-buchi-neri.html[/cite]. Ma al di là di quale natura la materia essa sia, materia ordinaria, materia oscura, antimateria, essa esercita una debolissima forza di natura esclusivamente attrattiva su tutto il resto; la forza gravitazionale. 
Quindi, come previsto dalle succitate equazioni di Friedmann, è la naturale attrazione gravitazionale prodotta dalla materia a ridurre quasi ai ritmi oggi registrati per l’espansione.
Ma tutta la materia presente nell’Universo comunque non pare sufficiente a frenare e fermare l’espansione.
La densità critica teorica dell’Universo \(\rho_c\) è possibile calcolarla partendo proprio dal valore dell’espansione metrica del cosmo espressa come Costante di Hubble \(H_0\) [cite]http://arxiv.org/abs/1604.01424[/cite] secondo le più recenti stime:
$$\rho_c = \frac{3{H_{0}}^2}{8\pi G}$$ 
Assumendo che \(H_0\) valga 73,24 km/Mpc allora si ha un valore metrico di $$H_0=\frac{(73,24\times 1000)}{3,086\times 10^{22}}= 2,3733\times 10^{-18} m$$
Quindi $$ \frac{3\times {2,3733\times 10^{-18}}^2}{8\times\pi\times 6,67259^{-11}}=1,00761^{-26} kg/m^3$$
Conoscendo il peso di un singolo protone (1,67 x 10-24 grammi) o al noto Numero di Avogadro che stabilisce il numero di atomi per una data massa, si ottiene che $$ \frac{1,00761\times 10^{-26}\times 1000}{1,67\times 10^{-24}}= 6,003 $$che sono appena 6 atomi di idrogeno neutro per metro cubo di spazio (ovviamente per valori \(H_0\) diversi anche il valore assunto come densità critica \(\rho_c\) cambia e di conseguenza anche il numero di atomi per  volume di spazio).
Ora se volessimo vedere quanta materia c’è nell’Universo potremmo avere qualche problema di scala. Assumendo una distanza media tra le galassie di 2 megaparsec e usando la massa della nostra galassia a confronto, 2 x 1042 chilogrammi, otterremo all’incirca il valore \(\rho\) quasi corrispondente a quello critico (5 atomi per metro cubo di spazio). Eppure, se usassimo come paragone l’intero Gruppo Locale (La Via Lattea, la Galassia di Andromeda, più un’altra settantina di galassie più piccole) che si estende per una decina di Mpc di diametro per una massa complessiva di appena 8,4 x 1042 kg [cite]http://arxiv.org/abs/1312.2587[/cite], otteniamo un valore meno di cento volte inferiore (0,04 atomi per metro cubo di spazio). E su scala maggiore la cosa non migliora, anzi.
L’Universo appare per quel che è oggi, un luogo freddo e desolatamente vuoto, riscaldato solo dalla lontana eco di quello che fu fino a 380 mila anni dopo il suo inizio.
(fine seconda parte)

Zenone , Olbers e l’energia oscura (prima parte)

Mi pareva di aver già trattato in passato lo spinoso problema dell’Energia Oscura. Questo è un dilemma abbastanza nuovo della cosmologia (1998 se non erro) e sin oggi il più incompreso e discusso (spesso a sproposito). Proverò a parlarne partendo da lontano …

[video_lightbox_youtube video_id=”HRoJW2Fu6D4&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]Alvy: «L’universo si sta dilatando»
Madre: «L’universo si sta dilatando?»
Alvy: «Beh, l’universo è tutto e si sta dilatando: questo significa che un bel giorno scoppierà, e allora quel giorno sarà la fine di tutto»
Madre: «Ma sono affari tuoi, questi?»
(Io e Annie, Woody Allen 1997)

Attorno al V secolo a.C. visse un filosofo che soleva esprimersi per paradossi. Si chiamava Zenone di Elea e sicuramente il suo più celebre fu quello di “Achille e la tartaruga“.
In questo nonsense Zenone affermava che il corridore Achille non avrebbe mai potuto raggiungere e superare una tartaruga se questa in un’ipotetica sfida fosse partita in vantaggio indipendentemente dalle doti del corridore; questo perché nel tempo in cui Achille avesse raggiunto il punto di partenza della tartaruga, quest’ultima sarebbe intanto andata avanti e così via percorrendo sì spazi sempre più corti rispetto ad Achille ma comunque infiniti impedendo così al corridore di raggiungere mai l’animale. Si narra anche che un altro filosofo,  Diogene di Sinope, a questo punto del racconto si fosse alzato e camminato, dimostrando l’infondatezza di quel teorema.
È abbastanza evidente l’infondatezza empirica di quel paradosso, nella sua soluzione Aristotele parlava di spazio e di tempo divisibili all’infinito in potenza ma non di fatto, una nozione oggi cara che si riscopre nella Meccanica Quantistica con i concetti di spazio e di tempo di Planck, ma ragionare su questo ora non è il caso.
Piuttosto, immaginiamoci cosa succederebbe se lo spazio tra \(A\) (la linea di partenza di Achille) e \(B\) (la tartaruga) nel tempo \(t\) che impiega Achille a percorrerlo si fosse dilatato. Chiamiamo \(D\) la distanza iniziale e \(v\) la velocità costante con cui Achille si muove: nella fisica classica diremmo che \(D\) è dato da \(t \times v\), ovvio. Ma se nel tempo \(t/2\) la \(D\) è cresciuta di una lunghezza che chiameremo \(d\), alla fine quando Achille coprirà la distanza \(D\), il punto \(B\) sarà diventato \(D + 2d\) e la tartaruga non sarebbe stata raggiunta nel tempo finito \(t\) neppure se fosse rimasta ferma.

Animazione artistica del Paradosso di Olbers.

Animazione artistica del Paradosso di Olbers.

Se sostituissimo ad Achille un quanto di luce, un fotone come ad esempio il buon vecchio Phòs, e alla pista della sfida il nostro Universo, avremmo allora ricreato esattamente il medesimo quadro fisico. Nel 1826 un medico e astrofilo tedesco, Heinrich Wilhelm Olbers, si chiese perché mai osservando il cielo di notte questo fosse nero. Supponendo che l’universo fosse esistito da sempre, fosse infinito e isotropo (oggi sappiamo che non è vera quasi nessuna di queste condizioni e l’Universo è isotropo solo su grande scala, ma facciamo per un attimo finta che lo siano), allora verso qualsiasi punto noi volgessimo lo sguardo dovremmo vedere superfici stellari senza soluzione di continuità. Questa domanda in realtà se l’erano posta anche Keplero, Isaac Newton e Edmund Halley prima di lui ma non sembrava allora forse una questione importante come invece lo è.
138 anni dopo, nel 1964, due ricercatori della Bell Telephone Company che stavano sperimentando un nuovo tipo di antenna a microonde, Arno Penzias e Robert Wilson [cite]http://ilpoliedrico.com/2014/03/echi-da-un-lontano-passato-la-storia.html[/cite] scoprirono uno strano tipo di radiazione che pareva provenire con la stessa intensità da ogni punto del cielo. Era la Radiazione Cosmica di Fondo a Microonde (Cosmic Microwave Background Radiation) che l’astrofisico rosso naturalizzato statunitense George Gamow negli anni ’40 aveva previsto 1 [cite]https://arxiv.org/abs/1411.0172[/cite] sulle soluzioni di Alexander Friedmann che descrivono un universo non statico come era stato dimostrato dal precedente lavoro di Hubble e Humason sulla recessione delle galassie. Questa intuizione è oggi alla base delle attuali teorie cosmologiche che mostrano come i primi istanti dell’Universo siano stati in realtà dominati dall’energia piuttosto che la materia, e che anche l’Universo stesso ha avuto un’inizio temporalmente ben definito – anzi il tempo ha avuto inizio con esso – circa 13,7 miliardi di anni fa, giorno più giorno meno. Il dominio dell’energia nell’Universo durò fino all’epoca della Ricombinazione, cioè fin quando il protoni e gli elettroni smisero di essere un plasma caldissimo e opaco alla radiazione elettromagnetica e si combinarono in atomi di idrogeno. In quel momento tutto l’Universo era caldissimo (4000 K, quasi come la superficie di una nana rossa). E qui che rientra in gioco il Paradosso di Olbers: perché oggi osserviamo che lo spazio fra le stelle e le galassie è freddo e buio permeato però da un fondo costante di microonde? Per lo stesso motivo per cui in un tempo finito \(t\) Achille non può raggiungere la linea di partenza della tartaruga, lo spazio si dilata.
Electromagneticwave3DI fotoni, i quanti dell’energia elettromagnetica come Phòs, si muovono a una velocità molto grande che comunque è finita, 299792,458 chilometri al secondo nel vuoto, convenzionalmente indicata con \(c\). Queste particelle, che appartengono alla famiglia dei bosoni, sono i mediatori dei campi elettromagnetici. La frequenza di oscillazione di questi campi in un periodo di tempo \(t\) ben definito (si usa in genere per questo il secondo: \(f= 1/t\)) determina la natura del fotone e è indicata con \(f\): più è bassa la frequenza e maggiore la lunghezza d’onda: frequenze molto basse sono quelle delle onde radio (onde lunghe e medie, che in genere corrispondono alle bande LF e  AM della vostra radio, anche se AM sarebbe un termine improprio 2), poi ci sono le frequenze ben più alte per le trasmissioni FM 3, VHF, UHF, microonde, infrarossi, luce visibile, ultravioletti, raggi X e Gamma, in quest’ordine. Tutte queste sono espressioni del campo elettromagnetico si muovono nello spazio alla medesima velocità \(c\), quello che cambia è solo la frequenza: $$f=\frac{c}{\lambda}$$
Ma è anche vero che una velocità è l’espressione di una distanza \(D\) per unità di tempo (\( D=t \times v\)), pertanto nel caso della luce potremmo anche scrivere che \(D=t \times c\). Ma se \(D\) cambia mentre \(c\) è costante, allora è anche \(t\) a dover cambiare. Per questo ogni variazione delle dimensioni dello spazio si ripercuote automaticamente nella natura dei campi associati ai fotoni: un aumento di \(D\) significa anche un aumento della lunghezza d’onda, quello che in cosmologia si chiama redshift cosmologico. Potremmo vederla anche come l’aumento della distanza tra diversi punti di un’onda con i medesimi valori del campo elettromagnetico (creste o valli) ma è esattamente la stessa cosa.
Per questo percepiamo buio il cielo: la natura finita e immutabile della velocità della luce trasla verso frequenze più basse la natura della luce stessa, tant’è che quello che noi oggi percepiamo la radiazione cosmica di fondo a microonde con una temperatura di appena 2,7 kelvin è la medesima radiazione caldissima che permeava l’intero Universo  380000 anni dopo che si era formato.
La migliore stima dell’attuale ritmo di espansione dell’Universo è di 73,2 chilometri per megaparsec per secondo, un valore enormemente piccolo, appena un decimo di millimetro al secondo su una distanza paragonabile a quella che c’è tra il Sole e la stella più vicina. Eppure l’Universo è così vasto che questo è sufficiente per traslare verso lunghezze d’onda maggiori tutto quello che viene osservato su scala cosmologica, dalla luce proveniente da altre galassie agli eventi parossistici che le coinvolgono. Questo perché l’effetto di stiramento è cumulativo, al raddoppiare della distanza l’espansione raddoppia, sulla distanza di due megaparsec lo spazio si dilata per 146,4 chilometri e così via, e questo vale anche per il tempo considerato, in due secondi la dilatazione raddoppia.
Le implicazioni cosmologiche sono enormi, molto più dell’arrossamento della luce cosmologico fin qui discusso. Anche le dimensioni dello stesso Universo sono molto diverse da quello che ci è dato vedere. Noi percepiamo solo una parte dell’Universo, ciò che viene giustamente chiamato Universo Osservabile che è poi è la distanza che può aver percorso il nostro Phòs nel tempo che ci separa dal Big Bang, 13,7 miliardi di anni luce.

Ora dovrei parlare del perché l’Universo si espande e del ruolo dell’Energia Oscura in tutto questo, ma preferisco discuterne in una seconda puntata. Abbiate pazienza ancora un po’.
Cieli sereni.

Materia oscura: e se fossero anche dei buchi neri?

Rotationcurve_3 Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La "curva di rotazione" non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che \(V = \sqrt (GM / R)\). La "M" indica tutta la massa che è racchiusa all'interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo \(M / R\) è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l'esistenza della materia oscura e, sorprendentemente, predicono all'incirca la stessa quantità!

Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La “curva di rotazione” non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che \(V = \sqrt (GM / R)\). La “M” indica tutta la massa che è racchiusa all’interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo \(M / R\) è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l’esistenza della materia oscura e, sorprendentemente, predicono all’incirca la stessa quantità!

Finora – e credo che non lo sarà ancora per diverso tempo – la reale natura della materia oscura non è stata chiarita. Non sto ancora a ripetermi nello spiegare per filo e per segno come si sia arrivati a concludere che molta materia che percepiamo è in realtà una frazione di quella che gli effetti gravitazionali (curve di rotazione delle galassie) mostrano.
Se avete letto il mio articolo su quante stelle ci sono nella nostra galassia [cite]http://ilpoliedrico.com/2015/12/quante-stelle-ci-sono-nella-via-lattea.html[/cite] lì spiego che a concorrere alla massa totale di una galassia ci sono tante componenti barioniche (cioè composte da protoni e neutroni) più gli elettroni che non sono solo stelle. Ci sono anche corpi di taglia substellare, pianeti erranti, stelle degeneri e buchi neri di origine stellare, il risultato cioè della fine di enormi stelle  che dopo essere esplose come supernova hanno lasciato sul campo nuclei con una massa compresa tra le 3 e le 30 masse solari, tra i 9 e i 90 km di raggio. Questi oggetti non sono direttamente osservabili perché non emettono una radiazione rilevabile, ma i cui effetti gravitazionali sono ben visibili quando si studiano le quantità di moto di galassie e ammassi di queste rispetto al centro di gravità comune.
Obbiettivamente stimare la massa barionica non visibile di una galassia è molto difficile ma se prendiamo come esempio  il Sistema Solare il 99,8% dell’intera sua massa è nel Sole, una stella. Anche decidendo di considerare che la materia barionica non direttamente osservabile fosse un fattore dieci o venti volte più grande di quella presente nel Sistema Solare ed escludendo a spanne tutta la materia stellare degenere (nane bianche, stelle di neutroni e buchi neri) non più visibile presente in una tipica galassia come la nostra, in numeri ancora non tornano.
Più o meno tutte le galassie pare siano immerse in una tenue bolla di gas caldissimo grande circa cinque o sei volte la galassia stessa, probabilmente frutto del vento stellare galattico e dei processi parossistici dei nuclei galattici. Queste bolle sono impalpabili e caldissime a tal punto che solo da poco ne è stata avvertita la presenza [cite]http://hubblesite.org/newscenter/archive/releases/2011/37/[/cite], capaci quanto basta però per contenere una massa pari alla parte visibile; questo significa che finora la massa barionica di una galassia è stata finora sottostimata di un fattore 2.
Ma tutto questo ancora non basta. Anche se volessimo comunque raddoppiare o perfino triplicare le stime precedenti della massa barionica, verrebbe fuori che comunque una frazione ancora piuttosto cospicua di massa manca all’appello: almeno tra i due terzi e la metà mancherebbero comunque all’appello.
grafico universoE sulla natura di questa materia oscura (oscura appunto perché non visibile direttamente o indirettamente tranne che per la sua presenza come massa) che si sono avanzate le più disparate ipotesi.
Una di queste prevede che se, come molti esperimenti mostrano [cite]http://ilpoliedrico.com/2013/02/la-stupefacente-realta-del-neutrino.html[/cite], che i neutrini hanno una massa non nulla, allora questi potrebbero essere i responsabili della massa mancante. Questa si chiama Teoria WIMP (Weakly Interacting Massive Particle) Calda, cioè particelle debolmente interagenti dotate di massa che si muovono a velocità relativistiche. Particelle così sono note da sessant’anni, sono i neutrini che, grazie alla loro ridotta sezione d’urto e alla loro incapacità di  interagire con la forza nucleare forte (quella che cioè tiene uniti i quark e il nucleo degli atomi) e l’interazione elettromagnetica – però interagiscono bene con la forza nucleare debole (quella responsabile del decadimento radioattivo) e la forza gravitazionale – sono esattamente elusivi quanto si chiede alla materia oscura. Purtroppo se la materia oscura si identificasse unicamente nei neutrini avremmo un grande problema: forse non esisteremmo! Tutte le strutture di scala fine, le galassie e quindi le stelle, non avrebbero avuto modo di formarsi, disperse dai neutrini e dall’assenza di zone di più alta densità verso cui concentrarsi. Pertanto la Hot Dark Matter –  Materia Oscura Calda – non può essere stata rilevante alla formazione dell’Universo [cite]https://arxiv.org/abs/1210.0544[/cite].
Quindi se la materia oscura non può avere una rilevante componente calda, cioè che si muove a velocità relativistiche come i neutrini, deve essere prevalentemente fredda, cioè che, come la materia ordinaria, è statica. Una possibile spiegazione al mistero della materia oscura fa ricorso a oggetti barionici oscuri, che cioè non emettono una radiazione percettibile ai nostri strumenti, i cosiddetti MACHO (Massive Astrophysical Compact Halo Object) ossia oggetti compatti di alone. Questi MACHO sono composti da resti di stelle ormai morte come nane bianche e stelle di neutroni ormai freddi, buchi neri, stelle mancate e pianeti erranti. Certamente oggetti simili esistono e sono una componente importante della massa di qualsiasi galassia e più queste invecchiano più la componente degenere che contengono aumenta. L’indice di colore delle galassie associato alla loro massa viriale lo dimostra. Ma tutta la componente barionica dell’Universo può essere calcolata anche usando il rapporto tra gli isotopi dell’elio 4He e litio  7Li usciti dalla nucleosintesi cosmica iniziale come descritto dai modelli ΛCDM e questo pone un serio limite alla quantità di materia barionica degenere possibile [cite]http://xxx.lanl.gov/abs/astro-ph/0607207[/cite]. Pertanto risolvere il dilemma della materia oscura ricorrendo ai MACHO è impossibile.
Le uniche altre vie percorribili paiono essere quelle che fanno ricorso a particelle non barioniche (come i neutrini) ma che siano statiche come la materia barionica ordinaria: le cosiddette Cold WIMP, ovvero particelle debolmente interagenti dotate di massa non dotate di moto proprio è appunto una di queste. Particelle simili non sono ancora state osservate direttamente ma la cui esistenza può anch’essa essere dimostrata indirettamente confrontando le abbondanze isotopiche accennate prima [cite]http://arxiv.org/abs/astro-ph/9504082[/cite] con le equazioni di Friedmann.

Il pannello di destra è un'immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell'Orsa Maggiore. L'immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l'universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell'Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell'immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Il pannello di destra è un’immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell’Orsa Maggiore. L’immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l’universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell’Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell’immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Ora appare una ricerca [cite]https://arxiv.org/abs/1605.04023[/cite] che suggerisce che buona parte della parte della massa mancante sia collassata in buchi neri subito dopo il Big Bang. A riprova di questo studio viene portata la scoperta di numerose anisotropie nella radiazione cosmica infrarossa (CIB) rilevate nel corso di una survey del cielo a partire dal 2005 dal telescopio infrarosso Spitzer della NASA .
L’autore di questo studio (Kashlinsky) suggerisce che nei  primissimi istanti di vita dell’Universo (Era QCD da Quantum ChromoDynamics o Era dei Quark, tra i 10-12 secondi e i 10-6 secondi dopo il Big Bang) si siano verificate delle fluttuazioni quantistiche di densità che hanno dato origine ai buchi neri primordiali. Il meccanismo, per la verità non nuovo, è quello descritto anche da Jedamzik [cite]http://arxiv.org/abs/astro-ph/9605152[/cite] nel 1996 sui buchi neri primordiali creatisi nell’Era dei Quark. Nella sua opera Jedamskin prevede anche che a causa dell’espansione iniziale dell’Universo i buchi neri primordiali si possono essere formati solo per un ristretto intervallo di massa. Un aspetto importante che mi sento di sottolineare è che questi buchi neri primordiali non sono il prodotto del collasso gravitazionale di materia barionica come il nucleo di una stella, ma bensì il collasso di una fluttuazione di densità nel brodo di  quark e gluoni che in quell’istante stava emergendo; quindi prima della Leptogenesi e della Nucleosintesi Iniziale dell’Universo. Ma coerentemente con la fisica dei buchi neri la natura della sostanza che li ha creati  non ha alcuna importanza: che fossero orsetti gommosi o  il collasso di un nucleo stellare il risultato è il medesimo.
Finalmente Kashlinsky pare essere riuscito a trovare una prova visiva di quello che in pratica ha da sempre sostenuto, e che cioè almeno una buona parte della materia oscura possa essere spiegata da questi oggetti primordiali. Una conferma interessante a questa tesi potrebbe essere rappresentata dalla scoperta dei segnali dell’evaporazione  dei buchi neri più piccoli (1015 g) che dovrebbero essere stati generati durante l’Era dei Quark come proposto nel 2004 da BJ Carr [cite]http://arxiv.org/abs/astro-ph/0504034[/cite].
L’idea in sé quindi che buona parte della materia oscura possa essere interpretata come buchi neri primordiali non è affatto nuova. Va riconosciuto a Kashlinsky il merito di averci creduto e di aver trovato prove abbastanza convincenti per dimostrarlo. Certo il dilemma della materia oscura rimane a dispetto dei tanti annunci apparsi in questi giorni e ci vorranno ancora anni di indagine per svelarlo. Io penso che sia un ragionevole mix di tutte le idee qui proposte, anche perché l’attuale modello ΛCDM pone – come abbiamo visto – dei limiti piuttosto stringenti per l’attuale densità barionica che di fatto esclude le forme di materia convenzionale (vedi MACHO) oltre quelle già note. Anche il ruolo dei neutrini primordiali nella definizione delle strutture di scala fine dell’Universo merita attenzione, Alla fine forse scopriremo che la materia oscura è esistita fin quando non abbiamo cercato di comprenderne la sua natura.

L’importanza della divulgazione scientifica.

La scorsa settimana ho partecipato a una conferenza presso la Facoltà di Fisica dell’Università di Siena sui pianeti extrasolari tenuto dalla mia carissima amica – e collaboratrice di questo blog – Sabrina Masiero. Non sto a raccontare la cronaca dell’incontro, spero che presto sia disponibile l’intero filmato dell’evento, ora voglio parlare di qualcos’altro.
Sabrina è rimasta ospite qui a Siena per l’intero fine settimana, così che abbiamo avuto modo di parlare a lungo. È emerso come purtroppo spesso il ruolo di divulgazione sia considerato marginale rispetto all’altrettanto importante ruolo di ricercatore. Ovvio, fare ricerca significa accedere a fondi economici importanti, accedere a strutture all’avanguardia e progettarne di nuove; scrivere pubblicazioni, fare nuove scoperte e perché no, aspirare ad incarichi e vincere premi prestigiosi.
Vero, indubbiamente vero se si guardano le soddisfazioni personali, fare ricerca scientifica è indubbiamente gratificante, ma quella è solo la punta dell’iceberg di cosa è la scienza.
La ricerca fine a sé stessa finisce per essere autoreferenziale, oserei dire quasi inutile.  È  come scoprire un immenso tesoro e non poterlo portar via al sicuro; come scoprire un metodo banale per produrre diamanti in casa ma non poterlo usare perché altrimenti il loro valore di mercato crollerebbe a zero. La ricerca deve sempre essere accompagnata da una efficace opera di divulgazione, altrimenti non ha senso.
cosmos_saganQualche volta vengono portati alla mia attenzione opere d’ingegno di persone che – in buona fede – credono che la fisica in qualche punto è fallata e che  vada riscritta, o che, secondo loro, dovremmo aspettarci un certo risultato piuttosto che un altro in un particolare esperimento. Qualche volta trovo le loro domande legittime e degne di attenzione e altre volte, ben più spesso, mi accorgo che sono ragionamenti senza capo né coda, dove spesso si confonde la causa con l’effetto, si usano concetti assolutamente diversi ed estranei al loro contesto (un po’ come spiegare il Teorema di Pitagora con le leggi del moto lineare) e così via. Questi episodi, lungi da me causare ilarità o qualche risentimento, mi dicono invece la desolante realtà per quel che è. Mostrano che esistono persone dotate di senso critico e di passione ma che purtroppo non hanno le basi per poter giungere a qualcosa di coerente. A loro sono venute a mancare le fondamenta su cui si regge la scienza, la comunicazione e l’apprendimento. In parte accuso il sistema scolastico che qui, a parte poche eccezioni, pare schiacciato più sull’apprendimento mnemonico alla vecchia maniera che pensato per sviluppare un pensiero scientifico critico, finendo per scoraggiare tanti giovani studenti. Ma condanno senza appello anche il cortocircuito provocato di chi si balocca con l’autoreferenzialità delle sue posizioni, del “io so’ io e voi non sapete un …” di tanti soloni di cui ho accennato anche in un altro precedente pensiero [cite]http://ilpoliedrico.com/2016/04/la-fusione-dei-ghiacciai-campanilismo-antiscientifico.html[/cite].
È qui che il ruolo di divulgatore scientifico – come il mio con questo modesto blog e quello di Sabrina per conto dell’INAF –  entra in gioco. Saper parlare di scienza ad un pubblico non specialistico è fondamentale. Vuol dire creare quell’anello di congiunzione tra la ricerca scientifica più avanzata e il pubblico. Significa saper capire il linguaggio spesso criptico dei ricercatori e di adattarlo senza stravolgimenti in qualcosa di comprensibile alle persone comuni. l’astronomo americano Carl Sagan e uno dei fondatori del Progetto SETI, divenne noto presso il grande pubblico per il suo libro Cosmos che era la trascrizione letterale di una serie televisiva di documentari per la PBS da lui condotta. Egli era un valente divulgatore, grazie al suo impegno valenti scienziati come Neil deGrasse Tyson sono venuti fuori e tanti altri meno noti hanno intrapreso una carriera scientifica arricchendo così tutta l’umanità.
Saper parlare e decidere di parlare di scienza è essenziale perché la scienza non sia percepita come il male e gli scienziati non siano visti come sciamani. Parlare di scienza significa dare alle persone la capacità di ammutolire gli stolti che oggi predicano contro i vaccini o che vendono acqua zuccherata a peso d’oro con la forza della ragione ma anche gli strumenti per comprendere quello che è vero dal falso, come le bischerate delle scie chimiche rilasciate dagli aerei. Significa trasmettere il testimone della curiosità scientifica alle nuove generazioni, nuovi ricercatori e divulgatori di domani, come il Direttore dell’Osservatorio Astronomico di Siena Alessandro Marchini sta facendo con i ragazzi delle scuole superiori di qui.
Quindi non penso che essere divulgatori sia un ruolo secondario nella scienza, anzi è vero il contrario, e del compito  che mi sono ritagliato ne sono fiero.

Alla ricerca delle origini della vita

Il bacino del Sudbury in Canada è uno degli ultimi resti dei grandi bombardamenti cometari subiti dalla Terra nella sua infanzia di cui sia rimasta qualche traccia.  Il suo studio è quindi molto importante per capire cosa è davvero successo in quell’epoca così remota e come sia arrivato il nostro pianeta ad ospitare la Vita.

[showmap name=’Sudbury_basin’]
Credit: NASA & MNDM

Credit: NASA & MNDM

Nella regione dell’Ontario (Canada) esiste un cratere, ormai quasi del tutto eroso dal tempo, vecchio di 1,8 miliardi di anni. Fu una cometa di circa dieci o quindici chilometri a provocarlo, più o meno quanto si pensa che fosse stato il terribile asteroide che si suppone pose fine al dominio dei dinosauri su questo pianeta 65 milioni di anni fa. Perché vi possiate rendere conto delle dimensioni, immaginatelo grande quanto Firenze o Deimos, una luna di Marte.
Un impatto di un corpo simile oggi contro la Terra è molto più remoto che in passato, se dovesse comunque accadere esso segnerebbe la fine della nostra civiltà e probabilmente anche della nostra specie. Ma impatti simili nei primi 500 milioni di anni della Terra quasi sicuramente hanno portato gli ingredienti necessari alla vita e creato le condizioni ambientali adatte perché questa potesse formarsi e prosperare.
La comparsa della vita sulla Terra avvenne circa 3,8 – 3,4 miliardi di anni fa, ossia appena 700 milioni – un miliardo di anni dopo la sua formazione, circa alla fine del periodo conosciuto come Intenso Bombardamento Tardivo. Un periodo forse fin troppo breve per spiegare la formazione di molecole complesse come la glicina, la β-alanina, gli acidi amminobutirrici etc. che si suppone siano state i precursori della vita sul nostro pianeta. Diversi studi [cite]http://www.acs.org/content/acs/en/pressroom/newsreleases/2012/march/new-evidence-that-comets-deposited-building-blocks-of-life-on-primordial-earth.html[/cite] svolti in passato mostrano come le molecole organiche più semplici che comunemente vengono osservate nelle nubi interstellari possono essere arrivate qui sulla Terra cavalcando le comete senza distruggersi nell’impatto ma altresì trovare in questo l’energia sufficiente per formare strutture organiche , peptidi, ancora più complesse [cite]http://ilpoliedrico.com/2012/05/aminoacidi-astrostoppisti.html[/cite].

sudbury-impact1Da diverso tempo si sono sostituite le scariche elettriche dei fulmini e delle radiazioni ultraviolette delle teorie di Haldane e di Oparin con fonti energetiche più dolci e continue come le bocche idrotermali oceaniche. Lì metalli come ferro, zinco, zolfo disciolti in un ambiente acquatico ricco di energia non ionizzante, avrebbero avuto modo da fungere da catalizzatori per la creazione di molecole organiche complesse prebiotiche e, in seguito, per la vita. Le ricerche di laboratorio però mostrano che anche i luoghi di impatto cometario possono essere stati luoghi altrettanto interessanti.
Il bacino di Sudbury è ideale per verificare questa ipotesi: l’impatto cometario ha deformato la crosta fino a una profondità di ben sedici chilometri, permettendo così ai minerali di nichel, ferro e zinco di risalire dal mantello. Il cratere, inizialmente inondato dal mare subito dopo l’impatto, è poi rimasto isolato abbastanza a lungo da permettere la formazione di un sedimento spesso un chilometro e mezzo. Per i ricercatori che attualmente stanno studiando questo complesso [cite]http://www.sciencedirect.com/science/article/pii/S0016703716301661[/cite] l’acqua raccolta nel cratere avrebbe quindi promosso i processi idrotermali non dissimili a quelli che vengono attualmente osservati nelle dorsali oceaniche.

Qui gli ingredienti per la creazione della vita ci sono tutti: molecole organiche semplici che vengono portate sulla Terra da una cometa e che si pensa che possano sopravvivere all’olocausto dell’impatto e trasformarsi in molecole anche più complesse; l’acqua trasportata dalla stessa cometa e dal mantello fessurato; energia prodotta dall’attività idrotermale indotta dall’impatto; metalli e solfuri pronti per fungere da catalizzatori per i processi organici immediatamente disponibili …
Insomma, un mix di condizioni ideali all’abiogenesi iniziale possono essersi create già nei primissimi milioni di anni di vita della Terra.

Alla ricerca di forme di vita evolute: i limiti del Principio di Mediocrità

La vita è poi così comune nell’Universo? Oppure l’Uomo – inteso come forma di vita evoluta – è veramente una rarità nel’infinito cosmo? Forse le risposte a queste domande sono entrambe vere.

16042016-2D68D8DD00000578-0-image-a-23_1459508636554Finora il Principio di Mediocrità scaturito dal pensiero copernicano ci ha aiutati a capire molto del cosmo che ci circonda. L’antico concetto che pone l’Uomo al centro dell’Universo – Principio Antropocentrico – ci ha fatto credere per molti secoli in cosmogonie completamente errate, dalla Terra piatta all’idea di essere al centro dell’Universo, dall’interpretazione del moto dei pianeti alla posizione del sistema solare nella Galassia (quest’ultimo ha resistito fino alla scoperta di Hubble sull’espansione dell’Universo).
Per questo è comprensibile e del tutto legittimo estendere il Principio di Mediocrità anche alla ricerca della vita extraterrestre. Dopotutto nulla vieta che al presentarsi di condizioni naturali favorevoli il fenomeno Vita possa ripetersi anche altrove: dalla chiralità molecolare [cite]http://ilpoliedrico.com/2014/10/omochiralita-quantistica-biologica-e-universalita-della-vita.html[/cite] ai meccanismi che regolano il  funzionamento cellulare sono governate da leggi fisiche che sappiamo essere universali.
Una delle principali premesse che ci si attende da un pianeta capace di sostenere la vita è quello che la sua orbita sia entro i confini della zona Goldilocks, un guscio sferico che circonda una stella (in genere è rappresentato come fascia ma è un concetto improprio) la cui temperatura di equilibrio di radiazione rientri tra il punto di ebollizione e quello di congelamento dell’acqua (273 – 373 Kelvin)  intorno ai 100 kiloPascal di pressione atmosferica; un semplice esempio lo si può trovare anche su questo sito [cite]http://ilpoliedrico.com/2012/12/la-zona-circumstellare-abitabile-del-sole.html[/cite]. Ci sono anche altri vincoli [cite]http://ilpoliedrico.com/?s=+goldilocks[/cite] ma la presenza di acqua liquida pare essere fondamentale 1.
Anche se pur con tutti questi limiti il Principio di Mediocrità suggerisce che la biologia a base carbonio è estremamente diffusa nell’Universo, e questo non stento a crederlo. Stando alle migliori ipotesi le stelle che possono ospitare una qualche forma di sistema planetario potenzialmente adatto alla vita solo in questa galassia sono almeno 10 miliardi. Sembra un numero considerevole ma non dimentichiamo che la Via Lattea ospita circa 200 miliardi di stelle. quindi si tratta solo una stella su venti.
orologio geologicoMa se questa stima vi fa immaginare che là fuori ci sia una galassia affollata di specie senzienti alla Star Trek probabilmente siete nel torto: la vita per attecchire su un pianeta richiede tempo, molto tempo.
Sulla Terra occorsero almeno un miliardo e mezzo di anni prima che comparissero le prime forme di vita fotosintetiche e le prime forme di vita con nucleo cellulare differenziato dette eukaryoti – la base di quasi tutte le forme di vita più complessa conosciute – apparvero solo due miliardi di anni fa. Per trovare finalmente le forme di vita più complesse e una biodiversità simile all’attuale  sul pianeta Terra bisogna risalire a solo 542 milioni di anni fa, ben poca cosa se paragonati all’età della Terra e del Sistema Solare!

Però, probabilmente, il Principio di Mediocrità finisce qui. La Terra ha una cosa che è ben in evidenza in ogni momento e, forse proprio per questo, la sua importanza è spesso ignorata: la Luna.
Secondo recenti studi [cite]http://goo.gl/JWkxl1[/cite] la Luna è il motore della dinamo naturale che genera il campo magnetico terrestre. L’idea in realtà non è nuova, ha almeno cinquant’anni, però aiuta a comprendere il perché tra i pianeti rocciosi del Sistema Solare la Terra sia l’unico grande pianeta roccioso 2 ad avere un campo magnetico abbastanza potente da deflettere le particelle elettricamente cariche del vento solare e dei raggi cosmici. Questo piccolo particolare ha in realtà una grande influenza sulle condizioni di abitabilità sulla crosta perché ha consentito alla vita di uscire dall’acqua dove sarebbe stata più protetta dalle radiazioni ionizzanti, ha permesso che la crosta stessa fosse abbastanza sottile e fragile da permettere l’esistenza di zolle continentali in movimento – il che consente un efficace meccanismo di rimozione del carbonio dall’atmosfera [cite]http://ilpoliedrico.com/2013/12/la-caratterizzazione-delle-super-terre-il-ciclo-geologico-del-carbonio.html[/cite][cite]http://ilpoliedrico.com/2013/07/venere-e-terra-gemelli-diversi.html[/cite] – e la stabilizzazione dell’asse terrestre.
In pratica la componente Terra Luna si comporta come Saturno con Encelado e, in misura forse minore, Giove con Europa.
Il gradiente gravitazionale prodotto dai due pianeti deforma i satelliti che così si riscaldano direttamente all’interno. Per questo Encelado mostra un vulcanismo attivo e Europa ha un oceano liquido al suo interno in cui si suppone possa esserci le condizioni ideali per supportare una qualche forma di vita. Nel nostro caso è l’importante massa della Luna che deforma e mantiene fuso il nucleo terrestre tanto da stabilizzare l’asse del pianeta, fargli generare un importante campo magnetico e possedere una tettonica attiva [cite]http://ilpoliedrico.com/2010/11/limportanza-di-un-nucleo-fuso.html[/cite].

Ora, se le nostre teorie sulla genesi lunare sono corrette 3, questo significa che una biologia così varia e complessa come quella sulla Terra è il prodotto di tutta una serie di eventi che inizia con la formazione del Sistema Solare e arriva fino all’Homo Sapiens passando attraverso la formazione del nostro curioso – e prezioso – satellite e le varie estinzioni di massa. Tutto questo la rende molto più rara di quanto suggerisca il Principio di Mediocrità. Beninteso, la Vita in sé è sicuramente un fenomeno abbastanza comune nell’Universo ma una vita biologicamente complessa da dare origine a una specie senziente capace di produrre una civiltà tecnologicamente attiva è probabilmente una vera rarità nel panorama cosmico.

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Analizziamo per un attimo più da vicino il sistema Terra-Luna.
La distanza media tra il centro della Luna e il centro della Terra è di circa 384390 chilometri. Questo varia tra l’apogeo e il perigeo dell’orbita ma sostanzialmente questa è una cosa che non inficia il nostro conto.
Questo significa che nello stesso momento la parte più vicina alla Luna è distante 1,66% in meno della distanza Terra-Luna mentre la sua parte opposta lo è della stessa misura in più; tradotto in numeri la parte rivolta direttamente alla Luna dista dal suo centro 378032 km  mentre la parte più lontana 390774 km. Il 3,32% di discrepanza tra le due facce non pare poi molto, ma significa che se stabiliamo che la forza esercitata gravitazionale dal satellite sulla faccia più vicina fosse pari a 100, la forza esercitata sul lato opposto sarebbe solo del 96,74%. Il risultato è che la faccia rivolta verso la Luna è attratta da questa di più del centro del pianeta e la faccia più lontana ancora di meno, col risultato di deformare la Terra ad ogni rotazione..
Ma anche la Terra esercita la sua influenza sul suo satellite allo stesso modo. Ma essendo la Luna più piccola, anche la caduta gravitazionale tra le due facce è molto più piccola, circa 1,8%. Essendo solo un quarto della Terra ma anche 81 volte meno massiccia la forza di marea esercitata dalla Terra sulla Luna è circa 22 volte dell’opposto.
Mentre la Terra ruota si deforma di circa mezzo metro, la frizione interna spinge la crosta nel sollevarsi e ricadere e, per lo stesso meccanismo si ha produzione di calore nel nocciolo e nel mantello e il più evidente fenomeno di marea sulle grandi masse d’acqua del pianeta. Ma l’effetto mareale combinato con la rotazione terrestre fa in modo che la distribuzione delle masse sia leggermente in avanti rispetto all’asse ideale Terra-Luna. Questo anticipo disperde parte del momento angolare in cambio di un aumento della distanza media tra Terra e Luna. La durata del giorno aumenta così – attualmente – di 1,7 secondi ogni 100 000 anni mentre pian piano la Luna si allontana al ritmo di 3,8 centimetri ogni anno [cite]http://goo.gl/ALyU92[/cite], mentre la frizione mareale indotta restituisce parte del calore che sia il mantello che il nucleo disperdono naturalmente. Questo calore mantiene il nucleo ancora allo stato fuso dopo ben 4,5 miliardi di anni, permettendogli di generare ancora il campo magnetico che protegge la vita sulla superficie.
Ecco perché l’idea dell’unicità della Terra non è poi del tutto così peregrina. Non è un istinto puramente antropocentrico, quanto semmai la necessità di comprendere che la Terra e la Luna sono da studiarsi come parti di un unico un sistema che ha permesso che su questo pianeta emergessero tutte quelle condizioni favorevoli allo sviluppo di vita che poi si è concretizzata in una specie senziente. Queste condizioni avrebbero potuto crearsi altrove – e forse questo è anche avvenuto – invece che qui e allora noi non saremmo ora a parlarne. Ma è questo è quel che è successo e se questa ipotesi fosse vera farebbe di noi come specie senziente una rarità nel panorama cosmico.
Come ebbi a dire in passato, anche se il concetto non è del tutto nuovo, Noi siamo l’Universo che in questo angolo di cosmo ha preso coscienza di sé e che si interroga sulla sua esistenza. Forse questo angolo è più vasto di quanto si voglia pensare; il che ci rende ancora più unici.


Note:

La fusione dei ghiacciai e il campanilismo antiscientifico

Questa immagine aerea della Groenlandia mostra i fiumi d'acqua causati dal disgelo e le aree di ghiaccio più scuro descritte dall'articolo. la superficie della Groenlandia sta assorbendo più radiazione solare e i processdi di fusione sono proporzionali alle dimensioni dei grani di ghiaccio e alle impurità liberate. Credit: Marco Tedesco / Lamont-Doherty Earth Observatory

Questa immagine aerea della Groenlandia mostra i fiumi d’acqua causati dal disgelo e le aree di ghiaccio più scuro descritte dall’articolo. la superficie della Groenlandia sta assorbendo più radiazione solare e i processdi di fusione sono proporzionali alle dimensioni dei grani di ghiaccio e alle impurità liberate.
Credit: Marco Tedesco / Lamont-Doherty Earth Observatory

La scienza  aborre i campanilismi. Ogni campanilismo.
Solo 120 anni fa la Legge di Gravitazione di Newton pareva spiegare tutto: dalla caduta di un frutto dall’albero all’orbita della Luna e dei pianeti; eccetto uno. Un pianetino poco più di un terzo più grande della nostra Luna, Mercurio, ha un moto orbitale che non può essere spiegato con le leggi di Keplero, di cui la legge di Gravitazione Universale è l’espressione matematica. Occorse attendere la Relatività Generale di Einstein per capire perché quel sassolino nello spazio, così vicino al Sole, avesse quell’orbita. Per questo affermo che la scienza aborre ogni forma di campanilismo, ogni teoria è valida finché qualche fenomeno fino ad allora inspiegabile trova una nuova spiegazione universalmente valida.

E la climatologia è una scienza.  Può non sembrare esatta perché è estremamente complessa, ma è una scienza e come tale anche lei aborrisce i campanilismi.
Giusto stamani una mia carissima amica è stata oggetto di deploro per aver condiviso un articolo che nel titolo manifesta perplessità sulla responsabilità del Riscaldamento Globale sullo scioglimento dei ghiacciai della Groenlandia [cite]http://goo.gl/5WBgoS[/cite] [cite]http://goo.gl/xJ70qp[/cite]. Bastava leggere l’articolo senza soffermarsi al titolo per capire che esso descrive un fatto reale e che questa forma di campanilismo è quanto di più becero e lontano che ci possa essere dalla scienza.
Pur esprimendo conclusioni che io considero opinabili, l’articolo di cui offro il link più sotto, il primo, mette in evidenza un fenomeno forse poco conosciuto dai più ma che invece ha una grande importanza sugli effetti del clima: la neve sporca.
In pratica diversi studi del ricercatore Marco Tedesco del Lamont-Doherty Earth Observatory della Columbia University, indicano che è in atto da almeno un paio di decadi un meccanismo di feedback positivo causato dalla maggiore capacità dei ghiacciai di assorbire la radiazione solare che provoca la loro fusione. La causa sono le polveri presenti nell’atmosfera e che la neve raccoglie a scatenare questo meccanismo. Durante la stagione più calda la neve che man mano si scioglie aumenta per ogni unità di superficie il tasso di impurità presente e che fino ad allora era intrappolata nel manto nevoso. Queste impurità aumentano la capacità di trattenere ancora più energia e questo provoca ancora altro discioglimento. I vari cicli di fusione diurna e congelamento notturno favoriscono la creazione di cristalli di ghiaccio ancora più grandi e meno riflettenti col risultato di abbassare ancora di più l’albedo – il rapporto tra la radiazione solare riflessa e quella in arrivo – dei ghiacciai, ossia un aumento del tasso di scioglimento di questi.
Dove sia la contraddizione tra questa notizia e il Global Warming in atto non lo capisco. Il clima globale è il risultato di tanti piccoli eventi e fenomeni che presi singolarmente alcuni di essi paiono in contrasto o che sembrano slegati fra loro.
IMG_0427Qui la componente comune col Riscaldamento Globale è da ricercarsi  nelle polveri. Non è affatto un mistero che già in passato siano state rivelate tracce di polveri inquinanti di origine antropica nelle carote di ghiaccio prelevate in Antartide [cite]http://www.nature.com/articles/srep05848[/cite] e in Groenlandia [cite]http://pubs.acs.org/doi/abs/10.1021/es970038k[/cite], dove addirittura furono trovate tracce dell’inquinamento Romano e Cartaginese. Nell’aria il pulviscolo atmosferico (quella polvere che vedete sospesa nei raggi di luce che attraversano una stanza buia e che si accumula sotto i letti e sui mobili) è in perenne movimento; ogni volta che respirate fate entrare alcune particelle prodotte giorni e mesi fa in Cina, altre in India o in Perù o in Canada. Queste possono essere di origine biologica, minerale, il prodotto di processi industriali oppure un miscuglio di tutti questi. Le precipitazioni atmosferiche intrappolano e trasportano al suolo queste polveri e nel caso delle nevi possono rimanere intrappolate anche per anni e secoli; dipende dal clima locale.
Nel caso dei ghiacciai groenlandesi questo fenomeno di rilascio sta avvenendo ora. Non è necessario vedere la neve più sporca ad occhio nudo, al meccanismo di retroazione che ho descritto più sopra non serve; avviene.  E tutti i meccanismi di retroazione positiva, come questo, sono molto difficili da controllare e bloccare. l’unica cosa veramente efficace è quella di prenderne atto e di bloccarli alla fonte. Ovviamente non si possono fermare i fenomeni naturali come le polveri provenienti dai deserti – vi è mai capitato di scoprire che dopo una pioggia il vostro balcone o la vostra auto fosse ricoperta di una patina rossastra? quella è spesso la polvere del Sahara – o le eruzioni vulcaniche o il pulviscolo biologico. Ma molte polveri originate dalle attività umane sì. Abbattitori industriali che catturano le polveri delle ciminiere, conversione degli impianti di riscaldamento a olio combustibile a forme meno inquinanti e più efficienti (i frequenti allarmi dell’inquinamento metropolitano sono causati molto più dai sistemi di riscaldamento domestico che dal traffico automobilistico, solo che fermare le auto è più facile) abbandonare la tecnologia dei combustibili fossili là dove è fisicamente possibile.

Quindi non c’è contraddizione tra Global Warming e la fusione dei ghiacciai groenlandesi, alpini e del Tibet, così come non c’è con la morte della Grande Barriera Corallina australiana. Sono tutti fenomeni in gran parte riconducibili all’inquinamento umano che ha innescato diversi meccanismi che si autoalimentano e che sono quasi impossibili da controllare.
Qui ha ragione il Presidente Barak Obama quando afferma che noi siamo l’ultima generazione che può fare qualcosa per fermare tutto questo.  Non voglio che questa generazione sia ricordata come quella che poteva ma che non fece.