Sono molti i parametri che debbono essere presi in considerazione per poter considerare un esopianeta potenzialmente abitabile. Per inciso è giusto ricordare che anche se un pianeta può superare l’esame di tutti gli indici possibili non significa necessariamente che questo possa essere adatto ad ospitare forme di vita, come un pianeta può benissimo possedere un proprio ecosistema vitale pur avendo indici completamente diversi da quelli sin qui considerati.
Questo perché finora sappiamo di un solo pianeta che ospita la vita su cui possiamo calibrare le nostre conoscenze, il nostro.
Autore: Umby
Deforestazione e Riscaldamento Globale
Purtroppo spesso i media italiani lasciano poco spazio ai veri problemi del pianeta come il Riscaldamento Globale. Anche la politica mondiale preferisce cedere al ricatto del PIL piuttosto che preoccuparsi del futuro del pianeta, e questo è molto più grave.
Secondo il World Carfree Network (WCN), auto e camion rappresentano circa il 14 per cento delle emissioni globali di carbonio nell’atmosfera, mentre molti analisti attribuiscono ad almeno il 15 per cento delle altre emissioni alla deforestazione.
Secondo molti ricercatori, la deforestazione nelle foreste pluviali tropicali aggiunge anidride carbonica in atmosfera più che la somma totale di auto e camion sulle strade del mondo.
La ragione di questa cifra spaventosa è dovuta al fatto che quando gli alberi vengono abbattuti rilasciano carbonio nell’atmosfera, dove si mescola agli altri gas a effetto serra provenienti da altre fonti e contribuendo così al riscaldamento globale 1.
Pertanto è necessario fare altrettanti sforzi per evitare la deforestazione di quanto si faccia per cercare di aumentare l’efficienza dei carburanti e di ridurre l’utilizzo dei combustibili fossili.
|
«Poiché la produzione di cenere comporterebbe una rapida distruzione di querce, cerri e altri legnami, vietiamo con il presente Statuto che alcuno faccia cenere nel contado e districtus di Arezzo o venda legna a chi voglia farne cenere. Pena 25 lire per ogni contravventore e per ogni volta che sia commesso il delitto; chiunque potrà sporgere la denunzia e muovere l’accusa…» |
Secondo i rapporti dell‘Environmental Defense Fund (EDF), 32 milioni di ettari di foresta tropicale sono stati abbattuti ogni anno tra il 2000 e il 2009, e il ritmo della deforestazione non fa che aumentare.
“A meno di non modificare l’attuale sistema che premia la distruzione delle foreste, il disboscamento immetterà altri 200 miliardi di tonnellate di carbonio nell’atmosfera nei prossimi decenni …“, dice EDF, “Qualsiasi piano realistico sufficientemente veloce per ridurre gli effetti dell’inquinamento e del Riscaldamento Globale per evitare gravi e pericolose conseguenze deve affidarsi anche alla conservazione delle foreste tropicali” 2
Ma è difficile convincere gli abitanti poveri del bacino amazzonico e di altre regioni tropicali del mondo di smettere di tagliare gli alberi, quando queste sono l’unica loro risorsa economica.
“Conservare le foreste ha un costo non indifferente, mentre i profitti che si fanno col commercio di legname e col carbone di legna, nella creazione di nuovi terreni da pascolo o destinati all’agricoltura premono per la riduzione delle foreste“, aggiunge EDF 3.
Inoltre un altro grave problema legato alla deforestazione è la perdita della biodiversità 4: più della metà delle specie vegetali e animali vivono nelle foreste pluviali.
Un modo per aiutare i paesi tropicali a ridurre la deforestazione è attraverso la partecipazione al programma di riduzione delle emissioni e delle deforestazione e degrado forestale delle Nazioni Unite (UN-REDD).
UN-REDD cerca di incentivare le persone – e gli Stati che vi partecipano – a prendersi cura delle foreste e della loro gestione sostenibile.
Gli esempi includono l’utilizzo di minori risorse forestali per le attività agricole come la coltivazione del caffè e la produzione di carne e latte. A questo modo le nazioni partecipanti a questo programma possono accumulare e vendere i crediti di inquinamento come le nazioni industrializzate quando sono in grado di dimostrare di aver abbassato la deforestazione al di sotto di una linea di base.
Il programma UN-REDD ha incanalato più di 117 milioni di dollari 5 di aiuti finanziari diretti e attraverso il sostegno educativo alla riduzione della deforestazione in 44 paesi in via di sviluppo in Africa, Asia e America Latina fin dall’inizio del 2008.
Il Brasile è tra i paesi che grazie a UN-REDD ha compiuto gli sforzi maggiori per ridurre le emissioni di carbonio. Grazie a questo programma il Brasile ha rallentato la deforestazione entro i suoi confini del 40 per cento dal 2008 ed è sulla buona strada per conseguire una riduzione dell’80 per cento entro il 2020.
Il successo iniziale del programma UN-REDD in Brasile fa ben sperare per la riduzione della deforestazione in altre parti dei tropici.
Liberamente tratto da Scientific American 6
Forza SAM! dacci un segnale di vita!

I tappi all’ingresso dei condotti che portano i campioni allo strumento SAM.
Credit: NASA / JPL-Caltech / MSSS
Finalmente ci siamo!
Il 9 novembre scorso un pizzico di terreno marziano è stato depositato all’interno del Mars Science Laboratory – Curiosity, nello strumento Sample Analysis at Mars (SAM).
SAM è un gascromatografo-spettrometro di massa e uno spettrometro laser progettato per analizzare i gas e i composti organici eventualmente presenti nei campioni atmosferici e del suolo. Suo il compito di rilevare se un determinato campione è rilevante per supportare la vita.
Nei due giorni successivi, SAM ha utilizzato la spettrometria di massa, la gas cromatografia e la spettrometria laser per analizzare il campione.
“Abbiamo ricevuto buoni dati da questo primo campione solido,” ha dichiarato Paul Mahaffy del NASA Goddard Space Flight Center, responsabile dell’esperimento SAM da Greenbelt, nel Maryland “Abbiamo un sacco di analisi dei dati da fare, e stiamo progettando di prelevare altri campioni dello stesso materiale da studiare. “
Fonte: http://www.jpl.nasa.gov/news/news.php?release=2012-356
Altri tre pianeti per HD40307
La cosa più divertente sono i titoli roboanti che spesso compaiono dopo una qualche scoperta scientifica. In questo caso la notizia è la scoperta – con una diversa analisi software – di un esopianeta che orbita attorno alla sua stella all’interno della zona Goldilocks. Questo però non significa necessariamente che il pianeta sia abitabile come qualcuno annuncia.
| [table “15” not found /] |
| [table “19” not found /] |

HD40307 è conosciuta anche come HIP27887. La nebulosità in basso a destra è la Grande Nube di Magellano
Credit: Il Poliedrico
Non è poi molto, su scala cosmica è proprio qui dietro l’angolo, 41.7 anni luce o 12.8 parsec; fate un po’ voi.
Questa è una tranquilla stellina di classe K2.5V 1 2 comunque invisibile a occhio nudo, magnitudine 7.7, una di quelle che comunemente non farebbe notizia, nella costellazione australe del Pittore.
Comunque, anche se di classe diversa, HD40307 è abbastanza simile al Sole, solo un po’ più piccola e fresca della nostra stella.
Fino a poco tempo fa di questa stellina non si sapeva molto, poi nel 2008 sono iniziate le scoperte: ben tre pianeti, tutti molto vicini alla stella e piuttosto pasciuti, tutti scoperti misurando la velocità radiale della stella attorno al centro di massa del sistema attraverso lo spettrografo ad alta risoluzione HARPS dell’ESO.
Il fatto che i tre pianeti fossero piuttosto grandi e con un semiasse maggiore inferiore a quello di Mercurio, aveva fatto ritenere agli astronomi che il sistema HD40307 non possedesse altri pianeti importanti in orbite più esterne, ad esempio vicino o dentro la fascia Goldilocks della stella.
E invece, come spesso accade nella scienza, pare che HD40307 possegga non tre ma ben sei pianeti, tutti ben messi come massa -come mostra la tabella qui accanto – di cui uno, HD40307g, posto in orbita proprio all’interno di quella che si ritiene essere la sua zona Riccioli d’Oro.
Questa scoperta si è concretizzata quando un gruppo di ricercatori indipendenti ha riesaminato 345 spettri pubblicamente disponibili presso gli archivi dell’ESO registrati in passato dallo spettrografo HARPS.
Questi nuovi e diversi algoritmi di calcolo sono stati studiati per ridurre al minimo le immancabili interferenze e i disturbi acquisiti durante la registrazione dei dati e per garantire una maggior precisione nello studio delle classi spettrali minori 3.
Il miglior rapporto segnale-rumore di questo nuovo metodo di indagine messo a punto da questi scienziati ha permesso questa scoperta nonostante abbiano usato delle vecchie misurazioni che apparentemente non avevano molto altro da offrire.
Adesso però prima che a qualcuno venga in mente di migrare su HD40307g vorrei ricordare un paio di cose, giusto per fugare l’eccitazione 4 del momento e dei titoli alquanto fantastici dei soliti media del tipo “Scoperto pianeta clone della Terra!” oppure “gemello climatico della Terra!” e via discorrendo.
Di HD40307g non sappiamo quasi nulla, eccetto la sua massa che è ben 7 volte quella della Terra e la sua distanza dalla stella che è quasi 90 milioni di chilometri (0.6 UA).
Usando come riferimento quello che si appreso dallo studio del Sistema Solare, si può ipotizzare che il pianeta sia essenzialmente roccioso e che quindi la sua densità sia compresa tra i 3 e i 5 kg/dm3 – 5.
Partendo dai dati che abbiamo visto qui sopra si possono calcolare per una densità media di 3 kg/dm3 un raggio di quasi 15000 chilometri e una accelerazione gravitazionale al suolo di 12.6 m/s2 6 per HD40307g, mentre per una densità di 5 kg/dm3 i valori sono rispettivamente di 12600 chilometri e di 17,6 m/s2.
Con questi livelli di gravità la chimica e la pressione atmosferica del pianeta potrebbero essere molto diverse da quelle che occorrono allo sviluppo della vita, un po’ come è successo a Venere agli albori del Sistema Solare che poi è finito per essere inospitale. E anche l’età della stella – appena 1.2 miliardi di anni – non promette niente di buono 7.
Io in un posto così non vorrei starci, peserei decisamente troppo – tra i 120 e i 150 kg – ma soprattutto avrei 85 HD40307g-anni: sicuramente sarei troppo vecchio …
Errata corrige
L’8 maggio 2012 ebbi l’occasione di intervistare il Dott. Giorgio Bianciardi sulle sue ricerche sui risultati dell’esperimento Labeled Release condotti insieme al Dott. Levin – ideatore originale dell’esperimento LR ospitato sulle celebri sonde Viking – e il Dott. Miller.
L’intervista finale pubblicata su questo blog 1 conteneva un errore, una svista dovuta alla mia disattenzione e alla voglia di pubblicare 2.
Quel’intervista poi fu ospitata anche sulle pagine della rivista Coelum nel numero dello scorso settembre, dove l’errore fu corretto – per mia fortuna – dallo stesso Giorgio Bianciardi che in seguito mi contattò per farmi notare che, nonostante la correttezza scientifica del finale 3 ospitato su questo sito, questo non rispecchiava il suo pensiero e chiedendomi cortesemente di rettificare, cosa che volentieri faccio con queste righe, ripetendo la domanda e la sua risposta:
P. E se Curiosity dimostrerà il contrario? D.B. Troverà composti organici, li troveranno, state sicuri.
Francamente non me la sento di stravolgere quello che ho già scritto – un conto è correggere una svista e un altro è un intervento così pesante su un articolo – per correttezza verso i miei lettori e verso il Dott. Bianciardi che merita la necessaria visibilità al suo pensiero.
Per questo preferisco scrivere queste righe piuttosto che apportare una banale modifica o aggiunta in calce al vecchio articolo.
La fine del mondo
Spesso mi viene chiesto come e quando morirà il Sole, associando la sua fine con quella della Terra. Tranquilli, mancano ancora diversi miliardi di anni affinché il Sole muoia, ma la Terra cesserà di essere abitabile molto tempo prima, sempreché non accada una catastrofe cosmica imprevista o noi non la distruggiamo molto prima.
Cinque o sei miliardi di anni fa una o più stelle di seconda generazione esplosero in un remoto angolo di questa galassia disperdendo il loro prezioso contenuto di metalli pesanti in una oscura nebulosa ormai scomparsa 1.
Le onde d’urto destabilizzarono quella nebulosa che si frammentò in diverse parti che a loro volta incominciarono a collassare su se stesse. Uno di questi frammenti avrebbe in seguito dato origine al Sole e a tutto il suo sistema solare, compresa la Terra e alla Vita come la conosciamo, circa quattro miliardi e mezzo di anni fa.
È da allora che il nostro Sole converte – brucia – idrogeno in elio nelle profondità del suo nucleo in una incessante – per nostra fortuna – reazione termonucleare. I nuclei di idrogeno – protoni, di carica elettrica positiva – scontrandosi riescono a superare la barriera coloumbiana che normalmente li allontanerebbe solo grazie all’enorme calore (calore == movimento) e all’enorme pressione che esistono nel suo nucleo 2.
Il prodotto di scarto di questa reazione, nuclei dell’atomo di elio, per ora inerte a quelle condizioni fisiche, spinge le reazioni termonucleari dell’idrogeno a migrare sempre più in su verso la superficie, facendo espandere la zona di fusione e aumentare così la luminosità della stella.
L’aumento di luminosità è impercettibile ai sensi e a scale temporali umane ma è costante, circa il 10% ogni 1100 milioni di anni: quando il Sole iniziò a brillare di luce propria brillava il 30% in meno di oggi e era anche un po’ più piccolo.
Se non fosse stato per un poderoso effetto serra, quattro miliardi di anni fa la temperatura sulla Terra sarebbe stata ben al di sotto del punto di congelamento dell’acqua. La zona Goldilocks a quel tempo era vicina all’orbita di Venere ma è evidente che questo non ha portato bene a quel pianeta.
Il quasi impercettibile innalzamento della luminosità e temperatura del Sole dovuto all’espandersi della zona di fusione, provocherà l’aumento della quantità di energia irradiata nello spazio e ricevuto dal nostro pianeta, rendendo questo inabitabile nel giro di poco più di 1 o 2 miliardi di anni a partire da adesso, quindi ben più prima che il Sole diventi una gigante rossa.

Formazioni saline sulle rive del Grande Lago Salato, Utah – USA. Così appariranno gli oceani tra un paio di miliardi di anni.
Il Sole, l’astro che ha assistito alla nascita della vita e della specie umana su questo pianeta, renderà nel giro di un altro paio di miliardi di anni, ben prima quindi che esaurisca la sua capiente scorta di idrogeno nel suo nucleo, inabitabile questo bel Pallino Blu del cosmo.
Ogni anno sarà impercettibilmente un poco più assolato e caldo del precedente. Anche le dimensioni del Sole visto da quaggiù saranno appena appena più grandi col passare dei secoli, dei millenni.
Alla fine sulla Terra farà così caldo -70° centigradi – che anche gli oceani finiranno per evaporare del tutto lasciando una spessa crosta di sale su gran parte del pianeta.
All’inizio una spessa coltre di vapore acqueo avvolgerà la Terra come un mantello facendo aumentare l’albedo del pianeta permettendogli di riflettere nello spazio la gran parte della radiazione solare.
Al contempo il vapore nell’atmosfera innescherà un effetto serra a valanga che disperderà completamente gli oceani, mentre l’accresciuta radiazione ultravioletta solare dissocerà le molecole di vapore acqueo nei suoi componenti più fondamentali e ne farà aumentare l’energia cinetica.
A quel punto l’aria sarà così calda che la velocità media degli atomi più leggeri supererà la velocità di fuga del pianeta, che così perderà parte della sua atmosfera nello spazio.
Quando tra 2,4 miliardi di anni la Via Lattea e M31, la galassia di Andromeda, inizieranno a scontrarsi probabilmente del Lapislazzulo della Via Lattea non resterà più neppure il ricordo.
Quando la politica distrugge la Scienza
Dubium sapientiae initium, Nel dubbio inizia la sapienza.
Forse con questo post mi attirerò gli strali di molti voi lettori ma ritengo che le dimissioni della Commissione Grandi Rischi sia stato un pessimo autogol della comunità scientifica italiana che stavolta non è andata di là del proprio naso.
Innanzitutto un po’ di storia.
Franco Barberi, presidente vicario della Commissione Grandi Rischi, Bernardo De Bernardinis, già vice capo del settore tecnico del dipartimento di Protezione Civile, Enzo Boschi, presidente dell’Ingv, Giulio Selvaggi, direttore del Centro nazionale terremoti, Gian Michele Calvi, direttore di Eucentre e responsabile del progetto Case, Claudio Eva, ordinario di fisica all’Università di Genova e Mauro Dolce direttore dell’ufficio rischio sismico di Protezione civile.
Queste sette persone sono stati ritenute colpevoli di omicidio colposo plurimo e lesioni colpose dal tribunale dell’Aquila per i fatti del terribile terremoto che il 6 aprile 2009 distrusse la città, uccise 308 persone e causò migliaia di sfollati e senza tetto.
I fatti contestati riguardano una riunione – alquanto irrituale a detta poi di Enzo Boschi, uno dei condannati, visto che di solito gli incontri avvenivano a Roma – della Commissione Grandi Rischi tenutasi a L’Aquila il 31 marzo 2009, sei giorni prima del catastrofico sisma.
Quella riunione fu imposta dall’allora capo della Protezione Civile Guido Bertolaso che definì la convocazione degli esperti “un’operazione mediatica … perché vogliamo tranquillizzare la gente“, come risulta da una intercettazione telefonica registrata dai Carabinieri per un’altra indagine in cui lo stesso Bertolaso era indagato.
La riunione durò solo 45 minuti e e da esse non uscì alcun verbale, anzi, sempre lo stesso Enzo Boschi rivela che il verbale che appare adesso lui lo firmò solo dopo il terremoto: “Il verbale che mi inchioda non so chi l’abbia scritto, è apparso dopo il sisma, mi hanno fatto mettere una firma quando era già successo tutto”.
Per solidarietà verso i loro colleghi, l’attuale ufficio di presidenza della Commissione Nazionale dei Grandi Rischi – composto dal Presidente, Luciano Maiani, dal Presidente emerito, Giuseppe Zamberletti, e dal Vicepresidente, Mauro Rosi – ha rassegnato le sue dimissioni al Presidente del Consiglio dei Ministri.
Questi sono i fatti, nudi e crudi.
Penso che le motivazioni della sentenza siano comunque assurde – mi riservo di leggere le carte della sentenza quando queste saranno depositate e rese pubbliche – e che la pena di sei anni inflitta ai membri della Commissione sia comunque eccessiva, soprattutto quando in questo Paese chi ruba Denaro Pubblico, chi paga tangenti ai politici (!) in cambio di lucrosi appalti, oppure evade le tasse, non rischia praticamente niente grazie allo smantellamento ininterrotto dello stato di diritto perpetrato ininterrottamente in questi ultimi venti anni di II Repubblica, mentre le carceri sono strapiene di ladruncoli di strada, tossicodipendenti e gente disperata.
Ritengo però che il dolo da parte dei membri della Commissione in quei giorni ci fu, e che sia particolarmente grave perché fatto da accademici che in quel momento abiurarono la scienza, al di là del loro colore o credo politico.
Essi si mostrarono pavidi verso un’operazione puramente mediatica voluta dal governo politico di allora, chinarono il capo con piaggeria al volere del potere politico, cosa che un vero uomo votato alla scienza non dovrebbe mai e poi mai fare.
Non è possibile prevedere i terremoti, lo so e l’ho scritto diverse volte, né con i cassoni per raccogliere il radon, né guardando le fasi lunari, l’allineamento dei pianeti e neppure con i fondi di caffè o le frattaglie di bove.
Loro non potevano raccontare alla popolazione che nessun terremoto di forte intensità sarebbe mai arrivato o che ci sarebbe stato dopo sei giorni, nessuno di loro avrebbe potuto prevederlo. Non erano semplicemente in grado di dirlo e proprio per questo avrebbero dovuto far emergere il principio di precauzione, e quindi il dubbio, dicendo:
“Non siamo assolutamente in grado di dire se ci sarà o meno un forte sisma in futuro. Suggeriamo che comunque siano prese misure particolari per evitare – o limitare – una eventuale emergenza almeno finché l’attuale sciame sismico in atto continua la sua attività.”
Ma siccome un simile sensato annuncio non uscì – e un finto verbale della riunione apparve solo dopo il terremoto – è fin troppo evidente l’assoluta sottomissione della Commissione Grandi Rischi al volere politico. Questo non è il senno del poi, ma assoluto buonsenso che quella sciagurata sera non emerse.
Infine voglio fare esternare, in questo Paese tutti lo fanno – anche a sproposito, il mio disappunto su come vengono gestite le calamità naturali:
l’Italia è un paese a forte rischio sismico, come lo sono la penisola della California e il Giappone. Nonostante questo innegabile fatto scientifico la stragrande edilizia di questo paese non è costruita su principi e tecnologie antisismiche, tutt’altro: la famosa Casa dello Studente dell’Aquila era costruita in maniera molto approssimativa, con materiali scadenti, come allo stesso modo era stato costruito l’Ospedale San Salvatore dell’Aquila 1, con la sabbia al posto del cemento.
Purtroppo è così, è innegabilmente da irresponsabili non ammetterlo, che molta edilizia italiana sia così malmessa, tangenti, appalti al massimo ribasso e criminalità organizzata hanno prodotto questo in Italia: edifici fatiscenti già prima della loro inaugurazione, levitazione spropositata dei costi di realizzazione e sperpero di denaro pubblico 2.
Un’edilizia moderna e sicura, progettata secondo le ben collaudate regole edilizie adottate negli altri paesi ad elevato rischio sismico avrebbe un positivo impatto sull’economia del Paese.
La messa in sicurezza del territorio dai rischi di disastro idrogeologico ha costi non indifferenti all’inizio, ma ripaga rispetto alle spese da sostenere nelle infinite emergenze che accompagnano i disastri che si sarebbero potuti evitare.
Infine rivolgo un appello al Prof. Maiani affinché ritiri le sue dimissioni e prenda invece le distanze da chi non ha saputo – o voluto – opporsi a una mera manovra politica come fece quando il suo vicepresidente glorificava il terremoto in Giappone come Volontà Divina 3.
La scienza non può e non deve mai scendere a compromessi con la politica, il costo sarebbe poi troppo alto.
La costante di Hubble e i modelli cosmologici
Probabilmente la scoperta più importante mai fatta in cosmologia è che il nostro Universo si sta espandendo.
Insieme al Principio Copernicano, che non esiste un posto preferito nell’Universo, e il paradosso di Olbers 1 che il cielo è buio di notte, questa è una pietra miliare della moderna cosmologia.
Questa scoperta ha costretto i cosmologi a formulare modelli dinamici dell’universo, il che impone anche l’esistenza di un inizio e una fine per l’Universo.

La geometria locale dell’universo è determinata dalla sua densità. media come indicato nell’articolo. Dall’alto in basso: un universo è sferico se il rapporto di densità media supera il valore critico 1 (Ω> 1, k> 0) e in questo caso si ha il suo successivo collasso (Big Crunch); un universo iperbolico nel caso di un rapporto di densità media inferiore a 1 (Ω <1, k <0) e quindi destinato all’espansione perpetua (Big Rip); e un universo piatto possiede esattamente il rapporto di densità critico (Ω = 1, k = 0). L’universo, a differenza dei diagrammi, è tridimensionale.
Nel 1916 Einstein formulò la Relatività Generale, la prima coerente descrizione matematica dell’Universo che soppiantò definitivamente la meccanica newtoniana che in condizioni estreme – si pensi al caso della precessione dell’orbita di Mercurio – falliva le sue previsioni.
Basandosi sul potere descrittivo della Relatività Generale nel 1917 Albert Einstein provò a formulare il primo modello cosmologico moderno dell’Universo.
L’universo immaginato da Einstein era statico, aveva un volume finito ma senza limiti, l’analogo quadridimensionale della superficie di una sfera, che è dotata di un’area finita ma illimitata.
Però subito si accorse che un universo statico non era affatto stabile – la sua massa lo avrebbe fatto contrarre fino ad una singolarità 2 – e per questo introdusse nel suo modello una costante cosmologica repulsiva per controbilanciare l’effetto attrattivo della massa su scala cosmologica.
Ma con o senza una costante cosmologica un modello di universo statico stabile era impossibile, come dimostrarono indipendentemente il russo Alexander Friedmann nel 1922 e poi il belga George Lemaître.
Fu così che l’idea di un universo statico di volume finito ma illimitato cadde miseramente, è il caso di dire sotto il suo peso.
All’incirca negli stessi anni l’astronomo Edwin P. Hubble dall’Osservatorio di Monte Wilson stava studiando quelle che all’epoca venivano ancora chiamate nebulose a spirale e che in quel momento si riteneva facessero parte della nostra Galassia.
Grazie al nuovissimo (allora) Telescopio Hooker da 2,5 metri, Hubble riuscì ad identificare alcune Cefeidi 3 nelle galassie M31 e Triangolo, calcolando così la loro reale distanza 4. Fu evidente fin da subito che le nebulose in questione non appartenevano alla nostra Galassia, demolendo quindi l’opinione allora diffusa tra gli astronomi.
Combinando i suoi lavori con quelli di Humason, di Slipher e della Leavitt 5 fu possibile per Hubble correlare gli spettri delle singole galassie con la loro distanza secondo una precisa legge matematica: z = H0 D / c dove D è la distanza della galassia osservata, c è la velocità della luce, H0 è appunto la Costante di Hubble e z lo spostamento verso il rosso osservato.
Fu così evidente che tutti gli spettri mostravano un sistematico spostamento verso il rosso delle righe spettrali proporzionale alla loro distanza; era come se le altre galassie fuggissero da noi o che l’Universo era effettivamente in espansione, come dimostravano indirettamente le equazioni della Relatività Generale che aborrivano un universo statico.
Il valore che nel 1929 Hubble calcolò per la costante di espansione cosmologica Ho era di ben 500 (km/s)/Mpc 6, ovvero una galassia a un milione di parsec aveva una velocità di recessione pari a 500 chilometri al secondo, a 2 Mpc di 1000 e così via, un valore altissimo rispetto a quello attuale di appena 74,3 ± 2,1 (km/s)/Mpc che l’osservatorio spaziale infrarosso Spitzer 7 ha calcolato proprio in questi giorni 8.
Il valore calcolato da Hubble fu ritoccato poi al ribasso in più riprese proprio dal suo allievo e successore, Allan Sandage, arrivando fino a un valore comunemente accettato dagli astronomi tra 50 e 100 km al secondo per megaparsec a seconda della scuola di pensiero; qui è proprio il caso di dire che la verità sta in mezzo.
La Costante di Hubble pertanto esprime la rapidità con cui l’Universo si va espandendo. Questa è chiamata costante perché ci si attende che sia la stessa in tutto l’Universo, ma solo nello stesso momento. La Costante di Hubble si suppone infatti che vari nel tempo perché il ritmo con cui l’Universo si espande risente di diversi fattori, questo viene rallentato dall’attrazione gravitazionale di tutta la materia presente nell’Universo, ΩM, e accelera per l’effetto dell’altra costante cosmologica repulsiva Lambda (Λ) 9
Il valore della Costante di Hubble è altrettanto importante per stabilire un’altro dato fondamentale nelle teorie cosmologiche dinamiche: il suo inverso (1 / H0) è infatti chiamato tempo di Hubble, o più comunemente età dell’Universo. Proviamo adesso a calcolarlo per il valore della Costante di Hubble come è stata rivista da Spitzer assumendo che il valore medio di H0 non si sia discostato di molto nel tempo dal suo valore attuale 10:
1/(74,3 km/s)*Mpc = 1/(74,3 * 3,09E+19) = 4,36E+17 secondi dalla nascita dell’Universo. Siccome ci sono 3,1536E+16 in un miliardo di anni 11, allora l’Universo ha 13,831 miliardi di anni, ora più ora meno.
A questo punto appare evidente che se si vuole sviluppare un modello cosmologico coerente con la nostra realtà occorre tenere presenti alcuni fatti scientifici accertati: l’età e il tasso di espansione sono solo alcuni di questi, mentre la geometria e tutta la materia e l’energia presenti nell’Universo ancora sono oggetto di studio.
Superconduzione nelle stelle di neutroni

La nebulosa HEIC 0609a, i resti di Cas A
Credit: NASA , ESA , and the Hubble Heritage STScI /AURA )-ESA /Hubble Collaboration. Acknowledgement: Robert A. Fesen (Dartmouth College, USA) and James Long (ESA/Hubble)
Forse la vide il Flamsteed, 332 anni fa, come una debole stellina di sesta magnitudine lassù sopra a Caph (β Cas), proprio dove le polveri del piano galattico sono più spesse.
In realtà quella stellina era una supernova del tipo IIb, ovvero il risultato del collasso di una massiccia supergigante rossa al termine della sua vita, distante 11000 anni luce. Solo l’assorbimento della polvere interstellare lungo il piano galattico ha impedito che fosse più visibile di una debole stellina di appena 6a magnitudine agli osservatori della fine del XVII secolo.
Questa supernova fu riscoperta nel 1947 con i primi radiotelescopi, rivelandosi da subito come la sorgente radio extrasolare più brillante del cielo.
Cas A, questo è il suo nome, continua ancora a stupire gli scienziati dopo tutti questi anni.
Alcune teorie in passato ipotizzavano che della supernova fosse rimasto un buco nero, ma forse in questo caso sbagliavano.
Probabilmente quello che resta della supergigante è una stella di neutroni, una stella così densa che gli elettroni e i protoni riescono a fondersi insieme annullando la loro opposta carica elettrica trasformandosi in neutroni 1.
L’osservatorio spaziale a raggi X Chandra ha scoperto che questa stella di neutroni si è raffreddata di circa il quattro per cento durante un periodo di osservazioni di 10 anni.
Questo calo di temperatura indica che qualcosa di insolito sta accadendo all’interno di Cas A.
In una serie di lavori apparsi su alcune riviste riviste scientifiche più di un anno fa, si è discusso di questo curioso raffreddamento, arrivando alla conclusione che probabilmente la stella di neutroni sta attraversando un periodo in cui i protoni rimanenti nel nucleo della stella sono in uno stato superfluido. In questo caso i protoni -che sono portatori di carica elettrica – creano un superconduttore 2 3.
Questi studi ampliano la nostra conoscenza sugli stati della materia degenere in condizioni limite, che in questo caso porta a creare uno stato di superconduttività a temperature prossime al miliardo di gradi quando sulla Terra si può ottenere la superconduttività solo con materiali e condizioni particolari a temperature bassissime.
Cas A non solo quindi ci dà l’opportunità – rara se non unica – di studiare una stella di neutroni molto giovane e di verificare subito i nostri modelli teorici su questo particolare tipo di oggetti, ma possiamo studiare come si comporta la materia allo stato iperdenso e come si comporta la forza nucleare forte, che lega le particelle subatomiche, in condizioni così critiche.
Una meridiana venusiana
Lo so, sono mancato per troppo tempo e vi dovevo questa risposta.
Purtroppo ho avuto una settimana infernale, e per giunta domenica pomeriggio mi è caduto pure il telescopio (rompendo anche una doppia finestra).
Spero che comprendiate il mio silenzio.
Questa qui sopra è la foto originale da cui ho tratto la protagonista dell’ultimo quiz 1 dopo una laboriosa opera di restauro.
Quella che vedete non è frutto di inquinamento luminoso, che lascia un’ombra assolutamente non definita.
E neppure la Luna, che avrebbe riprodotto un’immagine ben più luminosa.
Questa è l’ombra di Venere che sono finalmente riuscito a registrare lo scorso 20 aprile in una strada di campagna tra le colline senesi, in Val di Crevole.
La ripresa non fa certo giustizia all’evento, ma solo perché ho usato una fotocamera compatta (A650 Powershot) riprogrammata con CHDK 2 per scattare una lunga serie di foto in sequenza con un tempo di esposizione di 5 secondi, diaframma a 2,8 e distanza focale di 8,2 millimetri.
Se volete potete scaricare l’immagine e rielabolarla voi stessi.
In quelle sere Venere era nelle migliori condizioni per proiettare un’ombra sulla Terra: la sua falce calante verso la congiunzione inferiore del 6 giugno 3 (il transito di Venere sul disco solare) era ancora abbastanza ampia da riflettere molta luce del Sole e la sua distanza rispetto alla Terra era abbastanza ridotta da arrivare in quei giorni a una magnitudine di -4,5.
Per questo Venere è riuscita a proiettare la sua ombra, che è ben più netta di quella lasciata dal Sole, dalla Luna o da qualsiasi altra fonte luminosa non puntiforme.
Io intanto mi prodigavo con l’altra fotocamera ben più performante e ho fatto questa per immortalare l’evento:








