A quando il Primo Contatto?

Una notizia di questi giorni, poi rivelatasi una bufala, prevedeva di affidare l’incarico di gestire un’eventuale futura scoperta di E.T.I. (Extraterrestrial Intelligence) all’ufficio UNOOSA (UN Office for Outer Space Affairs) al cui vertice siede attualmente l’astrofisica malese Mazla Othman. La notizia, pubblicata in origine dal Sundey Times, sarebbe dovuta essere annunciata durante una conferenza scientifica al centro congressi della Royal Society Kavli nel Buckinghamshire previsto per la prossima settimana.

Con tutto il rispetto per la scienziata malese,  è comunque un po’ poco un ufficio che fino a ieri era conosciuto soltanto agli addetti ai lavori per gestire un evento così importante per l’umanità come la fase di Primo Contatto: questa, a mio avviso, già doveva far riflettere sulla serietà della notizia.
Un vero Primo Contatto dovrebbe essere gestito non solo dall’intero corpo scientifico e accademico mondiale (matematici, fisici, biologi, etc.) ma anche da teologi di tutte le religioni e dall’Ufficio di Presidenza delle Nazioni Unite insieme ai  rappresentanti politici di tutte le nazioni del pianeta; dopotutto non è un evento che capiti spesso, anzi sarebbe unico.

Ma al di là della bufala, quali probabilità ci sono che si possa verificare prossimamente un Primo Contatto?

La zona riccioli d’oro

Questa è una  fascia teorica in cui un pianeta riceve abbastanza energia dalla sua stella da permettere l’esistenza dell’acqua liquida  necessaria per la biochimica del carbonio come la conosciamo noi.
Quindi la zona riccioli d’oro  seguirà grossomodo la legge dell’inverso del quadrato della luminosità di una stella, ovvero più questa è luminosa più lontana è la zona da essa.

Ad esempio nel lontano passato, il Sole era meno luminoso di oggi, e solo un massiccio effetto serra delle prime atmosfere impedì al pianeta Terra di congelarsi forse definitivamente.

La sonda Keplero, di cui ho illustrato i risultati parziali finora resi pubblici in questo articolo, ha permesso di farci scoprire finora 490 pianeti certi. Su questi dati (in realtà il campione al tempo considerato era di 370 pianeti) sono state fatte indagini statistiche che suggeriscono la probabilità del 50% che la prima Exo-Terra possa essere scoperta entro il maggio 2011, il 75% entro il 2020, e il 95% entro il 2.264 [1].
Ho cercato di illustrare con diversi articoli sul Poliedrico quanto sia alta la probabilità che esistano altre forme di vita nell’Universo, ma vorrei rimarcare su un punto fondamentale di questa: le forme di vita più comuni saranno quasi sicuramente (il condizionale è d’obbligo quando si fanno speculazioni di questo livello) batteri e organismi con poca o nessuna organizzazione pluricellulare -presupposto abbastanza ragionevole per avere una forma di vita senziente. Questo non significa che la vita senziente come la intendiamo noi sia esclusa dal novero delle probabilità, ma che essa certamente rappresenta una rarità rispetto a tutte le altre forme di vita. Di questo argomento ne tiene conto anche la celeberrima equazione di Drake, in cui qui ho cercato di dare una soluzione fin troppo ottimistica qui.
La scoperta di una Exo-Terra non significa necessariamente che essa ospiti forme di vita: potrebbe essere un inferno come Venere, sterile come Marte, o inospitale come il nostro Adeano. Dopotutto la Terra è stata abbastanza inospitale alle forme di vita che oggi conosciamo per una discreta parte della sua storia, e che come si può notare qui a fianco,  è solo negli ultimi 530 milioni di anni, con l’esplosione cambriana, che la vita sulla Terra ha assunto le caratteristiche che tutti conosciamo.
Quindi ad una Exo-Terra per ospitare forme di vita non basta che sia della dimensione giusta (massa) e nell’orbita giusta (zona riccioli d’oro), ma deve essere osservata anche nel periodo giusto.
L’unico modo che abbiamo per stabilirlo è quello spettroscopico: analizzando l’impronta energetica degli atomi dell’atmosfera del pianeta lasciata sulla luce che esso ci rimanda della sua stella. Più facile a dirsi, in questo caso, che a farsi.
Anche adesso possiamo solo dedurre che un pianeta di dimensioni inferiori a quelle di Giove orbiti intorno ad una stella dalle perturbazioni gravimetriche sul baricentro del sistema stellare o attraverso le deboli variazioni fotometriche della stella, riuscire a separare la luce di un piccolo pianeta dalla sua stella  attualmente è al limite delle capacità dei nostri strumenti. Ad esempio l’Hubble è in grado di discernere particolari dell’ordine del decimo di secondo d’arco (immaginate un cerchio diviso per 36000), ossia distinguere la Terra mentre è alla fase del quarto (alla massima distanza angolare dalla stella) da 32 anni luce , quindi è un po’ difficile riuscire per ora anche solo discernere la luce del solo pianeta con un’orbita all’interno della fascia riccioli d’oro, ossia circa 130-200 milioni di chilometri dalla stella. In previsione di questo genere di osservazioni, la sonda EPOXI nel 2008 puntò i suoi strumenti verso la Terra, per avere appunto un’indicazione  su cosa dovremmo aspettarci osservando un’altro pianeta simile alla Terra in orbita ad un’altra stella.

Comunque quella di un’altra Exo-Terra rimarrebbe più una scoperta scientifica che una situazione di Primo Contatto, e lo stesso dicasi per l’eventualità tutt’altro che remota che possa in un prossimo futuro essere scoperta un’altra forma di vita elementare al di fuori del nostro pianeta. L’unica possibilità rimane dal programma SETI, ma non sarebbe anche in questo caso un Primo Contatto vero e proprio: potremmo sempre decidere di non rispondere, un po’ come facciamo la domenica mattina a letto quando telefonano gli scocciatori.
Queste possibili scoperte potrebbero rivoluzionare il  modo di pensare la nostra esistenza, la nostra filosofia e le nostre religioni. Potrebbe davvero essere il profondo cambiamento culturale di cui avremmo tanto bisogno.


[1] http://blogs.discovermagazine.com/sciencenotfiction/2010/09/23/carbon-dioxide-sucks-it-cooks-our-planet-makes-first-contact-harder/ , http://arxiv.org/abs/1009.2212

Deep Impact/EPOXI verso la 103P/Harley 2

Sequenza di immagini del transito della Luna sul disco della Terra, ripresa da EPOXI il 28 e 29 maggio 2008.

Deep Impact/EPOXI, cortesia NASA/JPL

Ho già scritto due articoli sulla 103/P/Hartley 2, un terzo  sarebbe potuto essere stancante, dopotutto si tratta di una delle tante comete che ci sfiorano ogni anno. Invece no, questa è un po’ più speciale delle altre, perché il 4 novembre sarà oggetto di un incontro ravvicinato con  una sonda inviata dall’uomo.

Vi ricordate della missione Deep Impact che sparò un proiettile di 370 chili contro la 9P/Tempel 1 il 4 luglio del 2005? Bene, a parte i colpi, che son finiti, la sonda era ancora in ottimo stato, quindi perché non approfittarne? Alla NASA e all’Università del Maryland decisero di riusare la sonda per un altro incontro ravvicinato con un’altra cometa, le cambiarono nome, da Deep Impact a EPOXI e via. Fu scelta la cometa Boethin, ma questa non fu possibile rintracciarla per l’appuntamento previsto per il 2008. A questo punto  la scelta cadde sulla nostra cometa Hartley 2 come obbiettivo finale, con un fly-by previsto prima per l’11 ottobre, e poi deciso definitivamente per il 4 novembre del 2010.

Ma la gloriosa sonda Deep Impact/Epoxi non è rimasta a bighellonare nello spazio senza far niente per cinque anni: infatti nel 2008 ha compiuto studi su sette pianeti extrasolari cercando di determinarne l’albedo e di individuarne altre caratteristiche fisiche. Ha anche ripreso la Terra nell’infrarosso e nel visibile per mettere a punto  un plausibile modello di pianeta adatto alla vita visto dallo spazio da potersi usare nelle osservazioni future.
Alla fine dei conti, 330 milioni di dollari spesi bene.

Carburante sintetico dall’anidride carbonica


Nel 1990 uno studente universitario di nome Lin Chao della Princeton University usò una cella elettrolitica con dei catodi di palladio e un catalizzatore chiamato piridinio (un sottoprodotto della raffinazione del petrolio) per costruire molecole di metanolo partendo dalla CO2 facendovi scorrere energia elettrica. I suoi studi furono pubblicati nel 1994, ma nessuno se ne era mai interessato, finora.
Nel 2003 Andrew Bocarlsky riprese interesse per quella scoperta mentre stava cercando un modo per limitare l’effetto serra dovuto all’accumulo di CO2 nell’atmosfera. La studente Emily Barton riprese da dove gli studi di Chao si erano interrotti utilizzando una cella elettrochimica che si avvale di un materiale semiconduttore utilizzato nelle celle solari fotovoltaiche per uno dei suoi elettrodi, riuscendo a usare la luce solare per trasformare la CO2 in carburante di base.
“Fino a pochi anni fa l’unico rimedio all’accumulo di CO2 era quello di seppellirla in profondità nei giacimenti petroliferi esausti, ma adesso con questa nuova tecnologia si aprono strade completamente nuove” -dice Bocarlsky -“prendendo la CO2, acqua, sole e il giusto catalizzatore si può generare un combustibile alcolico”.
Per sfruttare questa nuova e promettente tecnologia è stata creata anche una società per attrarre i capitali necessari: la Liquid Light.
“Prendi l’elettricità e l’idrogeno, li si combinano con le emissioni di CO2 e ottieni la benzina”, spiega Arun Majumdar, direttore della ricerca Advanced Projects Agency-Energy (ARPA-e) che sta studiando queste tecnologie, in una conferenza nel mese di marzo.  “Questo è come prendere quattro piccioni con una fava, cioè sicurezza energetica, i cambiamenti climatici, il deficit federale e, potenzialmente, la disoccupazione.”
“Quando queste nuove tecnologie arrivano alla fase commerciale, questi posti di lavoro finiscono sempre negli Stati Uniti”, sostiene Alan Weimer ingegnere chimico dell’Università del Colorado a Boulder, che sta lavorando su altri generatori di carburante solare.
Per questo genere di combustibili sintetici ricavati ‘usando l’energia solare, si è mossa anche l’US Air Force, tra i principali finanziatori di questi progetti.
Michael Berman della US Air Force Office of Scientific Research dice: “Il paese e l’Air Force, hanno bisogno di  fonti sostenibili e sicure di energia …. Dato che il sole fornisce l’energia sufficiente per le nostre esigenze, il nostro obiettivo è quello di avere un carburante a base di CO2 partendo dalla luce solare e acqua come prodotti di base per produrre un combustibile chimico che può veicolare l’energia solare  in una forma che possiamo usare dove e quando abbiamo bisogno “.

Tratto da Scientific American (articolo originale di David Biello, 23 settembre 2010)

 

Non voglio ripetermi sulle scelte scellerate di un’intera classe politica che riduce i fondi per la ricerca mentre aumentano gli sprechi e i clientelismi che producono altro debito pubblico. L’articolo è già eloquente con le voci dei protagonisti di queste ricerche. Vorrei però sottolineare la diversa mentalità di fare impresa al di qua dell’oceano e al di là. Un’industria automobilistica, ancorché storica ma decotta come la Chrysler non attraeva più i capitali americani necessari per sopravvvivere; c’è voluto l’intervento della Fiat italiana per continuare ad esistere. Però negli USA i capitali, i venture-capital come li chiamano loro, esistono. Per creare la Liquid Light i capitali sono stati trovati, magari molti meno che quelli necessari a finanziare una industria automobilistica pre-fallita, ma se l’idea di ricavare combustibile dalla CO2 funziona potrà dare centinaia di volte questi ultimi. In Italia, e continuo con Marchionne e la Fiat, quei capitali gettati per risollevare la Chrysler americana, avrebbero potuto essere investiti nel paese e per il paese con ricerca e società innovative. Quanto potrà durare il mercato dell’auto mondiale? 10, forse 20 anni ancora, se sarà lungimirante e punterà alla ricerca per continuare a rinnovarsi. Checché ne dicano i vertici Fiat, la Fabbrica Italiana Automobili Torino è sopravvissuta così a lungo solo grazie agli aiuti di Stato, elargiti in tutti i modi possibili e immaginabili da tutti i governi italiani: sgravi fiscali, cassa integrazione, incentivi alla rottamazione. L’Italia ha la fortuna di essere bagnata dal mare per tre dei suoi quattro lati: bene, il traffico marittimo non è mai stato potenziato per privilegiare il trasporto su gomma. La rete ferroviaria non è mai stata riammodernata dalla Seconda Guerra Mondiale, ad esclusione di ritocchi quasi puramente estetici. L’alta velocità ferroviaria in realtà è stata una presa per i fondelli agli italiani: linee nuove (!)  pagate dalla collettività almeno quattro volte che quelle di altri paesi per treni che viaggiano a 180-200 km/h, mentre il TGV francese opera sui 250 km/h su linee di 30 anni. Problemi di orografia? parliamone: Il Giappone, uno dei paesi col più alto rischio sismico del mondo, ha le sue linee ad alta velocità dal 1964 e i treni a levitazione magnetica che operano sui 400 km/h. Il celebre Avvocato Agnelli diceva che se andava bene la Fiat, andava bene anche l’Italia, io non ne sarei tanto sicuro..

Il brillamento del 22

Classe
Piccco (W/m2) di raggi X tra 1 e 8 Angstroms (I)
X I > = 10-4
M 10-5 < = I < 10-4
C 10-6 < = I < 10-5
B I < 10-6
Un flare solare (o brillamento)  è una esplosione sul Sole che si verifica quando l’energia immagazzinata in un intreccio di campi magnetici (di solito sopra le macchie solari) viene improvvisamente liberata. I flares producono uno scoppio di radiazioni su tutto lo spettro elettromagnetico, dalle onde radio ai raggi X e raggi gamma.
I brillamenti solari vengono classificati in base alla loro luminosità nei raggi X nell’intervallo  di lunghezze d’onda compreso tra gli 1 e 8 Angstrom.
I brillamenti di classe  X sono i più grandi, sono  eventi che possono innescare un radio blackout planetario e  tempeste di radiazioni di lunga durata.
I brillamenti di classe M sono di medie dimensioni e possono causare blackout radio brevi che colpiscono la Terra e le regioni polari. Tempeste di radiazioni più piccole a volte seguono un flare di classe M.
Rispetto agli  eventi di classse  X e di classe M, quelli di classe C  sono piccoli, con poche conseguenze evidenti qui sulla Terra.
Infine gli eventi di classe B sono esigui, poco più di rumore di fondo.
Ogni categoria di brillamenti di raggi X ha nove suddivisioni che vanno da B1 a B9, C1 a C9, da M1 a M9, X1 a X9, in ordine di importanza crescente.
Il 22 settembre, tra le 02:30 e le 06:00 UT, Il Sole ha avuto una discreta attività nell’emisfero settentrionale. Almeno due filamenti magnetici sono diventati instabili provocando un flare  classe B8 sprigionato dal gruppo di macchie solari n° 1109, e una espulsione di massa coronale, qui ripresi nel filmato dal Solar Dynamics Observatory.
L’eruzione è simile a quella del 1 ° agosto, quando un filamento di massa coronale fu espulso scatenando aurore boreali negli Stati Uniti, addirittura fino all’Iowa. Questa volta, però, la massa coronale espulsa non ha investito direttamente la Terra, e quindi non sono state segnalate aurore particolarmente significative .
Potete seguire le evoluzioni della nostra stella a questo indirizzo.
.

Come seguire la 103P/Hartley 2 con Kstars

Kstars

Al posto di software spesso costosi e di scarso interesse per un uso puramente amatoriale, si può spesso ricorrere a software shareware o GNU/GPL per ottenere le stesse informazioni a costi pressoché nulli.

Questo è il caso di Kstars, un software disponibile gratuitamente per le piattaforme GNU/Linux e perfettamente integrato nelle soluzioni desktop che utilizzano KDE, ma che si può tranquillamente installare anche sui desktop con GNOME, XFCE etc.
Il problema però è che le mappe integrate in Kstars sono molto vecchie, risalgono al 2006, per cui per oggetti piccoli come comete e planetoidi i cui parametri orbitali debbono essere continuamente aggiornati, ovviamente non sono più validi.
Quello che stò per illustrare è il metodo, prendendo l’esempio dalla 103P/Hartley 2, per illustrare come aggiornare i parametri orbitali nei cataloghi (a noi interessano le comete) di Kstars.

Il catalogo originale di Kstars per le comete si chiama, ovviamente, comets.dat ed è un comune file di testo, ne esistono due copie, una è in /usr/share/kde4/apps/kstars/comets.dat e l’altra in ~.kde/share/apps/kstars/comets.dat, noi andremo a modificare quest’ultimo, così in caso di problemi avremo sempre una copia di riserva pulita.

L’originale, con i veccchi parametri, mostra per la nostra cometa di riferimento:

103P/Hartley 2 53480 1.03718776 0.69956650
13.60743 180.89995
219.86459 20040517.97208 JPL 49

noi sovrascriveremo alcuni valori (quelli sottolineati) con altri:

103P/Hartley 2 53480 1.05593935
0.69544078 13.63163
181.29142
219.77681
20101028.25980 MPC
49


1.05593935 
> è il perielio in unità astronomiche
0.69544078 > è l’eccentricità dell’orbita
13.63163    
> è l’inclinazione orbitale in gradi e decimali
181.29142  
> è l’argomento del perielio in gradi e decimali
219.77681   
> è la longitudine del nodo ascendente in gradi e decimali
20101028.25980  
> è la data del perielio [1]

Per aggiornare i parametri di Kstars c’è anche un altro metodo, che purtroppo però attualmente non contiene i dati per la Hartley 2: basta un  piccolo programmino in java da scaricare dal suo sito che si chiama MpcReader. Per le spiegazioni nel suo uso vi rimando al suo sito, vi suggerisco solo di controllare se avete la ~.kde/ o la ~.kde4/, altrimenti se avete solo la prima create un symlink con il comando ln -s .kde .kde4.
Per i parametri orbitali corretti potrete far riferimento al sito del IAU Minor Planet Center dove sono descritti gli ultimi disponibili.

Come vedete, è semplice modificare i parametri orbitali di Kstars, ora potrete utilizzare Kstars per seguire con successo anche i corpi  minori del Sistema Solare.


[1] http://www.minorplanetcenter.org/iau/info/CometOrbitFormat.html

Notizie dal cielo

Sono colpevole, lo ammetto, di aver tralasciato il Blog. La colpa? la solita: prima le ferie, poi il ritorno al lavoro. Dopo le ferie ci vorrebbero sempre almeno 15 giorni di riposo. Spero che con questa notizia mi perdonerete…

A fine settembre sarà visibile la cometa 103P/Hartley 2, forse la più brillante cometa del 2010, anche se solo attraverso un buon binocolo, e che nella seconda metà del mese di ottobre potrebbe addirittura essere visibile, seppur in condizioni di cieli molto tersi e bui, Luna e meteo permettendo, ad occhio nudo.

La 103P/Hartley 2 è stata scoperta fotograficamente da Malcolm Hartley nel marzo 1986 a Siding Spring in Australia. Il motivo per cui non era stata scoperta prima  risiede nel fatto che un passaggio ravvicinato a Giove nel 1982 ha modificato l’orbita della cometa in quella attuale.

La distanza di 103P/Hartley 2 dal Sole varia da 1,06 UA al perielio a 5,89 UA all’afelio. Il suo periodo è di 6,47 anni.


NGC 869 e NGC 884 Ammasso Doppio di Perseo

Infatti la Hartley 2 transiterà al perigeo tra il 20 e 23 ottobre, ad una distanza dalla Terra di appena 0,114 U.A. (circa 17 milioni di chilometri), mentre il suo perielio avverrà pochissimi giorni dopo, tra il 27 e 30 ottobre, ad una distanza dal Sole di 1,056 U.A. (circa 156 milioni di chilometri) [1].
Questa particolare vicinanza dei due eventi renderà la cometa particolarmente visibile nei cieli boreali, visto che in quei momenti la cometa sarà in transito nell’emisfero nord fino al 9 novembre[2].
Proveniente dalla piccola costellazione Lacerta (Lucertola), si dirige abbastanza velocemente verso Cassiopea attraversando parte della costellazione di Andromeda, passando accanto a Shedir (α Cas) il 30 settembre.
La luminosità sarà in continuo aumento per tutto il mese di ottobre, anche se la Luna purtroppo sarà ostile alle osservazioni nella seconda metà del mese.
Tra l’8 e il 9 di ottobre la Hartley 2 transiterà accanto all’Ammasso Doppio di Perseo, sarà quindi un’occasione imperdibile da osservare e fotografare, meteo permettendo, per coloro che non volessero perdersi questo appuntamento; rivolgetevi pure al circolo astrofili a Voi più vicino, sapranno aiutarvi.

Buono spettacolo.


[1]http://ssd.jpl.nasa.gov/sbdb.cgi?sstr=103P%2FHartley%202;orb=1;cov=0;log=0;cad=0#orb

[2]http://media.skyandtelescope.com/images/CometHartley2-bw.jpg

Caccia più dura agli esopianeti

La ricerca di esopianeti all’interno di ammassi stellari, come ad esempio 47 Tucanae (47 Tuc), sta dando molti meno risultati di quanto inizialmente si era previsto. Ma per questi dati pare esserci una spiegazione che merita di essere narrata.

47 Tucanae

Come illustrano John Debes e Brian Jackson della NASA Goddard Space Flight Center a Greenbelt, Maryland in un articolo che potrebbe essere prossimamente pubblicato sulla prestigiosa rivista Astrophysical Journal, questo è dovuto essenzialmente alle caratteristiche fisiche dei singoli sistemi negli ammassi stellari: quelli più giovani hanno maggiori possibilità di ospitare stelle con sistemi planetari che quelli più antichi.

Finora sono stati scoperti 490 esopianeti, ma come fa notare Debes, essi orbitano per lo più attorno a stelle singole, perché negli ammassi stellari (e nei sistemi multipli in generale n.d.r.) le perturbazioni gravitazionali possono essere abbastanza importanti da espellere gli eventuali corpi planetari;  inoltre, come spiega Jackson, si dovrebbe tener conto anche di un altro fattore importante, la metallicità delle stelle dell’ammasso: più questo è basso, più è antico e meno materia più pesante dell’idrogeno e dell’elio è stata disponibile per la creazione di pianeti.

Ma il lavoro dei due ricercatori non si ferma a queste considerazioni abbastanza scontate, essi hanno elaborato un modello che tiene conto soprattutto di un altro fattore che finora era stato trascurato: le orbite molto strette dei pianeti gioviani caldi, che rappresentano una grandissima percentuale degli esopianeti finora scoperti -anche perché sono quelli che hanno più possibilità di essere scoperti per la loro notevole influenza sulla stella principale- li espone al rischio concreto di venire cannibalizzati dalle loro stelle per effetto delle perturbazioni mareali che farebbero decadere la loro orbita fino a farli cadere sulla stella nell’arco di pochi miliardi di anni.
Qesto nuovo modello spiegherebbe perché all’interno di 47 Tucanae non sarebbe stato finora scoperto alcun pianeta, nonostante che i ricercatori se ne aspettassero almeno una dozzina su circa 34 mila stelle, senza aver bisogno di ricorrere alla scarsa metallicità del sistema per spiegare i risultati del sondaggio, come dice anche Ron Gilliland, dello Space Telescope Science Institute di Baltimora che ha partecipato allo studio su 47 Tucanae.

Rappresentazione artistica di WASP12-B cortesia NASA

In pratica questi pianeti gioviani caldi, orbiterebbero attorno alla loro stella con orbite molto più piccole di quella di Mercurio (sotto gli 8-10 milioni di chilometri) tanto da creare un effetto di marea, un rigonfiamento, sulla superficie stellare. Questo rigonfiamento segue l’orbita del pianeta e ne riduce l’energia, e quindi il raggio, di conseguenza l’azione mareale aumenta in cascata.
Gli ultimi momenti di vita di questi pianeti sarebbe drammatica: l’attrazione gravitazionale della stella strapperebbe via l’atmosfera del torrido  pianeta per poi assorbirlo completamente nella fotosfera (un po’ come accadrà alla Terra quando il Sole diverrà una gigante rossa, ma quella è un’altra storia). Un candidato ideale per questo fenomeno pare che sia già stato scoperto: si tratta di WASP12-B.

Questo nuovo modello indicherebbe che entro il primo miliardo di anni almeno un terzo dei pianeti gioviani caldi verrebbe distrutto.
La bontà di questo promettente studio potrebbe arrivare dalla missione Keplero, che studierà quattro diversi gruppi di stelle, che non saranno densi come un ammasso globulare, ma che hanno un’età stimata compresa tra meno di mezzo miliardo a quasi 8 miliardi di anni, e tutti dovrebbero avere abbastanza materia prima per formare un numero significativo di pianeti.  Se  i calcoli di Debes e Jackson hanno ragione, ci si dovrebbe attendere una quantità tre volte maggiore di pianeti gioviani caldi negli ammassi più giovani rispetto a quelli più vecchi.
Se questo modello verrà dimostrato, la caccia agli esopianeti potrebbe essere ancora più difficile e la stima di questi sistemi planetari caratterizzati dai gioviani caldi potrebbe essere sopravvalutata. Ciò implica che dovremmo osservare per un tempo molto più lungo un gran numero di stelle con strumenti più sensibili per cercare pianeti più deboli per avere una comprensione migliore dei sistemi planetari extrasolari.


La missione Keplero è gestita dal NASA Ames Research Center, Moffett Field, California.

Una nuova cosmologia che non fa Bang

Uno dei più grandi meriti della scienza è quello senza dubbio di avere il coraggio di ridiscutere tutti i suoi principi senza perdere di vista il suo obbiettivo, che è quello di spiegare razionalmente l’Universo che ci circonda, che sia un batterio o una galassia, un protone o un fiocco di neve, non importa.
Così, quando Wun-Yi Shu, ha proposto una nuova interpretazione del modello cosmologico attuale conosciuto come Big Bang, ho accolto la notizia con curiosità, senza pregiudizi o speranze o scetticismo, plaudendo alla capacità della scienza di rinnovarsi continuamente.

Legge di Hubble
Questa fu proposta da Edwin Hubble nel 1929 per spiegare lo spostamento verso il rosso delle righe spettrali di oggetti a distanza cosmologica; questa legge indica una relazione lineare tra il redshift della luce emessa dalle galassie e la loro distanza: tanto maggiore è la distanza della galassia e tanto maggiore sarà il suo redshift secondo l’equazione:

z = H0 D/c

dove z è il redshift misurato della galassia, Dc è la velocità della luce e H0 è la costante di Hubble, che secondo gli ultimi studi è di 74 km/s per Megaparsec con un margine d’errore del 4,3%. è la sua distanza,

Wun-Yi Shu ha proposto una interessante lettura partendo dalla metrica di  Friedmann-Lemaître-Robertson-Walker per creare un modello cosmologico che non facesse uso di due concetti non proprio bellissimi: la singolarità iniziale del Big Bang e l’energia oscura.

La singolarità iniziale nasce quando si tenta di risalire alle condizioni iniziali dell’Universo partendo dagli assunti attuali, come il redshift delle galassie e la massa stimata dell’Universo come ci vengono narrate dalle osservazioni astronomiche,  e le leggi fisiche come le conosciamo.
Il primo ad ipotizzare un punto d’origine iniziale fu Georges Lemaître nel 1927, indipendentemente da Alexander Friedmann; in seguito il modello del Big Bang fu esteso per rispondere ai nuovi interrogativi che sia la fisica quantistica (una asimmetria tra barioni e antibarioni nella composizione dell’Universo) che le osservazioni scientifiche (la radiazione cosmica di fondo da Arno Penzias e Robert Wilson nel 1964) fino ad arrivare a l’attuale modello inflattivo proposto da Alan Guth e a Alexei Starobinski agli inizi degli anni ’80.

L’introduzione dell’energia oscura  nell’attuale modello cosmologico si è reso necessario per spiegare le osservazioni che indicano un universo in accelerazione, ma il primo ad introdurre questo concetto fu Einstein con la costante cosmologica, un’ipotetica forma di energia con pressione negativa sul tessuto dell’Universo per contrastare le osservazioni di Hubble che portavano ad una singolarità iniziale. In seguito Einstein dichiarò che introdurre la costante cosmologica fu il suo più grande errore, ma quando fu sviluppata una teoria quantistica della materia, si scoprì  che il vuoto avesse una energia negativa, con una azione antigravitazionale e capace di accelerare l’espansione dell’universo.

L’importanza di c
Spesso c’è la tendenza di pensare che la velocità della luce sia costante, ma non lo è. In un corpo cristallino come ad esempio un diamante la  luce subisce un fenomeno di assorbimento-emissione che riduce la sua velocità a poche decine di migliaia di chilometri al secondo.
c invece è una proprietà dello spazio-tempo che i fotoni raggiungo nel vuoto perché non hanno massa.

Invece Wun-Yi ha reinterpretato le costanti universali come  c (equivalente alla velocità della luce nel vuoto) e la costante di gravitazione universale G rendendole variabili e postulando nelle nuove equazioni di campo dove G/c2 e quindi  G(t)/c(t)2=1. In questa nuova cosmologia in cui la massa si converte in distanza e viceversa -non voglio tediare il lettore con la dimostrazione matematica- l’unica costante invariabile rimane il tempo, quindi non può esistere né un principio (la singolarità iniziale), né una fine temporale (quindi anche se l’espansione dell’Universo accellera non può esserci una fine, ma questa è dovuta unicamente da G/c2 e non un’energia repulsiva oscura), ma una continua rimestura della massa che si converte in distanza equivalente.
Di ipotesi cosmologiche alternative al Big Bang ce ne sono molte e ne nascono in continuazione, ma questa è facile da confutare o meno: finora queste due costanti cosmologiche sono state oggetto di precise misurazioni e niente finora a dato prova della loro variabilità o di questo loro legame. In più questa ipotesi cosmologica, anche se pretende di spiegare alcune incongruenze nella luminosità delle supernove di tipo I nelle galassie più distanti nello spazio-tempo (questo mi fa ripensare all’apparente incongruenza dell’età degli ammassi stellari più antichi con l’età presunta dell’Universo), ma non spiega ad esempio la radiazione cosmica di fondo e la sua origine.
Mi fa anche pensare ad un’altra teoria cosmologica (smentita dalle osservazioni): quella dello stato stazionario di Hoyle, in cui avviene una creazione continua di materia (un atomo di idrogeno per metro cubo per un miliardo di anni) in palese contraddizione con il postulato della conservazione di massa.
Attualmente tutto il castello teorico del Big Bang includendo il modello inflattivo e l’energia oscura è in grado di fare previsioni sullo stato osservabile dell’Universo in accordo con le osservazioni fino a pochi microsecondi dopo il presunto Big Bang e solo quando arriverà una teoria migliore di questa potrò abbandonarla.

Posso dire che questa cosmologia di Wun-Yi non mi convince, neppure sul piano matematico, ma il bello della scienza è proprio questo: pensare e immaginare l’impensabile e avere il coraggio di esporlo, nella Scienza non ci sono gerarchie. la Scienza non ha dogmi o interessi particolari da difendere se non quello di ampliare la nostra conoscenza; pertanto applaudo a Wun-Li Shu per il suo coraggio, invitandolo a continuare nella sua ricerca.

Un palazzo in Paradiso

Il 15 ottobre 2003  il taikonauta cinese Yang Liwei ha pilotato il Shenzhou-5 in orbita per 21 ore prima di tornare sulla Terra.

La Cina così è entrata nell’esclusivo club di nazioni -Russia e Stati Uniti- che sono in grado di mandare  un essere umano in orbita con i propri mezzi.

In questi giorni la Cina ha superato l’economia giapponese e adesso è seconda solo rispetto a quella degli Stati Uniti d’America.
Sulla bontà del modello economico cinese non posso pronunciarmi, ma i risultati ottenuti dalla Repubblica Popolare restano comunque notevoli: basta guardare ai faraonici complessi che ha edificato per le Olimpiadi di Pechino nel 2008 per farsene un’idea.

Adesso i cinesi, lungi dall’essere quel popolo che stupidi luoghi comuni raccontano,  ha messo a segno un altro formidabile punto, stavolta nell’ingegneria aerospaziale: dopo essere stata la terza nazione che ha mandato autonomamente uomini in orbita dopo Unione Sovietica e Stati Uniti nel 2003, ha completato il primo modulo della sua futura stazione spaziale nazionale: il Tiangong 1 (che significa “Palazzo del Paradiso”).
Questo primo modulo verrà messo in orbita tra il 2010 e il 2011 senza equipaggio:  questo servirà di approdo come stazione scientifica per le prossime missioni spaziali cinesi -Shenzhou-8, Shenzhou-9, e Shenzhou-10 – e dovrebbe venire ingrandito attraverso  il Tiangong-2  previsto per il 2013 e il Tiangong 3  che sarà ultimato qualche tempo dopo, probabilmente tra il 2014 e il 2016, secondo le autorità cinesi. Con questi tre moduli attualmente in costruzione,  i cinesi costruiranno una base spaziale modulare come la Stazione Spaziale Internazionale, forse solo un po’ più piccola, che verrà usata molto probabilmente per una possibile missione lunare con equipaggio umano proposta per il 2017, anche se  quest’ultima missione per ora non è stata calendarizzata.

Per questa notizia non posso scrivere di più, La Cina si sa… è misteriosa e la sua scrittura lo è ancor di più…