Oltre il Modello Standard e il Bosone di Higgs

Francamente ancora non sappiamo se esista o meno il Bosone di Higgs, il famoso bosone portatore di massa delle particelle, quello che nel titolo di un suo libro 1 il fisico Leon Max Lederman aveva chiamato “maledetta particella”  (goddnam particle) e che un editore un po’ troppo moralista trovandola sconveniente la cambiò in “Particella di Dio”. Adesso un paio di recenti esperimenti pongono limiti alla sua esistenza.  Un po’ come dire “ non lo abbiamo ancora beccato, ma ci sono indizi che ci fanno credere che sia rinchiuso in quella stanza”.

In una conferenza stampa il 13 dicembre i ricercatori del CERN di Ginevra hanno annunciato che due diversi esperimenti 2  in corso presso il più grande acceleratore di particelle del mondo, il Large Hadron Collider (LHC) hanno posto limiti ben ristretti alle finestre energetiche in cui può essere verificata l’esistenza del bosone di Higgs.

Ma che cosa sarebbe esattamente il bosone di Higgs 3 ?
Il Modello Standard – che è l’evoluzione estrema della Meccanica Quantistica – descrive le basi di come le particelle elementari (fermioni e leptoni) interagiscono fra loro tramite bosoni di gauge, ovvero particelle che mediano, trasportano tre delle quattro forze fondamentali della natura:

  • la forza elettromagnetica (luce, magnetismo, elettricità) è mediata dai fotoni;
  • la forza nucleare forte (la forza che tiene uniti i quark per formare gli adroni – protoni e neutroni) è mediata dai gluoni;
  • la forza nucleare debole (responsabile del decadimento radioattivo  beta – decadimento del neutrone in protone) mediata dai bosoni W, Z e appunto il famoso bosone di Higgs.

La particolare natura della forza debole di interagire 4  sia con i leptoni che con i fermioni, sia con particelle cariche che particelle neutre, richiede appunto tre bosoni distinti per agire: uno per le interazioni cariche (W), uno per le interazioni neutre (Z) e uno (Higgs) per dare la massa a tutte le altre particelle, tranne i fotoni e i gluoni.
L’unica forza fondamentale che per ora rimane esclusa dal Modello Standard è la forza di gravità che verrebbe mediata a sua volta dal suo bosone: il gravitone.

Come funzionerebbe il bosone di Higgs?

Il bosone di Higgs fu teorizzato attorno al 1960 dal fisico Peter Higgs, ed altri,  per spiegare il modo in cui le particelle elementari acquistano massa a riposo.
Non è facile spiegare come questo avvenga senza ricorrere alla matematica, ma un fisico dell’University College di Londra, David Miller raccolse la sfida del ministro britannico della scienza, William Waldegrave che aveva indetto in proposito un concorso, in palio una bottiglia di champagne.
L’immagine suggerita da David Miller 5 è quella di un salone (lo spazio) pieno di persone (il campo di Higgs) che sono distribuite in maniera uniforme e impegnate a conversare ciascuna con il proprio vicino. All’improvviso questa festa viene animata dall’arrivo di un personaggio famoso (una particella) che attraversa la stanza. Tutte le persone vicine sono attratte da lui (la rottura di simmetria) e vi si affollano intorno. Man mano che il personaggio famoso si muove nella sala attrae altre  persone a lui più vicine mentre quelle che lascia alle sue spalle tornano nella loro posizione originale. A causa di questo affollamento aumenta la resistenza al movimento, in altre parole il personaggio famoso-particella  acquista la sua massa.

Il Large Hadron Collider - Credit:: Maximilien Brice

Per spiegare invece il concetto di bosone di Higgs, sempre Miller suggerisce di immaginare che all’improvviso, nello stesso salone pieno di gente, qualcuno faccia circolare una voce. Le persone più vicine la ascoltano per primi e si riuniscono per apprendere qualche dettaglio in più, quindi si voltano e si avvicinano alle altre persone nei paraggi per riferire quanto ascoltato. In questo modo la stanza viene attraversata da un’ondata di capannelli che si formano man mano e che a loro volta, come il precedente personaggio famoso, acquisiscono massa. Il bosone di Higgs sarebbe appunto questa rottura di simmetria nel campo di Higgs.
Nelle tre dimensioni, e con tutte le complicazioni relativistiche del caso, questo è in pratica il meccanismo postulato da Higgs. Al fine di dare alle particelle una massa, il vuoto si distorce a livello locale ogni volta che una particella si muove attraverso di esso provocando una rottura di simmetria. La distorsione – il raggruppamento del campo di Higgs intorno alla particella – genera la massa.
L’idea arriva direttamente dalla fisica dei solidi. Invece di un campo diffuso in tutto lo spazio, un solido contiene un reticolo cristallino di atomi con carica positiva. Quando un elettrone si muove attraverso il reticolo attrae gli atomi, causando un aumento di massa effettiva dell’elettrone fino a 40 volte più grande della massa di un elettrone libero.
A questo punto Il campo di Higgs postulato è una sorta di reticolo ipotetico nel vuoto che riempie il nostro Universo. Così si può spiegare perché le particelle Z e W che trasportano le interazioni deboli sono così pesanti, mentre il fotone che trasporta le forze elettromagnetiche sia senza massa. Ed è grazie a questa rottura di simmetria del vuoto che le particelle cominciano a interagire fra loro, acquisiscono massa e non possono viaggiare più veloci della luce.
Ma le analogie con la fisica dei solidi non finiscono qui: in un reticolo cristallino ci possono essere alterazioni locali che si muovono al suo interno senza il bisogno del transito di un elettrone che attrae gli atomi. Queste onde possono comportarsi esattamente come se fossero particelle. Queste sono chiamati fononi e anche loro sono bosoni.

Tuttavia, il Modello Standard può spiegare solo il 4% della materia e dell’energia contenute nell’universo.
Si presume che il resto sia fatto di materia oscura (23%) e l’energia oscura (73%). Questo significa che gli atomi costituiscono solo una netta minoranza di questo universo mentre il 96% ancora non è compreso nel Modello Standard, come non lo è del resto la gravitazione, la forza più diffusa nell’universo.
Nonostante i suoi successi predittivi, l’attuale Modello Standard è  una delle più brutte teorie proposte dalla fisica moderna.
Ha più di 19 parametri liberi, 3 serie di particelle ridondanti, 36 diversi tipi di quark e anti-quark, e una variegata collezione di gluoni, leptoni, bosoni, particelle di Higgs, particelle di Yang-Mills, etc.
Questo indica – e sono anche i suoi ideatori ad ammetterlo – che il Modello Standard non è certamente la teoria finale.
Al momento, l’unica teoria matematicamente auto-consistente in grado di fornire un quadro realmente unificato dell’universo è la teoria delle stringhe.
Questa Super Teoria del Tutto  non è ancora stata verificata, ma il Large Hadron Collider può finalmente trovare prove convincenti a favore di questa promettente teoria.
Il prossimo obiettivo per l’LHC potrebbe essere quindi individuare la materia oscura, quella sostanza invisibile che impedisce alle galassie di dissolversi.

Al di là delle origini del Sistema Solare

La scienza ha sempre cercato di rispondere alle più incredibili curiosità umane usando poche ma solide basi da cui partire. Adesso grazie al pensiero scientifico possiamo affermare di aver compreso a grandi linee la nascita e perfino la morte futura dell’Universo, la nascita del Sistema Solare, fino a quando il Sole si spegnerà in una piccola nana bianca tra circa 5 miliardi di anni 1.
Grazie agli studi paleontologici, biologici, chimici e fisici, siamo riusciti a ricostruire tutta la cronistoria della Terra, da quando era un polveroso sasso senza vita fino al meraviglioso mondo che è oggi.
Eppure gli scienziati non sono ancora sazi di sapere – d’altronde è bene che non lo siano mai, ci sono quelli che si domandano cosa c’era prima del Big Bang
2 o se possono esistere universi paralleli e come questi potrebbero essere.
Gary R. Huss invece si domanda più prosaicamente: quale tipo di stella ha dato origine alla nebulosa che ha creato il nostro sistema solare?
Questa può sembrare una domanda irrisolvibile ma invece la soluzione è molto più banale di quanto si pensi.

La zona centrale della Nebulosa dell’Aquila,

Analizzando le rocce terrestri, marziane, lunari e meteoriche è stato possibile per gli scienziati di farsi un’idea abbastanza precisa sull’abbondanza di certi elementi chimici piuttosto che altri nel sistema solare.

Senza scendere nel tedioso particolare sulle analisi dei rapporti tra i vari isotopi e radionuclidi 3 4 sparsi nei più vari campioni analizzati e conoscendo abbastanza bene i meccanismi della fusione nucleare che alimentano le stelle e che producono gli atomi più complessi di cui siamo composti, si possono calcolare quali tipi di reazione nucleare possono dar luogo a certe abbondanze.

L’immagine composita del resto di supernova G299.2-2.9. L’ampiezza della struttura è di circa 114 anni luce (Crediti: X-ray: NASA/CXC/U.Texas/S.Park et al, ROSAT; Infrared: 2MASS/UMass/IPAC-Caltech/NASA/NSF).

L’immagine composita del resto di supernova G299.2-2.9. L’ampiezza della struttura è di circa 114 anni luce (Crediti: X-ray: NASA/CXC/U.Texas/S.Park et al, ROSAT; Infrared: 2MASS/UMass/IPAC-Caltech/NASA/NSF).

Appunto studiando quali radionuclidi a vita breve  5 presenti all’inizio della storia del Sistema Solare 6 e la loro abbondanza relativa rispetto ai radionuclidi a vita lunga come l’uranio 238, il torio 232, il potassio 40 e così via, si può tentare di ricostruire la composizione chimica della nebulosa che dette origine al nostro sistema solare, primo e fondamentale passo per sapere cosa ci sia stato prima, ovvero quali potrebbero essere state le caratteristiche della stella – o stelle – che ha prodotto tutti gli elementi chimici più pesanti dell’idrogeno di cui tutti noi siamo costituiti.
Studiando i vari tipi di sintesi nucleare nei diversi casi di evoluzione stellare che arrivano a produrre i radionuclidi cercati, si è potuto stabilire che la massa limite va da 1 a 120 masse solari, un po’ vago come limite ma è già qualcosa.

Ma è possibile per una singola stella produrre i radionuclidi a vita breve scoperti nel sistema solare?
È poco probabile che una stella con una massa compresa tra le 20 e le 60 masse solari o una stella di massa intermedia del ramo asintotico delle giganti (AGB 7) sia la responsabile dei radionuclidi osservati.

La nebulosa “Occhio di Gatto” generata da una stella gigante tipo AGB.

Piccole stelle AGB non possono produrre abbastanza ferro 60. Una supernova di tipo II originata da una stella con una massa iniziale superiore a 20 masse solari produrrebbe troppo ferro 60 e troppo magnesio 53. Altre fonti come potrebbero essere novae, supernovae di tipo Ia, o il collasso del nucleo di una supernova O-Ne-Mg 8 o nane bianche non sembrano in grado di produrre radionuclidi a vita breve come quelli osservati nelle giuste proporzioni.
A questo punto la conclusione più probabile è che non sia stata una singola stella a generare la materia nebulare primordiale nelle proporzioni isotopiche rilevate, ma almeno due: una supernova di tipo II di massa inferiore o uguale a 11 masse solari e un’altra – probabilmente una stella di massa compresa tra 12 e 25 masse solari – che insieme hanno fornito gli elementi osservati all’incirca nelle proporzioni osservate.

Gary R. Huss. Ricercatore e direttore del laboratorio di chimica cosmica  WM Keck – Credit: Istituto  di Geofisica e Planetologia delle Hawaii.

Il traguardo che si è dato Gary Huss non è affatto semplice: ci possono essere stati molti processi che hanno potuto alterare in seguito il rapporto degli isotopi osservati nel sistema solare: la fase di preaccenzione del nostro Sole ha generato flussi di raggi X in grado di alterare molti rapporti isotopici, l’influenza dei raggi cosmici, e mille altri processi radiativi possono aver scombussolato il quadro originario della nebulosa primordiale.
Il suo sarà un lavoro terribilmente difficile ma che potrà dare immense soddisfazioni.

Comunque sarà bello scoprire che anche il Sole ha avuto due genitori.


Note:

 

 

Il rilancio del Progetto Seti passa da Kepler

l'Allen Telescope Array

Era l’ottobre di quest’anno che con una lettera ai partecipanti 1 al Progetto SETI che Eric Korpela, annunciava la riattivazione dell’Allen Telescope Array e spiegava quali ambiziosi obiettivi erano al centro del rilancio del progetto. Come già anticipato anche su questo sito, il desiderio di Jill Tarter era quello di studiare con l’ATA in quella precisa zona di cielo, quelle specifiche stelle che i risultati di Kepler hanno mostrato possedere pianeti comparabili come massa e dimensioni simili alla Terra dentro la zona Goldilocks 2, 3.

Adesso è confermato: l’Allen Telescope Array sta di nuovo cercando segnali radio come testimonianza di intelligenze extraterrestri scandagliando le stelle con un sistema planetario che Kepler ha scoperto.

Il direttore del Progetto SETI Jill Tarter. Credit: Sven Klinge.

Il telescopio spaziale Kepler con le sue scoperte ha potenzialmente rimodellando la nostra visione dell’universo. Questa è una eccezionale opportunità per le osservazioni SETI,” ha dichiarato Jill Tarter, direttore del programma SETI  “Per la prima volta possiamo puntare i nostri telescopi verso stelle che ospitano sistemi planetari – di cui almeno uno è simile alla Terra e che orbita nella zona abitabile attorno alla sua stella ospite. Questo è il tipo di mondo che potrebbe essere sede di una civiltà capace di costruire trasmettitori radio.

L’ATA era stato messo in stand-by lo scorso aprile col ritiro della ex partner del SETI Institute, lUniversità della California Berkeley,  per problemi di bilancio.

Berkeley è proprietaria del Hat Creek, nel nord della California in cui si trova l’ATA. Con i nuovi fondi recentemente acquisiti attraverso una massiccia campagna promozionale via Web e non solo, l’ATA ha potuto riprendere le osservazioni SETI là dove si era interrotta: esaminando le migliaia di nuovi candidati pianeti trovati da Kepler.

Massima priorità sarà data alla manciata di mondi scoperti finora che si trovano nella zona abitabile la loro stella, ovvero quella fascia orbitale dove le temperature sulla superficie di un pianeta consentono all’acqua di esistere allo stato liquido.

Ma Jill Tarter tiene a precisare che la Goldilocks non deve essere considerata invalicabile:

In SETI, come per tutte le ricerche, nozioni preconcette come le zone abitabili potrebbero essere degli ostacoli alla scoperta”, aggiunge Tarter “Così, quando avremo sufficienti  finanziamenti futuri dai nostri donatori, è nostra intenzione esaminare tutti i sistemi planetari trovati da Kepler“.

Le osservazioni dei prossimi due anni consentiranno l’esplorazione sistematica dei pianeti scoperti di Kepler nella finestra delle microonde da 1-10 GHz. L’ATA è l’unico radiotelescopio che può fornire l’accesso immediato a decine di milioni di canali in qualsiasi momento e ovunque in questa fascia di ben 9 miliardi di canali (ogni canale è largo appena un  1 Hz!).

Fino a poco tempo fa molte ricerche SETI erano focalizzate su limitate gamme di frequenza, tra cui un piccolo numero di osservazioni attorno alle frequenze  di transizione dello ione 3He+  a 8,67 Ghz, proposte nel 1993 dal team di Bob Rood (University of Virginia) e Tom Bania (Boston University) 4.

La ricerca iniziale dell’ATA sugli obbiettivi individuati da Kepler si concentrerà intorno alla banda 8,67 GHz, prima di passare ad esaminare gli altri miliardi di canali disponibili per l’osservazione.

Il successo della missione Kepler ha creato una straordinaria opportunità per concentrare la ricerca SETI. Mentre la scoperta dei nuovi esopianeti attraverso Kepler è sostenuta con i soldi del governo americano, la ricerca di intelligenze extraterrestri  in questi mondi può  essere svolta a casa da ciascuno di noi. E la nostra esplorazione SETI dipende interamente da donazioni private, per la quale siamo profondamente grati ai nostri donatori “, osserva Tarter.

Credo che adesso che l’Allen Telescope Array è tornato a lavorare come era stato promesso, altre donazioni non tarderanno ad arrivare, io l’ho fatto presso il sito SetiStars.

Il mistero delle supernovae Ia

La Supernova 1572 (la Nova di Tycho), una supernova di tipo Ia osservata nel 1572 dall'astronomo danese Tycho Brahe. (credit: NASA/CXC/JPL-Caltech/Calar Alto O. Krause et al.)

Tutto quello che sappiamo del nostro Universo lo abbiamo scoperto grazie all’analisi delle onde elettromagnetiche (luce visibile, onde radio, raggi X e gamma) che ci giungono dallo spazio, da altre stelle, galassie e nebulose lontanissime.
Ad esempio per sapere le dimensioni del cosmo si usano – superato il limite parallattico, attualmente circa 100 anni luce – le candele standard, ossia quegli oggetti di cui sono note le luminosità assolute a cui si applica poi la semplice legge dell’inverso del quadrato della distanza 1.
Per le zone di questa galassia e per poche altre galassie vicine si usa un tipo particolare di stelle variabili chiamate Cefeidi. Le Cefeidi sono stelle giganti che hanno una particolarità di inestimabile valore per un astronomo: il loro ciclo di variabilità è strettamente connesso alla loro luminosità: per cui analizzando la curva di luce di questo tipo di variabili si conosce automaticamente anche la luminosità assoluta, esattamente quello che occorre per essere una candela standard.
Il meccanismo fisico che è alla base della variabilità di una Cefeide è ben noto, ma lo stesso non può dirsi dell’altra candela standard usata in cosmologia: le Supernovae di Tipo Ia, usate dove non è possibile individuare una Cefeide.

Gli scenari possibili per la formazione di una supernova di tipo Ia

Le supernovae sono stelle che esplodono al termine del loro ciclo vitale generando una luminosità migliaia di volte più grande della galassia a cui appartengono, e quelle del tipo Ia – lo si desume anche in questo caso dalla curva di luce e dallo spettro elettromagnetico che emettono – hanno la particolarità di essere tutte molto simili come luminosità assoluta (magnitudune circa -19,3 per tutte), il che le rende ottime candele standard per le distanze cosmologiche, ossia al di fuori del nostro Gruppo Locale.
Per certo di questa classe di supernovae sappiamo che sono il risultato di un processo fisico in cui alcune nane bianche o stelle di neutroni 2 per qualche meccanismo finora poco chiaro,superano il limite di Chandrasekhar – che è quasi 1,4 masse solari. Questo è il limite oltre al quale una stella degenere non può andare in quanto gli stessi atomi (sarebbe più corretto dire elettroni) non possono reggere il  peso della stella senza il contributo della pressione radiativa generata dalle reazioni di fusione nucleare. Quando questo limite viene superato, i nuclei atomici ipercompressi riprendono a fondersi ad un ritmo impressionante liberando enormi quantità di energia che in pochi minuti portano alla deflagrazione della stella, indipendentemente dalla sua composizione chimica o dimensione di partenza. L’unico elemento costante è il limite della massa di Chandrasekhar che rende tutte queste supernovae uguali nelle esplosioni e nella luminosità.
Quello che appunto non è del tutto chiaro è come una stella degenere come una nana bianca o una stella di neutroni possa riacquistare abbastanza massa da deflagrare in supernova.
La tesi più comune finora accettata è quella del sistema binario stretto: la stella degenere strappa letteralmente la materia alla sua compagna gigante rossa (praticamente lo stesso meccanismo delle novae) fino a superare la massa limite.
Ma questo meccanismo però richiede che il trasferimento di materia tra la stella cannibalizzata e la stella degenere sia sufficientemente rapido da superare la massa critica prima che si sviluppi una nova 3, ma non troppo veloce da consentire alla stella degenere di rigenerarsi in una gigante rossa.
Il risultato di questo modello richiede quindi una serie di parametri da rispettare (velocità orbitale, eccentricità, distanza etc.) da risultare complicato avverarsi.
Inoltre ci si dovrebbe attendere di trovare almeno i resti della stella compagna della supernova, ma invece questi finora non sono mai stati ritrovati.
Lo scenario rimanente per spiegare le supernovae Ia è quello che chiama in causa due nane bianche in orbita reciproca che decade. L’orbita stretta sottrae energia al sistema doppio sotto forma di onde gravitazionali fino a che le stelle entrano in contatto e si fondono in un unico corpo che è destinato subito dopo a esplodere.
O no?
Anche questo scenario comporta altri diversi problemi mentre cerca di risolvere le lacune del primo.
Innanzitutto il problema della massa finale, che probabilmente dopo la fusione delle due nane bianche potrebbe superare il limite di Chandrasekhar di 1,4 masse solari dando luogo anche a una più massiccia deflagrazione, ma potrebbe anche generare un oggetto massiccio noto come le pulsar-millisecondo, dove la stella di neutroni degenere finale ha una rotazione abbastanza elevata da contrastare la compressione gravitazionale che innseca le reazioni di fusione nucleare 4. Tutte le pulsar perdono energia con la radiazione di dipolo magnetico, in questo caso accade che la rotazione diviene insufficiente a resistere al peso della stella degenere che così esplode.
Con questo meccanismo infatti rimane insoluto un grave problema: come riuscire a spiegare come esplosioni di stelle degeneri di diversa massa -anche se simile –  possano generare tutte la medesima luminosità assoluta, oppure si dovrebbe considerare che questa misura fosse in qualche modo male interpretata.

Certo che il mistero delle supernovae di tipo Ia rimane irrisolto, anche se studi in questo senso sono stati portati avanti  da due ricercatori, Dan Maoz 5 e Filippo Mannucci 6, che dimostrano come lo scenario più probabile per spiegare questa classe di supernovae è quasi sicuramente il modello della fusione di due nane bianche.
la loro analisi in sostanza parte dai problemi degli attuali modelli teorici e il tasso di supernovae Ia scoperte in relazione all’età e al tipo di popolazione stellare ospite. Quello che ne è emerso è che il secondo scenario, cioè quello della fusione di due nane bianche,  è il più probabile per spiegare il numero delle supernovae scoperte senza negare che anche il primo scenario, quello della cattura di materia da una compagna, può aiutare a spiegare il meccanismo di produzione  delle supernovae Ia, aprendo così la strada ad ancora altri problemi.
Per i particolari del loro studio vi rimando all’articolo su Arxiv 7, che saprà senz’altro illustrarvi meglio i risultati delle loro indagini.

Come impacchettare un rover e mandarlo su Marte!

Credit: NASA/JPL

Razzo Atlas V - Credit: United Launch Alliance (ULA)

Volete vedere come si spedisce un rover su Marte?
Si impacchetta il rover in questione (in questo caso Curiosity), dopo aver verificato che tutto, ma proprio tutto, funzioni a dovere, nel suo bel guscio che somiglia tanto a certe sorpresine dell’Uovo di Pasqua che lo proteggerà fino alla sua destinazione su Marte. Poi si infila il tutto nell’ogiva di un razzo Atlas V.
Intanto si monta il razzo: prima il primo, poi il secondo stadio, poi i serbatoi di carburante etc. proprio come si dovesse costruire un razzo orbitale.
Infine, quando tutto è pronto, in cima al razzo ci si mette l’ogiva, che contiene il guscio della sorpresina che poi è il rover di prima.
E poi …. countdown! 😆

ESI: Earth Similarity Index

Grazie alle più che positive scoperte di Kepler e ai nuovi metodi di indagine per la ricerca di esopianeti, si è reso necessario sviluppare anche nuovi strumenti matematici che aiutino nella classificazione di questi in base alla loro somiglianza con la Terra 1.

 L’Earth Similarity Index (ESI), è un indice che esprime il grado di similitudine tra un qualsiasi pianeta extrasolare e la Terra compreso tra zero (nessuna similarità) e uno (identico alla Terra). L’ESI può essere utilizzato per dare priorità nelle osservazioni, effettuare valutazioni statistiche e sviluppare le classifiche planetarie. L’espressione di base per l’indice  ESI è
dove xi fa riferimento a una delle quattro proprietà planetarie (ex. la temperatura superficiale), xio è il corrispondente valore di riferimento terrestre (in questo caso 288 K), wi è l’indice di importanza della proprietà planetaria, n è il numero di proprietà planetaria, ed ESI ovviamente è l’indice di similarità. Gli esponenti dell’equazione sono usati per regolare la sensibilità della scala e pareggiare il suo significato tra le diverse proprietà.

l’ipotetico pianeta Gliese 581g

I pianeti simili alla Terra possono essere definiti come un qualsiasi organismo planetario con una composizione simile a quella terrestre e un’atmosfera temperata. Come regola generale, qualsiasi corpo planetario con un valore di oltre lo 0,8 ESI può essere considerato un pianeta simile alla Terra.
Ciò significa che il pianeta è roccioso in composizione (silicati) e ha un clima adatto per la maggior parte della vegetazione terrestre, compresa la vita complessa. Pianeti con valori ESI nel range 0,6-0,8 (cioè come Marte) potrebbe essere ancora abitabili, ma solo per forme di vita estremofile, in quanto sono o troppo freddi o troppo caldi, per i parametri di vita come li conosciamo.
I parametri per l’elaborazione dell’equazione ESI per raggio medio, densità, velocità di fuga, e la temperatura superficiale sono riportati nella tabella 1.
I calcoli per i pianeti solari ed extrasolari sono illustrati nella Figura 1. Esse sono divise per comodità per ascisse in base al raggio medio e la densità della massa, e per ordinata in base alla velocità di fuga e la temperatura superficiale. Questi valori sono poi combinati in un ESI globale. I valori in ordinata possono essere considerati un indice di abitabilità a causa della sua  definizione che vede la Terra come punto di arrivo (Tabella 1). Tuttavia, una formulazione simile può essere costruita per altri corpi planetari con valori di riferimento diversi (ad esempio oceano come pianeti).
Una delle applicazioni più pratiche della ESI è negli studi sulla distribuzione e la diversità di pianeti simili alla Terra (Figura 2).
I valori di ESI per  i pianeti candidati scoperti dalla Missione Kepler è mostrato in Figura 3.

Proprietà pianeta Valore di riferimento
Indice di importanza planetaria
Raggio medio  1.0 T  0.57
Densità  1.0 T  1.07
Velocità di fuga  1.0 T  0.70
Temperatura superficiale  288 K  5.58
Tabella 1. Valori di riferimento per le quattro proprietà planetarie usate per definire l’indice ESI. La scala è molto più sensibile alla temperatura superficiale rispetto alle altre proprietà planetarie.
Nota: T =Terra

Figura 1. ESI per 47 corpi del Sistema Solare con raggio maggiore di 100 km (arancione) e 258 pianeti extrasolari conosciuti (blu). Solo alcuni dei corpi più importanti sono etichettati. La scala ESI opera una distinzione tra quelli rocciosi (area rossa) e la superficie temperata (area azzurra) dei  pianeti. Solo i pianeti all’interno di queste due categorie possono essere considerati simili alla Terra (area verde). Le linee tratteggiate rappresentano i valori costanti di ESI. Se confermato, solo Gliese 581 g può finora considerarsi simile alla Terra e essere nello stesso insieme.

Figura 2. Distribuzione dei valori di ESI sulla base di una previsione teorica statistica (giallo), per 47 corpi del Sistema Solare con raggio maggiore di 100 km (arancione), e 258 pianeti extrasolari conosciuti (blu). Il nostro Sistema Solare coincide con le previsioni, ma le sbarre per i pianeti extrasolari conosciuti mostrano il limite delle attuali tecniche di osservazione che consentono di scoprire grandi corpi planetari (ESI valori tra 0,2 e 0,4). Questo tipo di analisi l’ESI può essere usata per predire il numero atteso di pianeti simili alla Terra in un campione di stelle.

Figura 3. Indice ESI per 47 corpi del Sistema Solare con raggio maggiore di 100 km (arancione), 258 i pianeti extrasolari conosciuti (blu) e i 1235 pianeti candidati scoperti da Kepler (verde). La massa per il calcolo dell’indice ESI è stata stimata utilizzando un rapporto generico di massa-raggio per le relazioni gas, oceano nei pianeti rocciosi prendendo come riferimento il Sistema Solare (non era indicata la massa nel set di dati). Il risultato sorprendente nell’estrapolazione dei dati di Kepler è l’abbondanza potenziale di corpi rocciosi e la presenza di due candidati pianeti simili alla Terra, oltre che a un paio molto vicini a questa categoria. Le informazioni contenute in questa candidati planetaria è molto limitata e saranno necessarie altre osservazioni su questi candidati per confermarne l’esistenza..

 

Curiosity e Maven: una risposta sul clima marziano

Curiosity Poised to Begin Ambitious Exploration

Il rover Curiosity - Credit: NASA-JPL/Caltech

Tra pochi giorni un poderoso razzo Atlas V partirà da cape Canaveral con lo scopo di lanciare la missione Mars Science Laboratory  verso Marte.
La missione MSL, ribattezzata più amichevolmente Curiosity, farà planare sulla superficie di Marte l’omonimo lander – un gigante rispetto a tutte le altre sonde semoventi sul suolo marziano – nell’agosto del 2012.
Il suo compito sarà quello di cercare di spiegare definitivamente se Marte abbia avuto o meno in passato condizioni geoclimatiche migliori per la vita di adesso e se questa sia mai espressa sul pianeta rosso.
Uno di questi strumenti è il Rover environmental monitoring station (REMS), una vera  e propria stazione meteorologica che avrà il compito di analizzare l’aria marziana e il suo andamento climatico.

Con lo scopo appunto di studiare più approfonditamente l’atmosfera di Marte, nel 2013 dovrebbe partire la Mars Atmosphere and Volatile Evolution Mission (MAVEN), una missione che cercherà di rispondere a molti quesiti importanti sul clima marziano.

The Mars Atmosphere and Volatile Evolution Mission (MAVEN), set to launch in 2013, will explore the planet’s upper atmosphere, ionosphere and interactions with the sun and solar wind. Bruce Jakosky, MAVEN’s Principal Investigator discusses the mission. Credit: NASA/Goddard/Chris Smith

Francamente quelli che abbiamo sono solo indizi su come potrebbe essere stato il clima di Marte nel lontano passato. Indizi che sembrano indicare la presenza di acqua liquida, di piccoli mari, senza però sapere se questi erano fenomeni locali e temporanei e per quanto sono durati nel tempo.
Certo che la sonda europea Mars Express ha identificato dell’acqua su Marte, ma essa è intrappolata nel suolo o nelle calotte polari insieme all’anidride carbonica congelata. Ma quando e per quanto tempo quest’acqua sia stata in superficie precisamente non lo sappiamo.
Non sappiamo di preciso se l’acqua  su Marte sia stata portata da alcune comete come sulla Terra e se il clima marziano sia mai stato in grado di sostenere un ciclo dell’acqua o se questa sia evaporata per gran parte nello spazio per opera del vento solare e la bassa gravità del pianeta, mentre la rimanente scompariva congelata nel suolo.
A queste domande sia Curiosity con la sua stazione meteorologica, che Maven dovranno trovare una risposta, una risposta che è complementare a quella della Vita su Marte:
Su Marte c’è stato un tempo in cui le condizioni climatiche erano favorevoli alla Vita?
È possibile ripristinarle anche solo in parte?

Il Grande Ghoul Galattico

Ormai è accertato: le spedizioni verso Marte sono pericolose e nascondono grandi insidie tecniche e – in almeno un caso – balordaggine. Scherzosamente questo è chiamato tributo al Grande Ghoul Galattico, fatto sta che che se un russo o un giapponese mi propone un passaggio verso Marte, cortesemente declino.

- 11/11/2011

È proprio brutto il Grande Ghoul Galattico!

Secondo le stime del NORAD, probabilmente il 26 novembre prossimo la sonda russa Phobos-Grunt 1 ricadrà sulla Terra.
Lanciata solo l’8 novembre scorso, la sonda russa che aveva il compito di raggiungere il satellite di Marte Fobos e riportare sulla Terra un campione di suolo (infatti in russo grunt significa suolo) non ce l’ha fatta a uscire dall’orbita terrestre per una mancata accensione del motore principale dovuta al non corretto assetto di volo.
Non è la prima volta che la Russia fallisce una spedizione verso Marte, anzi, è quasi un miracolo che qualche sonda russa sia riuscita a raggiungere il pianeta rosso.
La lista è molto lunga, basti pensare che su 15 missioni tra il 1960, ossia appena tre anni dopo il lancio del primo satellite artificiale Sputnik)  e il 1988, appena 3 anni prima dello scioglimento dell’Unione Sovietica, solo in cinque raggiunsero Marte, solo quattro missioni restituirono qualche dato e solo una (Mars 5) funzionò per 22 giorni!
Come Federazione Russa ci fu un altro tentativo durante la finestra 2 del 1996 con la  sonda Mars 96, che però finì miseramente nel Pacifico al largo del Perù.
Phobos-Grunt tra l’altro è stato il terzo tentativo russo  di raggiungere Fobos 3: anche le due precedenti fallirono miseramente, anche se riuscirono ad andare poco più in là.

Le missioni americane hanno vissuto invece un discreto successo:  su 17 lanci solo cinque sono i fallimenti: il Mariner 3 (1964) che non si separò dal guscio protettivo di lancio, il Mariner 8 (1971) che finì nell’Atlantico, il Mars Observer (1992) perso nei pressi di Marte, Mars Climate Orbiter (1998) distrutto nell’ingresso dell’atmosfera marziana per un errore tecnico 4,  il  Mars Polar Lander (1999)   di cui si persero i contatti nei pressi del polo australe marziano.

Anche il Giappone ci provò con la sonda Nozomi (1988), ma questa finì per girellare fra Marte e la Terra in un’orbita eliocentrica senza carburante e con le batterie scariche.

All’Europa andò decisamente meglio: del Mars Express (1993) solo il lander Beagle 2 – britannico – è andato purtroppo perduto, l’orbiter invece funziona ancora.

Insomma, il tributo di sonde automatiche al Grande Ghoul Galattico è stato caro, oltre il 60% delle missioni verso Marte è andato perso. È anche vero che l’altro 40% ci ha fatto fare un balzo enorme nella comprensione del pianeta rosso e nella scienza planetaria.
La prossima missione che porterà Curiosity sul nostro vicino ci farà senz’altro sognare ancora, in barba al Grande Ghoul.

La polverosa ionosfera lunare

Avevamo già incontrato in passato il complesso ruolo della polvere lunare 1 nella fisica della superficie lunare, ma nessuno finora aveva avanzato l’ipotesi che quella polvere fosse anche responsabile della tenue ionosfera attorno alla Luna.

Credit: Science @ NASA

Fin dall’epoca delle esplorazioni umane verso la Luna si conosceva l’esistenza di un sottile strato ionizzato a qualche decina di chilometri sopra la superficie lunare.
La ionosfera 2 lunare fu osservata per la prima volta dai satelliti artificiali lunari  Luna 19 (1971) e Luna 22 (1974) che notarono un incremento della densità di particelle ionizzate fino a 1000 elettroni per  centimetro cubico, ma il meccanismo di produzione di questa ionosfera  era rimasto sconosciuto fino a oggi.

Il satellite artificiale sovietico Luna 22

Infatti la Luna non ha un’atmosfera sufficiente a spiegare la produzione di una qualsiasi ionosfera, le emissioni di gas dovuti al decadimento radioattivo delle rocce lunari sono troppo piccole per giustificare la presenza in quota di gas ionizzabile.

Durante la missione Apollo 15 (1971) gli astronauti avevano notato strani bagliori lungo l’orizzonte lunare, bagliori che avevano una spiegazione semplicissima: la polvere lunare.
E a questa si rifà l’ipotesi avanzata da Tim Stubbs del Goddard Space Flight Center pubblicata all’inizio di quest’anno per spiegare l’esistenza della ionosfera lunare.
In pratica Stubbs e colleghi affermano che la polvere lunare ionizzata dall’azione della radiazione ultravioletta solare è sufficiente a spiegare la ionosfera osservata all’inizio degli anni settanta.
Questa scoperta è importante per la fisica planetaria: finora si credeva che la ionosfera si sviluppasse solo in presenza di una atmosfera, adesso possiamo affermare che questa non è così indispensabile.
Adesso c’è da capire se anche la ionosfera lunare si comporta come la ionosfera terrestre, ossia modificando le condizioni di propagazione delle onde radio in funzione delle diverse ore del periodo di rotazione e dell’attività solare. Questo ce lo potrà dire la sonda ARTEMIS che studia la magnetosfera terrestre vicino alla Luna e la prossima missione LADEE prevista per il 2013  proprio per studiare l’esosfera del nostro satellite naturale.

liberamente tratto da:  Mystery of the Lunar Ionosphere

Un antico vulcano marziano: Tharsis Tholus

 

 

 

 

Credit:ESA

Bello, eh?
Pensate che quello che è per la Terra un vulcano gigantesco per Marte è solo un vulcano di medie dimensioni tra tanti altri.
Nella sola caldera, che misura solo 32 x 34 chilometri  (la parte interna circolare) potrebbe quasi entrarci tutto l’Etna.

Le caldere vulcaniche sono quanto rimane dei vulcani quando la camera magmatica che li alimentano si svuota e questi crollano sotto il loro stesso peso.
Col passare degli eoni (Tharsis Tholus ha circa 4 miliardi di anni, l’Etna soltanto suppergiù 500 000 1) la caldera centrale è collassata creando queste scarpate di oltre due chilometri e mezzo.

Perché un pianeta che è la metà della Terra ha vulcani che sono il doppio di quelli terrestri?
Per colpa della gravità: quella di Marte è quasi un terzo di quella terrestre. Questa caratteristica ha permesso a edifici vulcanici colossali di svilupparsi, Tharsis Tholus anche ora è alto quasi 8000 metri, il più grande vulcano conosciuto nel Sistema Solare, Olympus Mons, è alto ben 24 chilometri su una base di 600 km di diametro: se la sommità del cono fosse a Roma questo inizierebbe a Bologna!

Queste meravigliose immagini sono state prese dalla fotocamera ad alta risoluzione HRSC dalla sonda dell’ESA Mars Express. Qui sotto ci sono alcune immagini rielaborate in falsi colori per mostrare il vulcano estinto.

 

 

 

 

 

 

 

 

 

 

 

Liberamente tratto da: ESA Portal – Battered Tharsis Tholus volcano on Mars.