Il magnetismo dei mantelli planetari

Il ruolo del mantello nei pianeti rocciosi viene spesso sottovalutato. Adesso è giunto il momento di riconsiderare la loro importanza nello sviluppo di un pianeta.

Si suppone che i mantelli dei pianeti rocciosi siano, come ci mostra la composizione chimica di quello terrestre, ricchi di magnesio e ossigeno. Quindi studiare i minerali di ossido di magnesio può essere utile per capire l’interno dei pianeti.
Un team guidato da Stewart McWilliams del Carnegie Institute of Science è riuscito a riprodurre le proibitive condizioni esistenti nei mantelli planetari, ovvero pressioni che vanno da 0,3 TPa 1, il doppio della pressione esistente nella zona del mantello inferiore terrestre, fino a 1,4 TPa, condizione questa presente su pianeti molto più grandi della Terra che continuamente oggi scopriamo in orbita ad altre stelle.
Il metodo usato per produrre simili pressioni e temperature è simile a quello sviluppato per i reattori a fusione nuleare chiamato fusione a confinamento inerziale (Inertial confinement fusion, in breve ICF) In questo caso però il bersaglio è composto da molecole di ossido di magnesio, appunto uno dei composti più importanti del mantello.

Credit: Il Poliedrico

Particolarmente resistente alle alte temperature e pressioni, l’ossido di magnesio è largarmente utilizzato nell’industria dei materiali refrattari e nei cementi per l’edilizia. Studi teorici mostrano che esso può esistere in natura solo in tre diversi stati: solido alle nostre condizioni ambientali, liquido a temperature elevate (> 3125 K a pressione normale) e un’altra particolare struttura solida che si manifesta a pressioni – e temperature – molto alte, come quelle ad esempio nel mantello di un pianeta.
Quest’ultima struttura però finora non era mai stata osservata prima. McWilliams e il suo team hanno studiato per la prima volta come l’ossido di magnesio si comporta in questi diversi stati scoprendo che il legame molecolare subisce importanti modifiche passando da uno schema simile al cloruro di sodio nella prima forma (B1 nella figura) alla seconda fase solida simile a quella delle leghe metalliche binarie (B2).

Un altro particolare importante è stato osservato nell’ossido di magnesio: questo allo stato fuso – magma fuso – diventa un semiconduttore, mentre al  normale stato solido è un isolante naturale. Questa scoperta riflette il comportamento alla fusione di altri non metalli come il carbonio, il silicio e lo zolfo.

Diagramma di fase del MgO: la fase solida B1 e la fase solida B2. I pallini colorati sono i dati ricavati dagli esperimenti. In grigio l’intervallo teorico di transizione previsto dalla teoria a 0 K. Le temperature di fusione sperimentali (6, 7) sono rappresentate dai triangoli bianchi.
Sono inoltre mostrate le condizioni  planetarie interne previste per la Terra, quelle ipotizzate per un  pianeta di 5 masse terrestri, Giove, e per la massa di un gioviano caldo; la discontinuità nella temperatura (a 1.3 e 6.5 Mbar rispettivamente) nei pianeti di tipo terrestre corrispondono al limite del mantello.

Queste scoperte sono molto importanti e possono aiutare a capire come possono essersi evoluti i pianeti.
Prima che un pianeta si avvii verso la sua fase di differenziazione nota come Catastrofe del Ferro le condizioni fisiche – principalmente temperatura – possono permettere l’esistenza di ossido di magnesio – e di altri non metalli – allo stato fuso, un oceano di magma in grado di generare correnti elettriche e quindi un campo magnetico.
Questo campo magnetico primordiale può pertanto essere abbastanza importante da riuscire a proteggere una atmosfera primordiale generata dal degassamento del magma liquido dall’azione erosiva dei venti stellari che nelle prime fasi della nascita di un sistema solare possono essere particolarmente violenti.
In seguito il campo magnetico generato da un nucleo di ferro fuso differenziato può essere ben più efficace delle correnti elettriche di un unico grande oceano di magma in via di solidificazione e di stratificazione.

Allo stesso modo ancora adesso l’ossido di magnesio nella seconda fase solida può ancora esistere nei mantelli inferiori di esopianeti rocciosi super massicci, generando un campo magnetico che forse il nucleo solido non può generare 2.


Riferimenti:
Phase Transformations and Metallization of Magnesium Oxide at High Pressure and Temperature,” by R.S. McWilliams et al., Science, 2012.
Published Online November 22 2012
Science 7 December 2012:
Vol. 338 no. 6112 pp. 1330-1333
DOI: 10.1126/science.1229450

I primi risultati di SAM

La – finora – mancata scoperta di molecole organiche complesse e di una chimica del carbonio non deve far perdere la speranza che forse magari nel lontano passato di Marte qualcosa del genere ci sia stato.

Da quando il rover Curiosity è sbarcato sul Pianeta Rosso le sue imprese destano più di una attenzione, l’ultima delle quali riguarda per esempio la scoperta di molecole organiche sul suolo marziano nei campioni analizzati con SAM 1.
Il campione di terreno specifico analizzato da SAM proveniva da un deposito di sabbia e polvere portato dal vento e sabbia che gli scienziati hanno battezzato Rocknest. Questo è stato raccolto nella piana del Gale Crater, ancora piuttosto distante dal Monte Sharp, la destinazione principale di Curiosity, ed è stato scelto come primo campione proprio per la grana fine delle sue particelle che è l’ideale per la pulizia delle superfici interne del braccio robotico.
In realtà come è stato ripetuto più volte dai responsabili della missione Mars Science Laboratory, Curiosity ha forse scoperto solo delle tracce di molecole organiche su Marte.
Nella conferenza stampa del 3 dicembre i responsabili della missione hanno annunciato le scoperte fatte dal rover Curiosity, sottolineando però come i dati finora raccolti meritano ancora indagini per essere confermati; come si dice la prudenza non è mai troppa anche quando questa è snervante.

I dati raccolti mostrano solo un accenno di composti organici 2. Questo non vuol dire affatto che questi abbiano una qualche origine biologica, tutt’altro, molecole organiche si scoprono continuamente negli ambienti più disparati e ostili come le nubi molecolari interstellari, nelle comete e nelle meteoriti, semmai la notizia è che forse su Marte ce ne sono troppo poche.  Appunto anche stavolta si sono trovate su Marte tracce dei famosi perclorati  – come nel 2008 fece l’altra missione Phoenix. I perclorati, è bene ricordarlo, sono sali di cloro con alto potere ossidante che di fatto pongono seri limiti allo sviluppo di una chimica organica complessa sul suolo marziano, anche se l’area finora esplorata è infinitesimale e questi sono soltanto i primi esperimenti di laboratorio compiuti dal rover.
Gli esperimenti a bordo del Curiosity hanno mostrato tracce di cloro, zolfo e acqua, ma sono necessari appunto altri esperimenti e verifiche per escludere che si tratti di remote ma possibili contaminazioni provenienti dalla Terra.
E a proposito di acqua, analizzata come vapore acqueo dopo aver riscaldato i campioni di suolo marziano, merita sottolineare come il rapporto D/H (deuterio/idrogeno) misurato sia più alto rispetto a quello degli oceani terrestri, indicando forse una diversa origine dell’acqua marziana rispetto a quella terrestre. Anche la quantità di vapore emesso dai campioni riscaldati è leggermente superiore alle attese. Questo non significa affatto che i campioni analizzati fossero umidi, ma solo che le caratteristiche igroscopiche della sabbia marziana sono forse diverse dal previsto.

E allora tutto il fermento dei media alla vigilia della conferenza stampa?
Tutto forse è nato da una dichiarazione di John Grotzinger, geologo del California Institute of Technology di Pasadena e responsabile della pianificazione della missione Mars Science Laboratory, che aveva parlato delle scoperte del Curiosity degne di entrare nei libri di storia, riferendosi però all’intera missione. Qualche giornalista particolarmente eccitato per lo scoop avrebbe poi travisato la frase attribuendole un significato diverso rispetto al discorso originale.
Anche qui è naturale che la NASA usi frasi eccitanti in un momento di ristrettezze economiche che va proprio a colpire i bilanci delle missioni scientifiche spaziali. Un po’ di enfasi ci vuole, no?


Simulazioni

Credit: F. Governato and T. Quinn (Univ. of Washington), A. Brooks (Univ. of Wisconsin, Madison), and J. Wadsley (McMaster Univ.).

Umby

Quando guardiamo il cielo ad occhio nudo vediamo solo alcune centinaia di stelle, forse un migliaio o due se abbiamo la fortuna di osservare da un cielo limpido e scuro.
Ma eccezion fatta per le due Nubi di Magellano (emisfero sud) e la Grande Nebulosa di Andromeda, nessun oggetto extragalattico è visibile. Però oggi abbiamo i telescopi, abbiamo in orbita il telescopio spaziale Hubble che tra qualche anno sarà sostituito dal Webb Space Telescope, che ci restituiscono fantastiche immagini di lontane galassie spettacolari: la Sombrero, la Girandola, la stessa Galassia di Andromeda, solo per citare alcune delle decine di migliaia catalogate, tutte belle e ognuna diversa dalle altre. Queste però sono solo istantanee come quelle che collezioniamo nei nostri cassetti dei nostri genitori,  dei nostri figli, oppure più semplicemente di noi stessi.
Oggi abbiamo anche il cinema, la televisione, che ci mostrano il movimento concreto delle cose quasi come se fossero vive, vere. Quindi come nascono le galassie? Sappiamo come è nato l’Universo, come nascono le stelle, ma le galassie, quelle bellissime girandole del cielo, come possiamo vederne la nascita e l’evoluzione, ben consci del fatto che non possiamo osservare una scena lunga ben oltre la nostra percezione?
Con un’altra invenzione del genere umano: il calcolatore.

Qui sopra vediamo una stupenda simulazione che mostra il presumibile  sviluppo di una galassia nell’arco di circa 13,5 miliardi di anni in un universo dominato dall’energia oscura e dalla materia oscura in uno spazio di 300000 anni luce.
La simulazione è stata ottenuta col supercomputer Pleiades, un mostro da oltre 1,2 Pflop/s 1 e 23552 processori,  che ha richiesto ben un milione di ore di calcolo.

A confronto il misero Z80 da 4,77 Mhz della metà degli anni ’80 con cui ho iniziato le mie esperienze informatiche era davvero ben poca cosa. Eppure anche quel trabiccolo poteva fare il suo. In fondo l’algoritmo di base era lo stesso della simulazione qui sopra: il problema degli n-corpi.
Infatti uno dei programmi che feci girare sul mio MSX fu proprio un simulatore di galassie in collisione originariamente scritto da M. C. Schroeder e  Neil F. Comins che apparve sul numero del dicembre 1988 di Astronomy Magazine.
Il programma in linguaggio interpretato Basic, ripubblicato anche su una rivista italiana, andava rivisto per ognuno dei centinaia particolari dialetti del linguaggio esistenti, tutti prettamente incompatibili fra loro coi loro diversi standard di allocazione della memoria 2, delle periferiche, dei sistemi di archiviazione di massa, spesso registratori a cassette.
La mia versione è orma perduta ma sono riuscito lo stesso a rintracciarne una simile qui: galaxy.bas.

Spesso crediamo che solo mostri da miliardi di operazioni al secondo possono compiere queste simulazioni. Questo è vero se si vogliono ottenere delle simulazioni particolarmente accurate come quella qui sopra ma anche i personal computer che usiamo tutti giorni per leggere la posta elettronica e sbirciare Facebook possono fare moltissimo per ottenere risultati altrettanto interessanti.


L’alchimia della vita

Sono molti i parametri che debbono essere presi in considerazione per poter considerare un esopianeta potenzialmente abitabile. Per inciso è giusto ricordare che anche se un pianeta può superare l’esame di tutti gli indici possibili non significa necessariamente che questo possa essere adatto ad ospitare forme di vita, come un pianeta può benissimo possedere un proprio ecosistema vitale pur avendo indici completamente diversi da quelli sin qui considerati.
Questo perché finora sappiamo di un solo pianeta che ospita la vita su cui possiamo calibrare le nostre conoscenze, il nostro.

Continua su Progetto Drake: L’alchimia della vita

Deforestazione e Riscaldamento Globale

Purtroppo spesso i media italiani lasciano poco spazio ai veri problemi del pianeta come il Riscaldamento Globale. Anche la politica mondiale preferisce cedere al ricatto del PIL piuttosto che preoccuparsi del futuro del pianeta, e questo è molto più grave.

Alberi abbattuti ai margini della Foresta Amazzonica

Secondo il World Carfree Network (WCN), auto e camion rappresentano circa il 14 per cento delle emissioni globali di carbonio nell’atmosfera, mentre molti analisti attribuiscono ad almeno il 15 per cento delle altre emissioni alla deforestazione.
Secondo molti ricercatori, la deforestazione nelle foreste pluviali tropicali aggiunge anidride carbonica in atmosfera più che la somma totale di auto e camion sulle strade del mondo.
La ragione di questa cifra spaventosa è dovuta al fatto che quando gli alberi vengono abbattuti rilasciano carbonio nell’atmosfera, dove si mescola agli altri gas a effetto serra provenienti da altre fonti e contribuendo così al riscaldamento globale 1.
Pertanto è necessario fare altrettanti sforzi per evitare la deforestazione di quanto si faccia per cercare di aumentare l’efficienza dei carburanti e di ridurre l’utilizzo dei combustibili fossili.

«Poiché la produzione di cenere comporterebbe una rapida distruzione di querce, cerri e altri legnami, vietiamo con il presente Statuto che alcuno faccia cenere nel contado e districtus di Arezzo o venda legna a chi voglia farne cenere. Pena 25 lire per ogni contravventore e per ogni volta che sia commesso il delitto; chiunque potrà sporgere la denunzia e muovere l’accusa…»
Gli Statuti di Arezzo anno 1327

Secondo i rapporti dell‘Environmental Defense Fund (EDF), 32 milioni di ettari di foresta tropicale sono stati abbattuti ogni anno tra il 2000 e il 2009, e il ritmo della deforestazione non fa che aumentare.
A meno di non modificare l’attuale sistema che premia la distruzione delle foreste, il disboscamento immetterà altri 200 miliardi di tonnellate di carbonio nell’atmosfera nei prossimi decenni …“, dice EDF, “Qualsiasi piano realistico sufficientemente veloce per ridurre gli effetti dell’inquinamento e del Riscaldamento Globale per evitare gravi e pericolose conseguenze deve affidarsi anche alla conservazione delle foreste tropicali2

Ma è difficile convincere gli abitanti poveri del bacino amazzonico e di altre regioni tropicali del mondo di smettere di tagliare gli alberi, quando queste sono l’unica loro risorsa economica.
Conservare le foreste ha un costo non indifferente, mentre i profitti che si fanno col commercio di legname e col carbone di legna, nella creazione di nuovi terreni da pascolo o destinati all’agricoltura premono per la riduzione delle foreste“, aggiunge EDF 3.

Inoltre un altro grave problema legato alla deforestazione è la perdita della biodiversità 4: più della metà delle specie vegetali e animali vivono nelle  foreste pluviali.

Un modo per aiutare i paesi tropicali  a ridurre la deforestazione è attraverso la partecipazione al programma di riduzione delle emissioni e delle deforestazione e degrado forestale delle Nazioni Unite (UN-REDD).
UN-REDD cerca di incentivare le persone – e gli Stati che vi partecipano – a prendersi  cura delle foreste e della loro gestione sostenibile.
Gli esempi includono l’utilizzo di minori risorse forestali per le attività agricole come la coltivazione del caffè e la produzione di carne e latte. A questo modo le nazioni partecipanti a questo programma possono accumulare e vendere i crediti di inquinamento come le nazioni industrializzate quando sono in grado di dimostrare di aver abbassato la deforestazione al di sotto di una linea di base.
Il programma UN-REDD ha incanalato più di 117 milioni di dollari 5 di aiuti finanziari diretti e attraverso il sostegno educativo alla riduzione della deforestazione in 44 paesi in via di sviluppo in Africa, Asia e America Latina fin dall’inizio del 2008.

Il Brasile è tra i paesi che grazie a UN-REDD ha compiuto gli sforzi maggiori per ridurre le emissioni di carbonio. Grazie a questo programma il Brasile ha rallentato la deforestazione entro i suoi confini del 40 per cento dal 2008 ed è sulla buona strada per conseguire una riduzione dell’80 per cento entro il 2020.
Il successo iniziale del programma UN-REDD in Brasile fa ben sperare per la riduzione della deforestazione in altre parti dei tropici.


Liberamente tratto da Scientific American 6

Forza SAM! dacci un segnale di vita!

I tappi all’ingresso dei condotti che portano i campioni allo strumento SAM.
Credit: NASA / JPL-Caltech / MSSS

 Finalmente ci siamo!
Il 9 novembre scorso un pizzico di terreno marziano è stato depositato all’interno del Mars Science Laboratory – Curiosity, nello strumento Sample Analysis at Mars (SAM).

SAM è un gascromatografo-spettrometro di massa e uno spettrometro laser progettato per analizzare i gas e i composti organici eventualmente presenti nei campioni atmosferici e del suolo. Suo il compito di rilevare se un determinato campione è rilevante per supportare la vita.
Nei due giorni successivi, SAM ha utilizzato la spettrometria di massa, la  gas cromatografia e la spettrometria laser per analizzare il campione.

Abbiamo ricevuto buoni dati da questo primo campione solido,” ha dichiarato Paul Mahaffy del NASA Goddard Space Flight Center, responsabile dell’esperimento SAM da  Greenbelt, nel Maryland “Abbiamo un sacco di analisi dei dati da fare, e stiamo progettando di prelevare altri campioni dello stesso materiale da studiare.


Fonte: http://www.jpl.nasa.gov/news/news.php?release=2012-356

Altri tre pianeti per HD40307

La cosa più divertente sono i titoli roboanti che spesso compaiono dopo una qualche scoperta scientifica.  In questo caso la notizia è la scoperta – con una diversa analisi software – di un esopianeta che orbita attorno alla sua stella all’interno della zona Goldilocks. Questo però non significa necessariamente che il pianeta sia abitabile come qualcuno annuncia.

[table “15” not found /]
 [table “19” not found /]

HD40307 è conosciuta anche come HIP27887. La nebulosità in basso a destra è la Grande Nube di Magellano
Credit: Il Poliedrico

Non è poi molto, su scala cosmica è proprio qui dietro l’angolo, 41.7 anni luce o 12.8 parsec; fate un po’ voi.
Questa è una tranquilla stellina di classe K2.5V 1 2 comunque invisibile a occhio nudo, magnitudine 7.7, una di quelle che comunemente non farebbe notizia, nella costellazione australe del Pittore.
Comunque, anche se di classe diversa, HD40307  è abbastanza simile al Sole, solo un po’ più piccola e fresca della nostra stella.
Fino a poco tempo fa di questa stellina non si sapeva molto, poi nel 2008 sono iniziate le scoperte: ben tre pianeti,  tutti molto vicini alla stella e piuttosto pasciuti, tutti scoperti misurando la velocità radiale della stella attorno al centro di massa del sistema attraverso lo spettrografo ad alta risoluzione HARPS dell’ESO.

Credit: ESO / M. Kornmesser ; Tuomi et al.

Il fatto che i tre pianeti fossero piuttosto grandi e con un semiasse maggiore inferiore a quello di Mercurio, aveva fatto ritenere agli astronomi che il sistema HD40307 non possedesse altri pianeti importanti in orbite più esterne, ad esempio vicino o dentro la fascia Goldilocks della stella.
E invece, come spesso accade nella scienza, pare che HD40307 possegga non tre ma ben sei pianeti, tutti ben messi come massa -come mostra la tabella qui accanto – di cui uno, HD40307g, posto in orbita proprio all’interno di quella che si ritiene essere la sua zona Riccioli d’Oro.

Questa scoperta si è concretizzata quando un gruppo di ricercatori indipendenti ha riesaminato 345 spettri pubblicamente disponibili presso gli archivi dell’ESO registrati in passato dallo spettrografo HARPS.
Questi nuovi e diversi algoritmi di calcolo sono stati studiati per ridurre al minimo le immancabili interferenze e i disturbi acquisiti durante la registrazione dei dati e per garantire una maggior precisione nello studio delle classi spettrali minori 3.
Il miglior rapporto segnale-rumore di questo nuovo metodo di indagine messo a punto da questi scienziati ha permesso questa scoperta nonostante abbiano usato delle vecchie misurazioni che apparentemente non avevano molto altro da offrire.

Adesso però prima che a qualcuno venga in mente di migrare su HD40307g vorrei ricordare un paio di cose, giusto per fugare l’eccitazione 4 del momento e dei titoli alquanto fantastici dei soliti media del tipo “Scoperto pianeta clone della Terra!” oppure “gemello climatico della Terra!” e via discorrendo.
Di HD40307g non sappiamo quasi nulla, eccetto la sua massa che è ben 7 volte quella della Terra e la sua distanza dalla stella che è quasi 90 milioni di chilometri (0.6 UA).
Usando come riferimento quello che si appreso dallo studio del Sistema Solare, si può ipotizzare che il pianeta sia essenzialmente roccioso e che quindi la sua densità sia compresa tra i 3 e i 5 kg/dm3 – 5.
Partendo dai dati che abbiamo visto qui sopra si possono calcolare per una densità media di 3 kg/dm3 un raggio di quasi 15000 chilometri e una accelerazione gravitazionale al suolo di 12.6 m/s2 6 per HD40307g, mentre per una densità di 5 kg/dm3 i valori sono rispettivamente di 12600 chilometri e di 17,6 m/s2.
Con questi livelli di gravità la chimica e la pressione atmosferica del pianeta potrebbero essere molto diverse da quelle che occorrono allo sviluppo della vita, un po’ come è successo a Venere agli albori del Sistema Solare che poi è finito per essere inospitale. E anche l’età della stella – appena 1.2 miliardi di anni – non promette niente di buono 7.

Io in un posto così non vorrei starci, peserei decisamente troppo – tra i 120 e i 150 kg – ma soprattutto avrei 85 HD40307g-anni: sicuramente sarei troppo vecchio …

 


 

Errata corrige

Umby

L’8 maggio 2012 ebbi l’occasione di intervistare  il Dott. Giorgio Bianciardi  sulle sue ricerche sui risultati dell’esperimento Labeled Release condotti insieme al Dott. Levin – ideatore originale dell’esperimento LR ospitato sulle celebri sonde Viking –  e il Dott. Miller.
L’intervista finale pubblicata su questo blog 
1 conteneva un errore, una svista dovuta alla mia disattenzione e alla voglia di pubblicare 2.
Quel’intervista poi fu ospitata anche sulle pagine della rivista Coelum nel numero dello scorso settembre, dove l’errore fu corretto – per mia fortuna – dallo stesso Giorgio Bianciardi che in seguito mi contattò per farmi notare che, nonostante la correttezza scientifica del finale 3 ospitato su questo sito, questo non rispecchiava  il suo pensiero e chiedendomi cortesemente di rettificare, cosa che  volentieri faccio con queste righe, ripetendo la domanda e la sua risposta:

P. E se Curiosity dimostrerà il contrario?
D.B. Troverà composti organici, li troveranno, state sicuri.

Francamente non me la sento di stravolgere quello che ho già scritto – un conto è correggere una svista e un altro  è un intervento così pesante su un articolo –  per correttezza verso i miei lettori e verso il Dott. Bianciardi che merita la necessaria visibilità al suo pensiero.
Per questo preferisco scrivere queste righe piuttosto che apportare una banale modifica o aggiunta in calce al vecchio articolo.

 


La fine del mondo

Spesso mi viene chiesto come e quando morirà il Sole, associando la sua fine con quella della Terra. Tranquilli, mancano ancora diversi miliardi di anni affinché il Sole muoia, ma la Terra cesserà di essere abitabile molto tempo prima, sempreché non accada una catastrofe cosmica imprevista o noi non la distruggiamo molto prima.

Credit: Wikipedia. Rielab. Il Poliedrico

Cinque o sei miliardi di anni fa una o più stelle di seconda generazione esplosero in un remoto angolo di questa galassia disperdendo il loro prezioso contenuto di metalli pesanti in una oscura nebulosa ormai scomparsa 1.
Le onde d’urto destabilizzarono quella nebulosa che si frammentò in diverse parti che a loro volta incominciarono a collassare su se stesse. Uno di questi frammenti avrebbe in seguito dato origine al Sole e a tutto il suo sistema solare, compresa la Terra e alla Vita come la conosciamo, circa quattro miliardi e mezzo di anni fa.
È da allora che il nostro Sole converte – brucia – idrogeno in elio nelle profondità del suo nucleo in una incessante – per nostra fortuna – reazione termonucleare. I nuclei di idrogeno – protoni, di carica elettrica positiva – scontrandosi riescono a superare la barriera coloumbiana che normalmente li allontanerebbe solo grazie all’enorme calore (calore == movimento) e all’enorme pressione che esistono nel suo nucleo 2.

Credit: Il Poliedrico

Il prodotto di scarto di questa reazione, nuclei dell’atomo di elio, per ora inerte a quelle condizioni fisiche, spinge le reazioni termonucleari  dell’idrogeno a migrare sempre più in su verso la superficie, facendo espandere la zona di fusione e aumentare così la luminosità della stella.
L’aumento di luminosità è impercettibile ai sensi e a scale temporali umane ma è costante, circa il 10% ogni 1100 milioni di anni: quando il Sole iniziò a brillare di luce propria brillava il 30% in meno di oggi  e era anche un po’ più piccolo.
Se non fosse stato per un poderoso effetto serra, quattro miliardi di anni fa la temperatura sulla Terra sarebbe stata ben al di sotto del punto di congelamento dell’acqua. La zona Goldilocks a quel tempo era vicina all’orbita di Venere ma è evidente che questo non ha portato bene a quel pianeta.
Il quasi impercettibile innalzamento della luminosità e temperatura del Sole dovuto all’espandersi della zona di fusione, provocherà l’aumento della quantità di energia irradiata nello spazio e ricevuto dal nostro pianeta, rendendo questo inabitabile nel giro di poco più di 1 o 2 miliardi di anni a partire da adesso, quindi ben più prima che il Sole diventi una gigante rossa.

Formazioni saline sulle rive del Grande Lago Salato, Utah – USA. Così appariranno gli oceani tra un paio di miliardi di anni.

Il Sole, l’astro che ha assistito alla nascita della vita e della specie umana su questo pianeta, renderà nel giro di un altro paio di miliardi di anni, ben prima quindi che esaurisca la sua capiente scorta di idrogeno nel suo nucleo, inabitabile questo bel Pallino Blu del cosmo.
Ogni anno sarà impercettibilmente un poco più assolato e caldo del precedente. Anche le dimensioni del Sole visto da quaggiù saranno appena appena più grandi col passare dei secoli, dei millenni.
Alla fine sulla Terra farà così caldo -70° centigradi – che anche gli oceani finiranno per evaporare del tutto lasciando una spessa crosta di sale su gran parte del pianeta.
All’inizio una spessa coltre di vapore acqueo avvolgerà la Terra come un mantello facendo aumentare l’albedo del pianeta permettendogli di riflettere nello spazio la gran parte della radiazione solare.
Al contempo il vapore nell’atmosfera innescherà un effetto serra a valanga che disperderà completamente gli oceani, mentre l’accresciuta radiazione ultravioletta solare dissocerà le molecole di vapore acqueo nei suoi componenti più fondamentali e ne farà aumentare l’energia cinetica.
A quel punto l’aria sarà così calda che la velocità media degli atomi più leggeri supererà la velocità di fuga del pianeta, che così perderà parte della sua atmosfera nello spazio.

Quando tra 2,4 miliardi di anni la Via Lattea e M31, la galassia di Andromeda, inizieranno a scontrarsi probabilmente del Lapislazzulo della Via Lattea non resterà più neppure il  ricordo.


Quando la politica distrugge la Scienza

Dubium sapientiae initium, Nel dubbio inizia la sapienza.
Forse con questo post mi attirerò gli strali di molti voi lettori ma ritengo che le dimissioni della Commissione Grandi Rischi sia stato un pessimo autogol della comunità scientifica italiana che stavolta non è andata di là del proprio naso.

Innanzitutto un po’ di storia.

Franco Barberi, presidente vicario della Commissione Grandi Rischi, Bernardo De Bernardinis, già vice capo del settore tecnico del dipartimento di Protezione Civile, Enzo Boschi, presidente dell’Ingv, Giulio Selvaggi, direttore del Centro nazionale terremoti, Gian Michele Calvi, direttore di Eucentre e responsabile del progetto Case, Claudio Eva, ordinario di fisica all’Università di Genova e Mauro Dolce direttore dell’ufficio rischio sismico di Protezione civile.
Queste sette persone sono stati ritenute colpevoli di omicidio colposo plurimo e lesioni colpose dal tribunale dell’Aquila per i fatti del terribile terremoto che il 6 aprile 2009 distrusse la città, uccise 308 persone e causò migliaia di sfollati e senza tetto.
I fatti contestati riguardano una riunione – alquanto irrituale a detta poi di  Enzo Boschi, uno dei condannati, visto che di solito gli incontri avvenivano a Roma – della Commissione Grandi Rischi tenutasi a L’Aquila il 31 marzo 2009, sei giorni prima del catastrofico sisma.
Quella riunione fu imposta dall’allora capo della Protezione Civile Guido Bertolaso che definì la convocazione degli esperti “un’operazione mediaticaperché vogliamo tranquillizzare la gente“, come risulta da una intercettazione telefonica registrata dai Carabinieri per un’altra indagine in cui lo stesso Bertolaso era indagato.
La riunione durò solo 45 minuti e e da esse non uscì alcun verbale, anzi, sempre lo stesso Enzo Boschi rivela che il verbale che appare adesso lui lo firmò solo dopo il terremoto: “Il verbale che mi inchioda non so chi l’abbia scritto, è apparso dopo il sisma, mi hanno fatto mettere una firma quando era già successo tutto”.
Per solidarietà verso i loro colleghi, l’attuale ufficio di presidenza della Commissione Nazionale dei Grandi Rischi – composto dal Presidente, Luciano Maiani, dal Presidente emerito, Giuseppe Zamberletti, e dal Vicepresidente, Mauro Rosi – ha rassegnato le sue dimissioni al Presidente del Consiglio dei Ministri.

Questi sono i fatti, nudi e crudi.
Penso che le motivazioni della sentenza siano comunque assurde – mi riservo di leggere le carte della sentenza quando queste saranno depositate e rese pubbliche –  e che la pena di sei anni inflitta ai membri della Commissione sia comunque eccessiva,  soprattutto quando in questo Paese chi ruba Denaro Pubblico, chi paga tangenti ai politici (!) in cambio di lucrosi appalti, oppure evade le tasse, non rischia praticamente niente grazie allo smantellamento ininterrotto dello stato di diritto perpetrato ininterrottamente in questi ultimi venti anni di II Repubblica, mentre le carceri sono strapiene di ladruncoli di strada, tossicodipendenti e gente disperata.
Ritengo però che il dolo da parte dei membri della Commissione in quei giorni ci fu, e che sia particolarmente grave perché fatto da accademici che in quel momento abiurarono la scienza, al di là del loro colore o credo politico.
Essi si mostrarono pavidi verso un’operazione puramente mediatica voluta dal governo politico di allora, chinarono il capo con piaggeria al volere del potere politico, cosa che un vero uomo votato alla scienza non dovrebbe mai e poi mai fare.
Non è possibile prevedere i terremoti, lo so e l’ho scritto diverse volte, né con i cassoni per raccogliere il radon, né guardando le fasi lunari, l’allineamento dei pianeti e neppure con i fondi di caffè o le frattaglie di bove.
Loro non potevano raccontare alla popolazione che nessun terremoto di forte intensità sarebbe mai arrivato o che ci sarebbe stato dopo sei giorni, nessuno di loro avrebbe potuto prevederlo. Non erano semplicemente in grado di dirlo e proprio per questo avrebbero dovuto far emergere il principio di precauzione, e quindi il dubbio, dicendo:
Non siamo assolutamente in grado di dire se ci sarà o meno un forte sisma in futuro. Suggeriamo che comunque siano prese misure particolari per evitare – o limitare – una eventuale emergenza almeno finché l’attuale sciame sismico in atto continua la sua attività.
Ma siccome un simile sensato annuncio non uscì – e un finto verbale della riunione apparve solo dopo il terremoto – è fin troppo evidente l’assoluta sottomissione della Commissione Grandi Rischi al volere politico. Questo non è il senno del poi, ma assoluto buonsenso che quella sciagurata sera non emerse.

Infine voglio fare esternare, in questo Paese tutti lo fanno – anche a sproposito, il mio disappunto su come vengono gestite le calamità naturali:
l’Italia è un paese a forte rischio sismico, come lo sono la penisola della California e il Giappone. Nonostante questo innegabile fatto scientifico la stragrande edilizia di questo paese non è costruita su principi e tecnologie antisismiche, tutt’altro: la famosa Casa dello Studente dell’Aquila era costruita in maniera molto approssimativa, con materiali scadenti, come allo stesso modo era stato costruito l’Ospedale San Salvatore dell’Aquila 1, con la sabbia al posto del cemento.
Purtroppo è così, è innegabilmente da irresponsabili non ammetterlo, che molta edilizia italiana sia così malmessa, tangenti, appalti al massimo ribasso e criminalità organizzata hanno prodotto questo in Italia: edifici fatiscenti già prima della loro inaugurazione, levitazione spropositata dei costi di realizzazione e sperpero di denaro pubblico 2.
Un’edilizia moderna e sicura, progettata secondo le ben collaudate regole edilizie adottate negli altri paesi ad elevato rischio sismico avrebbe un positivo impatto sull’economia del Paese.
La messa in sicurezza del territorio dai rischi di disastro idrogeologico ha costi non indifferenti all’inizio, ma ripaga rispetto alle spese da sostenere nelle infinite emergenze che accompagnano i disastri che si sarebbero potuti evitare.

Infine rivolgo un appello al Prof. Maiani affinché ritiri le sue dimissioni e prenda invece le distanze da chi non ha saputo – o voluto – opporsi a una mera manovra politica come fece quando il suo vicepresidente glorificava il terremoto in Giappone come Volontà Divina 3.
La scienza non può e non deve mai scendere a compromessi con la politica, il costo sarebbe poi troppo alto.