Dubium sapientiæ initium

Su un numero stimato di 200 miliardi di stelle nella Via Lattea, è abbastanza lecito ipotizzare che almeno più della metà di queste posseggano i requisiti minimi per poter ospitare pianeti adatti a sostenere la vita. Dal 1995, data della scoperta del primo pianeta extrasolare, ne sono stati scoperti per adesso quasi 4000, perlopiù in un’area grande quanto un piccolo francobollo di cielo. È vero, per ora conosciamo solo un pianeta su cui è presente la vita: questo; ma le leggi fisiche che governano la chimica della vita sono universali ed è quindi ragionevole supporre che essa possa essere presente anche su innumerevoli altri mondi in altrettante fantastiche forme.
Molti di quei pianeti – per ora soltanto stime – saranno semplicemente inadatti a sostenere la vita, altri potrebbero essere terribilmente inospitali e altri ancora invece potrebbero ospitare entità biologiche dalle più semplici alle più complesse per noi immaginabili. Ipotizzare l’esistenza di altre forme di vita complesse e intelligenti sparse qua e là nel cosmo non merita di essere considerata una semplice fantasticheria ma un esercizio di apertura mentale che già più di 450 anni fa Giordano Bruno, e prima ancora di lui anche altri filosofi, invitavano a compiere. Il programma di ricerca SETI (Search of ExtraTerrestrial Intelligence) cerca di rispondere proprio a questo. E se un giorno venisse confermata l’esistenza, passata o presente, di una civiltà extraterrestre tecnologicamente evoluta abbastanza da lasciare il segno della sua presenza?

[video_lightbox_youtube video_id=”JP9seZjxGpE&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]
Innumerevoli Soli e innumerevoli Terre [1]
Quanti possono essere i pianeti potenzialmente in grado di ospitare la Vita secondo i canoni terrestri? Non lo sappiamo, ma già oggi possiamo stimare quanti pianeti ci sono nella Via Lattea.

Non passa praticamente giorno che da qualche parte del mondo qualcuno affermi di aver scorto un UFO nel cielo. A me, che più o meno sempre osservato il cielo, non è mai capitato ma conosco persone che sono pronte a giurare di averne visti.
Una volta verso il tramonto vidi verso Nord-Est rispetto alla mia posizione una “stella” arancione che stimai ad occhio di magnitudine -4 (più o meno come Venere). Ricordo che stavo guidando e che addirittura mi fermai per vedere meglio. Era apparsa così, all’improvviso e sembrava quasi immobile nel cielo. Pochi secondi dopo questa si affievolì e scomparve. Non poteva essere Venere o un altro pianeta perché l’evento era lontano dal piano dell’eclittica e il Sole non era ancora tramontato e neanche poteva essere una vera stella o un fulmine o una meteora, che sarebbe stata indubbiamente più veloce. Quell’episodio avrebbe potuto essere preso per un tipico avvistamento UFO: un puntino luminoso che improvvisamente appare e scompare nel cielo. Ma scrutando meglio nel punto in cui la luce era scomparsa vidi una macchiolina, un puntino scuro che proseguiva la sua rotta: era un aereo che per un attimo aveva brillato della luce riflessa del Sole al tramonto e che per una fortuita coincidenza mi ero trovato nel giusto angolo di riflessione.
Ho visto bolidi e stelle cadenti, assistito a eventi Earth-grazer 1 e una volta quand’ero piccolo ho visto anche un fulmine globulare, ma ahimè neanche un UFO piccino picciò o a qualcosa che potrei definire tale.

Quanto è mai credibile la tesi che vuole navicelle spaziali aliene che si schiantano sulla Terra dopo un viaggio cosmico di migliaia di miliardi di chilometri?

Però, giusto per il fatto che io non ne abbia mai visto uno, non posso arrivare a negare che là fuori nel cosmo possa esserci, o esserci stata, una qualche altra forma di vita intelligente seriamente intenzionata ad esplorare lo spazio come abbiamo intenzione di fare noi. Solo che ritengo altamente improbabile che una qualche civiltà aliena spedisca qualche sua astronave a migliaia di anni luce giusto per ingaggiare un balletto di luci con qualche nostro aereo militare, succhiare il sangue di qualche pecora e rapire qualche contadino semialfabeta di qualche fattoria isolata. E poi questi benedetti UFO crash che qualcuno immagina essere quasi voluti per far progredire la tecnologia umana: non vi pare altrettanto assurdo che le stesse civiltà di sopra viaggino per migliaia di anni luce superando difficoltà gravitazionali, nubi cosmiche e radiazioni indotte per poi non saper come atterrare sulla superficie di un pianeta senza rischio alcuno?
Piuttosto mi aspetterei che una qualche civiltà aliena interessata a noi possa tentare un approccio più serio cercando di mostrarsi a tutto il genere umano o almeno con le sue emanazioni politiche. Qualcuno senza giudizio è arrivato ad affermare che questo sia già realtà almeno fin dai tempi del Presidente Eisenhower e che i governi di tutto il mondo fin da allora collaborino o comunque che siano bene a conoscenza della presenza di extraterrestri sulla Terra e che su questa notizia mantengono il riserbo più assoluto. Ma gli stati sovrani indipendenti e riconosciuti sulla Terra sono 196 e in settant’anni un simile segreto ormai non sarebbe più tale nonostante tutto; nondimeno, la stragrande maggioranza di essi sono rappresentazione diretta e partecipata dei loro cittadini, quindi è bizzarro credere che una notizia di questa portata possa essere così bene occultata per tanto tempo.

Gli sprite, o spiritelli rossi per via del loro colore, furono documentati scientificamente soltanto nel 1989. Raramente sono visibili a occhio nudo.

No, non credo che le cose stiano così e che tutta la faccenda degli UFO così come vuole descrivere una certa vulgata sia una colossale sciocchezza giusto per attirare qualche turista in qualche bizzarra località e vendere qualche libro-spazzatura buono per gente senza arte né parte.
Ma nondimeno, come ho affermato in passato [2], ritengo che sia doveroso non sottovalutare il fenomeno. Ad esempio per migliaia di anni abbiamo creduto che i fulmini si propagassero solo verso terra o le altre nubi, oggi sappiamo che possono propagarsi anche verso lo spazio scatenando una enorme potenza (gli sprite).
Magari altre scoperte importanti si celano dietro quei — pochi — fenomeni ancora inspiegati. È compito della scienza indagare prima che ciarlatani e buoni a nulla insozzino tutto con la loro spazzatura.

SPHERE celesti

Using the ESO’s SPHERE instrument at the Very Large Telescope, a team of astronomer observed the planetary disc surrounding the star RX J1615 which lies in the constellation of Scorpius, 600 light-years from Earth. The observations show a complex system of concentric rings surrounding the young star, forming a shape resembling a titanic version of the rings that encircle Saturn. Such an intricate sculpting of rings in a protoplanetary disc has only been imaged a handful of times before. The central part of the image appears dark because SPHERE blocks out the light from the brilliant central star to reveal the much fainter structures surrounding it.

Se poteste tornare alla lontana epoca della formazione del Sistema Solare, quasi  5 miliardi di anni fa, ecco cosa vedreste.
Questo è quello che invece vediamo noi oggi, qui sulla Terra, guardando verso  WRAY 15-1443 [3], una giovanissima (5-27 milioni di anni) stellina di classe K5 distante circa 600 anni luce. Essa è parte di un filamento di  materia nebulare nelle costellazioni australi del Lupo e lo Scorpione insieme a decine di  altre stelline altrettanto giovani. È il medesimo scenario che vide la nascita del nostro Sole.
Noi vediamo il disco protoplanetario ancora come è durante la formazione dei pianeti e prima che i venti stellari della fase T Tauri lo spazzassero via, È un disco caldissimo e denso, con una consistenza è una plasticità più simili alla melassa che alla polvere che siamo soliti vedere qui sulla Terra. Qui le onde di pressione e i fenomeni acustici giocano un ruolo fondamentale nella nascita dei protopianeti creando zone di più alta densità e altre più povere di materia. E questa immagine ce lo dimostra chiaramente.

SPHERE. Credit: ESO

Lo strumento di cattura della luce polarizzata ad alto contrasto SPHERE.

Credit: ESO

Se oggi quindi possiamo ben osservare i primi istanti della formazione di un sistema solare questo lo dobbiamo a SPHERE (Spectro-Polarimetric High-contrast Exoplanet REsearch instrument) [4] [5]: uno strumento concepito proprio per catturare l’immagine degli esopianeti e dei dischi protoplanetari come questo.
L’ostacolo principale per osservare direttamente un esopianeta lontano è che la luce della sua stella è così forte che sovrasta nettamente la luce riflessa di questo: un po’ come cercare di vedere una falena che vola intorno a un lampione da decine di chilometri di distanza. Lo SPHERE usa un coronografo per bloccare la regione centrale della stella per ridurne il bagliore, lo stesso principio per cui ci pariamo gli occhi dalla luce più intensa per scrutare meglio. E per restare nell’ambito degli esempi, quando indossiamo un paio di lenti polarizzate per guidare o andare sulla neve, lo facciamo perché ogni luce riflessa ha un suo piano di polarizzazione ben definito e solo quello; eliminandolo con gli occhiali questo non può più crearci fastidio. Ma SPHERE usa questo principio fisico al contrario: esalta la luce polarizzata su un piano specifico e solo quella, consentendoci così di vedere particolari che altrimenti non potremmo mai vedere.

HARPS. Credit: ESO

Lo strumento per il rilevamento delle velocità radiali HARPS.

Credit: ESO

Oggi grazie a SPHERE e al team che l’ha ideato e costruito la ricerca astrofisica europea può vantare anche questo tipo di osservazioni che si sarebbe supposto essere di dominio della sola astronomia spaziale. E invece strumenti come HARPS[6] e HARPS-N alle Canarie consentono di scoprire sempre nuovi pianeti extrasolari, e ora SPERE ci aiuta a vederne pure alcuni.

 

Privacy e manipolazione ai tempi di Facebook

“Lamentarsi di violazione della privacy su Facebook è come piagnucolare se ti toccano il sedere in un’orgia. “

Questa esternazione non è mia ma di Leonardo Pieraccioni, comico toscano.
A seguito dello scandalo che ha travolto Facebook conseguente all’uso improprio dei dati personali di più di 50 milioni di utenti da parte della società Cambridge Analytica, dati usati probabilmente per influenzare l’opinione pubblica per le elezioni presidenziali americane, sono state avviate class action negli USA, da noi sono stati presentati esposti in procura dal Codacons, account cancellati in tutta fretta e così via.
Lo so, sono un bastian contrario per eccellenza, e riguardo a tutto lo sconcerto generato da questa scoperta a me non fa alcun effetto. Mi spiego meglio: i nostri dati, le nostre emozioni, le nostre speranze e paure, le mettiamo lì, in quella che oggi è diventata l’agorà virtuale per eccellenza. E adesso cancellarsi, cancellare il proprio account per rappresaglia o per cercare di tutelare le propria privacy è sia stupido che inutile: un po’ come chiudere la stalla dopo che i buoi sono scappati.
Ma davvero credete che basti questo per ristabilire l’ordine delle cose? E poi, quale ordine?
Quando fate la spesa e vi viene proposta la tessera sconto, fate un acquisto online o usate il vostro bancomat per pagare il pieno dell’auto, dite in giro chi siete, quali sono i vostri gusti e interessi e dove vi trovate in quell’istante. Non è l’orwelliano Grande Fratello che vi sorveglia, siete voi come Pollicino che spargete sassolini bianchi per la strada con l’intento di non perdervi.
Un programmino del tutto banale e sciocco, come quelli “Come sarete tra vent’anni” o “Qual’è l’amore segreto della vostra vita” ha avuto accesso ai vostri dati – siamo stati noi ad accettare la sua richiesta di consenso dell’analisi del nostro profilo Facebook – e li ha scaricati da qualche parte per poi usarli a suo modo.
È una bischerata scrivere un programmino simile, Facebook, Twitter, Whatsapp, Google Plus etc. mettono a disposizione di chiunque le API per scrivere applicazioni che si interfacciano in maniera trasparente e naturale con loro. Basta leggere la documentazione di questi strumenti e usarle per i propri scopi, anche non leciti. E credete che chi si occupa di sicurezza nazionale ognuno per il proprio paese (FBI, MI 5, SISDE, Mossad etc.) questo non sappia farlo? Credete davvero che Cambridge Analytica sia lo sola che abbia fatto incetta dei nostri dati per poi rivenderseli a chi ha avuto l’interesse di pilotare le elezioni presidenziali americane? E più in generale: credete davvero alla solenne bischerata che il Presidente russo Putin decida di influenzare e pilotare le libere elezioni democratiche distribuendo meme su Salvini o Di Maio piuttosto che Le Pen o Ollande?
Queste sono bischerate per allocchi, giusto per coloro che vogliono farsi pilotare nelle decisioni e gusti esattamente come quando decidono di usare un dentifricio o un tipo di carta igienica piuttosto che altro e per far berciare allo scandalo chi adesso cerca di strumentalizzare la notizia.

Image result for saponetta radioattivaCent’anni fa era la carta stampata che aveva questo potere di persuasione, la gente voleva bere l’acqua additivata col radio (sicuramente on ottimo lassativo visto gli effetti delle radiazioni sui tessuti molli dell’intestino) perché era scritto sui giornali. Poi fu la volta della radio: Goebbels (capo della propaganda nazista) volle introdurre una radio [1. Il Volksempfänger (in tedesco “il ricevitore del popolo”).] in ogni casa tedesca affinché tutti potessero ascoltare i discorsi di Hitler. La televisione, il cinema e oggi Internet: tutto ciò che è in grado di raggiungere grandi masse della popolazione può essere usato per pilotare le sue emozioni e i suoi desideri.
Non volete che questo vi tocchi? bene, trasferitevi su un’isola deserta senza alcun contatto col mondo esterno, niente PC o TV, radio e l’elettricità per usarli. Forse così sareste al riparo da ogni influenza ma neppure ne potreste produrre voi stessi: condannati all’irrilevanza perpetua più assoluta, il concetto a mio avviso più vicino alla morte.
I media, la scienza, la religione e così via, sono semplicemente strumenti creati dall’uomo esattamente come lo sono un martello, un coltello o un fucile; tutto sta nel come li si usano: un martello serve a tirar su una casa ma può fracassare una testa, un coltello serve a tagliare il pane ma può sgozzare un uomo, un fucile può uccidere una fiera pericolosa e procurarci il cibo per sfamarci ma può anche ammazzare una persona.
Sta a noi decidere come usare questi mezzi o decidere di essere usati: non vorremmo che Facebook o qualche altro Social Network usi i nostri profili per scopi che non vorremmo venissero usati? e allora non divulghiamo certe cose che noi riteniamo private e importanti. Continuiamo pure a postare in giro foto di gattini e di paesaggi bucolici, io mi iscrissi a Facebook nel 2010 per seguire le notizie della NASA e le pagine di scienza in generale, poi da qui mi sono creato la mia piccola comunità di amici di cui sono fiero.
Non consento a Cambridge Analityca, a Putin o ad altri di pilotare le mie scelte perché le mie idee e i miei convincimenti, magari opinabili e pure sbagliati per alcuni, sono fondate sulla mia esperienza e le nozioni sull’argomento che posso raccogliere. Magari anche quelle fonti sono state manipolate, su questo non posso pronunciarmi, ma Internet offre forse per la prima volta nella storia umana la possibilità a chiunque di risalire alla fonte della notizia e di ascoltare più versioni di questa e quindi elucubrare il proprio convincimento.

Ripeto: partecipate pure all’agorà virtuale dei Social Network, ma cum grano salis.

8 marzo: festa della Donna.

Ammirate la foto qui sopra.
A tanti di voi magari non dice niente, anche perché certamente per il comune sistema mediatico è più proficuo mostrare una soubrette o una di quelle che immeritatamente chiamano vip semplicemente perché hanno posato svestite per Playboy o qualche altra stupida testata scandalistica, oppure hanno sposato qualche miliardario. 
Guardando la foto penserete alla classica nerd con gli occhiali, la secchiona dell’ultima fila che posa accanto a una pila alta quanto lei di noiosissimi libri: il classico topo (o dovrei usare la declinazione al femminile visto che è una donna) di biblioteca.
Quei tomi non sono l’antologia russa, quello è il codice dei computer delle missioni Apollo e Skylab; il software che ha portato l’Uomo sulla Luna. Lei è Margaret Hamilton [7], ingegnere capo del team che ha scritto quel codice.

Vera Cooper Rubin al Vassar College negli anni Quaranta. Crediti: Vassar College.

Per me le Very Important Person da ammirare e portare ad esempio per le nuove generazioni sono queste: donne che niente meritano di meno rispetto ai loro più noti colleghi maschi: donne come Vera Rubin, scopritrice della discrepanza tra il movimento angolare previsto delle galassie e quello osservato, oggi spiegato introducendo il concetto della materia oscura, e l’apparente anisotropia nel moto di espansione dell’Universo dovuta alla disomogeneità di distribuzione delle galassie su scala di centinaia di milioni di anni luce (i filamenti di materia nell’Universo che si frappongono a grandi vuoti).
E proprio Vera Cooper Rubin fu anche una paladina dei diritti civili delle donne, un impegno che lei ha portato avanti per tutta la vita e che spesso l’ha portata a scontrarsi col rigido conformismo accademico: se oggi abbiamo donne scienziato lo dobbiamo anche al suo contributo; per questo sarebbe opportuno oggi ricordarla.

Oggi voglio ricordare qui l’essenziale contributo che donne come queste offrono quotidianamente all’intera Umanità.

Geoingegneria del clima per combattere il Riscaldamento Globale

Quando la gente sente parlare di geoingegneria del clima pensa subito a oscuri disegni in atto per stravolgere l’attuale equilibrio umano. In realtà ogni volta nella storia del genere umano che si è alterato il corso di un fiume, scavato un pozzo artesiano per irrigare o una diga per produrre energia, si è fatta della geoingegneria, e questa sempre ha avuto conseguenze sul clima della regione interessata  1. La deforestazione selvaggia in Amazzonia, le deviazioni artificiali dei fiumi e la creazione di nuovi canali, anche l’edificazione delle città sono tutte opere dell’uomo che durano nel tempo, ossia sono strutturali e come tali hanno tutte conseguenze sul clima. Se non riusciamo a comprendere questo, diventa inutile proseguire la lettura di questa seconda parte.

Contrasto al Riscaldamento Globale

Da quando è apparsa la specie umana, questa ha imparato molto presto a modificare l’ambiente che lo circonda: costruire strutture abitabili al posto di caverne e anfratti ne è un banale esempio. E poi strade, ponti, campi coltivati; tutto ciò che gli è potuto servire per conquistare il pianeta, l’uomo l’ha fatto. E tutto questo ha sempre avuto un impatto sull’ambiente e anche sul clima. Anche l’attuale Riscaldamento Globale è dovuto quasi esclusivamente all’opera dell’uomo.
Prendemmo piena coscienza che le azioni umane agiscono sull’atmosfera ben più di quanto avremmo voluto credere intorno al 1985, quando scoprimmo che i clorofluorocarburi interagiscono negativamente sullo strato di ozono che normalmente ci protegge dalle radiazioni ultraviolette del Sole. Quella classe di molecole era presente un po’ ovunque nella tecnologia umana: dai frigoriferi alle lacche per capelli,  giusto per rimanere negli esempi più banali. In soli due anni, 1987, la produzione e l’uso di massa dei CFC venne proibito a livello internazionale e solo oggi, a distanza di 30 anni, possiamo vedere  che quello sforzo ha probabilmente avuto successo. L’abbandono di quella classe di molecole comportò costi e sforzi mostruosi nella riconversione a tecnologie più rispettose dell’ambiente, eppure in fondo si trattava di ben misera cosa in confronto all’attuale impegno tecnologico sui combustibili fossili responsabili del Riscaldamento Globale.
È impensabile pensare a una riconversione totale verso forme di energia più pulite dall’oggi al domani. Inoltre il ciclo naturale di sottrazione dell’anidride carbonica dall’aria per tornare, non dico ai livelli preindustriali ma almeno ai livelli degli anni 50 del XX secolo, richiederà almeno un secolo o due anche se domani mattina cessassero tutte le emissioni di CO2 di origine antropica. 
Studi sui sistemi di cattura dell’anidride carbonica (carbon capture and storage o carbon capture and sequestrationcarbon control and sequestration, CCS) [8] che potrebbero aiutarci nel contrastare il Riscaldamento Globale sono in corso da anni: si va dal rendere fertili, e quindi forestabili, alcune aree oggi desertiche, alla concimazione di alghe negli oceani con concimi chimici e particelle di ferro a tecnologie di sequestro della CO2 dalle attuali centrali elettriche a combustibile 2.

Il Riscaldamento Globale sta distruggendo la biodiversità del pianeta: un delicatissimo equilibrio su cui in cima è l’uomo. Per questo penso che se grazie agli studi dei climatologi sperimentali trovassimo un  modo pulito per attenuare il perverso innalzamento della temperatura media del pianeta avremmo l’obbligo di usarlo insieme al progressivo e inevitabile distacco dall’uso delle fonti fossili di energia.
È un processo che richiede tempi superiori alla vita media di un singolo individuo. Anche se idealmente incominciassimo domani, i frutti del nostro sforzo li vedranno nel migliore dei casi i nostri nipoti o i loro figli; non noi o i nostri figli, ma i nostri discendenti. Ma ogni sforzo che potremmo compiere per salvaguardare il pianeta è nostro dovere farlo, compresa l’ingegneria climatica se questa dovesse servire.

Lo stato attuale

Un tecnico del Dipartimento dei Lavori Pubblici della Contea di Los Angeles esamina un generatore di semina delle nuvole telecomandato presso l’impianto di Kinneloa a Pasadena. Se tutto procede come previsto, i serbatoi dietro il Big Tujunga, Morris e molte altre dighe, oltre a impianti di ricarica delle acque sotterranee, potrebbero catturare una media di ulteriori 60 milioni di ettolitri di acqua piovana all’anno, sufficienti per gli standard americani per 36000 persone. Ci sono 10 sedi nelle montagne di San Gabriel tra Arcadia e Pacoima, sei a comando manuale e 4 a distanza. Credit: Howard Lipin

Alla luce di quanto affermato nel precedente articolo di questa serie, si potrebbe supporre che ci sia del vero dietro all’idea che già sia in atto un piano occulto per rielaborare scientemente il clima del pianeta. Allora in questo caso verrebbe da chiedersi se davvero le teorie del complotto delle scie chimiche siano vere. No, non esiste e non è in atto alcun piano segreto o palese che attualmente preveda il controllo del clima a livello globale.
È vero che esperimenti e tecniche di manipolazione del tempo meteorologico — che non significa manipolare il clima — esistono ormai da decenni: si chiamano inseminazione delle nuvole. In pratica si usano particelle di varia natura per nucleare l’umidità naturale di una certa area e far piovere [1.Le tecniche di inseminazione delle nuvole si basano sul fatto che la pressione di equilibrio del vapore del ghiaccio è inferiore rispetto a quello dell’acqua. La formazione di particelle di ghiaccio all’interno di nubi super raffreddate permette a queste di crescere a spese delle altre goccioline liquide. Se si verifica una crescita sufficiente, le particelle diventano abbastanza pesanti da cadere come precipitazione da nubi che altrimenti non potrebbero produrre precipitazioni. Questo processo è noto come semina “statica”. Le sostanze più comuni utilizzate per la semina delle nuvole includono ioduro d’argento, ioduro di potassio e ghiaccio secco (anidride carbonica congelata). Dopo alcuni convincenti test, sta diventando piuttosto popolare anche il più economico sale da cucina, per le sue notevoli doti igroscopiche. Lo ioduro d’argento ha invece una struttura cristallina molto simile a quella del ghiaccio, inducendo quindi una nucleazione per congelamento.]. Non tutti gli scienziati  del clima sono concordi sulla sua efficacia [9] [10] ma tale tecnologia è comunque di uso abbastanza comune in molti paesi del mondo. Ad esempio in Germania la usano per prevenire le tempeste di grandine [11], nel Sud-Est Asiatico per combattere l’inquinamento atmosferico, in Cina fu usata per la cerimonia di inaugurazione dei Giochi Olimpici di Pechino del 2008 [12]. Probabilmente i sovietici usarono le tecniche della pioggia artificiale per impedire che la nube radioattiva di Chernobyl (1986) arrivasse su Mosca [13]. In California viene usata per combatttere la siccità cronica della regione [14]
Un impiego bellico di tale tecnologia si ebbe tra il 1967 e il 1972 [15] durante la Guerra del Vietnam, come riportano anche alcuni documenti del Pentagono [16] (Operazione POP EYE).

Verso la fine della I Guerra del Golfo gli irakeni incendiarono pzzi, campi e laghi petroliferi giusto per rallentare la Coalizione guidatra dagli Stati Uniti.
Si stima che dal gennaio 1991 e novembre di quell’anno fossero stati bruciati circa un miliardo di barili di petroli. Esso però equivale ad appena a una decina di giorni del consumo mondiale odierno (circa 100 milioni di barili al giorno).

Però il 18 maggio del 1977 all’Assemblea Generale delle Nazioni Unite fu stipulata una convenzione che proibisce l’uso militare di qualsiasi tecnologia per il controllo e la modifica del clima [17]. Questa fece seguito alla decisione unilaterale USA del luglio 1972 di rinunciare all’uso di tecniche di modifica del clima a fini ostili e che premette per la stipula di un accordo internazionale che coinvolgesse anche l’Unione Sovietica.
Perfino sistemi a bassa tecnologia come il fuoco e gli erbicidi, ampiamente usati da Saddam Hussein nella Prima guerra del Golfo contro il Kuwait — incendiò i pozzi petroliferi per impedirne l’uso alla Coalizione e distrusse le coltivazioni agricole kuwaitiane — potrebbero costituire violazioni della convenzione sul controllo e modifica del clima [18],  secondo la lettura che fecero Olanda e Finlandia del trattato.

Quindi supporre una qualsiasi ipotesi di complotto globale come vuole la vulgata complottista, è fuori di discussione. Non starò qui a perdere tempo per descrivere simili corbellerie, altri siti e giornali l’hanno fatto prima di me. Io ho solo cercato di esporre lo stato dell’arte su alcune ricerche serie sull’ingegneria climatica e illustrato la loro possibile utilità nel combattere un altro flagello creato dall’uomo come effetto collaterale della sua tecnologia Ed è quello che mi interessava fare.

Geoingegneria del clima fra superstizione e studi di fattibilità

Mi spiace essere assente su queste pagine così a lungo come in questo periodo. In verità è che sono concentratissimo nel portare avanti il mio antico progetto di costruire un astroinseguitore alla mia maniera, che vorrei terminare prima della eclissi di Luna di luglio. Ma torniamo a noi. Spesso purtroppo esiste un limite sottile oltre il quale molti non osano andare a guardare, un po’ come quelle vecchie signore scandalizzate che in spiaggia si turavano gli occhi alla vista di un bikini ben indossato, lasciando però aperta una sottile fessura per sbirciare meglio. Con questa metafora voglio dire che invece la scienza ha l’obbligo di vedere e di indagare anche e soprattutto è sconveniente.
La scienza è uno strumento. Intellettuale ma pur sempre e solo uno strumento. Non è di per sé buona o cattiva come taluni vogliono che si creda, e piegarla al proprio volere è negare la sua natura.

 

[video_lightbox_youtube video_id=”j_zFD8y30rk&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]

Nei giorni scorsi mi è capitato di dover affrontare una spinosissima discussione che è in bilico tra le bischerate (le cosiddette fake-news per i detrattori della lingua italiana) e la scienza. Tutto parte da un vecchio servizio del TG2 RAI scritto, come loro solito sui temi di natura scientifica, coi piedi.
Il servizio fa riferimento a uno studio dell’Università di Harvard [19] che parla di test per determinare quale tipo di aerosol può essere efficace ad essere distribuito nell’atmosfera per innescare un calo della sua temperatura e sui suoi effetti sull’ambiente.

“A metà mattina di Pentecoste, l’8 giugno 1783, in un tempo sereno e calmo, una nera foschia di sabbia apparve a nord delle montagne. La nube era talmente estesa che in breve tempo si era diffusa su tutta la superficie e così densa da causare oscurità all’interno. Quella notte vi furono forti terremoti e tremori “
Jón Steingrímsson, sacerdote luterano islandese (1728, 1791)

Di per sé non è un’idea nuova. Già altri in passato avevano proposto di cospargere la troposfera con biossido di zolfo (anidride solforosa) dopo aver notato gli effetti dell’aerosol vulcanico sul clima nell’eruzione del vulcano Pinatubo del 1991 [20]. Anche se  quindi si tratta di imitare in qualche modo quello che già avviene in natura, le eruzioni vulcaniche, l’idea non è poi così innocua.
Negli anni immediatamente successivi al 1793-1794 l’intero continente europeo venne sconvolto da una terribile carestia provocata dall’eruzione del vulcano islandese Laki: le cronache inglesi e irlandesi parlarono di mesi tristi e senza sole; gli effetti furono percepiti fino in Giappone e in Egitto [21]. Furono le piogge acide e il repentino calo delle temperature a scatenare la terribile carestia che poi condusse il popolo francese ormai stremato alle rivolte che culminarono con la Rivoluzione Francese.
Inoltre,  altro effetto altrettanto importante, è la deplezione dello strato di ozono [22]. Già tutto questo dovrebbe bastare a rendere l’ipotesi di riprodurre il comportamento dei vulcani una pessima idea.
Ma questo chi studia il clima lo sa già ed è per questo che il gruppo di Harvard vuole esplorare altre vie che non prevedano la SO2, e quindi parlano di testare vapore acqueo, calcite (carbonato di calcio), ossido di alluminio (allumina) e perfino polvere di diamante su piccole aree usando banali palloni sonda con carichi di un chilogrammo. Altri studi analoghi prendono in considerazione anche altri tipi di particolato, come anche ad esempio polveri con qualità fotoforesiche 1 L’effetto prodotto da queste ricerche è quasi nullo anche per l’area interessata dagli esperimenti ma misurabile. 

Niente di cui preoccuparsi?

Nel 1783 l’eruzione del vulcano islandese Laki influenzò per quasi un decennio il clima del pianeta.

Di certo non dei test in sé, al di là di qualsiasi risultato essi diano; ho più timore dello scarso acume di chi vede in tutto questo un sinistro disegno di controllo e/o di sterminio della razza umana nascosto dietro questi test. Non è certo un chilo di polvere, per quanto strana essa sia, a doverci preoccupare. La Terra nella sua perenne corsa nello spazio raccoglie ogni giorno tonnellate di schifezze spaziali di ogni tipo  [23]. Non mi credete? State qualche giorno senza spazzare sotto il vostro letto e con la finestra aperta. Poi raccogliete la lanuggine e passatela con una calamita; vedrete alcune particelle più o meno piccole, alcune di queste saranno  addirittura microscopiche: quello è pulviscolo cosmico, resti di meteore che ogni giorno intersecano la Terra e vengono distrutte nella fase del loro ingresso nell’atmosfera e rimangono sospese nell’aria prima che si posino sotto il vostro letto.
Oppure, se vogliamo rimanere sugli effetti antropogenici, cioè quelli causati dall’uomo, basti pensare all’inquinamento atmosferico delle nostre città: i dati dell’Agenzia Europea dell’Ambiente affermano che i decessi prematuri legati all’inquinamento atmosferico (esposizione a lungo termine al particolato, al biossido di azoto e all’ozono) che si verificano in Europa sono 487600, con il dato italiano molto al di sopra di questa media, con ben oltre 90 mila morti premature ogni anno. Tanto per notare l’entità del disastro ambientale basta salire di quota qualche centinaio di metri e osservare il panorama più in basso verso l’orizzonte. Vedrete una cappa d’aria grigiastra, una caligine mefitica ben più pericolosa per la salute pubblica di qualche test e qualche chilo di polvere sparato intenzionalmente nella stratosfera.
In realtà temo le conseguenze politiche di quei test, che nondimeno appoggio come uomo di scienza. Se quelle teorie si dimostrassero efficaci per ridurre la temperatura del pianeta e innocue per l’ambiente, qualcuno potrebbe pensare che tutto sommato potrebbe non essere una cattiva idea usarle piuttosto che spendere migliaia di miliardi di dollari per abbandonare le energie fossili non rinnovabili. Governi troppo pavidi potrebbero essere spinti a non considerare troppo l’uso delle energie rinnovabili pur di preservare precedenti investimenti nel carbone, petrolio, gas e biomasse in cambio di una spruzzatina qua e là. Senza contare il fatto, come insegna la storia delle eruzioni vulcaniche, una tale operazione per la modifica del clima su scala globale cesserebbe la sua efficacia non appena cessassero le operazioni di dispersione artificiale. Pertanto un rilassamento nelle politiche energetiche a favore delle fonti fossili riproporrebbe, accentuati, gli attuali problemi legati al Global Warming.

Studi di fattibilità

Un Aiurbus Beluga può trasportare carichi di 40 tonnellate per un raggio di 2700 km oppure di 25 per 4600 km.

Una seria analisi dei costi fu svolta nel 2012 coinvolgendo l’Aurora Flight Science Corporation, la School of Engineering and Applied Sciences and Kennedy School dell’Università di Harward e la Tepper School of Business and Department of Engineering and Public Policy dell’Università Carneige Mellon [24]
La cosa sconvolgente è che questo studio pare dimostrare che l’iniezione di SO2 nella troposfera allo scopo di innalzare artificialmente l’albedo del pianeta possa essere una strada teoricamente fattibile e dal costo non poi così elevato: infatti questo afferma che basterebbero da 1 a 5 milioni di tonnellate di materiale particellare all’anno tra i 18 e i 30 chilometri di quota per un costo annuale di soli appena 8-10 miliardi di dollari americani di quell’anno. Altri studi simili furono elaborati durante l’ amministrazione di George Bush senior 2 e nel 2009 e nel 2010. Questi essenzialmente si basano sul particolato di zolfo, che sappiamo essere comunque un agente inquinante, e prendono spunto dai normali voli di linea intercontinentali — quelli cioè che toccano quote di 10000 metri — che potrebbero usare carburante con un più alto tenore di zolfo durante la crociera, mentre nelle fasi di decollo e di atterraggio potrebbero usare il carburante più pulito, grazie al fatto che negli aerei il carburante è comunque già stoccato in diversi compartimenti fra loro indipendenti. Poi sarebbero i venti a disperdere il particolato più in alto nell’atmosfera.
Usare altri tipi di particolato, potrebbe essere ben più complicato e costoso. Mentre nel caso del biossido di zolfo questo è già presente in tracce nel comune carburante di bassa qualità disponibile per gli aerei di linea e quindi meno costoso,  per tutti gli altri casi si tratterebbe di voli studiati solo per questo scopo: occorrerebbero tra i 100 e i 200 mila voli di aerei come l’Airbus Beluga per trasportare 5 milioni di tonnellate all’anno di particolato che non sia zolfo a soli 10000 metri di quota.

Per ora termino qui la prima parte, ben immaginando che qualcuno penserà che stia diventando uno scia-chimista anch’io e nel caso potrò farmi delle grasse risate alle sue spalle. Niente paura: presto arriverà anche la seconda parte e allora capirete che non mi sto rincoglionendo! 😛
Cieli sereni!

Marte e Terra: quella sottile linea rossa

Agli inizi della sua storia, il Sistema Solare fu teatro di episodi infinitamente più violenti anche del noto meteorite che 65 milioni di anni fa sterminò i due terzi di ogni forma di vita sul nostro pianeta. Lo scontro della Terra primigenia con un corpo grande quanto Marte (Theia) generò —per nostra fortuna — la Luna [25]. Poco dopo, un’altra collisione violenta tra Marte e un corpo grande quasi quanto la Luna fu probabilmente causa della peculiare orografia del Pianeta Rosso, e anche una delle conseguenze dell’Intenso Bombardamento Tardivo suggerito dalle esplorazioni Apollo.

L’altimetria di Marte rispetto a una mediana arbitraria. l’emisfero settentrionale appare come una enorme depressione.

Da quasi mezzo secolo ormai, la topografia di Marte è più o meno altrettanto nota di quella terrestre. Infatti sono del 1965 le prime immagini riprese dall’orbita marziana dal Mariner 4 a cui seguirono con discreto successo altre sonde, rover e satelliti.Tenendo conto di una media delle diverse altezze della superficie del pianeta, vien fuori che l’emisfero settentrionale è decisamente più basso dell’emisfero opposto, tanto che è stato supposto che 3,5 miliardi di anni fa potesse essere un unico vasto ma poco profondo oceano [26].

La dicotomia marziana

Questa è nota come la Dicotomia Marziana, e fin dalla sua scoperta ha tolto il sonno dei tanti planetologi che cercavano di spiegarla. Nel 1984 venne elaborata una teoria che prevedeva un unico grande impatto con un grande corpo celeste delle dimensioni comprese tra i 1500 e i 2700 chilometri (ossia tra le dimensioni di Plutone e quelle della Luna) proprio sull’emisfero settentrionale [27] [28] con un angolo compreso fra i 30 e i 60 gradi, circa 4 – 4,5 miliardi di anni fa. Come conseguenza del cataclisma, Marte avrebbe perso anche una buona parte della sua prima atmosfera.
Tesi interessante: ma l’impatto avrebbe dovuto rilasciare abbastanza calore nel mantello superiore da generare una catena di vulcani. Quattro miliardi di anni di erosione potrebbero spiegare la scomparsa dei segni dell’impatto come i bordi e il materiale piroclastico, ma non l’assenza di vulcani, che invece sono abbondanti nell’emisfero australe. 

Nel 2014 si affacciò una curiosa variante di quella stessa teoria, senonché l’impatto con il corpo celeste potrebbe essere avvenuto nell’emisfero opposto [29][30].
In questa nuova espressione, l’impatto dette origine a un oceano di magma emisferico che raffreddandosi dette origine ai noti altopiani meridionali e alla conseguente dicotomia marziana. Inoltre esso avrebbe arricchito il nucleo marziano di una notevole quantità di ferro. La conseguente anomalia termica profonda sarebbe all’origine del vulcanismo negli altopiani meridionali e nella fascia equatoriale del pianeta. 
Se da un lato l’eccesso di attività vulcanica avrebbe avuto il pregevole effetto di restituire al pianeta una consistente atmosfera, da l’altra un minore gradiente termico tra mantello e nucleo provocato da questa anomalia termica avrebbe finito per raffreddare e far solidificare quest’ultimo, provocando quindi la scomparsa del campo magnetico planetario [31] ed esposto la nuova atmosfera appena rigenerata dall’attività vulcanica alla tremenda erosione del vento solare che di fatto l’ha cancellata. 

L’intenso bombardamento tardivo

Tra il 1969 e il 1972 le missioni Apollo portarono sulla Terra molti campioni di suolo lunare. Dall’analisi di questi si scoprì che la Luna, e di conseguenza deve esserlo stato anche il Sistema Solare Interno, fu interessata da un massiccio bombardamento asteroidale tra i 2,5 e i 3,9 miliardi di anni fa [32][33].  Questo cataclisma oggi è conosciuto come Intenso Bombardamento Tardivo. La distribuzione delle dimensioni e la frequenza degli impatti sulla Luna suggeriscono che tale fenomeno sia stato così imponente da interessare anche il pianeta Mercurio.  Ci sono diverse teorie che cercano di spiegare l’IBT: dalla migrazione di Giove alla sua attuale orbita causata da una risonanza orbitale con Saturno di 2:1 fino alla formazione tardiva dei due pianeti giganti esterni che avrebbero scombussolato le orbite di oggetti transnettuniani accelerandoli in orbite più eccentriche. Altre teorie chiamano in causa un ipotetico quinto pianeta — che sarebbe poi finito nel Sole — dopo aver portato scompiglio nella fascia di asteroidi  principale.
Io credo che la prima sia la migliore: la stragrande maggioranza dei corpi transnettuniani non possiedono significative quantità di elementi pesanti e sono composti perlopiù da ghiaccio d’acqua e metano;  sono in sostanza delle comete e nessuna di queste avrebbe potuto arrivare a spegnere il debole nucleo fuso di Marte come in effetti pare sia avvenuto. Inoltre Marte potrebbe essersi formato molto più in là e solo dopo la migrazione (10^5 anni) di un Giove — più piccolo di oggi — attraverso il Sistema Solare [cite]https://arxiv.org/abs/1602.06573[/cite] avrebbe spostato Marte verso orbite più interne e dato origine all’odierna fascia di asteroidi ricca di silicati e ferro; zona da cui più probabilmente poi sarebbe provenuto l’asteroide che ha colpito Marte.

Conclusioni

In un sistema dinamico complesso come un sistema planetario non è possibile immaginare che un singolo evento da qualche sua parte non sia legato a qualcos’altro da qualche altra parte. La formazione del sistema Terra-Luna, la Dicotomia Marziana, l’acqua sulla Terra e tanti altri eventi e situazioni oggi date per scontate, hanno tutte un motivo per essere come le osserviamo.  La linea temporale che descrive gli eventi del primo Sistema Solare è piuttosto complessa e merita un articolo tutto per sé, per questo vi dico che la narrazione di questa storia non termina qui.

L’effetto Shapiro e le teorie MOND

Il 17 agosto del 2017 è uno spartiacque nella storia dell’astronomia, ma soprattutto della cosmologia. È un momento che potremmo paragonare alla scoperta dell’inconsistenza della teoria dell’Etere Luminifero o quella della fine dell’universo statico sia nel tempo che nello spazio. Ma comunque, è ingiusto adesso pensare che l’aver speso tempo ed energie a studiare e proporre teorie della gravitazione che andassero al di la della Relatività Generale sia stato inutile. In fondo anche l’opera di Einstein appariva inutile visto che già c’era la Teoria di Gravitazione di Newton e che pareva funzionare quasi alla perfezione. Il tempo speso a meditare cose nuove o a vedere cose vecchie con spirito nuovo non è tempo buttato ma il sale della scienza.
E a chi afferma che di scienza si debbano occupare esclusivamente gli accademici, vorrei ricordare Milton Humason, collaboratore di Edwin Hubble e che insieme al celebre astronomo scoprì l’espansione dell’Universo, frequentò la scuola fino a 14 anni; Michael Faraday, uno dei padri dell’elettromagnetismo, era nato poverissimo e divenne garzone di bottega a 13 anni, fino a che a 23 anni non divenne assistente e cameriere di un professore di chimica:  Sir Humphry Davy. E potrei continuare all’infinito: Guglielmo Marconi era un autodidatta, proprio come me; Konstantin Ciolkovski, uno dei padri del volo coi razzi, anche lui era un autodidatta.
La scienza non è di nessuno, è di tutta l’umanità e soprattutto, non ha caste.

La prima e indubbiamente più eclatante previsione della Relatività Generale di Einstein fu quella relativa alla deviazione della luce delle stelle in presenza di oggetti dalla massa così enorme da piegare letteralmente lo spazio.
La conferma del fenomeno la fornì nel 1920 l’astronomo inglese Sir Arthur Eddington quando pubblicò i risultati delle sue osservazioni svolte durante l’eclissi totale di Sole del 1919. Qui è la distorsione dello spazio-tempo causata da una grande massa a flettere il percorso di un raggio luminoso. È il principio su cui si basano le lenti gravitazionali che ci consentono di veder le altre galassie dietro alla linea di vista di una galassia più vicina.

L’effetto Shapiro

Ma non di meno, una distorsione dello spazio-tempo causata da una massa ha anche un altro importante, e soprattutto misurabile, effetto: un ritardo temporale, conosciuto come effetto Shapiro [34].
Quando un segnale luminoso (ad esempio un segnale radar) passa vicino ad una massa importante impiega un po ‘più di tempo per colpire il bersaglio e tornare indietro rispetto a quando la suddetta massa non è presente. Tale ritardo di tempo è prodotto dalla distorsione dello spazio che aumenta la lunghezza fisica del percorso. Questo non è l’effetto della dilatazione temporale dovuta al pozzo gravitazionale (redshift gravitazionale) e anche se spesso i due effetti sono confusi fra loro, è proprio un’altra cosa [35].

Una delle prime immagini di Doppler di Venere fatta con un interferometro radar, le antenne Haystack e Westford in tandem, nel 1967. Sono riconoscibili le regioni Alpha e Beta, e la complessità di quest’ultima. Tener conto dell’effetto Shapiro è stato fondamentale per ottenere questo risultato. Credit: Alan EE Rogers.

Quando negli anni ’60 furono esplorati gli altri pianeti come Venere e Mercurio coi radar dalla Terra, fu assai importante tenere conto dell’effetto Shapiro per ottenere le prime immagini del suolo di quei pianeti: il ritardo del segnale radio causato dalla massa del Sole era sì piccolo, appena 200 microsecondi per Venere,  ma importante.
Lo stesso discorso vale per ogni altro segnale luminoso che viaggia nell’Universo. Se idealmente depurassimo ogni segnale luminoso dai redshift gravitazionali, i moti intrinseci dovuti dalla sorgente e dall’osservatore e da quello dell’espansione universale, quel che rimane è il ritardo temporale causato dall’effetto Shapiro, che è espressione indiretta delle distorsioni dello spazio causate da tutta la massa cosmologica presente tra la sorgente e l’osservatore. La massa cosmologica in questo caso è intesa essere la somma della massa barionica più il contributo della materia oscura, rilevabile esclusivamente dalla distorsione della metrica spazio-tempo. La certezza che la distorsione dello spazio-tempo sia dovuta a entrambe le due componenti viene dalle analisi del confronto delle radiazioni elettromagnetiche e il flusso di neutrini rilevato nell’occasione della supernova SN1987A [36] e altri studi sulle pulsar millisecondo  [cite]https://arxiv.org/abs/1210.1167[/cite].

Ma torniamo per un attimo al magico anno 1915. Fino a quel momento si era pensato alla gravità come una forza che agisce istantaneamente tra due corpi [37]. Se il Sole fosse misteriosamente scomparso dal Sistema Solare, i pianeti avrebbero immediatamente preso a girovagare nello spazio per la tangente, in virtù del principio di conservazione della quantità di moto. Per la Relatività invece, la gravità è concepita come una distorsione dello spazio-tempo: l’orbita di un corpo appare ellittica perché lo spazio in cui esso si muove è curvo. Nel tal caso i pianeti avrebbero continuato a percorrere le loro orbite finché lo spazio-tempo per loro non si fosse disteso: per esempio per la Terra questo accadrebbe dopo soli 500 secondi, per Giove dopo 43 minuti. Questo perché le le distorsioni nella metrica dello spazio, come lo sono anche le onde gravitazionali, si muovono alla velocità della luce [1.  La simmetria di Lorentz implica che tutto ciò che non è dotato di massa si propaghi nel vuoto alla velocità della luce e questo vale anche per le onde. Tuttavia quando un mezzo è presente, questa simmetria viene violata spontaneamente e anche le velocità di propagazione possono essere diverse. Pertanto, in virtù di questo principio, nella Relatività Generale ogni alterazione dello spazio-tempo viaggia — nel vuoto —  alla massima velocità possibile per un’onda priva di massa: la velocità della luce \(c\). ] e che quindi risentono della presenza di tutto ciò che può alterare lo spazio, ossia di tutta la materia ordinaria e di quella che oggi etichettiamo come materia oscura.

Le teorie MOND

Le teorie MOND sono una classe di teorie che tentano di spiegare la curva di velocità delle galassie assumendo che le Leggi di Newton non siano corrette se interpretate su scala galattica.

Ogni tentativo di conciliare la Relatività Generale con la Meccanica Quantistica è finora sempre fallito. È però apparso evidente fin da subito che una Teoria del Tutto avrebbe richiesto di passare per una riscrittura del concetto di gravità, che per la Relatività Generale è intesa come una distorsione nella metrica spazio-tempo piuttosto che come particella. Negli anni sono state tentate vie come la Teoria delle Stringhe, le Teorie M-Brane, suggerito nuove forze intese come tensori metrici che modificano la geometria dello spazio-tempo su scala cosmologica e dimensioni extra nel tentativo di spiegare certe anomalie che apparivano dai dati raccolti da nuovi e sempre più raffinati strumenti e da nuove scoperte riguardanti concetti come la Materia Oscura [38], l’Inflazione  post Big Bang e l’Energia Oscura 1.
Però intanto anche i test finora proposti hanno sempre mostrato che la Relatività Generale non è affatto facile da sostituire. L’unica soluzione possibile pare essere quella in cui il formalismo della Relatività Generale appare come caso speciale in un nuovo schema più fondamentale della Gravità allo stesso modo in cui il formalismo della Gravità di Newton appare all’interno della Relatività Generale. 
Le teorie che tentano di spiegare la piattezza delle curve di rotazione delle galassie senza ricorrere a nuove forme di materia esotica sono conosciute come Teorie MOND (MOdified Newtonian Dynamics), dette anche emulatori di materia oscura. Per questa classe di teorie sono le leggi della gravitazione di Newton (e quindi per estensione anche la Relatività Generale) a essere in errore  quando si tratta di piccolissime accelerazioni su scala galattica e comunque molto al di sotto di quello che oggi possiamo sperimentare all’interno del Sistema Solare.

La rivoluzione delle onde gravitazionali

Per le Teorie MOND le onde gravitazionali (in viola) percorrerebbero geodetiche molto diverse rispetto alla loro controparte elettromagnetica (in giallo) in quanto l’effetto Shapiro è molto diverso. Credit: Il Poliedrico

Il 17 agosto scorso la scoperta del primo segnale gravitazionale associato a un evento visibile (GRB 170817A), una kilonova 2  fu una scoperta grandiosa. Essa permise di misurare esattamente l’intervallo tra due tipi molto diversi di emissioni dello stesso evento: l’onda gravitazionale e l’impulso gamma scaturiti entrambi dalla coalescenza di una coppia di stelle di neutroni. Il dato fu molto interessante:1,74 secondi tra l’arrivo del treno di onde gravitazionali e il primo impulso elettromagnetico gamma.
Un niente se paragonato alla scala della distanza percorsa, 130 milioni di anni luce. Inoltre la differenza temporale tra i due eventi non ha in sé niente di trascendentale; anzi. Le onde gravitazionali hanno avuto origine pochissimi istanti prima della coalescenza delle due stelle di neutroni, quando cioè i due oggetti stavano cadendo l’uno sull’altro nella loro danza cosmica sempre più vorticosa. L’impulso gamma invece si è generato al contatto, quando cioè i due oggetti sono diventati uno solo. Ecco spiegato il ritardo tra i due impulsi: il GW170817 e il GRB170817A. Questo ci dice che entrambi gli impulsi hanno percorso i 130 milioni di anni luce alla medesima velocità.
Per la Relatività Generale, sia le onde gravitazionali che le elettromagnetiche percorrono le stesse geodetiche, ossia affrontano lo stesso percorso attraverso lo spazio-tempo. Per le teorie MOND invece le geodetiche percorse dai due tipi di onde sarebbero state molto diverse. Questo avverrebbe perché per loro la forza gravitazionale è intesa agire in modo assai diverso, essendo per questa classe di teorie la curvatura di potenziale gravitazionale dovuta esclusivamente dalla materia barionica ordinaria, lasciando tutto il resto alla reinterpretazione della gravitazione. In altre parole in base alla loro interpretazione, non essendo più la gravità una costante, di conseguenza finirebbe per non esserlo neppure il percorso delle onde gravitazionali rispetto alla luce. Pertanto se fossero state in qualche modo vere le basi delle teorie MOND avremmo dovuto registrare l’arrivo delle onde gravitazionali dell’evento GW170817 centinaia di giorni prima dell’evento elettromagnetico GRB170817A (e ovviamente a questo punto anche gli eventi avrebbero avuto nomi diversi).

Con l’aver registrato la sostanziale contemporaneità dell’evento gravitazionale con quello elettromagnetico si ottiene un altro punto fermo a cui ogni altra teoria alternativa o successiva alla Relatività Generale — ad esempio una Teoria del Tutto — deve per forza soggiacere per essere coerente con l’Universo che osserviamo. Di fatto questa osservazione contraddice in pratica ogni teoria che cerca di spiegare gli effetti che oggi attribuiamo alla materia oscura con una modifica delle leggi di gravitazione. Ma non solo. Anche ogni altro tentativo di spiegazione dei fenomeni che oggi osserviamo e i modi con cui tentiamo di spiegare l’Universo e come esso è nato, dovranno tener conto anche di questo importante paletto. 

 

Kilonova

No, una kilonova non è è una nova che si vende al mercato un tanto al chilo come si fa con le aringhe. E neppure è una miniera d’oro come alcuni roboanti titoli delle scorse ore, quelle seguenti l’annuncio della scoperta della prima controparte ottica di una sorgente di onde gravitazionali — anche questo è un termine alquanto impreciso in quanto tutti gli oggetti dotati di una grande massa che si muovono nello spazio in qualche modo lo sono —  hanno cercato di sottolineare. È un altro tipo dei tanti eventi violenti dell’Universo, ma solo un migliaio di volte, da qui il nome appunto di kilonova, di una nova comune.

Rappresentazione artistica dei resti di una kilonova. In giallo il nome di alcuni degli elementi prodotti dalla sintesi per cattura neutronica veloce che popolano la nebulosa finale. Tra parentesi il loro numero atomico. Credit: Il Poliedrico

L’Universo è una fonte inesauribile di meraviglie e di cose altrettanto grandiose. Dal pacato vuoto intergalattico alle possenti forze di un buco nero, dal flebile canto dell’atomo di idrogeno al cozzare di galassie in un balletto che dura milioni di anni. E in mezzo a tutto questo ci sono miriadi di fenomeni che ancora ci sono per la gran parte ignoti e che soltanto negli ultimi anni con l’avvento delle tecnologie radio e satellitari abbiamo imparato a vedere.
Ora alla pletora di strumenti che usiamo per scrutare il cosmo se n’è aggiunto un altro: l’interferometria gravitazionale. Per ora sono soltanto tre strumenti, due negli USA, a Hanford, Washington, e a Livingston, Louisiana che formano il complesso interferometrico LIGO, e l’altro è Virgo, a Cascina (PI), frutto di una collaborazione italo-francese (ad appena 83 chilometri da dove sono ora).

Un po’ di storia

Ma partiamo dall’inizio, come piace a me.
I primi evidenti segni che qualcosa ancora mancava al quadro generale dell’Universo, era che nonostante fosse stato compreso come si formassero gli elementi più pesanti dell’idrogeno — quelli che gli astrofisici apostrofano come metalli: carbonio, ossigeno, ferro, uranio, etc. — [39] era comunque difficile comprendere le quantità relative di alcuni elementi più pesanti del ferro che, come ho narrato nello scorso articolo sulle supernove [40], non sono prodotti dalla normale attività di fusione nucleare di una stella ma per cattura neutronica quando questa esplode 1. Doveva esserci quindi qualche altro processo cosmico ancora sconosciuto che ricorresse alla cattura neutronica veloce (r-process) al di fuori delle supernove comuni per giustificarne le quantità osservate.
Intanto si erano scoperti anche i lampi di raggi gamma (Gamma Ray Burst o GRB), i più violenti fenomeni dell’intero Universo, capaci di sterilizzare interi mondi a una distanza di migliaia di anni luce [41].
Si è scoperto che questi eventi, che di solito durano da qualche secondo a qualche minuto mentre la loro energia luminosa decade verso frequenze più basse come raggi X, ultravioletto, visibile, etc., sono di solito associati a eventi di supernova mentre questa decade verso una stella di neutroni o un buco nero. I precursori più probabili per emettere un lampo gamma finale sono le stelle molto massicce come le Wolf-Rayet: \(\eta\) Carinae e WR 104 sono le nostre più vicine (entrambe tra i 7500 e gli 8200 anni luce, per nostra fortuna).
Ma ci sono anche GRB molto più rapidi, dell’ordine di un paio di secondi o meno. Questi sono difficili da spiegare con lo stesso meccanismo delle supernove, eppure sono capaci di rilasciare lo stesso energia sulla scala delle loro galassie ospiti nell’arco di pochissimi secondi. Una plausibile spiegazione a questi fenomeni parossistici arrivò nel 2007 coi lavori di  Benjamin P. Abbott del LIGO – Caltech [cite]https://arxiv.org/abs/0709.0766[/cite] che ipotizzò essere generati dalla fusione di due stelle di neutroni o tra una stella di neutroni e un buco nero.

Kilonova

Queste immagini furono scattate dal NASA Hubble Space Telescope il 13 giugno e poi il 3 luglio 2013 e rivelano un nuovo tipo di esplosione stellare prodotta dalla fusione di due oggetti compatti: due stelle di neutroni o una stella di neutroni e un buco nero. Credit: NASA, ESA, N. Tanvir (Università di Leicester) e A. Fruchter, Z. Levay (Space Telescope Science Institute), A. Levan (Università di Warwick)

Una teoria interessante che trovò la prima conferma quando il 3 giugno del 2013  il telescopio per raggi  gamma Swift intercettò un evento che durò poco meno di due secondi proveniente da una galassia a 4 miliardi di anni luce, GRB130603B. In seguito, il 13 giugno, l’Hubble Telescope registrò nello stesso posto una sorgente  infrarossa in decadimento. L’analisi spettrale della sorgente mostrava una inusuale abbondanza di elementi chimici più pesanti del ferro tipici di un processo di cattura neutronica rapida r-process 2 rispetto agli altri spettri usuali di supernova.
Quando due stelle di neutroni finiscono per fondersi parte della loro energia cinetica si disperde sotto forma di increspature dello spazio-tempo, ossia onde gravitazionali allo stesso modo del merging di due buchi neri come già VIGO era riuscito a rilevare in passato e a quelle rilevate col GW170817 [42]. Un’altra parte invece viene assorbita dai due oggetti che sì disintegrano disperdendo così una buona parte della loro massa. È qui, nel materiale espulso che avvengono le reazioni di cattura neutronica: in pratica un immenso guscio di neutroni ancora ad altissima densità e temperatura (\(\rho\) > 3 x1011 gm/cm3 e T > 9×109 K) in cui le reazioni di nucleogenesi fino ad allora inibite dalla possente gravità delle precedenti stelle di neutroni riprendono vigore [cite]https://arxiv.org/abs/1105.2453[/cite]. 
In una kilonova quindi il processo di nucleogenesi per cattura neutronica rapida pare essere la principale reazione nucleare presente. Tale reazione consente la formazione di nuovi elementi più pesanti del ferro, ed è pertanto una reazione che assorbe energia dal sistema (reazione endotermica), raffreddandolo. Per questo appare debole come flusso elettromagnetico, da un decimo a un centesimo rispetto a una normale supernova; una parte assai importante dell’energia viene assorbita dalla creazione di elementi pesanti attraverso l’unico processo possibile: la cattura nucleare di altri neutroni. Il raffreddamento del materiale eiettato aumenta in modo drammatico l’opacità dell stesso spostando di conseguenza l’emissione radiativa principale verso frequenze sempre più basse piuttosto in fretta. Per questo l’Hubble Telescope non poté che registrare che il 3 luglio 2013, dopo appena un mese dal lampo gamma GRB130603B, l’evento era quasi scomparso anche dalla banda dell’infrarosso.

Il processo-r

Il reazioni di nucleogenesi per cattura neutronica rapida che danno origine a nuclei atomici più pesanti del ferro (u > 55) sono endotermiche, assorbono cioè energia all’ambiente dove avvengono. In una supernova esse sono responsabili della perdita di equilibrio della stella che finisce così per esplodere. Dal momento dell’esplosione, la densità neutronica della stella decresce rapidamente così che queste reazioni cessano abbastanza in fretta.  Inoltre i processi di fotodisintegrazione causati dai fotoni più energetici che colpiscono i nuclei più instabili estinguono la produzione di atomi pesanti altrettanto rapidamente. 
Nel caso di fusione di due stelle di neutroni invece la densità energetica dei fotoni è alquanto minore mentre la densità dei neutroni liberati nell’evento è molto più grande rispetto a un normale evento di supernova di tipo II (T ≥ 1,2 x 109 K e nn > 1 x 1022 cm-3).  Qui processi di cattura neutronica sono molto più importanti e anche il decadimento beta che spinge i nuclei più instabili verso la formazione di atomi più stabili ha più tempo per prodursi prima che intervengano i processi di fotodisintegrazione. 
La sottrazione di energia dal sistema è anch’essa molto importante perché pone un limite minimo al di sotto del quale comunque le reazioni di cattura neutronica cessano. Una volta cessata la produzione di nuclidi instabili ricchi di neutroni, è il decadimento radioattivo di questi a dominare la scena della nebulosa creatasi dopo il merging dei due corpi originali.

Conclusioni

L’ultimo evento scoperto, GW170817 è il secondo caso ormai accertato di una kilonova.  La rilevazione delle onde gravitazionali prodotte durante l’evento di coalescenza fissa drammaticamente un limite alle masse delle stelle di neutroni coinvolte e questo permette così di studiare più in dettaglio questo genere di fenomeni e le reazioni nucleari che lo governano.
Un altro importante traguardo è stata la stima della differente velocità delle onde gravitazionali rispetto alle onde elettromagnetiche su un percorso di ben 130 milioni di anni luce: 1,7 secondi a vantaggio delle prime. Dal punto di vista cosmologico questo è un grande risultato che spazza via tante teorie che puntavano a modificare la gravità pur di eliminare il problema della materia oscura. Ma questo potrà essere argomento di un’altra storia.

Controparte ottica per l’onda gravitazionale GW170817

[video_lightbox_youtube video_id=”Uvlu3VtrYug&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]

Se l’altro giorno avessi scommesso sulla natura dell’annuncio dell’ESO oggi sarei milionario. Infatti è stato annunciata pubblicamente la scoperta della prima controparte ottica di un evento gravitazionale originato dalla coalescenza di due stelle di neutroni. La contemporanea osservazione dell’onda gravitazionale da parte di LIGO (due antenne, una a Hanford, Washington, e una a Livingston, Louisiana)  e di Virgo a Cascina in Toscana, ha permesso di triangolare  con un relativamente piccolo margine di errore la zona di cielo da cui è emerso l’evento. Immediatamente si sono attivate le ricerche nello spettro elettromagnetico, dai raggi gamma alle onde radio. E la controparte ottica c’era. Un rapidissimo GRB (Gamma Ray Burst, lampo gamma) è stato osservato e poi giù, nell’ultravioletto e nel visibile, dove gli strumenti dellESO hanno potuto risolverne lo spettro identificandolo come quello di nucleosintesi noto come Processo-r, un processo nato per spiegare le attuali abbondanze degli elementi pesanti presenti nell’Universo che si pensava appartenesse solo alle supernove più grandi, ma che alcuni studiosi ipotizzavano presente anche della fusione di due  stelle di neutroni [43] [44].
Il resto della storia è lì, nel video qui sopra, narrata da chi ha vissuto quei febbrili momenti.

Oggi nasce una nuova forma di astronomia, che come quella delle onde radio e poi quella dei satelliti per le lunghezze d’onda più brevi, promette di regalarci un sacco di emozioni e di eccitanti scoperte.