Using the ESO’s SPHERE instrument at the Very Large Telescope, a team of astronomer observed the planetary disc surrounding the star RX J1615 which lies in the constellation of Scorpius, 600 light-years from Earth. The observations show a complex system of concentric rings surrounding the young star, forming a shape resembling a titanic version of the rings that encircle Saturn. Such an intricate sculpting of rings in a protoplanetary disc has only been imaged a handful of times before. The central part of the image appears dark because SPHERE blocks out the light from the brilliant central star to reveal the much fainter structures surrounding it.
Se poteste tornare alla lontana epoca della formazione del Sistema Solare, quasi 5 miliardi di anni fa, ecco cosa vedreste.
Questo è quello che invece vediamo noi oggi, qui sulla Terra, guardando verso WRAY 15-1443[1], una giovanissima (5-27 milioni di anni) stellina di classe K5 distante circa 600 anni luce. Essa è parte di un filamento di materia nebulare nelle costellazioni australi del Lupo e lo Scorpione insieme a decine di altre stelline altrettanto giovani. È il medesimo scenario che vide la nascita del nostro Sole.
Noi vediamo il disco protoplanetario ancora come è durante la formazione dei pianeti e prima che i venti stellari della fase T Tauri lo spazzassero via, È un disco caldissimo e denso, con una consistenza è una plasticità più simili alla melassa che alla polvere che siamo soliti vedere qui sulla Terra. Qui le onde di pressione e i fenomeni acustici giocano un ruolo fondamentale nella nascita dei protopianeti creando zone di più alta densità e altre più povere di materia. E questa immagine ce lo dimostra chiaramente.
Lo strumento di cattura della luce polarizzata ad alto contrasto SPHERE.
Credit: ESO
Se oggi quindi possiamo ben osservare i primi istanti della formazione di un sistema solare questo lo dobbiamo a SPHERE (Spectro-Polarimetric High-contrast Exoplanet REsearch instrument) [2][3]: uno strumento concepito proprio per catturare l’immagine degli esopianeti e dei dischi protoplanetari come questo.
L’ostacolo principale per osservare direttamente un esopianeta lontano è che la luce della sua stella è così forte che sovrasta nettamente la luce riflessa di questo: un po’ come cercare di vedere una falena che vola intorno a un lampione da decine di chilometri di distanza. Lo SPHERE usa un coronografo per bloccare la regione centrale della stella per ridurne il bagliore, lo stesso principio per cui ci pariamo gli occhi dalla luce più intensa per scrutare meglio. E per restare nell’ambito degli esempi, quando indossiamo un paio di lenti polarizzate per guidare o andare sulla neve, lo facciamo perché ogni luce riflessa ha un suo piano di polarizzazione ben definito e solo quello; eliminandolo con gli occhiali questo non può più crearci fastidio. Ma SPHERE usa questo principio fisico al contrario: esalta la luce polarizzata su un piano specifico e solo quella, consentendoci così di vedere particolari che altrimenti non potremmo mai vedere.
Lo strumento per il rilevamento delle velocità radiali HARPS.
Credit: ESO
Oggi grazie a SPHERE e al team che l’ha ideato e costruito la ricerca astrofisica europea può vantare anche questo tipo di osservazioni che si sarebbe supposto essere di dominio della sola astronomia spaziale. E invece strumenti come HARPS[4] e HARPS-N alle Canarie consentono di scoprire sempre nuovi pianeti extrasolari, e ora SPERE ci aiuta a vederne pure alcuni.
Quando la gente sente parlare di geoingegneria del clima pensa subito a oscuri disegni in atto per stravolgere l’attuale equilibrio umano. In realtà ogni volta nella storia del genere umano che si è alterato il corso di un fiume, scavato un pozzo artesiano per irrigare o una diga per produrre energia, si è fatta della geoingegneria, e questa sempre ha avuto conseguenze sul clima della regione interessata 1. La deforestazione selvaggia in Amazzonia, le deviazioni artificiali dei fiumi e la creazione di nuovi canali, anche l’edificazione delle città sono tutte opere dell’uomo che durano nel tempo, ossia sono strutturali e come tali hanno tutte conseguenze sul clima. Se non riusciamo a comprendere questo, diventa inutile proseguire la lettura di questa seconda parte.
Contrasto al Riscaldamento Globale
Da quando è apparsa la specie umana, questa ha imparato molto presto a modificare l’ambiente che lo circonda: costruire strutture abitabili al posto di caverne e anfratti ne è un banale esempio. E poi strade, ponti, campi coltivati; tutto ciò che gli è potuto servire per conquistare il pianeta, l’uomo l’ha fatto. E tutto questo ha sempre avuto un impatto sull’ambiente e anche sul clima. Anche l’attuale Riscaldamento Globale è dovuto quasi esclusivamente all’opera dell’uomo.
Prendemmo piena coscienza che le azioni umane agiscono sull’atmosfera ben più di quanto avremmo voluto credere intorno al 1985, quando scoprimmo che i clorofluorocarburi interagiscono negativamente sullo strato di ozono che normalmente ci protegge dalle radiazioni ultraviolette del Sole. Quella classe di molecole era presente un po’ ovunque nella tecnologia umana: dai frigoriferi alle lacche per capelli, giusto per rimanere negli esempi più banali. In soli due anni, 1987, la produzione e l’uso di massa dei CFC venne proibito a livello internazionale e solo oggi, a distanza di 30 anni, possiamo vedere che quello sforzo ha probabilmente avuto successo. L’abbandono di quella classe di molecole comportò costi e sforzi mostruosi nella riconversione a tecnologie più rispettose dell’ambiente, eppure in fondo si trattava di ben misera cosa in confronto all’attuale impegno tecnologico sui combustibili fossili responsabili del Riscaldamento Globale.
È impensabile pensare a una riconversione totale verso forme di energia più pulite dall’oggi al domani. Inoltre il ciclo naturale di sottrazione dell’anidride carbonica dall’aria per tornare, non dico ai livelli preindustriali ma almeno ai livelli degli anni 50 del XX secolo, richiederà almeno un secolo o due anche se domani mattina cessassero tutte le emissioni di CO2 di origine antropica.
Studi sui sistemi di cattura dell’anidride carbonica (carbon capture and storage o carbon capture and sequestration o carbon control and sequestration, CCS) [5] che potrebbero aiutarci nel contrastare il Riscaldamento Globale sono in corso da anni: si va dal rendere fertili, e quindi forestabili, alcune aree oggi desertiche, alla concimazione di alghe negli oceani con concimi chimici e particelle di ferro a tecnologie di sequestro della CO2 dalle attuali centrali elettriche a combustibile 2.
Il Riscaldamento Globale sta distruggendo la biodiversità del pianeta: un delicatissimo equilibrio su cui in cima è l’uomo. Per questo penso che se grazie agli studi dei climatologi sperimentali trovassimo un modo pulito per attenuare il perverso innalzamento della temperatura media del pianeta avremmo l’obbligo di usarlo insieme al progressivo e inevitabile distacco dall’uso delle fonti fossili di energia.
È un processo che richiede tempi superiori alla vita media di un singolo individuo. Anche se idealmente incominciassimo domani, i frutti del nostro sforzo li vedranno nel migliore dei casi i nostri nipoti o i loro figli; non noi o i nostri figli, ma i nostri discendenti. Ma ogni sforzo che potremmo compiere per salvaguardare il pianeta è nostro dovere farlo, compresa l’ingegneria climatica se questa dovesse servire.
Lo stato attuale
Un tecnico del Dipartimento dei Lavori Pubblici della Contea di Los Angeles esamina un generatore di semina delle nuvole telecomandato presso l’impianto di Kinneloa a Pasadena. Se tutto procede come previsto, i serbatoi dietro il Big Tujunga, Morris e molte altre dighe, oltre a impianti di ricarica delle acque sotterranee, potrebbero catturare una media di ulteriori 60 milioni di ettolitri di acqua piovana all’anno, sufficienti per gli standard americani per 36000 persone. Ci sono 10 sedi nelle montagne di San Gabriel tra Arcadia e Pacoima, sei a comando manuale e 4 a distanza. Credit: Howard Lipin
Alla luce di quanto affermato nel precedente articolo di questa serie, si potrebbe supporre che ci sia del vero dietro all’idea che già sia in atto un piano occulto per rielaborare scientemente il clima del pianeta. Allora in questo caso verrebbe da chiedersi se davvero le teorie del complotto delle scie chimiche siano vere. No, non esiste e non è in atto alcun piano segreto o palese che attualmente preveda il controllo del clima a livello globale.
È vero che esperimenti e tecniche di manipolazione del tempo meteorologico — che non significa manipolare il clima — esistono ormai da decenni: si chiamano inseminazione delle nuvole. In pratica si usano particelle di varia natura per nucleare l’umidità naturale di una certa area e far piovere [1.Le tecniche di inseminazione delle nuvole si basano sul fatto che la pressione di equilibrio del vapore del ghiaccio è inferiore rispetto a quello dell’acqua. La formazione di particelle di ghiaccio all’interno di nubi super raffreddate permette a queste di crescere a spese delle altre goccioline liquide. Se si verifica una crescita sufficiente, le particelle diventano abbastanza pesanti da cadere come precipitazione da nubi che altrimenti non potrebbero produrre precipitazioni. Questo processo è noto come semina “statica”. Le sostanze più comuni utilizzate per la semina delle nuvole includono ioduro d’argento, ioduro di potassio e ghiaccio secco (anidride carbonica congelata). Dopo alcuni convincenti test, sta diventando piuttosto popolare anche il più economico sale da cucina, per le sue notevoli doti igroscopiche. Lo ioduro d’argento ha invece una struttura cristallina molto simile a quella del ghiaccio, inducendo quindi una nucleazione per congelamento.]. Non tutti gli scienziati del clima sono concordi sulla sua efficacia [6][7] ma tale tecnologia è comunque di uso abbastanza comune in molti paesi del mondo. Ad esempio in Germania la usano per prevenire le tempeste di grandine [8], nel Sud-Est Asiatico per combattere l’inquinamento atmosferico, in Cina fu usata per la cerimonia di inaugurazione dei Giochi Olimpici di Pechino del 2008 [9]. Probabilmente i sovietici usarono le tecniche della pioggia artificiale per impedire che la nube radioattiva di Chernobyl (1986) arrivasse su Mosca [10]. In California viene usata per combatttere la siccità cronica della regione [11]
Un impiego bellico di tale tecnologia si ebbe tra il 1967 e il 1972 [12] durante la Guerra del Vietnam, come riportano anche alcuni documenti del Pentagono [13] (Operazione POP EYE).
Verso la fine della I Guerra del Golfo gli irakeni incendiarono pzzi, campi e laghi petroliferi giusto per rallentare la Coalizione guidatra dagli Stati Uniti. Si stima che dal gennaio 1991 e novembre di quell’anno fossero stati bruciati circa un miliardo di barili di petroli. Esso però equivale ad appena a una decina di giorni del consumo mondiale odierno (circa 100 milioni di barili al giorno).
Però il 18 maggio del 1977 all’Assemblea Generale delle Nazioni Unite fu stipulata una convenzione che proibisce l’uso militare di qualsiasi tecnologia per il controllo e la modifica del clima [14]. Questa fece seguito alla decisione unilaterale USA del luglio 1972 di rinunciare all’uso di tecniche di modifica del clima a fini ostili e che premette per la stipula di un accordo internazionale che coinvolgesse anche l’Unione Sovietica.
Perfino sistemi a bassa tecnologia come il fuoco e gli erbicidi, ampiamente usati da Saddam Hussein nella Prima guerra del Golfo contro il Kuwait — incendiò i pozzi petroliferi per impedirne l’uso alla Coalizione e distrusse le coltivazioni agricole kuwaitiane — potrebbero costituire violazioni della convenzione sul controllo e modifica del clima [15], secondo la lettura che fecero Olanda e Finlandia del trattato.
Quindi supporre una qualsiasi ipotesi di complotto globale come vuole la vulgata complottista, è fuori di discussione. Non starò qui a perdere tempo per descrivere simili corbellerie, altri siti e giornali l’hanno fatto prima di me. Io ho solo cercato di esporre lo stato dell’arte su alcune ricerche serie sull’ingegneria climatica e illustrato la loro possibile utilità nel combattere un altro flagello creato dall’uomo come effetto collaterale della sua tecnologia Ed è quello che mi interessava fare.
Mi spiace essere assente su queste pagine così a lungo come in questo periodo. In verità è che sono concentratissimo nel portare avanti il mio antico progetto di costruire un astroinseguitore alla mia maniera, che vorrei terminare prima della eclissi di Luna di luglio. Ma torniamo a noi. Spesso purtroppo esiste un limite sottile oltre il quale molti non osano andare a guardare, un po’ come quelle vecchie signore scandalizzate che in spiaggia si turavano gli occhi alla vista di un bikini ben indossato, lasciando però aperta una sottile fessura per sbirciare meglio. Con questa metafora voglio dire che invece la scienza ha l’obbligo di vedere e di indagare anche e soprattutto è sconveniente. La scienza è uno strumento. Intellettuale ma pur sempre e solo uno strumento. Non è di per sé buona o cattiva come taluni vogliono che si creda, e piegarla al proprio volere è negare la sua natura.
Nei giorni scorsi mi è capitato di dover affrontare una spinosissima discussione che è in bilico tra le bischerate (le cosiddette fake-news per i detrattori della lingua italiana) e la scienza. Tutto parte da un vecchio servizio del TG2 RAI scritto, come loro solito sui temi di natura scientifica, coi piedi.
Il servizio fa riferimento a uno studio dell’Università di Harvard [16] che parla di test per determinare quale tipo di aerosol può essere efficace ad essere distribuito nell’atmosfera per innescare un calo della sua temperatura e sui suoi effetti sull’ambiente.
“A metà mattina di Pentecoste, l’8 giugno 1783, in un tempo sereno e calmo, una nera foschia di sabbia apparve a nord delle montagne. La nube era talmente estesa che in breve tempo si era diffusa su tutta la superficie e così densa da causare oscurità all’interno. Quella notte vi furono forti terremoti e tremori “
Jón Steingrímsson, sacerdote luterano islandese (1728, 1791)
Di per sé non è un’idea nuova. Già altri in passato avevano proposto di cospargere la troposfera con biossido di zolfo (anidride solforosa) dopo aver notato gli effetti dell’aerosol vulcanico sul clima nell’eruzione del vulcano Pinatubo del 1991 [17]. Anche se quindi si tratta di imitare in qualche modo quello che già avviene in natura, le eruzioni vulcaniche, l’idea non è poi così innocua.
Negli anni immediatamente successivi al 1793-1794 l’intero continente europeo venne sconvolto da una terribile carestia provocata dall’eruzione del vulcano islandese Laki: le cronache inglesi e irlandesi parlarono di mesi tristi e senza sole; gli effetti furono percepiti fino in Giappone e in Egitto [18]. Furono le piogge acide e il repentino calo delle temperature a scatenare la terribile carestia che poi condusse il popolo francese ormai stremato alle rivolte che culminarono con la Rivoluzione Francese.
Inoltre, altro effetto altrettanto importante, è la deplezione dello strato di ozono [19]. Già tutto questo dovrebbe bastare a rendere l’ipotesi di riprodurre il comportamento dei vulcani una pessima idea.
Ma questo chi studia il clima lo sa già ed è per questo che il gruppo di Harvard vuole esplorare altre vie che non prevedano la SO2, e quindi parlano di testare vapore acqueo, calcite (carbonato di calcio), ossido di alluminio (allumina) e perfino polvere di diamante su piccole aree usando banali palloni sonda con carichi di un chilogrammo. Altri studi analoghi prendono in considerazione anche altri tipi di particolato, come anche ad esempio polveri con qualità fotoforesiche 1 L’effetto prodotto da queste ricerche è quasi nullo anche per l’area interessata dagli esperimenti ma misurabile.
Niente di cui preoccuparsi?
Nel 1783 l’eruzione del vulcano islandese Laki influenzò per quasi un decennio il clima del pianeta.
Di certo non dei test in sé, al di là di qualsiasi risultato essi diano; ho più timore dello scarso acume di chi vede in tutto questo un sinistro disegno di controllo e/o di sterminio della razza umana nascosto dietro questi test. Non è certo un chilo di polvere, per quanto strana essa sia, a doverci preoccupare. La Terra nella sua perenne corsa nello spazio raccoglie ogni giorno tonnellate di schifezze spaziali di ogni tipo [20]. Non mi credete? State qualche giorno senza spazzare sotto il vostro letto e con la finestra aperta. Poi raccogliete la lanuggine e passatela con una calamita; vedrete alcune particelle più o meno piccole, alcune di queste saranno addirittura microscopiche: quello è pulviscolo cosmico, resti di meteore che ogni giorno intersecano la Terra e vengono distrutte nella fase del loro ingresso nell’atmosfera e rimangono sospese nell’aria prima che si posino sotto il vostro letto.
Oppure, se vogliamo rimanere sugli effetti antropogenici, cioè quelli causati dall’uomo, basti pensare all’inquinamento atmosferico delle nostre città: i dati dell’Agenzia Europea dell’Ambiente affermano che i decessi prematuri legati all’inquinamento atmosferico (esposizione a lungo termine al particolato, al biossido di azoto e all’ozono) che si verificano in Europa sono 487600, con il dato italiano molto al di sopra di questa media, con ben oltre 90 mila morti premature ogni anno. Tanto per notare l’entità del disastro ambientale basta salire di quota qualche centinaio di metri e osservare il panorama più in basso verso l’orizzonte. Vedrete una cappa d’aria grigiastra, una caligine mefitica ben più pericolosa per la salute pubblica di qualche test e qualche chilo di polvere sparato intenzionalmente nella stratosfera.
In realtà temo le conseguenze politiche di quei test, che nondimeno appoggio come uomo di scienza. Se quelle teorie si dimostrassero efficaci per ridurre la temperatura del pianeta e innocue per l’ambiente, qualcuno potrebbe pensare che tutto sommato potrebbe non essere una cattiva idea usarle piuttosto che spendere migliaia di miliardi di dollari per abbandonare le energie fossili non rinnovabili. Governi troppo pavidi potrebbero essere spinti a non considerare troppo l’uso delle energie rinnovabili pur di preservare precedenti investimenti nel carbone, petrolio, gas e biomasse in cambio di una spruzzatina qua e là. Senza contare il fatto, come insegna la storia delle eruzioni vulcaniche, una tale operazione per la modifica del clima su scala globale cesserebbe la sua efficacia non appena cessassero le operazioni di dispersione artificiale. Pertanto un rilassamento nelle politiche energetiche a favore delle fonti fossili riproporrebbe, accentuati, gli attuali problemi legati al Global Warming.
Studi di fattibilità
Un Aiurbus Beluga può trasportare carichi di 40 tonnellate per un raggio di 2700 km oppure di 25 per 4600 km.
Una seria analisi dei costi fu svolta nel 2012 coinvolgendo l’Aurora Flight Science Corporation, la School of Engineering and Applied Sciences and Kennedy School dell’Università di Harward e la Tepper School of Business and Department of Engineering and Public Policy dell’Università Carneige Mellon [21]. La cosa sconvolgente è che questo studio pare dimostrare che l’iniezione di SO2 nella troposfera allo scopo di innalzare artificialmente l’albedo del pianeta possa essere una strada teoricamente fattibile e dal costo non poi così elevato: infatti questo afferma che basterebbero da 1 a 5 milioni di tonnellate di materiale particellare all’anno tra i 18 e i 30 chilometri di quota per un costo annuale di soli appena 8-10 miliardi di dollari americani di quell’anno. Altri studi simili furono elaborati durante l’ amministrazione di George Bush senior 2 e nel 2009 e nel 2010. Questi essenzialmente si basano sul particolato di zolfo, che sappiamo essere comunque un agente inquinante, e prendono spunto dai normali voli di linea intercontinentali — quelli cioè che toccano quote di 10000 metri — che potrebbero usare carburante con un più alto tenore di zolfo durante la crociera, mentre nelle fasi di decollo e di atterraggio potrebbero usare il carburante più pulito, grazie al fatto che negli aerei il carburante è comunque già stoccato in diversi compartimenti fra loro indipendenti. Poi sarebbero i venti a disperdere il particolato più in alto nell’atmosfera.
Usare altri tipi di particolato, potrebbe essere ben più complicato e costoso. Mentre nel caso del biossido di zolfo questo è già presente in tracce nel comune carburante di bassa qualità disponibile per gli aerei di linea e quindi meno costoso, per tutti gli altri casi si tratterebbe di voli studiati solo per questo scopo: occorrerebbero tra i 100 e i 200 mila voli di aerei come l’Airbus Beluga per trasportare 5 milioni di tonnellate all’anno di particolato che non sia zolfo a soli 10000 metri di quota.
Per ora termino qui la prima parte, ben immaginando che qualcuno penserà che stia diventando uno scia-chimista anch’io e nel caso potrò farmi delle grasse risate alle sue spalle. Niente paura: presto arriverà anche la seconda parte e allora capirete che non mi sto rincoglionendo! 😛
Cieli sereni!
Agli inizi della sua storia, il Sistema Solare fu teatro di episodi infinitamente più violenti anche del noto meteorite che 65 milioni di anni fa sterminò i due terzi di ogni forma di vita sul nostro pianeta. Lo scontro della Terra primigenia con un corpo grande quanto Marte (Theia) generò —per nostra fortuna — la Luna [22]. Poco dopo, un’altra collisione violenta tra Marte e un corpo grande quasi quanto la Luna fu probabilmente causa della peculiare orografia del Pianeta Rosso, e anche una delle conseguenze dell’Intenso Bombardamento Tardivo suggerito dalle esplorazioni Apollo.
L’altimetria di Marte rispetto a una mediana arbitraria. l’emisfero settentrionale appare come una enorme depressione.
Da quasi mezzo secolo ormai, la topografia di Marte è più o meno altrettanto nota di quella terrestre. Infatti sono del 1965 le prime immagini riprese dall’orbita marziana dal Mariner 4 a cui seguirono con discreto successo altre sonde, rover e satelliti.Tenendo conto di una media delle diverse altezze della superficie del pianeta, vien fuori che l’emisfero settentrionale è decisamente più basso dell’emisfero opposto, tanto che è stato supposto che 3,5 miliardi di anni fa potesse essere un unico vasto ma poco profondo oceano [23].
La dicotomia marziana
Questa è nota come la Dicotomia Marziana, e fin dalla sua scoperta ha tolto il sonno dei tanti planetologi che cercavano di spiegarla. Nel 1984 venne elaborata una teoria che prevedeva un unico grande impatto con un grande corpo celeste delle dimensioni comprese tra i 1500 e i 2700 chilometri (ossia tra le dimensioni di Plutone e quelle della Luna) proprio sull’emisfero settentrionale [24][25] con un angolo compreso fra i 30 e i 60 gradi, circa 4 – 4,5 miliardi di anni fa. Come conseguenza del cataclisma, Marte avrebbe perso anche una buona parte della sua prima atmosfera.
Tesi interessante: ma l’impatto avrebbe dovuto rilasciare abbastanza calore nel mantello superiore da generare una catena di vulcani. Quattro miliardi di anni di erosione potrebbero spiegare la scomparsa dei segni dell’impatto come i bordi e il materiale piroclastico, ma non l’assenza di vulcani, che invece sono abbondanti nell’emisfero australe.
Nel 2014 si affacciò una curiosa variante di quella stessa teoria, senonché l’impatto con il corpo celeste potrebbe essere avvenuto nell’emisfero opposto [26][27].
In questa nuova espressione, l’impatto dette origine a un oceano di magma emisferico che raffreddandosi dette origine ai noti altopiani meridionali e alla conseguente dicotomia marziana. Inoltre esso avrebbe arricchito il nucleo marziano di una notevole quantità di ferro. La conseguente anomalia termica profonda sarebbe all’origine del vulcanismo negli altopiani meridionali e nella fascia equatoriale del pianeta.
Se da un lato l’eccesso di attività vulcanica avrebbe avuto il pregevole effetto di restituire al pianeta una consistente atmosfera, da l’altra un minore gradiente termico tra mantello e nucleo provocato da questa anomalia termica avrebbe finito per raffreddare e far solidificare quest’ultimo, provocando quindi la scomparsa del campo magnetico planetario [28] ed esposto la nuova atmosfera appena rigenerata dall’attività vulcanica alla tremenda erosione del vento solare che di fatto l’ha cancellata.
L’intenso bombardamento tardivo
Tra il 1969 e il 1972 le missioni Apollo portarono sulla Terra molti campioni di suolo lunare. Dall’analisi di questi si scoprì che la Luna, e di conseguenza deve esserlo stato anche il Sistema Solare Interno, fu interessata da un massiccio bombardamento asteroidale tra i 2,5 e i 3,9 miliardi di anni fa [29][30]. Questo cataclisma oggi è conosciuto come Intenso Bombardamento Tardivo. La distribuzione delle dimensioni e la frequenza degli impatti sulla Luna suggeriscono che tale fenomeno sia stato così imponente da interessare anche il pianeta Mercurio. Ci sono diverse teorie che cercano di spiegare l’IBT: dalla migrazione di Giove alla sua attuale orbita causata da una risonanza orbitale con Saturno di 2:1 fino alla formazione tardiva dei due pianeti giganti esterni che avrebbero scombussolato le orbite di oggetti transnettuniani accelerandoli in orbite più eccentriche. Altre teorie chiamano in causa un ipotetico quinto pianeta — che sarebbe poi finito nel Sole — dopo aver portato scompiglio nella fascia di asteroidi principale.
Io credo che la prima sia la migliore: la stragrande maggioranza dei corpi transnettuniani non possiedono significative quantità di elementi pesanti e sono composti perlopiù da ghiaccio d’acqua e metano; sono in sostanza delle comete e nessuna di queste avrebbe potuto arrivare a spegnere il debole nucleo fuso di Marte come in effetti pare sia avvenuto. Inoltre Marte potrebbe essersi formato molto più in là e solo dopo la migrazione (10^5 anni) di un Giove — più piccolo di oggi — attraverso il Sistema Solare [cite]https://arxiv.org/abs/1602.06573[/cite] avrebbe spostato Marte verso orbite più interne e dato origine all’odierna fascia di asteroidi ricca di silicati e ferro; zona da cui più probabilmente poi sarebbe provenuto l’asteroide che ha colpito Marte.
Conclusioni
In un sistema dinamico complesso come un sistema planetario non è possibile immaginare che un singolo evento da qualche sua parte non sia legato a qualcos’altro da qualche altra parte. La formazione del sistema Terra-Luna, la Dicotomia Marziana, l’acqua sulla Terra e tanti altri eventi e situazioni oggi date per scontate, hanno tutte un motivo per essere come le osserviamo. La linea temporale che descrive gli eventi del primo Sistema Solare è piuttosto complessa e merita un articolo tutto per sé, per questo vi dico che la narrazione di questa storia non termina qui.
Il 17 agosto del 2017 è uno spartiacque nella storia dell’astronomia, ma soprattutto della cosmologia. È un momento che potremmo paragonare alla scoperta dell’inconsistenza della teoria dell’Etere Luminifero o quella della fine dell’universo statico sia nel tempo che nello spazio. Ma comunque, è ingiusto adesso pensare che l’aver speso tempo ed energie a studiare e proporre teorie della gravitazione che andassero al di la della Relatività Generale sia stato inutile. In fondo anche l’opera di Einstein appariva inutile visto che già c’era la Teoria di Gravitazione di Newton e che pareva funzionare quasi alla perfezione. Il tempo speso a meditare cose nuove o a vedere cose vecchie con spirito nuovo non è tempo buttato ma il sale della scienza.
E a chi afferma che di scienza si debbano occupare esclusivamente gli accademici, vorrei ricordare Milton Humason, collaboratore di Edwin Hubble e che insieme al celebre astronomo scoprì l’espansione dell’Universo, frequentò la scuola fino a 14 anni; Michael Faraday, uno dei padri dell’elettromagnetismo, era nato poverissimo e divenne garzone di bottega a 13 anni, fino a che a 23 anni non divenne assistente e cameriere di un professore di chimica: Sir Humphry Davy. E potrei continuare all’infinito: Guglielmo Marconi era un autodidatta, proprio come me; Konstantin Ciolkovski, uno dei padri del volo coi razzi, anche lui era un autodidatta.
La scienza non è di nessuno, è di tutta l’umanità e soprattutto, non ha caste.
La prima e indubbiamente più eclatante previsione della Relatività Generale di Einstein fu quella relativa alla deviazione della luce delle stelle in presenza di oggetti dalla massa così enorme da piegare letteralmente lo spazio.
La conferma del fenomeno la fornì nel 1920 l’astronomo inglese Sir Arthur Eddington quando pubblicò i risultati delle sue osservazioni svolte durante l’eclissi totale di Sole del 1919. Qui è la distorsione dello spazio-tempo causata da una grande massa a flettere il percorso di un raggio luminoso. È il principio su cui si basano le lenti gravitazionali che ci consentono di veder le altre galassie dietro alla linea di vista di una galassia più vicina.
L’effetto Shapiro
Ma non di meno, una distorsione dello spazio-tempo causata da una massa ha anche un altro importante, e soprattutto misurabile, effetto: un ritardo temporale, conosciuto come effetto Shapiro [31].
Quando un segnale luminoso (ad esempio un segnale radar) passa vicino ad una massa importante impiega un po ‘più di tempo per colpire il bersaglio e tornare indietro rispetto a quando la suddetta massa non è presente. Tale ritardo di tempo è prodotto dalla distorsione dello spazio che aumenta la lunghezza fisica del percorso. Questo non è l’effetto della dilatazione temporale dovuta al pozzo gravitazionale (redshift gravitazionale) e anche se spesso i due effetti sono confusi fra loro, è proprio un’altra cosa [32].
Una delle prime immagini di Doppler di Venere fatta con un interferometro radar, le antenne Haystack e Westford in tandem, nel 1967. Sono riconoscibili le regioni Alpha e Beta, e la complessità di quest’ultima. Tener conto dell’effetto Shapiro è stato fondamentale per ottenere questo risultato. Credit: Alan EE Rogers.
Quando negli anni ’60 furono esplorati gli altri pianeti come Venere e Mercurio coi radar dalla Terra, fu assai importante tenere conto dell’effetto Shapiro per ottenere le prime immagini del suolo di quei pianeti: il ritardo del segnale radio causato dalla massa del Sole era sì piccolo, appena 200 microsecondi per Venere, ma importante.
Lo stesso discorso vale per ogni altro segnale luminoso che viaggia nell’Universo. Se idealmente depurassimo ogni segnale luminoso dai redshift gravitazionali, i moti intrinseci dovuti dalla sorgente e dall’osservatore e da quello dell’espansione universale, quel che rimane è il ritardo temporale causato dall’effetto Shapiro, che è espressione indiretta delle distorsioni dello spazio causate da tutta la massa cosmologica presente tra la sorgente e l’osservatore. La massa cosmologica in questo caso è intesa essere la somma della massa barionica più il contributo della materia oscura, rilevabile esclusivamente dalla distorsione della metrica spazio-tempo. La certezza che la distorsione dello spazio-tempo sia dovuta a entrambe le due componenti viene dalle analisi del confronto delle radiazioni elettromagnetiche e il flusso di neutrini rilevato nell’occasione della supernova SN1987A [33] e altri studi sulle pulsar millisecondo [cite]https://arxiv.org/abs/1210.1167[/cite].
Ma torniamo per un attimo al magico anno 1915. Fino a quel momento si era pensato alla gravità come una forza che agisce istantaneamente tra due corpi [34]. Se il Sole fosse misteriosamente scomparso dal Sistema Solare, i pianeti avrebbero immediatamente preso a girovagare nello spazio per la tangente, in virtù del principio di conservazione della quantità di moto. Per la Relatività invece, la gravità è concepita come una distorsione dello spazio-tempo: l’orbita di un corpo appare ellittica perché lo spazio in cui esso si muove è curvo. Nel tal caso i pianeti avrebbero continuato a percorrere le loro orbite finché lo spazio-tempo per loro non si fosse disteso: per esempio per la Terra questo accadrebbe dopo soli 500 secondi, per Giove dopo 43 minuti. Questo perché le le distorsioni nella metrica dello spazio, come lo sono anche le onde gravitazionali, si muovono alla velocità della luce [1. La simmetria di Lorentz implica che tutto ciò che non è dotato di massa si propaghi nel vuoto alla velocità della luce e questo vale anche per le onde. Tuttavia quando un mezzo è presente, questa simmetria viene violata spontaneamente e anche le velocità di propagazione possono essere diverse. Pertanto, in virtù di questo principio, nella Relatività Generale ogni alterazione dello spazio-tempo viaggia — nel vuoto — alla massima velocità possibile per un’onda priva di massa: la velocità della luce \(c\). ] e che quindi risentono della presenza di tutto ciò che può alterare lo spazio, ossia di tutta la materia ordinaria e di quella che oggi etichettiamo come materia oscura.
Le teorie MOND
Le teorie MOND sono una classe di teorie che tentano di spiegare la curva di velocità delle galassie assumendo che le Leggi di Newton non siano corrette se interpretate su scala galattica.
Ogni tentativo di conciliare la Relatività Generale con la Meccanica Quantistica è finora sempre fallito. È però apparso evidente fin da subito che una Teoria del Tutto avrebbe richiesto di passare per una riscrittura del concetto di gravità, che per la Relatività Generale è intesa come una distorsione nella metrica spazio-tempo piuttosto che come particella. Negli anni sono state tentate vie come la Teoria delle Stringhe, le Teorie M-Brane, suggerito nuove forze intese come tensori metrici che modificano la geometria dello spazio-tempo su scala cosmologica e dimensioni extra nel tentativo di spiegare certe anomalie che apparivano dai dati raccolti da nuovi e sempre più raffinati strumenti e da nuove scoperte riguardanti concetti come la Materia Oscura [35], l’Inflazione post Big Bang e l’Energia Oscura 1.
Però intanto anche i test finora proposti hanno sempre mostrato che la Relatività Generale non è affatto facile da sostituire. L’unica soluzione possibile pare essere quella in cui il formalismo della Relatività Generale appare come caso speciale in un nuovo schema più fondamentale della Gravità allo stesso modo in cui il formalismo della Gravità di Newton appare all’interno della Relatività Generale.
Le teorie che tentano di spiegare la piattezza delle curve di rotazione delle galassie senza ricorrere a nuove forme di materia esotica sono conosciute come Teorie MOND(MOdified Newtonian Dynamics), dette anche emulatori di materia oscura. Per questa classe di teorie sono le leggi della gravitazione di Newton (e quindi per estensione anche la Relatività Generale) a essere in errore quando si tratta di piccolissime accelerazioni su scala galattica e comunque molto al di sotto di quello che oggi possiamo sperimentare all’interno del Sistema Solare.
La rivoluzione delle onde gravitazionali
Per le Teorie MOND le onde gravitazionali (in viola) percorrerebbero geodetiche molto diverse rispetto alla loro controparte elettromagnetica (in giallo) in quanto l’effetto Shapiro è molto diverso. Credit: Il Poliedrico
Il 17 agosto scorso la scoperta del primo segnale gravitazionale associato a un evento visibile (GRB 170817A), una kilonova 2 fu una scoperta grandiosa. Essa permise di misurare esattamente l’intervallo tra due tipi molto diversi di emissioni dello stesso evento: l’onda gravitazionale e l’impulso gamma scaturiti entrambi dalla coalescenza di una coppia di stelle di neutroni. Il dato fu molto interessante:1,74 secondi tra l’arrivo del treno di onde gravitazionali e il primo impulso elettromagnetico gamma.
Un niente se paragonato alla scala della distanza percorsa, 130 milioni di anni luce. Inoltre la differenza temporale tra i due eventi non ha in sé niente di trascendentale; anzi. Le onde gravitazionali hanno avuto origine pochissimi istanti prima della coalescenza delle due stelle di neutroni, quando cioè i due oggetti stavano cadendo l’uno sull’altro nella loro danza cosmica sempre più vorticosa. L’impulso gamma invece si è generato al contatto, quando cioè i due oggetti sono diventati uno solo. Ecco spiegato il ritardo tra i due impulsi: il GW170817 e il GRB170817A. Questo ci dice che entrambi gli impulsi hanno percorso i 130 milioni di anni luce alla medesima velocità.
Per la Relatività Generale, sia le onde gravitazionali che le elettromagnetiche percorrono le stesse geodetiche, ossia affrontano lo stesso percorso attraverso lo spazio-tempo. Per le teorie MOND invece le geodetiche percorse dai due tipi di onde sarebbero state molto diverse. Questo avverrebbe perché per loro la forza gravitazionale è intesa agire in modo assai diverso, essendo per questa classe di teorie la curvatura di potenziale gravitazionale dovuta esclusivamente dalla materia barionica ordinaria, lasciando tutto il resto alla reinterpretazione della gravitazione. In altre parole in base alla loro interpretazione, non essendo più la gravità una costante, di conseguenza finirebbe per non esserlo neppure il percorso delle onde gravitazionali rispetto alla luce. Pertanto se fossero state in qualche modo vere le basi delle teorie MOND avremmo dovuto registrare l’arrivo delle onde gravitazionali dell’evento GW170817 centinaia di giorni prima dell’evento elettromagnetico GRB170817A (e ovviamente a questo punto anche gli eventi avrebbero avuto nomi diversi).
Con l’aver registrato la sostanziale contemporaneità dell’evento gravitazionale con quello elettromagnetico si ottiene un altro punto fermo a cui ogni altra teoria alternativa o successiva alla Relatività Generale — ad esempio una Teoria del Tutto — deve per forza soggiacere per essere coerente con l’Universo che osserviamo. Di fatto questa osservazione contraddice in pratica ogni teoria che cerca di spiegare gli effetti che oggi attribuiamo alla materia oscura con una modifica delle leggi di gravitazione. Ma non solo. Anche ogni altro tentativo di spiegazione dei fenomeni che oggi osserviamo e i modi con cui tentiamo di spiegare l’Universo e come esso è nato, dovranno tener conto anche di questo importante paletto.
No, una kilonova non è è una nova che si vende al mercato un tanto al chilo come si fa con le aringhe. E neppure è una miniera d’oro come alcuni roboanti titoli delle scorse ore, quelle seguenti l’annuncio della scoperta della prima controparte ottica di una sorgente di onde gravitazionali — anche questo è un termine alquanto impreciso in quanto tutti gli oggetti dotati di una grande massa che si muovono nello spazio in qualche modo lo sono — hanno cercato di sottolineare. È un altro tipo dei tanti eventi violenti dell’Universo, ma solo un migliaio di volte, da qui il nome appunto di kilonova, di una nova comune.
Rappresentazione artistica dei resti di una kilonova. In giallo il nome di alcuni degli elementi prodotti dalla sintesi per cattura neutronica veloce che popolano la nebulosa finale. Tra parentesi il loro numero atomico. Credit: Il Poliedrico
L’Universo è una fonte inesauribile di meraviglie e di cose altrettanto grandiose. Dal pacato vuoto intergalattico alle possenti forze di un buco nero, dal flebile canto dell’atomo di idrogeno al cozzare di galassie in un balletto che dura milioni di anni. E in mezzo a tutto questo ci sono miriadi di fenomeni che ancora ci sono per la gran parte ignoti e che soltanto negli ultimi anni con l’avvento delle tecnologie radio e satellitari abbiamo imparato a vedere.
Ora alla pletora di strumenti che usiamo per scrutare il cosmo se n’è aggiunto un altro: l’interferometria gravitazionale. Per ora sono soltanto tre strumenti, due negli USA, a Hanford, Washington, e a Livingston, Louisiana che formano il complesso interferometrico LIGO, e l’altro è Virgo, a Cascina (PI), frutto di una collaborazione italo-francese (ad appena 83 chilometri da dove sono ora).
Un po’ di storia
Ma partiamo dall’inizio, come piace a me.
I primi evidenti segni che qualcosa ancora mancava al quadro generale dell’Universo, era che nonostante fosse stato compreso come si formassero gli elementi più pesanti dell’idrogeno — quelli che gli astrofisici apostrofano come metalli: carbonio, ossigeno, ferro, uranio, etc. — [36] era comunque difficile comprendere le quantità relative di alcuni elementi più pesanti del ferro che, come ho narrato nello scorso articolo sulle supernove [37], non sono prodotti dalla normale attività di fusione nucleare di una stella ma per cattura neutronica quando questa esplode 1. Doveva esserci quindi qualche altro processo cosmico ancora sconosciuto che ricorresse alla cattura neutronica veloce (r-process) al di fuori delle supernove comuni per giustificarne le quantità osservate.
Intanto si erano scoperti anche i lampi di raggi gamma (Gamma Ray Burst o GRB), i più violenti fenomeni dell’intero Universo, capaci di sterilizzare interi mondi a una distanza di migliaia di anni luce [38].
Si è scoperto che questi eventi, che di solito durano da qualche secondo a qualche minuto mentre la loro energia luminosa decade verso frequenze più basse come raggi X, ultravioletto, visibile, etc., sono di solito associati a eventi di supernova mentre questa decade verso una stella di neutroni o un buco nero. I precursori più probabili per emettere un lampo gamma finale sono le stelle molto massicce come le Wolf-Rayet: \(\eta\) Carinae e WR 104 sono le nostre più vicine (entrambe tra i 7500 e gli 8200 anni luce, per nostra fortuna).
Ma ci sono anche GRB molto più rapidi, dell’ordine di un paio di secondi o meno. Questi sono difficili da spiegare con lo stesso meccanismo delle supernove, eppure sono capaci di rilasciare lo stesso energia sulla scala delle loro galassie ospiti nell’arco di pochissimi secondi. Una plausibile spiegazione a questi fenomeni parossistici arrivò nel 2007 coi lavori di Benjamin P. Abbott del LIGO – Caltech [cite]https://arxiv.org/abs/0709.0766[/cite] che ipotizzò essere generati dalla fusione di due stelle di neutroni o tra una stella di neutroni e un buco nero.
Kilonova
Queste immagini furono scattate dal NASA Hubble Space Telescope il 13 giugno e poi il 3 luglio 2013 e rivelano un nuovo tipo di esplosione stellare prodotta dalla fusione di due oggetti compatti: due stelle di neutroni o una stella di neutroni e un buco nero. Credit: NASA, ESA, N. Tanvir (Università di Leicester) e A. Fruchter, Z. Levay (Space Telescope Science Institute), A. Levan (Università di Warwick)
Una teoria interessante che trovò la prima conferma quando il 3 giugno del 2013 il telescopio per raggi gamma Swift intercettò un evento che durò poco meno di due secondi proveniente da una galassia a 4 miliardi di anni luce, GRB130603B. In seguito, il 13 giugno, l’Hubble Telescope registrò nello stesso posto una sorgente infrarossa in decadimento. L’analisi spettrale della sorgente mostrava una inusuale abbondanza di elementi chimici più pesanti del ferro tipici di un processo di cattura neutronica rapida r-process2 rispetto agli altri spettri usuali di supernova.
Quando due stelle di neutroni finiscono per fondersi parte della loro energia cinetica si disperde sotto forma di increspature dello spazio-tempo, ossia onde gravitazionali allo stesso modo del merging di due buchi neri come già VIGO era riuscito a rilevare in passato e a quelle rilevate col GW170817 [39]. Un’altra parte invece viene assorbita dai due oggetti che sì disintegrano disperdendo così una buona parte della loro massa. È qui, nel materiale espulso che avvengono le reazioni di cattura neutronica: in pratica un immenso guscio di neutroni ancora ad altissima densità e temperatura (\(\rho\) > 3 x1011 gm/cm3 e T > 9×109 K) in cui le reazioni di nucleogenesi fino ad allora inibite dalla possente gravità delle precedenti stelle di neutroni riprendono vigore [cite]https://arxiv.org/abs/1105.2453[/cite].
In una kilonova quindi il processo di nucleogenesi per cattura neutronica rapida pare essere la principale reazione nucleare presente. Tale reazione consente la formazione di nuovi elementi più pesanti del ferro, ed è pertanto una reazione che assorbe energia dal sistema (reazione endotermica), raffreddandolo. Per questo appare debole come flusso elettromagnetico, da un decimo a un centesimo rispetto a una normale supernova; una parte assai importante dell’energia viene assorbita dalla creazione di elementi pesanti attraverso l’unico processo possibile: la cattura nucleare di altri neutroni. Il raffreddamento del materiale eiettato aumenta in modo drammatico l’opacità dell stesso spostando di conseguenza l’emissione radiativa principale verso frequenze sempre più basse piuttosto in fretta. Per questo l’Hubble Telescope non poté che registrare che il 3 luglio 2013, dopo appena un mese dal lampo gamma GRB130603B, l’evento era quasi scomparso anche dalla banda dell’infrarosso.
Il processo-r
Il reazioni di nucleogenesi per cattura neutronica rapida che danno origine a nuclei atomici più pesanti del ferro (u > 55) sono endotermiche, assorbono cioè energia all’ambiente dove avvengono. In una supernova esse sono responsabili della perdita di equilibrio della stella che finisce così per esplodere. Dal momento dell’esplosione, la densità neutronica della stella decresce rapidamente così che queste reazioni cessano abbastanza in fretta. Inoltre i processi di fotodisintegrazione causati dai fotoni più energetici che colpiscono i nuclei più instabili estinguono la produzione di atomi pesanti altrettanto rapidamente.
Nel caso di fusione di due stelle di neutroni invece la densità energetica dei fotoni è alquanto minore mentre la densità dei neutroni liberati nell’evento è molto più grande rispetto a un normale evento di supernova di tipo II (T ≥ 1,2 x 109 K e nn > 1 x 1022 cm-3). Qui processi di cattura neutronica sono molto più importanti e anche il decadimento beta che spinge i nuclei più instabili verso la formazione di atomi più stabili ha più tempo per prodursi prima che intervengano i processi di fotodisintegrazione.
La sottrazione di energia dal sistema è anch’essa molto importante perché pone un limite minimo al di sotto del quale comunque le reazioni di cattura neutronica cessano. Una volta cessata la produzione di nuclidi instabili ricchi di neutroni, è il decadimento radioattivo di questi a dominare la scena della nebulosa creatasi dopo il merging dei due corpi originali.
Conclusioni
L’ultimo evento scoperto, GW170817 è il secondo caso ormai accertato di una kilonova. La rilevazione delle onde gravitazionali prodotte durante l’evento di coalescenza fissa drammaticamente un limite alle masse delle stelle di neutroni coinvolte e questo permette così di studiare più in dettaglio questo genere di fenomeni e le reazioni nucleari che lo governano.
Un altro importante traguardo è stata la stima della differente velocità delle onde gravitazionali rispetto alle onde elettromagnetiche su un percorso di ben 130 milioni di anni luce: 1,7 secondi a vantaggio delle prime. Dal punto di vista cosmologico questo è un grande risultato che spazza via tante teorie che puntavano a modificare la gravità pur di eliminare il problema della materia oscura. Ma questo potrà essere argomento di un’altra storia.
Se l’altro giorno avessi scommesso sulla natura dell’annuncio dell’ESO oggi sarei milionario. Infatti è stato annunciata pubblicamente la scoperta della prima controparte ottica di un evento gravitazionale originato dalla coalescenza di due stelle di neutroni. La contemporanea osservazione dell’onda gravitazionale da parte di LIGO (due antenne, una a Hanford, Washington, e una a Livingston, Louisiana) e di Virgo a Cascina in Toscana, ha permesso di triangolare con un relativamente piccolo margine di errore la zona di cielo da cui è emerso l’evento. Immediatamente si sono attivate le ricerche nello spettro elettromagnetico, dai raggi gamma alle onde radio. E la controparte ottica c’era. Un rapidissimo GRB (Gamma Ray Burst, lampo gamma) è stato osservato e poi giù, nell’ultravioletto e nel visibile, dove gli strumenti dellESO hanno potuto risolverne lo spettro identificandolo come quello di nucleosintesi noto come Processo-r, un processo nato per spiegare le attuali abbondanze degli elementi pesanti presenti nell’Universo che si pensava appartenesse solo alle supernove più grandi, ma che alcuni studiosi ipotizzavano presente anche della fusione di due stelle di neutroni [40][41].
Il resto della storia è lì, nel video qui sopra, narrata da chi ha vissuto quei febbrili momenti.
Oggi nasce una nuova forma di astronomia, che come quella delle onde radio e poi quella dei satelliti per le lunghezze d’onda più brevi, promette di regalarci un sacco di emozioni e di eccitanti scoperte.
Que será, será
Whatever will be, will be
The future’s not ours to see
Que será, será
What will be, will be.
Que será, será
Quel che sarà, sarà;
non ci è concesso conoscere il futuro Que sera sera,
Quel che sarà sarà
No, non è la celebre canzone di Doris Day del film L’uomo che sapeva troppo di Alfred Hitchcock. Mi riferisco invece agli annunci che sia l’ESO (European Southern Observatory) [42] che LIGO-Virgo (LIGO Scientific Collaboration and Virgo Collaboration[43]) terranno in luoghi diversi ma alla stessa identica ora (16 ottobre alle 16:oo CEST).
Come era solito dire un noto politico italiano ormai scomparso “A pensar male sempre si sbaglia ma spesso ci si azzecca“, due conferenze stampa di due istituzioni scientifiche così importanti contemporaneamente fanno sorgere il sospetto che si possa essere di fronte all’annuncio di qualcosa che sia in qualche modo connesso; tanto più che la conferenza VIGO-Lirgo è stata annunciata usando il medesimo fuso orario, quello estivo dell’Europa Centrale, pur tenendosi a Washington D.C. dove saranno le 10 del mattino (10 EDT). Curioso, no?
Però rimane da chiedersi perché allora non fare un annuncio congiunto; non è plausibile che tali due organizzazioni non si parlino come due bimbetti dell’asilo in conflitto che si fanno i dispetti. Non resta allora che credere che le due conferenze stampa siano del tutto scollegate tra loro e che la concomitanza sia dovuta a una cattiva comunicazione tra gli uffici stampa incaricati di organizzare gli eventi.
Non resta quindi che attendere Lunedì prossimo alle 16:00 ora estiva dell’Europa Centrale per sentire gli annunci. Io una mia idea me la sono fatta. Voi?
Possiamo senz’altro dire che questo è l’anno in cui le notizie false (fake news) e la farfugliante battaglia politica contro di esse stanno, per ora, dominando il dibattito.
Trovo quella discussione priva di senso perché senza comprendere il meccanismo che si cela dietro di esse non è possibile curare tale fenomeno, un po’ come combattere un ascesso con un analgesico: si può star bene lì per lì ma l’infezione rimane e si propaga agli altri denti.
Prima di Internet e dei social network c’erano i mitici Bar dello Sport, o le osterie se preferite, dove alcuni avventori, di solito sempre gli stessi, facevano a gara a chi la sparava più grossa o magari si limitavano a raccontare fatti in modo talmente distorto e convincente da stravolgere il significato delle notizie in sé. Ma tutto rimaneva confinato nella sfera di paese e, per il fatto che tutti conoscono tutti, finiva che tali racconta storie venivano bollati per quel che erano e infine erano pochi quelli che continuavano a dar loro credito passando poi per creduloni agli occhi della comunità. Con l’arrivo di Internet e la comunicazione globale diretta tali personaggi non si sono moltiplicati ma hanno acquistato una platea infinitamente più vasta dei soliti avventori di osteria; di conseguenza anche il numero dei boccaloni disposti a dar loro credito è parimenti più ampio mentre il classico meccanismo di autodifesa che funzionava per le piccole comunità su Internet ha perso la sua efficacia.
Poi è la volta delle cancellerie e le segreterie politiche, dove la diramazione di notizie false è prassi piuttosto usata per screditare e denunciare le (presunte) malefatte degli avversari: esempi di questi gesti li si trovano all’inizio della II Guerra Mondiale con l’incidente della stazione radio tedesca nel 1939, o l’altrettanto famoso Incidente del Tonchino che scatenò la Guerra del Vietnam, oppure la ben più recente balla delle fialette di antrace (borotalco) dell’ex Segretario di Stato USA Colin Powell al Consiglio di Sicurezza dell’ONU nel 2003 che portò alla II Guerra in Irak.
Ma non solo: il triste fenomeno delle fake news colpisce anche la scienza. Senza andare troppo lontano nella memoria basta ricordare l’impossibile miracolo promesso dal Metodo di Bella o dallo Stamina di Vannoni che sono costati milioni di euro di sperimentazioni a tutta la comunità italiana, oppure il caso del pittoresco transistor organico del ricercatore tedesco Jan Hendrik Schön che pubblicava un articolo scientifico (falso) mediamente ogni 8 giorni e che rischiò anche di vincere addirittura un Nobel per le sue finte scoperte. Per carità la scienza ha alcuni suoi automatismi che impediscono alle frodi scientifiche e alle fake news di fare danni irreparabili, come l’obbligo di riproducibilità degli esperimenti, la divulgazione dei dati e la revisione tra pari. Ma tutto questo non basta, basta guardare l’attuale dibattito scientifico sul Global Warming o quello appena più vecchio sulla tossicità del fumo del tabacco prima che questa venisse universalmente accettata e che è costata la vita di milioni di persone mentre i dati delle ricerche scientifiche incaricate di valutarne gli effetti venivano alterati o omessi fino alla palese evidenza che qualcosa non tornava.
In verità esistono antidoti alle fake news e le frodi in generale: la conoscenza e la cultura.
Io – parlo per me e le mia povera cultura, ovviamente – per esempio quando sento di apocalittiche catastrofi che stanno per colpire la Terra, come la recente ma periodica bischerata di Nibiru (il Pianeta IX) che starebbe per collidere con la Terra, quella legata al calendario Maya del 2012, o le tante altre scemenze come le scie chimiche degli aerei sorrido, perché so quel che sono: panzane. Ma chi non è dotato delle conoscenze adeguate sul campo preso di mira dalla fandonia — perché questo sono le fake news: bugie create scientemente ad arte — è assai facile da abbindolare. Per questo è importante dare ascolto a chi studia ed conosce quello specifico argomento.
Per questo la Commissione Europea promuove e finanzia ogni anno la Settimana della Scienza e l’evento conclusivo La Notte Europea dei Ricercatori che quest’anno ci sarà il 29 di settembre 2017. Del tema della manifestazione di quest’anno curata da Frascati Scienza ne ho parlato nello scorso articolo, così come l’elenco delle università e enti scientifici che da questa sono coordinate per conto della Commissione Europea.
Conoscere, cercare la verità ovunque si celi, essere culturalmente preparati. È questo quel che serve per riconoscere una fandonia o una frode, e la Notte Europea dei Ricercatori non è certo la cura ma è un assai promettente inizio da non lasciarsi senz’altro sfuggire.
Certi della Vostra partecipazione, all’evento di quest’anno (29 settembre), Frascati Scienza, la Commissione Europea, io ma sopratutto le migliaia di ricercatori che lavorano e studiano per noi ogni giorno dell’anno vi ringraziamo.
Giorni fa avevo delle faccende da sbrigare a Ciampino — per chi non è pratico dico che è vicino a Roma, poco prima di Frascati — ma essendo in netto anticipo, decido di passar a fare visita a un mio caro amico presso l’osservatorio astronomico di Monte Porzio Catone. Non conoscendo esattamente la strada, come ormai tutti siamo abituati a fare ho semplicemente digitato la località di destinazione sul navigatore satellitare dell’auto e mi sono lasciato guidare fino a destinazione.
Ecco, quello è un perfetto esempio, banale quanto volete, di applicazione pratica della ricerca scientifica di base. Quando nel 1905 un brillante e alquanto squattrinato (dovette accettare un noiosissimo lavoro all’Ufficio Brevetti di Berna per mandare avanti la famiglia) scienziato riscrisse le leggi della meccanica celeste attraverso la nota Relatività Ristretta, tutti si chiesero se avesse un senso pratico riformulare i concetti di corpi inerziali e in accelerazione, e stabilire che la velocità della luce è invariante rispetto al sistema di rifermento. Dieci anni dopo lo stesso brillante e un po’squinternato — in senso buono, ovviamente — scienziato si spinse ancora più in là riscrivendo la teoria di gravitazione e postulando il concetto di spazio-tempo. Ancora i benpensanti si chiesero se servisse a qualcosa sapere se la luce veniva deviata da una grande massa o se se il Sole fosse scomparso noi ne avremmo percepito gli effetti istantaneamente o solo dopo otto minuti.
Non c’era, ai loro occhi, alcuna utilità pratica in questo sapere; non come l’empirica termodinamica o nelle — allora ancora nuove — leggi dell’elettromagnetismo che avevano appena regalato all’umanità le radiocomunicazioni. Eppure, se oggi possiamo andare in un posto sconosciuto o mai visitato prima qui sulla Terra, lo dobbiamo alla ricerca di base di quel ragazzotto geniale e testardo, Albert Einstein, che sognava di cavalcare un raggio di luce.
Oppure se volete stare più sul recente, non potremmo stare qui su Internet se a cavallo degli anni settanta un gruppo di ragazzotti un po’ nerd (sfigati) non avesse incominciato a trovarsi e a condividere ognuno le proprie idee ed esperienze su circuiti logici e lampadine progettati per tutt’altro che l’home computing (l’Homebrew Club), gettando così le basi per i personal computer.
Provate per un attimo ad immaginarvi di essere coloro che per primi compresero il concetto di ruota e vedere oggi un’autostrada o di fare il bagno dentro una tinozza come Archimede di Siracusa e vedere poi una immensa portaerei nucleare. Le leggi sul rotolamento dei corpi e l’idrostatica esistevano da prima della loro scoperta ma da quando ci sono diventate note abbiamo trovato miriadi di modi per sfruttarle a nostro vantaggio.
Ogni anno centinaia di eventi hanno luogo simultaneamente in Europa e nei paesi confinanti.
La scienza e la tanto bistrattata ricerca di base sono questo, servono a scoprire e a capire oggi per restituire a tutto il genere umano qualcosa di concreto nel futuro. Lo scopo della prossima Settimana della Scienza in programma dal 23al30 settembre 2017 è proprio questo: far conoscere — e in qualche caso coinvolgere — al pubblico le più recenti conquiste e ricerche europee in ogni campo scientifico.
Sì, europee, perché come ogni anno l’evento finale — promosso e finanziato dalla Commissione Europea nell’ambito del programma europeo Horizon 2020 — è la Notte Europea dei Ricercatori.
Come anticipato l’anno scorso, il titolo della Settimana della Scienza coordinata da Frascati Scienza rimane il medesimo della volta scorsa: Made in Science. Frascati Scienza si occuperà di dirigere gli avvenimenti organizzati dalla Regione Lazio, Comune di Frascati, ASI, CNR, CINECA, CREA, ESA-ESRIN, GARR, INAF, INFN, INGV, ISPRA, ISS, Sapienza Università di Roma, Sardegna Ricerche, Università di Cagliari, Università di Cassino, Università LUMSA di Roma e Palermo, Università di Parma, Università degli Studi di Roma “Tor Vergata”, Università degli Studi Roma Tre, Università di Sassari, Università della Tuscia, Astronomitaly, Associazione Tuscolana di Astronomia, Explora, G.Eco, Ludis, Osservatorio astronomico di Gorga (RM), Fondazione GAL Hassin di Isnello (PA), Sotacarbo.
Ora non vi resta che partecipare … numerosi.
Cieli sereni!