Fantasie metropolitane e fenomeno UFO, introduzione

Da sempre mi sono sentito dire di tutto, chiedere di tutto. Ma mai mi ero sentito domandare: “Sei stato rapito dagli Alieni?”. Anche se la cosa mi ha in quel momento strappato un sorriso divertito, dopo mi ha lasciato l’amaro sapore delle cose non comprese, o forse mal spiegate. Per un attimo ho percepito frustrazione e impotenza, sicuramente la medesima sensazione che prova un maestro nel bocciare un suo allievo perché di fatto sottolinea anche il suo fallimento. Ringrazio colui che mi ha fatto la domanda perché da quella riflessione è nata questa serie di articoli che usciranno in più puntate.

Non esistono domande sciocche, forse ingenue ma mai sciocche. Le risposte invece spesso lo sono.
Risposte su chi siamo, da dove veniamo e su cosa ci aspetta, spesso sono affidate a incompetenti e ciarlatani che si inventano idiozie come antichi astronauti, civiltà antichissime più evolute della nostra il cui sapere è andato perduto e così via, dalle catastrofi planetarie a società occulte che governano clandestinamente il mondo giusto per avere un attimo di notorietà e soldi facili.
Sì soldi, perché è sufficiente presentare un libro dalla copertina accattivante, un titolo roboante che accenna al mistero rivelato e questi si trasformano in best seller.

There are more things in Heaven and Earth than are dreamt of in your philosophy, Horatio.

Ci sono più cose in cielo e in terra di quante la tua filosofia possa sognare, Orazio.

William Shakespeare, Hamlet (1.5.167-8)

L’essere umano è sempre stato attratto dall’idea di voler dare un senso a tutto. In fondo questo desiderio ha permesso all’Uomo di evolversi e di elaborare concetti sempre più astratti fino a darsi le religioni e la scienza. Ma è anche la sua più grande debolezza.
Le prime hanno cercato di dare una significato al cosmo mescolando regole naturali e sociali. Rigidi codici strutturati per spiegare tutto e insieme dettare le vie del comportamento civile.
Un connubio che oggi a molti non appare percorribile e che però poi finiscono per cercare per altre vie. In questo, senza l’opportuno equilibrio, alcuni finiscono per idealizzare la scienza trasformandola suo malgrado in religione. Altri invece, più o meno consapevoli nel disconoscere anche le basi del metodo scientifico, mescolano antiche credenze e tradizioni col modernismo più sfacciato: ecco come nascono i seguaci di molte credenze non proprio scientifiche.
Ed è proprio in questo crogiuolo di misconoscenza verso il metodo scientifico che nascono le idee più bislacche. Io non voglio convincere nessuno a negare per partito preso il fenomeno UFO, non è questo l’intento di questa serie di articoli e neppure il mio scopo. Ma una volta escluse le mistificazioni, e di burloni ce ne sono in giro tanti come tanti sono quelli che cercano il loro breve momento di gloria e denaro, gli errori e gli altri effetti naturali o di manufatti dell’uomo, forse un decimo dell’uno percento ancora sfugge alle spiegazioni più razionali.

It is a capital mistake to theorize before one has data. Insensibly one begins to twist facts to suit theories, instead of theories to suit facts.

È sempre un madornale errore teorizzare a vuoto. Senza accorgersene, si finisce per deformare i fatti per adattarli alle teorie, anziché il contrario.

Arthur Conan Doyle, Sherlock Holmes

Magari è solo questione di tempo per trovare anche per loro una spiegazione convincente senza necessariamente invocare fantastici omini verdi (o Grigi).
Anche il celebre scienziato Carl Sagan suggeriva di studiare attentamente quei casi che sfuggivano all’interpretazione [1], se non altro per comprendere meglio i motivi che spingono le persone a credere al fenomeno UFO.

Nell’antichità c’era chi affermava di aver visto in cielo carri celesti multicolori ai lati del Sole, visto angeli e di udito perfino delle trombe. Oggi sappiamo cosa sono i pareli; abbiamo capito che gli arcobaleni che qualche volta circondano il Sole sono prodotti da aghi di ghiaccio sospesi nell’alta atmosfera anziché essere la strada del carro del Sole e che qualche volta i fenomeni aurorali possono produrre suoni come scoppiettii e brontolii di sottofondo ben udibili [2].
Tutta la scienza si regge su alcuni grandi pilastri filosofici; uno di questi è il Rasoio di Occam: se più fenomeni possono spiegare un evento, quello più semplice tende ad essere quello giusto. Magari qualche volta questo non accade ma spesso è così. Quindi anche qui, parlando del fenomeno UFO è importante ricordarsi di applicare questo sano principio. Limitarsi a chiudere l’argomento con una indifferente scrollata di spalle è a mio avviso altrettanto sbagliato quanto credere aprioristicamente al fenomeno UFO; questo tengo a precisarlo.

Il fenomeno UFO esplose con l’inizio della Guerra Fredda. Coincidenze? Non credo…

UmbyWanKenobi

Un esempio che trovo da sempre curioso: le abductions, ovvero quelli che affermano di essere rapiti dagli alieni. Perché mai una civiltà più evoluta della nostra dovrebbe sprecare così tante risorse economiche per compiere viaggi di milioni di chilometri e rapire una persona a caso e pure di nascosto, magari anche un po’ sempliciotta ed affidare ad essa messaggi di rinnovamento spirituale o scientifico? Non sarebbe più semplice e pratico atterrare sul prato della Casa Bianca (o nella Piazza Rossa a Mosca), presentarsi all’umanità e manifestare così la loro presenza insieme al loro messaggio?

La scoperta di vita extraterrestre o addirittura un contatto con una civiltà aliena è quello che più elettrizzerebbe il mondo scientifico. A confronto le scoperte degli ultimi secoli impallidirebbero di fronte a questa notizia. La susseguente rivoluzione del pensiero umano, la matematica certezza che non siamo soli nell’Universo, sarebbe paragonabile alla scoperta del fuoco o l’invenzione della ruota.
Proprio per questo non può essere lasciata in mano a ciarlatani, visionari e speculatori. E tutto il marasma da questi creato è stato abilmente sfruttato dai militari un po’ in tutto il mondo per nascondere i progetti più segreti.
Un altro esempio? La mitica Area 51. Qui si progettarono negli anni ’50 gli aerei spia U-2, poi, quando uno di essi fu abbattuto dalla contraerea sovietica, si passò a studiare i primi sistemi stealth: un DC-9 sarebbe dovuto apparire grande come un passerotto. La base era talmente segreta che per decenni il governo americano ne negò più volte anche l’esistenza. Anche i progetti militari erano talmente segreti che gli stessi ingegneri erano all’oscuro anche del lavoro dei loro colleghi e i ben pochi documenti scritti erano così segreti che non erano neppure classificati come tali; se uno di questi fosse caduto in mani sbagliate sarebbe apparso così banale da non destare attenzione!

[fancybox url=”https://www.google.it/maps/@37.2376948,-115.8234622,11.15z”][/fancybox]L’Area 51 è lì, da qualche parte …

Così il fenomeno UFO da pittoresco ma interessante elemento divenne la più abile ed efficace azione di copertura militare. Test di sistemi d’arma sperimentali incautamente visti da ignari civili diventarono UFO; la base Area 51, come altre basi in tutto il globo, divenne una fantasticheria piena di cadaveri alieni e retroingegneria di dischi volanti extraterrestri.
La cosa non finì certo lì. Il progetto HAARPS, nato per studiare le interazioni tra le comunicazioni militari a onde corte e la ionosfera — per questo era in Alaska, come gli analoghi impianti sovietici e svedesi — perturbata dalle aurore boreali e le tempeste solari (non credo che a qualcuno piacerebbe sapere che un missile teleguidato potrebbe mancare il bersaglio e colpire per sbaglio un centro abitato per colpa di una tempesta solare), divenne per i ciarlatani e i loro discepoli un’arma per il controllo atmosferico capace di scatenare a comando tempeste, siccità e perfino terremoti dall’altra parte del pianeta.

Bizzarro, vero? quello che più veniva demonizzato — i militari cattivi, capaci di svendere l’intera umanità ai biechi interessi di razze ‘liene — erano proprio quelli che più erano contenti della copertura gratuita che i creduloni di fantasie inventate da ciarlatani in ciabatte (quelli sì che intascavano bei soldi dalle loro ciarle sparate con libri, convegni e apparizioni in TV) fornivano loro.
Alla prossima puntata …

Le responsabilità umane nel riscaldamento globale e i rischi finanziari ad esso collegati.

Negare che periodi ed epoche passate sian stati ancora più caldi o molto più freddi di oggi è stupido ma rinnegare per questo le attuali gravi responsabilità umane nel processo di riscaldamento del pianeta trovo che sia semplicemente criminale. Ritengo che il Riscaldamento Globale sia un problema reale e che vada discusso — almeno per la sua parte antropogenica — molto più seriamente di quanto politici e governi di tutto il mondo facciano o abbiano fatto finora. I vari accordi internazionali sul tema, come anche il tanto osannato ultimo di Parigi, sono soltanto acqua fresca, specie se paragonato all’accordo di Montreal del 1994 che mise al bando totale i clorofluorocarburi (CFC) responsabili della distruzione del vitale scudo di ozono. Questo confronto mostra che se esistesse una reale volontà politica mondiale, anche il Riscaldamento Antropogenico Globale potrebbe essere risolto.

Il ciclo del carbonio atmosferico in sintesi. La riga di centro indica i principali serbatoi naturali di carbonio. In verde sono descritti i principali processi che sottraggono il carbonio nella forma di CO2 dall’atmosfera. In rosso tutti gli altri, che cioè rilasciano carbonio. Credit: Il Poliedrico

La composizione chimica della nostra atmosfera è nota. La percentuale di anidride carbonica (CO2), ormai circa 407 parti per milione, lo è altrettanto. Essa è continuamente monitorata dal NOAA, che ha una sua stazione di rilevamento globale sul Mauna Loa, nelle Isole Hawaii. Perché quel posto così lontano? Semplice, esso è abbastanza lontano da qualsiasi grande emissione di natura antropica che potrebbe falsare il risultato, anche se poi la media locale e stagionale viene studiata principalmente grazie ai satelliti.
Esiste un modo assai semplice per risalire all’origine del carbonio atmosferico. È un metodo ben conosciuto e accurato, usato di solito per stabilire l’età di un qualsiasi artefatto biologico; si chiama Metodo del Carbonio-14.
In natura esistono elementi chimici che possiedono una massa diversa rispetto ad un altro atomo dello stesso elemento; nel qual caso i due diversi atomi, detti isotopi, hanno lo stesso numero di protoni che determina le caratteristiche dell’atomo in sé, chiamato numero atomico, ma un diverso numero di neutroni che ne determina la massa finale. Nello specifico caso del carbonio, esso ha sempre 6 protoni, ma un numero che può variare da 2 a 8 di neutroni. Questi isotopi sono altamente instabili 1, solo il 12C e il 13C sono stabili. L’altro isotopo, il 14C, è prodotto in natura dai raggi cosmici, il cui flusso è abbastanza costante nel tempo 2.
Chiamato anche radiocarbonio, questo isotopo ha un’emivita di 5715 anni. Esso è assorbito come ogni altro atomo di carbonio nel naturale processo biologico, pertanto non c’è differenza tra la proporzione di radiocarbonio presente naturalmente nell’atmosfera e quella presente in un organismo biologico vivente. Quando però quest’ultimo cessa di vivere, cessa anche ogni scambio gassoso e cessa quindi di assorbire il radiocarbonio dall’atmosfera. La differenza tra la percentuale di 14C presente nell’organismo morto, che sia un tizzone di brace, un osso, oppure un coprolito, permette di risalire a quanto tempo è passato da quando tale organismo era vivo 3.

I numeri in gioco

Ora la storia si fa interessante. Quando bruciamo un legno o brucia una intera foresta, la quantità di radiocarbonio nell’atmosfera rimane pressoché invariata; non è trascorso abbastanza tempo per registrare un decadimento isotopico importante. Tanta CO2 era stata sottratta dall’atmosfera dalle piante e tanta è stata restituita all’atmosfera. Il bilancio totale finale è in pareggio. Non dico che questo sia irrilevante, perché comunque — e questo è l’aspetto più pernicioso del rilascio incontrollato di carbonio nell’atmosfera — un incendio impiega ore, se non minuti, a rilasciare tanto carbonio quanto la natura aveva messo anni e decine di anni a sequestrare dall’atmosfera.
Una fonte importante di anidride carbonica nell’atmosfera proviene dai vulcani, circa 200 milioni di tonnellate per anno (circa 55 milioni di tonnellate di carbonio). Spesso — a sproposito — i negazionisti del Global Warming la citano come l’unica fonte importante di carbonio atmosferico capace di alterare il clima. Peccato che anch’essa sia abbastanza costante nel tempo e continuamente monitorizzata. Nelle emissioni di natura geologica del carbonio il radioisotopo 14C è totalmente assente, esso decade del tutto nel giro di circa 50 mila anni, dati i tempi, geologici, del ciclo [3]. L’altra fonte è da cercarsi nella combustione dei combustibili fossili. Anche questa è esclusivamente composta dalla forma stabile del carbonio-12.
Misurando quindi le percentuali isotopiche del carbonio atmosferico è possibile notare come esso provenga per la maggior parte dall’azione antropica. Il risultato è impietoso: ogni anno vengono aggiunti circa 29 miliardi di CO2 all’atmosfera (quasi 8 miliardi di tonnellate di carbonio-12), più di 100 volte di quello prodotto dalla sola azione vulcanica. Questa è la dimostrazione definitiva della responsabilità umana nell’aumento della CO2  atmosferica.

Coralli morti per effetto dell’innalzamento della temperatura e dell’acidità delle acque superficiali a Lizard Island (Australia) sulla Grande Barriera Corallina tra il marzo e il maggio 2016. Prima arriva lo sbiancamento, indice della morte dei minuscoli organismi e poi la fioritura di alghe (a destra) completa l’opera di distruzione. Credit: XL Catlin Seaview Survey

Certo che 29 miliardi messi al confronto coi 700 miliardi di anidride carbonica contenuti naturalmente nell’atmosfera e i circa 750 che partecipano ogni anno al ciclo naturale del carbonio paiono certo ben poca cosa, ma attualmente tutti gli oceani contribuiscono a stoccare appena circa 6 miliardi di CO2 all’anno e il dato in verità è in diminuzione a causa dell’aumento della loro temperatura [cite]10.1038/nature21068[/cite]. La distruzione della Grande Barriera Corallina, l’unica struttura biologica vivente visibile dallo spazio, ne è la prova. Il meccanismo è ovvio: un aumento di temperatura dell’acqua diminuisce allo stesso modo le sue capacità di assorbire la CO2, mentre la comunque maggiore quantità ancora assorbita ne aumenta l’acidità danneggiando irreparabilmente gli organismi più delicati e inibendo ad altri, come i foraminiferi, la capacità di creare strutture di carbonato di calcio, come per esempio i loro gusci, che catturano in modo definitivo una parte importante del carbonio assorbito dagli oceani.
Sulla terraferma il discorso generale non è poi così diverso. È vero, ogni anno circa 11 miliardi di anidride carbonica sono sequestrate dall’atmosfera dalle piante, ma il disboscamento industriale e l’agricoltura intensiva riducono significativamente questa capacità. Inoltre, una temperatura mediamente più alta comporta un aumento del rilascio del carbonio ancora intrappolato nel suolo, principalmente per effetto della decomposizione dei resti organici e per il dilavamento del suolo dalla pioggia resa più acida dall’aumento della CO2 atmosferica.
Il risultato è che almeno il 40%, circa 12 miliardi di tonnellate all’anno, delle 29 prodotte dall’uomo, sono continuamente riversate nell’atmosfera, contribuendo a ridurre le capacità del pianeta di continuare ad assorbirle.
Non sono bruscolini, anche se per alcuni sembrano esserlo. Gli oceani non possono oltre un certo grado assorbire più anidride carbonica dall’atmosfera senza creare danni ambientali gravissimi e l’anossia delle acque più superficiali. È vero, potrebbe aumentare momentaneamente la quantità di alghe verdi-azzurre che potrebbero, ancora momentaneamente, assorbire una parte del carbonio atmosferico,  ma questo andrebbe a discapito di tutta la catena alimentare ittica e umana. In più, Ogni incremento della temperatura degli oceani limita la capacità di questi di sequestrare altra anidride carbonica dall’aria.
In effetti il timore, anche espresso da Stephen Hawking [4] con molta enfasi — lui se lo può permettere, di un effetto domino con conseguenze incontrollabili non è poi così remoto.

Se trascurato, il Global Warming potrebbe essere un disastro economico

[video_lightbox_youtube video_id=”WJ2j0npyJv4&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]

Checché ne dicano i negazionisti — e sono molti di più di quanto si creda — il rapido riscaldamento del pianeta pone due serie minacce legate al sistema finanziario. La prima è legata al  costo dei danni fisici inflitti dal Riscaldamento Globale, un prezzo già alto e che comunque tende ad aumentare coi sempre più frequenti parossismi meteorologici. 

Per esempio, la celebre compagnia assicurativa, i Lloyd di Londra, ha prodotto uno studio che prova a stimare il maggior costo dei premi assicurativi in risposta alle perdite legate al cambiamento climatico, come lo fu in seguito all’uragano Sandy [5]. Un aumento della frequenza e dei costi dei risarcimenti per i danni legati al mutamento climatico, come per le inondazioni, siccità straordinarie e altri fenomeni meteorologici estremi sta già causando miliardi di dollari di perdite per le economie delle nazioni colpite.
Ma non solo, provate a immaginare quanti turisti si recavano a visitare la Grande Barriera Corallina prima del disastro ecologico e la vastità dell’intera filiera economica locale che essa alimentava. Provate a immaginare se tutti i ghiacciai alpini diventassero un ricordo, quale danno sarebbe per le comunità montane che adesso vivono di turismo. E lo stesso discorso varrebbe per le Isole Maldive, gli splendidi atolli polinesiani oppure le nostre meravigliose città costiere, Venezia, Napoli o Genova che rischiano di cedere al mare parte del loro territorio a causa dell’innalzamento delle acque.
I costi assicurativi potrebbero salire così tanto che soltanto poche compagnie potrebbero decidere di coprirle aumentando di molto il costo dei premi mentre altre potrebbero fallire per pagare i risarcimenti dovuti. Intanto le proprietà non assicurate o inassicurabili vedrebbero crollare il loro valore espellendole dal mercato mentre gli investimenti nelle aree a rischio crollerebbero. Lo scenario economico che potrebbe profilarsi col Riscaldamento Globale incontrollato è spaventoso.

Il cambiamento Climatico è uno dei cambiamenti più importanti che [oggi] la società sta affrontando. la […] è una multinazionale che si sta impegnando attivamente nel cercare soluzioni rivolte alla mitigazione e l’adattamento verso il Cambiamento Climatico. Riteniamo che una migliore divulgazione delle informazioni sui rischi e sulle opportunità legate al clima sia di stimolo per i nostri sforzi verso un mondo sostenibile.

La seconda minaccia, più subdola, è rappresentata dagli ancora pesanti investimenti sui combustibili fossili e le tecnologie ad essi collegate. Sulla carta si tratta di investimenti di migliaia di miliardi di dollari, ma essi in fondo dipendono esclusivamente dalla fiducia degli investitori. Ma se questa fiducia dovesse venire meno, la bolla dei subprime del 2007 sembrerà lo scoppio di una miccetta paragonato a una atomica.
Già oggi alcune compagnie finanziarie e le banche nazionali [6][7] si stanno chiedendo se il loro portafoglio sia in grado di sopportare i rischi derivati dal cambiamento climatico e se sia possibile mantenere una certa stabilità finanziaria nel più fosco degli scenari possibili.
Allo scopo di studiare e prevenire le vulnerabilità finanziarie legate al mutamento climatico, nel 2015 il Financial Stability Board diede il via alla Task Force on Climate-related Financial Disclosures. Questa iniziativa ha trovato l’appoggio di grandi banche d’affari come Morgan Stanley e Barclays e di grandi multinazionali come la PepsiCo (quella della Pepsi Cola e della Seven Up) che muovono cifre di migliaia di miliardi di dollari all’anno.

Le grandi contraddizioni della finanza

Anche se apparentemente i rischi legati al mutamento climatico attirano l’attenzione del mondo finanziario globale, sono ancora molte le banche d’affari che sostengono i progetti più estremi di estrazione dei combustibili fossili (carbone, olio da sabbie bituminose e trivellazioni nell’Artico) per una cifra di circa 100 miliardi di dollari all’anno [8].
In fondo il loro mestiere è quello di finanziare i progetti più appetibili in termini di ritorno finanziario e le compagnie petrolifere finora sono ancora quelle che propongono un ritorno quasi sicuro per i prossimi 50 anni.
Ma se questo dovesse cambiare per una mutata volontà politica globale, magari in seguito a un serio incidente ecologico o un grosso scandalo, sarebbe un dramma sia per le compagnie petrolifere che per le banche d’affari che vi hanno investito su. Per questo sia, ovviamente, le compagnie petrolifere che buona parte della finanza globale mirano a mantenere lo status quo.
Mentre la finanza globale sta cercando di trovare il modo di staccarsi da questo intreccio perverso, le compagnie petrolifere cercano in ogni modo di nascondere le loro esposizioni nel timore che si scateni quel panico finanziario che potrebbe annientarle.
Intanto la Shell ha dovuto rinunciare alle trivellazioni artiche e su altri progetti che prevedevano lo sfruttamento di giacimenti bituminosi, mentre la Cina sta mostrando chiari segnali di ripensamento della sua politica energetica  basata sul carbone [9].

Conclusioni

Potrei parlare per intere ore sui tanti aspetti, rischi e prospettive legate al Global Warming. Ripeto che è da stupidi negare le naturali ciclicità — ancora non ben comprese — del clima terrestre, ma lo è altrettanto il negare le gravi responsabilità umane nell’andamento attuale. E se è su questo che abbiamo colpa, allora abbiamo anche il dovere di intervenire. Anche se fosse solo per il più semplice Principio di Precauzione. 
Segnali importanti li abbiamo avuti, curiosamente, dalla crisi economica del 2007. Negli anni immediatamente successivi si è registrato un minore apporto di carbonio nell’atmosfera, per poi riprendere quando quella crisi si è risolta.
Lo sviluppo sempre più importante di fonti energetiche rinnovabili, anche se esse sono ancora un goccia nell’oceano, inizia timidamente a farsi sentire. I prezzi dell’energia da loro prodotta sta spingendo verso il basso anche quella generata dalle fonti tradizionali, buttando fuori mercato le centrali più obsolete ed inquinanti e obbligando al ripensamento dell’intera filiera energetica.
Compagnie automobilistiche come la Volvo stanno studiando come trasferire la loro industria automobilistica verso la trazione elettrica entro 20-30 anni. L’Audi già dal prossimo anno ha deciso di partecipare attivamente nel Campionato Mondiale di Formula E, il campionato riservato alle auto da corsa elettriche. In Formula 1 sono ormai anni che vengono studiati e impiegati i KERS, sistemi di recupero dell’energia cinetica. Queste tecnologie sono impiegate oggi anche nelle normali auto ibride per il recupero dell’energia in frenata che altrimenti andrebbe persa in calore.
Sono piccoli segnali è vero, ma importanti. Anche se piccole e ottuse menti ricordano che ancora per i prossimi anni dovremmo ricorrere ai combustibili fossili per generare l’elettricità necessaria al funzionamento dei nuovi veicoli elettrici, essi non comprendono che è più semplice, immediato e sicuro sequestrare la CO2  [10] da poche unità centralizzate piuttosto che da una miriade di veicoli sparsi in ogni dove, e che questi sarebbero indipendenti dai metodi usati per produrre la loro energia. Energia che potrebbe provenire anche dalle fonti alternative ai combustibili fossili più disparate, riducendo al contempo una importante fonte di inquinamento ambientale vagante.
Città più pulite, meno rumore, meno malattie indotte dall’inquinamento e dalle polveri sottili: questi sarebbero già notevoli risultati collaterali che potremmo già presto raggiungere durante la lotta alla componente antropica del cambiamento climatico.
Alcune case automobilistiche stanno guardando a questo come una grande opportunità, alcune banche di affari e grandi assicurazioni stanno studiando il fenomeno e ne iniziano a comprendere la gravità. Ora resta da convincere i governi, le istituzioni politiche e quelle sindacali, ancora troppo timide e legate al consenso transitorio e le irrazionali paure sociali.

Da Euclide alla vastità del cosmo passando per \(\Lambda\)

Nella prima parte abbiamo visto come una disciplina scientifica, la geometria, che era nata per misurare la terra intesa come territorio, sia anche il più potente strumento in grado di descrivere l’Universo. Menti brillanti come Eratostene di Cirene e Aristarco di Samo, Pitagora ed Euclide e poi Hilbert, Lorentz e Riemann, solo per citare alcuni che ora mi vengono in mente per primi, ci hanno donato gli strumenti migliori per sondare i segreti del cosmo. Ma come tutti gli attrezzi, occorre perizia nell’usarli, e questo è compito dell’intelletto umano, senza il quale, tali strumenti sarebbero inutili.

Adattato e corretto da: Il Poliedrico

Non è affatto facile comprendere le scale cosmiche. Lo scorso esempio dell’isola sperduta ne è un perfetto esempio. Le dimensioni della Terra sono enormi rispetto alla scala umana, mentre quelle del Sistema solare sono quasi al limite della comprensione. Con i mezzi attuali ci vogliono 9 anni per arrivare nei pressi di Plutone e almeno 8 mesi per andare su Marte, il pianeta più vicino. 
Distanze ancora più grandi come quella che ci separa dalla stella più vicina, Proxima Centauri, sono talmente grandi che vengono misurate con lo spazio percorso dalla luce nell’arco di un anno, affinché diventino comprensibili: più di 4 anni luce per arrivare alla stella più vicina al Sole nella Galassia. A sua volta questa è talmente grande che la luce impiega 100 mila anni per attraversarla per intero, ossia un trilione di chilometri, un 1 seguito da 18 zeri (nel sistema metrico internazionale) di chilometri; un numero che fa vacillare la mente al solo immaginarlo.
Eppure questi numeri  sono ancora poca cosa su scala cosmica: dovessimo confrontare le dimensioni della nostra galassia rispetto alla distanza che ci separa dalla galassia più lontana mai osservata, equivarrebbe a paragonare un centesimo di protone alla distanza che separa il Giappone dal Cile, ovvero l’intero Oceano Pacifico! E, come cercherò di spiegare, l’universo osservabile è comunque ancora piccolo rispetto all’intero Universo. Stabilire quanto lo sia non è facile, tutto dipende dalla geometria dello spazio stesso che a sua volta è influenzata dalla quantità di materia/energia scaturita dal Big Bang che è in esso contenuta.

[virtual_slide_box id=”12″]

Geometria non euclidea

La volta scorsa accennai alla somma degli angoli di un triangolo quale misura della forma dell’universo conosciuto, in quel caso l’isola sperduta nell’oceano. Per quanto grandi potessero essere tracciati, in una porzione relativamente piccola di spazio sferico la loro somma non si discosta dai canonici 180° (1π) previsti dalla geometria euclidea. Immaginiamo ora però due navi che vanno verso l’equatore partendo dallo stesso polo ma seguendo meridiani diversi. Entrambe incontreranno l’equatore da una direzione che è perpendicolare ad esso. La somma degli angoli di questo triangolo immaginario non sono i noti 180° ma ben di più. 
La figura animata (passateci il mouse sopra) a fianco illustra ancora meglio il concetto.
Il medesimo discorso vale anche per uno spazio iperbolico ma a condizioni invertite: in questo caso, la somma degli angoli di un triangolo significativamente grande  disegnato su una superficie iperbolica è inferiore ai 180°.  
Tutto questo preambolo ci suggerisce quale sia il percorso da seguire per comprendere la geometria e farsi magari anche una idea delle reali dimensioni dell’Universo, come vedremo più avanti.

La topologia dell’Universo

La geometria locale dell’universo è determinata dalla sua densità. media come indicato nell’articolo. Dall’alto in basso: un universo è sferico se il rapporto di densità media supera il valore critico 1 (Ω> 1, ); in questo caso la curvatura è positiva (κ >0) e si ha il suo successivo collasso (Big Crunch); un universo iperbolico nel caso di un rapporto di densità media inferiore a 1 (Ω <1) e curvatura negativa (< 0) quindi destinato all’espansione perpetua (Big Rip); e un universo piatto possiede esattamente il rapporto di densità critico (Ω = 1, κ=0). L’universo, a differenza dei diagrammi, è tridimensionale.

Come insegna la Relatività Generale, la geometria dell’Universo è condizionata da quanta materia/energia (\(\rho\)) emerse col Big Bang [11]. Perché si abbia un universo euclideo, cioè piatto, occorre che col Big Bang si sia prodotta una certa quantità di materia/energia e che quindi questo abbia una certa densità critica (\(\rho_{c}\)), Una densità più elevata di questa spingerebbe l’universo verso un nuovo collasso, il Big Crunch, mentre al contrario, se fosse poca, l’espansione avverrà per sempre fino alla sua disgregazione ultima.
Il rapporto tra queste due grandezze dice di quanto si discosta l’Universo reale da quello ideale: $$ \Omega\ =\ \frac{\rho}{\rho_{c}}$$
Come ho dimostrato nell’altro articolo è possibile calcolare la densità critica per il nostro Universo \(\rho_c\) direttamente dalla Costante di Hubble \(H_0\).
\(\rho_c\) ci indica quanta materia ed energia dovrebbero esserci nell’Universo affinché questo sia euclideo. Ma tralasciando per un attimo l’apporto della densità energetica associata all’energia del vuoto \(\Lambda\) (l’energia oscura),  vien fuori che nell’Universo ci sono troppo poche materia ed energia, per comodità di linguaggio indicate come materia (materia ordinaria e materia oscura) e materia relativistica (i neutrini e i fotoni) [cite]https://arxiv.org/abs/1303.5076[/cite].

$$ \frac{\rho}{\rho_c}\ =\ \Omega\ =\ \Omega_{m}\ +\  \Omega_{rel}\ +\ \Omega_{\Lambda}$$

  • \(\Omega_{m}\) è tutta la massa ordinaria insieme alla materia oscura \(\left(\frac{\rho_{m}}{\rho_{{m}_{crit}}}\right)\)
  • \(\Omega_{rel}\) indica i quanti di energia (fotoni) e i neutrini \(\left(\frac{\rho_{rel}}{\rho_{{rel}_{crit}}}\right)\)
  •  \(\Omega_{\Lambda}\) rappresenta il rapporto di densità dell’energia  del vuoto \(\left(\frac{\rho_{\Lambda}}{\rho_{{\Lambda}_{crit}}}\right)\)

I dati forniti dal satellite ESA Planck indicano che le quantità di materia, ordinaria e oscura, e l’energia sono troppo poche — circa il 30% — del valore necessario a produrre un universo euclideo; eppure gli stessi dati indicano che l’interno del nostro orizzonte, fin dove cioè è per noi possibile vedere, 13.8 miliardi di anni luce, l’Universo appare euclideo, piatto.
Dovremmo aspettarci un Universo aperto, ma invece non lo è, esattamente come la superficie del mare che circonda la nostra isola nel vasto oceano ci appare piatta.
In conclusione il nostro orizzonte è soltanto una minuscola porzione di un universo molto più vasto che metricamente si espande per effetto del restante 70%, \(\Omega_{\Lambda}\), la densità energetica del vuoto che alimenta la sua espansione e che lo fa apparire sostanzialmente piatto nella nostra scala.

La scala dell’Universo

Quando si tenta di dare una scala all’Universo spesso ci si dimentica che, essendo la velocità della luce finita e assoluta, quando si scrutano gli oggetti lontani si vedono come erano al tempo della luce da loro emessa o riflessa. Per esempio, quando si osserva Marte, lo si vede non come è ora ma come era quasi cinque minuti fa.  E se idealmente dovessimo sparare con una pistola contro di esso, prendere accuratamente la mira non servirebbe, perché nel tempo che impiegherebbe il proiettile a raggiungerlo, il pianeta si è spostato lungo la sua orbita.
La stessa cosa avviene per tutto il resto: M31, la galassia di Andromeda, che è anche l’unica che ci viene incontro, la vediamo come era 2,5 milioni di anni fa, quando ancora dell’uomo non c’era ancora traccia, ma intanto questa nel frattempo si è avvicinata a noi di quasi 9 milioni di miliardi di chilometri, un numero che è ancora comunque un’inezia su scala cosmica.

Rappresentazione artista del’aspetto reale dell’orizzonte visibile dell’Universo. Esso è solo una minuscola frazione di un intero molto più grande. Credit: Pablo Carlos Budassi

Quando noi guardiamo nei recessi dell’Universo visibile vediamo galassie a noi lontanissime nello spazio ma anche nel tempo. Osservare la galassia più lontana significa vederla anche com’era 13 miliardi di anni fa e in tutto questo tempo le dimensioni dell’Universo sono cambiate. 
Un altro aspetto da non sottovalutare è che l’espansione metrica dell’Universo sta anche accelerando. Questo significa che per un calcolo più accurato occorre tenere d’occhio anche questo aspetto, e non solo. Durante la sua esistenza, l’Universo ha attraversato epoche in cui l’energia, la materia oscura e poi la materia barionica hanno dominato sulle altre, e i loro effetti sull’espansione dell’Universo sono stati diversi [cite]https://arxiv.org/abs/0803.0982[/cite].
A questo punto diventa chiaro che non è possibile fare riferimento alle normali coordinate spaziotemporali come siamo abituati a fare normalmente, ma occorre pensare a sistemi che siano invarianti in un certo istante di tempo cosmologico. A parole sembra difficile ma in pratica è semplicemente un modo per descrivere come potrebbe apparire l’universo in un istante particolare, come scattare una foto istantanea della scena. Questo è il concetto che è alla base delle coordinate comoventi, un sistema di coordinate dove l’espansione metrica dello spazio e lo scorrere del tempo sono ininfluenti 1.
Non sto a ripetere tutti i lunghi passaggi matematici necessari a calcolare le dimensioni attuali dell’Universo. Esempi di questi calcoli sono qui riportati in fondo all’articolo [cite source=’doi’]10.4006/0836-1398-25.1.112[/cite] [12] [cite]10.1088/0067-0049/192/2/18[/cite] [cite]https://arxiv.org/abs/astro-ph/9905116[/cite]. Chi è seriamente interessato a questo studio, qui trova molto materiale interessante.

Conclusioni

In conclusione noi possiamo vedere soltanto una minuscola parte di un universo molto più grande.
Per effetto dell’espansione metrica dello spazio, al momento in cui scrivo l’orizzonte a noi visibile, chiamato anche raggio o spazio di Hubble 2 che è di 13.8 miliardi di anni luce, ma le più lontane galassie che ancora osserviamo sono già a 46 miliardi di anni luce di distanza da noi ( orizzonte cosmologico attuale espresso come distanza comovente) e la loro luce che ora, nel tempo a noi attuale che potremmo chiamare anche momento cosmologico, emettono non ci raggiungerà mai. 
Il grado di confidenza con cui vengono misurati gli angoli all’interno del nostro orizzonte cosmologico ci permettono di stimare l’ampiezza della curvatura (\(\Omega_{\kappa}\)) dell’Universo: per le rilevazioni del satellite Planck [cite]https://arxiv.org/abs/1303.5076[/cite] \(\Omega_{\kappa}\) vale tra -0.001 e -0,0005: come dicevo, un valore molto piccolo, praticamente impercettibile anche per la nostra scala cosmologica.
Basandoci però su questi dati vien fuori che il raggio dell’intero nostro Universo potrebbe essere almeno 88 volte ancora più grande della lunghezza di Hubble, 1214 miliardi di anni luce. Altre stime spingono fino a 230 e a 400 volte il raggio visibile, solo futuri dati ancora più precisi potranno dirci quanto e quali di queste si avvicinano al vero.

Euclide, Pitagora, Riemann e tantissimi altri grandi pensatori e scienziati ci hanno donato la capacità di poter dare forma e dimensioni, entro un certo grado di libertà ovviamente, a ciò che non possiamo vedere, esattamente come Eratostene di Cirene poté dare forma e dimensioni alla Terra senza poterla mai né vedere o misurare direttamente. Questa è la più grande conquista che il genere umano potrà mai ottenere: la capacità di pensare.

Eratostene e la vastità del cosmo

Tra le cose più straordinarie e difficili da spiegare sono le dimensioni reali dell’Universo. In effetti la stima reale è molto difficile ma non impossibile. E non è quello che comunemente si è portati a credere. Anche stavolta partiamo da lontano, dall’inizio.

Esperimento di Eratostene

Credit: Il Poliedrico

Immaginate di essere nati e cresciuti su un’isola sperduta. Dal punto più in alto di quest’isola vedreste solo mare in tutte le direzioni, fino all’orizzonte; anche da lassù non notereste la curvatura del pianeta e, per quanto vi sforziate a disegnare triangoli sempre più grandi, la somma dei loro angoli continuerebbe a restituirvi 180 gradi (questo è fondamentale per la continuazione del discorso). Potreste facilmente arrivare alla conclusione che il mondo sia tutto lì e piatto, e in effetti tutto l’universo osservabile per voi sarebbe quello.
In effetti l’idea della Terra Piatta, che oggi ci fa sorridere, ebbe origine proprio così, la mancanza di osservazioni dirette della sfericità del globo all’inizio fece credere proprio questo: anche se un osservatore fosse salito sul monte più alto non avrebbe avuto modo di capire che la Terra è così vasta rispetto alla scala umana che è impossibile percepire ad occhio la sua curvatura.

Ma nel II secolo avanti Cristo tutto cambiò. L’espansione della cultura greca era all’apice e così anche la sua scienza. Eratostene di Cirene, astronomo e filosofo vissuto proprio in quel periodo, fece un paio di importanti osservazioni.

Gli astri sono sfere

img_8719

Eclissi di Luna del 15 giugno 2011.La Luna sta oltrepassando l’ombra della Terra ed è evidente la rotondità della penombra.Una Terra piatta non avrebbe potuto generare una simile ombra.
Image credit: Umberto Genovese.

Durante le eclissi di Luna l’ombra proiettata dalla Terra sulla Luna è rotonda; la Luna stessa e il Sole lo appaiono. Anche le sfere da qualsiasi angolo si guardino sembrano dei circoli perfetti. Quindi anche la Luna, e il Sole e per estensione la Terra devono esserlo, altrimenti questi astri dovrebbero apparire ovoidali per la maggior parte dell’anno.
Questa importante osservazione potrebbe essere già stata fatta anche in precedenza da altri osservatori, ma è la chiave per capire meglio il pensiero dello scienziato.
Eratostene sapeva che la Terra è una sfera.

Il pozzo e l’obelisco

Al solstizio d’estate la luce del Sole nella città di Syene, l’odierna Assuan, non proietta ombre: la luce solare raggiunge direttamente il fondo dei pozzi e delle cisterne; non è così invece ad Alessandria d’Egitto, circa 800 chilometri più a nord.
La realtà è però appena un po’ più complessa; Assuan non è proprio sul Tropico del Cancro e Alessandria d’Egitto non è esattamente sullo suo stesso meridiano, ma in fin dei conti l’importante è la validità del ragionamento di Eratostene.

Partendo dal rapporto che esiste tra l’ombra proiettata dagli edifici e la loro altezza è possibile ricavare l’angolo di incidenza della luce del Sole. Misurando quest’angolo nel giorno del solstizio ad Alessandria e considerando perpendicolare il Sole ad Assuan il medesimo giorno, Eratostene elaborò la sua idea. Poi, basandosi sui rapporti dei mensores regii — i cartografi reali che ogni anno stilavano le mappe nei regni ellenistici per fini fiscali — provò a stimare le dimensioni del Globo.
Il concetto è abbondantemente spiegato dalla figura qui sopra: l’angolo incidente prodotta dall’ombra è uguale all’angolo del settore circolare avente origine dal centro della sfera, in questo caso la Terra. Essendo l’angolo una parte dell’intero, 360°, allora la stessa distanza tra le due città moltiplicata per il rapporto precedente restituisce le dimensioni del pianeta.
Eratostene stimò che l’ombra proiettata generasse un’angolo grande un cinquantesimo di angolo giro, 7,2° 1 e che la distanza tra le due città fosse di 5000 stadi egizi. In conclusione stimò che la Terra avesse 250 000 stadi di circonferenza, ossia 39 375 chilometri; soltanto 700 chilometri in meno di quanto fosse in realtà 2, 40 075 km.

La scala cosmica

Stimando la circonferenza della Terra, Eratostene di conseguenza ne calcolò ovviamente anche il raggio. Questo spinse l’astronomo ellenista anche a cimentarsi nel misurare le dimensioni della Luna e della sua orbita. 

Nel 270 a.C. un altro astronomo greco, Aristarco di Samo, aveva provato a misurare l’orbita lunare stabilendo che in una eclissi la Luna impiegasse circa 3 ore per attraversare il cono d’ombra della Terra. Ipotizzando che l’ombra terrestre fosse uguale per dimensioni alla Terra e infinita nella sua proiezione, il prodotto in ore fra un’orbita completa e il transito nella zona d’ombra indica la distanza, in diametri terrestri, tra la Terra e la Luna: $$\frac{30 \times 24}{3} \ = \ 720 \ / \ 3 \ = \ 240$$
Da questo calcolo Aristarco stabilì che l’orbita lunare (all’epoca si parlava di sfere celesti) avesse una circonferenza pari a 240 volte il diametro terrestre.In realtà la lunghezza dell’orbita lunare è di 2 413 402 km, mentre il diametro terrestre è di 12 742 km. Un rapido calcolo ci indica che in realtà son solo 189.4 volte il diametro della Terra. Aristarco peccò mettendo la sfera della Luna 8 diametri terrestri più in là del dovuto.
Oggi sappiamo che la durata di ogni eclissi varia dalla posizione orbitale in cui la Luna intercetta l’ombra della Terra — che non è affatto un cilindro ma un cono — e che quasi sicuramente l’astronomo greco confuse il mese sinodico (il tempo che impiega la Luna a raggiungere la stessa posizione rispetto al Sole, ad esempio due noviluni, circa 29,53  giorni) col mese siderale (il tempo che la Luna impiega per percorrere un’orbita completa attorno alla Terra, circa 27,32 giorni); a questo uniamoci che ancora non esistevano mezzi efficaci per misurare il tempo ed ecco spiegato perché il metodo di Aristarco, corretto nel ragionamento, dette risultati che oggi sappiamo errati.

Questa volta però Eratostene usò una stima assai grossolana del disco lunare, derivata forse da una mala interpretazione dei precedenti calcoli di Aristarco. Assunse che il disco lunare fosse grande 2 gradi, quando in realtà questo è molto più piccolo, circa 32 primi d’arco, falsando così di quasi quattro volte tutta l’operazione di calcolo. Questo lo spinse a credere che l’orbita lunare fosse solo 180 volte il diametro del satellite. Al pari di Aristarco anche Eratostene immaginò che l’ombra della Terra fosse un cilindro i cui vertici superiori sono rivolti verso l’infinito, e stimò dal transito umbrale durante una eclissi che questa fosse tre volte più grande della Luna. Comunque in sintesi questi furono i risultati di Eratostene:


[table “83” not found /]

Se egli avesse invece usato la dimensione angolare corretta si sarebbe avvicinato molto di più al dato reale: 2 861 804.82 chilometri per un raggio orbitale di 455 470 km, solo 70 mila chilometri di scarto contro i 100 mila del metodo di Aristarco. Questo significa che anche errare un dato, anche il più banale come in questo caso, spesso può vanificare il più buono dei propositi 3.

Questi sono solo un paio di esempi di come l’uomo avesse da sempre cercato di dare una misura  al mondo che lo circonda per poi cercare di carpirne i segreti. I due scienziati ellenici non avevano orologi atomici, laser e riflettori sulla Luna, neppure il cannocchiale di Galileo o compreso l’isocronismo dei pendoli. Eppure usando lo spirito di osservazione e l’intelletto cercarono, e quasi ci riuscirono, a misurare la Terra e quanto fosse distante la Luna.
Piccoli passi che però ci avvicinano alla prossima domanda: ma quanto è grande l’Universo?  

R.I.P. Giovanni Bignami

Margerita Hack, Franco Pacini, e altri di cui ora mi sfugge il nome ci hanno lasciate negli scorsi anni. Ora ci lascia anche Giovanni Bignami, le cui apparizioni in tv, i libri e i sui interventi sulle diverse testate nazionali erano da me sempre seguite con grande attenzione.

salimmo sù, el primo e io secondo, tanto ch’i’ vidi de le cose belle che porta ‘l ciel, per un pertugio tondo. E quindi uscimmo a riveder le stelle. (Dante Alighieri)

http://www.asi.it/it/news/ciao-nanni

Le grandezze fisiche dei buchi neri

La radiazione di Hawking

Credit: Il Poliedrico.

Come ho cercato di spiegare nelle puntate scorse dedicate ai buchi neri [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite], questi curiosi oggetti hanno diverse peculiarità uniche definibili solo matematicamente.  
Sulla base della convinzione — corretta — che niente può viaggiare più veloce della luce si era supposto quindi che nulla potesse sfuggire da un buco nero. Tecnicamente è ancora corretto pensare questo, ma nel 1974 il cosmologo Stephen Hawking dimostrò che in realtà i buchi neri emettono una radiazione termica di corpo nero diversa da zero. Il ragionamento che è alla base di questa scoperta è che lo spazio non è mai esattamente vuoto ma ribolle di energia che si manifesta con la produzione spontanea di coppie di particelle e antiparticelle virtuali, ovvero che la loro esistenza è limitata dal Principio di Indeterminazione di Heisenberg [cite]https://ilpoliedrico.com/2016/07/zenone-olbers-lenergia-oscura-terza-parte.html[/cite].
Quando queste fluttuazioni del vuoto si manifestano in prossimità dell’orizzonte degli eventi di un buco nero può capitare che una coppia di particelle virtuali finisca oltre l’orizzonte (A nella figura); in tal caso l’equilibrio energetico complessivo del’universo e la massa/energia del buco nero non variano, come impone il Principio della Conservazione della massa/energia. Lo stesso ovviamente accade anche per le particelle virtuali che si annichiliscono spontaneamente nello spazio normale (scenario B nella figura). Ma può capitare che soltanto una di queste finisca oltre l’orizzonte degli eventi (vedi evento C);  questo scenario potrebbe far da principio supporre che esso violi il postulato precedente in quanto la particella che riesce a non finire oltre l’orizzonte degli eventi diviene una particella reale, ma in realtà non è così. La particella che cade nel buco nero è l’antiparticella di quella che sfugge, ossia possiede alcuni numeri quantici opposti rispetto ad essa. Questo non viola il Principio di Conservazione della massa/energia perché il buco nero acquista una particella opposta al resto dell’universo e la somma totale dell’energia rimane invariata. Ma se adesso nell’universo c’è la massa/energia di una particella in più allora significa che il processo iniziale sottrae la medesima quantità di massa/energia al buco nero. Per un ideale osservatore lontano la nuova particella appare provenire dal buco nero, ma in realtà essa ha origine nello spazio normale appena oltre l’orizzonte degli eventi.

[fancybox url=”https://ilpoliedrico.com/le-grandezze-fisiche-dei-buchi-neri” ][/fancybox]Cliccando sull’immagine qui sopra vi si aprirà una finestra su cui potete sbizzarrirvi a studiare alcune delle bizzarre  proprietà matematiche dei buchi neri.

Questa intuizione di Stephen Hawking, che ricordo ebbe origine anche dai lavori di due scienziati sovietici, Yakov Zeldovich e Alexei Starobinsky, che fin dagli inizi degli anni 70 del secolo scorso avevano ipotizzato la generazione di particelle attorno ai buchi neri rotanti (1973/74), dimostra che i buchi neri in effetti possano perdere massa tramite la radiazione che porta, appunto, il suo nome.
Quindi, in un certo senso i buchi neri non sono poi così neri.  Il lavoro di Hawking ha spinto altri cosmologi a studiare più in dettaglio i buchi neri fino a postulare le loro leggi termodinamiche [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-la-termodinamica.html[/cite], il noto Principio Olografico e altre bizzarre proprietà che in queste pagine posso solo elencare solo parzialmente. 

 Giocando con i calcoli

 Giostrando un po’ coi diversi parametri nella pagina che ho creato (è presente anche nel menù a discesa sotto la voce “Science”) si nota come i buchi neri siano ancora più strani di quel che si pensi.
Ad esempio, la temperatura di un buco nero, conseguenza della Radiazione di Hawking, è inversamente proporzionale alla sua massa ossia un buco nero piccolo irradia di più di uno di massa più grande.
L’attuale fondo di radiazione cosmica ha una temperatura di 2.72 kelvin; perché un buco nero sia termicamente rilevabile dovrebbe poter emettere a una temperatura appena superiore. Ma i numeri sono impietosi: un siffatto buco nero sarebbe grande appena 67μm, circa quanto lo spessore di un capello umano, e quindi — almeno con gli strumenti attuali — impossibile da rilevare direttamente.  
Un buco nero capace di emettere alla stessa temperatura del Sole, ovvero 5778 kelvin, sarebbe grande appena 30 nanometri, quanto cioè la giunzione di un transistor in un processore di qualche anno fa. Avrebbe ancora una vita molto lunga prima di evaporare, circa 2,5 x 1034 anni, comunque moltissime volte di più dell’età attuale dell’Universo.
Magari una civiltà avanzatissima potrebbe essere in grado di imbrigliare un micro buco nero ed avere così una fonte virtualmente infinita di energia.

Non voglio levarvi il divertimento di provare a fare nuove speculazioni con le cifre che si possono ricavare dalla tabella. Anzi vi invito a farlo e poi a condividerle nei commenti. 
Cieli sereni

Analfabetismo funzionale e senso critico

Qualcuno una volta disse che la scienza non può essere democratica ma si sbagliava. La storia invece dimostra che l’evoluzione dello spirito umano e quello scientifico sono indissolubilmente legati tra loro e il loro grado di condivisione e diffusione nella società.

Il 22 febbraio scorso, una conferenza stampa organizzata dalla NASA illustrava la scoperta di quattro pianeti in orbita a una debole stellina lontana soli 39 anni luce, un tiro di sasso su scala cosmica. Per chi segue ormai da anni la nuova frontiera dell’esoplanetologia sa che notizie abbastanza simili sono ormai quasi la quotidianità. Grazie agli strumenti di ultima generazione e l’affinarsi delle tecniche di indagine negli ultimi vent’anni sono stati confermati (dal 6 ottobre 1995, il primo esopianeta riconosciuto, 51 Pegasi-b) ben 3609 — al momento in cui scrivo — pianeti per 2703 sistemi planetari di cui ben 610 di questi sono sistemi con più di un pianeta riconosciuto [13]; una media di un nuovo pianeta ogni due giorni e poco più!
Coloro che hanno sin qui seguito questo blog, senz’altro hanno avuto modo di apprendere come da una debolissima curva di luce sia possibile ricavare tantissime informazioni, non certo assolute come taluni credono — ci sono tante variabili in gioco su cui si gioca tutto, come la distanza assoluta e il grado di estinzione della luce della stella per effetto del mezzo interstellare — ma comunque ragionevolmente accettabili quel tanto che basta per produrre stime all’interno di un certo margine di tolleranza.

[fancybox url=”https://www.youtube.com/watch?v=iITe3pIwfIE” caption=”Il lancio e l’atterraggio verticale del Falcon9 dopo aver inviato la capsula Dragon con i rifornimenti alla Stazione Spaziale Internazionale.”][/fancybox]

Tutti i video spettacolari, le immagini e le slide che si sono viste in quei giorni, ma anche le altrettanto meravigliose conquiste scientifiche e tecnologiche come i razzi recuperabili Falcon9 che possiamo vedere all’opera qui accanto, sono il frutto dell’ingegno umano incarnato in migliaia di anonimi scienziati e ricercatori di tutto il mondo che operano per il benessere di tutta l’umanità.
Questo benessere è tangibile sotto quasi ogni cosa che usiamo ogni giorno, i telefoni cellulari non sarebbero così piccoli e potenti senza lo sviluppo delle tecnologie di miniaturizzazione sviluppate per le missioni spaziali; Internet nacque per esigenze di comunicazione militare e scientifica, furono gli scienziati del CERN di Ginevra che inventarono il WEB, lo stesso mezzo spesso usato per sproloquiare bischerate sulla perniciosità della ricerca scientifica e l’inutilità di essa.

Avrebbero dovuto intitolare questo virgolettato « L’Idiozia, l’apoteosi del qualunquismo »

La cosa più triste è che ormai ogni giorno tra gli innumerevoli detrattori della ricerca scientifica scopro politici, giornalisti e opinionisti senza distinzione di censo, cultura o religione. Tutte persone invece il cui compito è proprio quello di guidare le coscienze 1.
A questo punto, viene da chiedersi perché questo accanimento antiscientifico che parte dalla negazione dei fatti, come ad esempio la negazione dello sbarco sulla Luna, fino al rifiuto delle più sicure tecniche di profilassi come le vaccinazioni.
Non esiste una risposta univoca a tale domanda e nemmeno motivi che possano giustificare questa linea di pensiero. Eppure a leggere i commenti di qualche prezzolato opinionista che criticava – credo il giorno dopo – la meravigliosa scoperta di quel piccolo e affollato sistema planetario sembra che esista un cortocircuito tra la scienza e quello che la gente percepisce.
Anche a costo di apparire riduttivo, scorgo che in questo mondo — vedi per es. Internet — in cui la densità delle informazioni mediamente disponibili su un qualsiasi argomento è la più alta mai avuta in tutta la storia umana, al comune cittadino quello che paradossalmente manca è proprio la capacità di intelligere tali informazioni.
Un esempio — stupido quanto volete — che mi viene ora in mente è che fa notizia una batteria di un laptop o di uno smartphone quando esplode, ma nonostante questo il mercato pretende dispositivi sempre più piccoli, economici e veloci. Dietro a questi incidenti ci sono inevitabili processi fisici e i desiderata dei consumatori che cozzano con quegli accorgimenti necessari che potrebbero evitare questi problemi, come batterie più voluminose e involucri più pesanti. Pochi però si rendono conto della mole di ricerca necessaria per ottenere dispositivi di accumulo di energia ancora più piccoli e meno rischiosi mentre tutti pretendono di goderne i frutti.


Penso che i ‘lieni siano idioti.
Viaggiare per anni luce per venire a fare cerchi nel grano sulla Terra è come se volassi in Australia a suonare i campanelli e poi tornassi indietro per non farmi scoprire.

Il problema del discernimento non inizia e non si ferma certo qui. A monte c’è anche la tremenda analfabetizzazione di ritorno, un deprimente effetto collaterale che credo sia dovuto in buona parte ad un pigro metodo scolastico dove viene preferita la mnemonica alla spiegazione, l’indottrinamento piuttosto che la promozione dello spirito critico. Penso che un sistema scolastico sostanzialmente incapace di  sostenere una qualche forma di dibattito e confronto costruttivo tra insegnanti e allievi, è in tutta onestà incapace di formare individui pienamente consapevoli. E lo dimostrano tutte le statistiche riguardanti il grado culturale di chi ha finito o cessato in anticipo il percorso scolastico: a fronte di una minoranza di persone capaci di comprendere un testo, molti di più sono coloro che non sono in grado di farlo e, di conseguenza, incapaci di compiere scelte responsabili che possono andare dall’accettare o meno tesi discutibili o errate fino al voto democratico.
Questo deve far riflettere sull’importanza di un processo di scolarizzazione perenne dell’individuo: non ci si può solo limitare a dire che due più due fa quattro perché è così e basta, va illustrato anche perché ciò accade. Con un percorso di istruzione e di confronto limitati nel tempo poi non può esserci spazio per l’elasticità di pensiero e lo spirito critico dell’individuo ormai necessari per affrontare la sempre più imponente mole di informazioni a cui può accedere. È  proprio la mancanza di questi strumenti che porta poi le persone ad abbracciare le tesi più assurde: da quelle parascientifiche fino a quelle antiscientifiche e la loro strumentalizzazione.

Io non ho la soluzione a questo grave problema, sarei un presuntuoso se dicessi di averla. Di fatto mi limito a denunciare le storture che quotidianamente scorgo e che fanno attualmente parte del dibattito attuale, come per esempio le fake news.


« Considerate la vostra semenza:
fatti non foste a viver come bruti,
ma per seguir virtute e canoscenza. »
(Ulisse, Inferno Canto XXVI vv. 118-120 Dante Alighieri)

Lo spirito critico, che in troppi usano per giustificare anche le tesi più bacate, serve quando è costruttivo, quando cioè porta ad un miglioramento delle proprie e delle altrui condizioni. Ad esempio, rifiutare la profilassi dei vaccini contro agenti patogeni potenzialmente letali significa esporre al rischio di contrarre le malattie anche coloro che per per problemi diversi non possono vaccinarsi. Allo stesso tempo però chiedere che i controlli sui farmaci siano il più possibile terzi e trasparenti, rientra nello spirito critico di cui tutti noi dovremmo poter disporre.
I media svolgono un ruolo fondamentale nel’evoluzione culturale dell’individuo. Se viene continuamente trasmesso il messaggio che basta indovinare un pacco, grattare una schedina di cartone o tirare una leva di una slot machine virtuale per diventare milionari, che la cultura non fa mangiare e che nel mondo reale la strada del successo non passa necessariamente dal merito, allora è ancor più evidente quanto sia importante, ma anche difficile, un reale cambio di passo.
L’unico suggerimento che mi sento di dare al lettore è quello di usare almeno il buon senso. Non esistono cure miracolose o trucchi nascosti, i soldi non crescono sugli alberi e il successo deve essere conquistato mostrando il proprio valore. Non ci sono complotti segreti mondiali, progetti per il controllo di massa di interi popoli o altre castronerie simili, solo sprovveduti convinti che queste cose esistano e pochi che sfruttano tali convinzioni per arricchirsi.
Tutti vorremmo un mondo migliore, senza guerre, carestie e povertà; ma siamo qui, ora, in una situazione dove ancora una volta c’è chi pretende di risolvere asti mai dimenticati con l’uso delle armi, col Riscaldamento Globale e i Migranti che fuggono da guerre che paradossalmente consentono il nostro tenore di vita, dal petrolio e il gas naturale al coltan per i condensatori al tantalio dei nostri telefonini.
Ripeto, non ho una soluzione a tutto questo, solo gli stolti credono di averla in tasca. Ma credo nella condivisione delle idee, la più alta delle espressioni della democrazia.

Il principio olografico dei buchi neri – L’orizzonte olografico

I buchi neri sono un argomento molto complesso. Per descriverli compiutamente e raccontare del loro impatto sugli studi del cosmo non basterebbe una enciclopedia, figuriamoci le poche pagine di un blog. Parafrasando la celebre frase — forse apocrifa anch’essa come la celebre mela di Newton — del grande Galileo: “Eppur ci provo” …

[vrview img=”https://ilpoliedrico.com/wp-content/uploads/2017/03/p02rz7hw.png” stereo=”false”]
Volete fare un viaggio in prossimità dell’orizzonte degli eventi? Ecco una plausibile simulazione. Cliccate sulla figurina in basso a destra.

Senza ombra di dubbio i buchi neri sono tra gli oggetti astrofisici più noti e studiati nel dettaglio. Nessuno ha mai realmente visto un buco nero, ma grazie alla Relatività Generale se ne conoscono talmente bene gli effetti che esso ha sul tessuto dello spazio-tempo circostante che oggi è possibile cercare nel Cosmo i segni della loro presenza e descriverli graficamente.
Dai nuclei delle galassie AGN fino ai resti di stelle massicce collassate e ancora più giù fino agli ipotetici micro buchi neri formatisi col Big Bang, si può dire che non c’è quasi limite alle dimensioni che questi oggetti possono raggiungere [cite]https://arxiv.org/abs/astro-ph/9605152[/cite].

Il Principio Olografico


L’entropia (misura dell’informazione nascosta) di un buco nero, misurata in bit, è proporzionale all’area del suo orizzonte degli eventi misurata in unità di Planck
Jacob Bekenstein

Per comprendere l’interpretazione olografica dell’orizzonte degli eventi di un buco nero, occorre prima ripetere ciò che avevo accennato nella scorsa puntata, ossia se un buco nero distrugga o meno l’informazione riguardante tutto ciò che finisce oltre il suo orizzonte degli eventi — ricordo che questo è più un concetto matematico più che un oggetto tangibile.
Secondo Shannon i concetti di entropia e di informazione si equivalgono e, come anche Leonard Susskind ha ribadito, l’entropia non è altro che la misura delle informazioni nascoste, cioè quelle che a noi non sono note. Se infatti le conoscessimo potremmo ricostruire l’evento che le ha generate, come ad esempio possiamo risalire alla massa, traiettoria ed energia di una particella coinvolta in una collisione in una camera a bolle semplicemente ripercorrendo a ritroso la storia degli eventi che essa ha scatenato.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell'informazione perduta dentro un buco nero. Qui per l'osservatore A l'astronauta varcherebbe l'orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell'orizzonte degli eventi. Invece per l'osservatore B oltre l'orizzonte o per lo stesso astronauta l'attraversamento dell'orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell’informazione perduta dentro un buco nero. Qui per l’osservatore A l’astronauta varcherebbe l’orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell’orizzonte degli eventi. Invece per l’osservatore B oltre l’orizzonte o per lo stesso astronauta l’attraversamento dell’orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Come ho cercato di spiegare nelle precedenti puntate tutta l’entropia — o informazione nascosta equivalente — di un buco nero può solo risiedere sulla superficie degli eventi come microstati — o bit — grandi quanto il quadrato della più piccola unità di misura naturale, ossia la lunghezza di Plank 1. Questo significa che tutta l’informazione di tutto ciò che è, od è finito, oltre l’orizzonte degli eventi, è nascosta nella trama dell’orizzonte degli eventi stesso. Potessimo interpretare compiutamente questa informazione, idealmente potremmo risalire alla sua natura.
In base a questa interpretazione tutto ciò che è contenuto in una data regione di spazio può essere descritto dall’informazione confinata sul limite della stessa, così come la mia mano è descritta da ciò che di essa percepisco dalla superficie dello spazio che occupa.
In pratica quindi l’informazione tridimensionale di un qualsiasi oggetto è contenuta su una superficie bidimensionale, che nel caso dei buchi neri, è rappresentata dall’orizzonte degli eventi 2.
L’analogia col fenomeno a noi più familiare è quella dell’ologramma, dove tutte le informazioni spaziali riguardanti un oggetto tridimensionale qualsiasi sono impresse su una superficie bidimensionale. Osservando l’ologramma noi effettivamente percepiamo le tre dimensioni spaziali, possiamo ruotare l’immagine, osservarla da ogni sua parte etc., ma essa comunque trae origine dalle informazioni impresse su una superficie bidimensionale; la terza dimensione percepita emerge 3 dalla combinazione di tutte le informazioni lì racchiuse.

Conclusioni

Il Principio Olografico è questo: un modello matematico che tenta di conciliare la Termodinamica e la meccanica della Relatività Generale dei buchi neri, due leggi che finora si sono dimostrate universalmente esatte e che nel caso specifico dei buchi neri sembrano violarsi.
Questo modello è reso ancora più intrigante per le sue particolari previsioni teoriche: dalla validità della Teoria delle Stringhe alla Super Gravità Quantistica passando per le teorie MOND (Modified Newtonian Dynamics) che potrebbero addirittura dimostrare l’inesistenza della materia e dell’energia oscure.
Addirittura il Principio Olografico potrebbe essere usato per suggerire che l’intero nostro Universo è in realtà un buco nero provocato dal collasso di una stella di un superiore universo a cinque dimensioni, ci sono studi al riguardo [cite]https://www.scientificamerican.com/article/information-in-the-holographic-univ/[/cite] [cite]https://arxiv.org/abs/1309.1487[/cite].
Cercherò in futuro di trattare questi argomenti, sono molto intriganti.

Materiale organico interplanetario

Vi è piaciuto il mio Pesce d’Aprile? Non è tropo difficile imbastire una storia verosimile partendo da dati assolutamente corretti e congetture assai plausibili. Nel mondo della fantascienza (quella più seria) accade spesso.
Per questo poi rimaniamo stupiti quando vediamo che molte idee provenienti da quel genere di letteratura vengono effettivamente realizzate: da una parte ci sono scrittori e sceneggiatori che pescano a piene mani nella letteratura scientifica (lo hanno fatto per esempio nelle storie narrate nell’universo Star Trek) e dall’altra ci sono scienziati e ingegneri che da quel mondo traggono la loro ispirazione.

Ma un conto è la celia come la mia e un conto è la patologia di chi immagina e diffonde complotti fatti di scie chimiche, bave militari (semplici ragnatele) e trame aliene varie. Come ho sempre sostenuto,  la scienza sa essere più meravigliosa e impressionante della più sfrenata immaginazione e non chiede di credere semplicemente in essa — non è e non vuol diventare un culto — ma essa semplicemente è.

In alto a destra i dati dello strumento ROSINA della sonda ROSETTA riguardanti la rilevazione della glicina (un aminoacido), in basso a destra il grafico relativo alla concentrazione del fosforo. A sinistra in alto uno schema della sonda e in basso l’orbita di Rosetta attorno alla cometa. Al centro l’immagine raccolta il 25 marzo 2015 della cometa 67P/Churyumov-Gerasimenko.
Credit: sonda ESA/ATG medialab; cometa: ESA/Rosetta/NavCam – CC BY-SA IGO 3.0; dati: Altwegg et al. (2016)

Coloro che non l’avessero ancora letto, li invito a prendere visione del precedente articolo [cite]https://ilpoliedrico.com/2017/03/animaletti-interplanetari.html[/cite] e aspettare almeno 2 minuti.
L’idea di fondo è che tra i pianeti del Sistema Solare — questa idea dovrebbe essere altrettanto valida anche per tutti gli altri sistemi planetari — ci possa essere uno scambio continuo di materiale organico (ricordo che per materiale organico s’intendono tutti i composti chimici del carbonio quindi anche quelli che non sono di origine biologica) e presumibilmente anche biologico.

Panspermia interplanetaria

Questa si basa su solide basi scientifiche come la scoperta di aminoacidi nelle rocce lunari riportate dalle missioni Apollo [cite]https://www.nasa.gov/feature/goddard/new-nasa-study-reveals-origin-of-organic-matter-in-apollo-lunar-samples[/cite], il ritrovamento di composti organici complessi e aminoacidi in alcune meteoriti [cite]https://ilpoliedrico.com/2011/01/amminoacidi-levogiri-nelle-condriti.html[/cite][cite]https://ilpoliedrico.com/?s=Materia+pre-biotica+nelle+meteoriti+[/cite], le scoperte delle sonde Rosetta e Philae [cite]http://www.esa.int/Our_Activities/Space_Science/Rosetta/Rosetta_s_comet_contains_ingredients_for_life[/cite], etc.
Grazie alle analisi isotopiche dell’aria e del suolo di Marte compiuto dalle sonde Viking [cite]http://onlinelibrary.wiley.com/doi/10.1029/JS082i028p04635/abstract[/cite] è stato scoperto che uno scambio di materiale planetario sotto forma di materiale meteorico è possibile.

Aminoacidi sulla Luna

L’astronauta Alan L. Bean, pilota della missione dell’Apollo 12 mentre mostra un contenitore dei campioni di suolo lunare. Credit: NASA

Questo suggerisce che il meccanismo di contaminazione del suolo lunare e quello che ha portato il materiale marziano sulla Terra è quasi sicuramente lo stesso.
Marte è circa la metà della Terra e leggermente meno denso; per questo ha una gravità — e di conseguenza una velocità di fuga —più basse di quella terrestre [cite]https://ilpoliedrico.com/utility/i-pianeti-del-sistema-solare[/cite].
Statisticamente parlando, ogni tanto può capitare che un asteroide o una cometa discretamente grande intercetti un pianeta qualsiasi. Su Marte basta che l’impatto provochi una eiezione di materiale superiore ai 5 km/sec. perché questo sfugga all’attrazione gravitazionale del pianeta per perdersi nello spazio.
Dopo alcune migliaia di anni e l’importante contributo del pozzo gravitazionale del Sole, ecco che può capitare che questi frammenti di suolo marziano, cadano sulla Terra come materiale meteorico.
Così se i meteoriti di origine marziana avessero contenuto materiale organico o biologico [cite]https://ilpoliedrico.com/2014/03/un-altro-caso-marziano-yamato-000593.html[/cite] (ricordo che non sono la stessa cosa) ecco spiegato come questo avrebbe potuto arrivare qui da Marte.
E gli aminoacidi sulla Luna? 65 milioni di anni fa lo stesso asteroide che pose termine all’era dei dinosauri produsse abbastanza energia per eiettare un po’ di crosta terrestre nello spazio. Materiale, soprattutto polvere, che la Luna avrebbe poi raccolto. La Luna non ha atmosfera, quindi tutto quello che poteva raccogliere è stato poi raccolto e conservato.

Conclusioni

Il concetto di panspermia interplanetaria è senza dubbio affascinante  e probabilmente esatto. Esso non pone un limite certo su dove, come e quando si è sviluppata la Vita.
E questo è forse anche il suo più grave difetto, rimanda cioè la domanda principe per cui è stato concepito, in pratica spiega tutto senza spiegare niente; come l’atavica domanda: è nato prima l’uovo o la gallina?

Animaletti interplanetari

[fancybox_open delay=”120″ url=”https://ilpoliedrico.com/wp-content/uploads/2017/03/Extraterrestrial-hypothesis-for-the-origin-of-tardigrades.pdf”][/fancybox_open]

La scienza spesso è descritta come incredibilmente noiosa e rigida. Invece  è ben più potente e bella di qualsiasi magia. Questa è la storia di un curioso animaletto.

Se foste invitati a citare l’animale più straordinario che ammirate potreste indicare il leone, noto per la sua regale fama, oppure la tigre per la sua bellezza, o gli squali, i puma, i delfini etc.
A nessuno verrebbe certo in mente di rammentare il tardigrado, uno dei più curiosi e diffusi animali del pianeta. Dimensionalmente il tardigrado è piccolissimo, meno di un millimetro anche se occasionalmente sono stati catalogati animaletti lunghi fino a 1,5 millimetri. A differenza di tante altre forme di vita terrestre, eccezion fatta dei mesozoi, il numero delle cellule di un T. è costante per tutta la sua esistenza; non c’è mitosi, esse crescono semplicemente in dimensione.
Sono stati trovati T. in vetta all’Everest, in Antartide, nel deserto di Atacama e in ogni altro luogo del pianeta. Esso può sopravvivere nel vuoto dello spazio [cite]https://www.ncbi.nlm.nih.gov/pubmed/19663764[/cite], come a massicce dosi di radiazioni dell’ordine di centinaia di sievert (6 sievert uccidono un uomo), a pressioni di 6000 (seimila) atmosfere.
Le bizzarre peculiarità di questo bizzarro animaletto derivano da una classe di proteine, le Intrinsically Disordered Proteins (IDP) [cite]https://phys.org/news/2017-03-tardigrades-unique-protein-desiccation.html[/cite], che bloccano il degrado delle strutture cellulari quando viene a mancare loro l’acqua fissandosi e diventando inerti. In pratica i T. si vetrificano quando l’acqua delle loro cellule viene a mancare o cambia stato 1.

La Stazione Spaziale Internazionale è un enorme laboratorio spaziale. Lì vengono svolti continuamente tantissimi esperimenti che vanno dalla fisica dei raggi cosmici alla medicina, dalla fisica dei plasmi all’agricoltura a gravità zero.
Uno di questi esperimenti riguarda il pulviscolo cosmico e micrometeoriti, che possono essere un pericolo concreto per  le missioni extraveicolari 2.
Questo esperimento dura ormai da diversi anni e consiste in trappole di gel di silicone esposto al vuoto dello spazio capace di trattenere le microparticelle che periodicamente vengono esaminate col microscopio elettronico per studiarne la forma e le dimensioni.

Qui sono riportate le posizioni di Venere e Terra pochi giorni prima che le trappole di gel fossero aperte.
Credit: Il Poliedrico

Nel finire dell’agosto del 2015 in alcune trappole poste sul lato superiore dello scafo della stazione gli scienziati trovarono … alcuni tardigradi inerti! Subito si pensò a una contaminazione delle gelatine, ma trappole dello stesso lotto poste sulla parte inferiore dello scafo (quella rivolta alla Terra) non mostrarono niente di anomalo; alcune di loro erano addirittura intonse come ci si sarebbe aspettato.
Nei mesi successivi alcuni ricercatori giapponesi del Koushiryoku Kenkyuujo sotto la guida del prof. Yumi[14], studiarono i curiosi risultati delle trappole e scoprirono che eventi simili si erano già verificati negli anni precedenti ma che questi erano stati sbrigativamente classificati come campioni contaminati da materiale biologico terrestre.
È stata la curiosa coincidenza con le congiunzioni inferiori di Venere, cioè quando la Terra e Venere sono nel punto più vicino della loro orbita (ogni 584 giorni, ossi un anno e 7 mesi circa) che ha insospettito i ricercatori giapponesi. E puntualmente — come previsto dalle loro ricerche — il 19 marzo di quest’anno le trappole di gel dell’ISS hanno catturato altri tardigradi.
L’ipotesi che la vita potesse annidarsi nella parte superiore dell’atmosfera venusiana non è affatto nuova [cite]http://online.liebertpub.com/doi/abs/10.1089/153110704773600203[/cite]. Mentre sulla superficie del pianeta regnano temperature intorno ai 740 kelvin e pressioni di 92 atmosfere — quelle cioè che si sperimentano sulla Terra oltre i 900 metri di profondità negli oceani,  la sommità dell’atmosfera di Venere, tra i 50 e i 65 chilometri dalla superficie del pianeta, offre condizioni di temperatura e pressione molto simili a quelle della Terra.
Se è evidente come i T. possano sopravvivere tranquillamente al vuoto dello spazio, occorre capire come questi arrivino fino alla Terra. Il meccanismo di trasporto invece lo si spiega benissimo: Il vento solare.
Venere non ha una magnetosfera come la Terra, quindi il vento solare riesce a raggiungere l’atmosfera superiore riscardala e disperderla nello spazio come se fosse la coda di una cometa [cite]http://www.esa.int/Our_Activities/Space_Science/When_a_planet_behaves_like_a_comet[/cite].
La distanza tra Venere e la Terra nel momenti di congiunzione inferiore varia tra i 40 e i 42 milioni di chilometri, cioè appena un centinaio di volte la distanza Terra-Luna circa. Alla velocità media di 300 km/sec., tipica del vento solare, occorre appena un giorno e mezzo per coprire tale distanza.

Questa scoperta risolverebbe anche il dilemma avanzato dal Paradosso del Sole Freddo [cite]http://science.sciencemag.org/content/177/4043/52.long[/cite], che sostiene che il Sole 4 miliardi di anni fa era troppo debole per sostenere una temperatura adatta alla vita sulla Terra, mentre Venere probabilmente aveva oceani e mari più caldi ed adatti allo sviluppo della vita. Successivamente le condizioni alla superficie si sarebbero fatte troppo proibitive e la vita venusiana sarebbe migrata negli strati più alti dell’atmosfera dove da lì potrebbe essere stata poi trasportata sugli altri mondi dal vento solare.
Forse siamo tutti venusiani dopotutto.