Principio di autorità e Riscaldamento Globale Antropogenico

Il principio di autorità descrive la propensione ad accettare —o imporre — un’affermazione come vera basandosi sulla reputazione, sul ruolo o sulla notorietà di chi la formula, anziché sulla solidità intrinseca delle prove che la supportano.
Si tratta di una scorciatoia cognitiva che molto spesso può condurre a fallacie logiche, specialmente in ambito scientifico, dove è fondamentale valutare criticamente fonti e argomentazioni.
Un po’ come dire ” …me lo ha detto mio cugino!” e quindi deve essere vero per forza, o “Lo dico io che sono il Megadirettore Galattico Duca Conte etc. e voi altri non avete titoli per smentire le mie affermazioni
Ma nel mondo reale non funziona così. In contesti scientifici, così come in filosofia e nel diritto, l’autorevolezza deve sempre essere sottoposta a un esame empirico o razionale, al fine di evitare gravi e talvolta grotteschi errori.

Il Cambiamento Climatico non ha niente a che vedere con le variazioni dell’orbita terrestre

Questo grafico mostra chiaramente due linee che vanno in direzioni opposte: l’irradianza solare totale (TSI, linea gialla): oscillazioni cicliche di ~11 anni (ciclo solare), ma con tendenza a lungo termine in calo (da ~1362 W/m² medi intorno agli anni ’80 a ~1360-1361 negli ultimi decenni) Dati SATIRE-T2 * e temperatura globale (linea rossa, GISTEMP 3.1 **): salita costante e accelerata, da ~0.2°C anomalia negli anni ’80 a +1.0°C+ oggi (rispetto al riferimento base 1951-1980, la tendenza è inequivocabile).

Nel mio recente articolo La CO₂ non è cibo per le piante: chimica reale contro bufale climatiche [1] ho smontato unna congettura fatalista tanto cara a coloro che, dopo aver negato per anni ogni evidenza che dimostrava l’aumento antropogenico della \(CO_{2}\), cercavano di farla digerire affermando che la \(CO_{2}\) è cibo per le piante.
Un’altra congettura cara ai climapiattisti più puri e negazionisti è quella di attribuire il Riscaldamento Climatico Antropogenico a non meglio precisate variazioni dell’orbita terrestre (ora colpa di Giove, ora di Venere, ora di entrambi) come nella miglior tradizione ‘strologica 1 fino a scomodare i  Cicli di Milankovitch (fa sempre ganzo usare termini e fenomeni che realmente non si comprendono giusto per darsi una certa importanza).

Non avendo altre argomentazioni a supporto delle loro congetture, nelle loro comparsate nelle trasmissioni-pollaio 2 in televisione questi vecchi arnesi iniziano la loro solita sequela di anatemi snocciolando titoli accademici e incarichi ricoperti con la presunzione di essere gli unici a poter parlare di Riscaldamento Globale verso chiunque gli si opponga, siano essi scienziati o attivisti informati.

L’orbita terrestre

Partiamo dai dati veri: Senza risalire oltre, diciamo dall’eone Proterozoico (2,5 miliardi di anni fa), l’orbita terrestre  sempre rimasta stabile a una distanza media di 149,6 milioni di chilometri [2].
Questo accade perché la massa della Terra (o meglio, del sistema Terra-Luna) è relativamente grande rispetto agli altri corpi minori e non subisce perturbazioni estreme da parte dei giganti gassosi del Sistema Solare, checché ne dicano gli ‘strologi.
Insomma, vista dalla Terra, la struttura complessiva del Sistema Solare è dinamicamente tranquilla e — per nostra fortuna — piuttosto noiosa.
Gli unici eventi che potrebbero alterare drasticamente l’orbita terrestre sono:

  • incontri ravvicinati con pianeti massicci,
  • passaggi di stelle vicine,
  • instabilità dinamiche del Sistema Solare.

Le ricostruzioni geologiche e astronomiche, però, non mostrano tracce di sconvolgimenti orbitali nel periodo fin qui considerato.

Geometria astronomica for dummies

1) Energia orbitale e semiasse maggiore

Per un’orbita kepleriana attorno a una stella, il semiasse maggiore \(a\) è legato all’energia specifica orbitale \(\epsilon\):

\[ \epsilon = – \tfrac{\mu}{2a} \]

dove

  • \(\mu = GM_{\odot}\) è il parametro gravitazionale 3
  • \(a\) è il semiasse maggiore
  • \(\epsilon\) è l’energia per unità di massa

Se non sono presenti altre forze dissipative, ma solo gravità newtoniana, \(\epsilon\; \text{e}\; a\) sono costanti. Le altre perturbazioni planetarie alterano l’eccentricità, l’inclinazione, gli argomenti angolari, ma il semiasse maggiore resta praticamente invariato al primo ordine.

2) Perché le variazioni sono minime: le equazioni di Lagrange per \(a\)

In teoria, il semiasse maggiore può variare per effetto di un potenziale perturbativo \(R\)
(dovuto agli altri pianeti, ecc.). Le equazioni planetarie di Lagrange danno:

\[ \tfrac{da}{dt}=\tfrac{2}{na} \tfrac{\partial R}{\partial M} \]

dove

  • \(n =\sqrt{\tfrac{\mu}{a^3}}\) è il moto medio
  • \(M\) è l’anomalia media
  • \(R\) è il potenziale perturbativo medio

Facendo la media su molte orbite (per esempio con approssimazione secolare, il termine \(\tfrac{\partial R}{\partial M}\)  tende a zero:

\[ \left\langle \tfrac{da}{dt} \right\rangle \approx 0 \]]

ovvero il semiasse maggiore può oscillare, ma non deriva mai sistematicamente [3].

3) Effetto della perdita di massa solare

E qui la cosa si fa parecchio interessante. Tutte le stelle durante tutto il loro ciclo vitale perdono una piccola frazione della propria massa sotto forma di vento stellare e radiazione; anche il Sole non fa eccezione
Se la massa del Sole diminuisce nel tempo (\(M_{\odot} \)) diminuisce lentamente nel tempo, il parametro gravitazionale \(\mu =\;GM_{\odot}\) si riduce e le orbite dei pianeti si espandono.
Per un lento calo della massa centrale, al primo ordine vale la relazione (problema kepleriano a due corpi):

\[\tfrac{\overset{.}a}{a} \approx – \tfrac{\overset{.}M_{\odot}}{M{\odot}}\]
dove \(a\) è il semiasse maggiore dell’orbita terrestre.
Assumendo  \(\tfrac{\overset{.}M_{\odot}}{M{\odot}}\) circa costante su tempi geologici, si integra ottenendo:

\[ a(t) \approx a_{0}  \tfrac{M_{\odot} \;(0)}{M_{\odot} \;(t)}  \]
Osservazioni e modelli suggeriscono per il Sole un tasso relativo di perdita di massa dell’ordine di:

\[ \tfrac{\overset{.}M_{\odot}}{M{\odot}} \approx 9 \times 10^{-14}\;yr^{-1} \]
somma di vento solare e conversione massa–energia. Prendiamo così il nostro intervallo di tempo dal Proterozoico:
\[t=2.5 \times 10^{9}\;\text {anni} \]

Con \(a_{0} \simeq 1,496\times 10^{8}\;km \), la variazione al primo ordine del semiasse maggiore è:

\[ \Delta a \simeq a_{0}\left| \tfrac{\overset{.}M_{\odot}}{M{\odot}} \right|t\]
sostituendo i valori:
\[ \Delta a \simeq 1,496 \times 10^{8}\;km \times 8,95 \times 10^{-14}\;yr^{-1}\times 2,5 \times 10^{9}\;yr  \]
Pertanto:
\[ \Delta a \approx1,496 \times 10^{8}\;km \times 2,2375 \times 10^{-4} \approx 3,35 \times 10^{4}\;km \]

In altri termini, dal Proterozoico (2.5 miliardi di anni fa) il semiasse maggiore dell’orbita terrestre è aumentato di 33500 chilometri su una distanza di 149,6 milioni di chilometri.
\[ \tfrac{\Delta a}{t} \approx \tfrac{3,35\times 10^{4}\;\text{km}}{2,5\times^{9}\;\text{anni}}\sim 1,34 \;\text{cm/anno} \]
Un’inezia, se oggi, con un’eccentricità dell’orbita di 0,0167 (quasi circolare) la differenza tra afelio e perielio è di \(4.999.627\; km \approx 5 \times 10^{6}\;km\).

Ma mica è finita qui.

4) La formula di Gough  [4]

Il Sole, proprio come tutte le altre stelle di tipo G nel Ramo Principale, aumenta lentamente la propria luminosità mentre:

  • converte idrogeno in elio nel nucleo
  • il nucleo si contrae
  • la temperatura centrale aumenta
  • la potenza irradiata cresce

I modelli di evoluzione solare mostrano una crescita quasi lineare su scale di centinaia di milioni di anni.

\[ \tfrac{L(t)}{L_{0}} \approx 1-\tfrac{2}{5}\left( 1-\tfrac{t}{t_{0}} \right) \]
ovvero un aumento di luminosità di circa il 30% da quando è nato il Sole. Un tasso medio ≈ 0,7% ogni 100 milioni di anni. Ai fini pratici, un aumento di luminosità di questa portata comporta un aumento della costante solare di \(9-10\;W/m^{2}\), ossia \(\sim 1^{\circ}C \) ogni 100 milioni di anni.  Anche qui, neanche il 2% rispetto al Proterozoico.

Concludendo questa prima carrellata tra geometria astronomica e astrofisica cari pseudoesperti climapiattisti non sono le orbite o la luminosità solare i responsabili del Riscaldamento Globale.
Ma so di certo che tirereste la scusa: Ma allora i Cicli di Milankovitch?

I Cicli di Milankovitch

I cicli di Milankovitch descrivono i cambiamenti a lungo termine nella traiettoria terrestre, proposta negli anni ’20 dal geofisico e astronomo Milutin Milankovitch. Egli analizzò le variazioni dell’eccentricità terrestre, dell’inclinazione dell’asse e della precessione orbitale avvenute negli ultimi milioni di anni, individuando la correlazione tra tali parametri e i modelli climatici del pianeta, in particolare i cicli glaciali.
Attualmente, la  precessione assiale della Terra completa un intero ciclo di precessione all’incirca in ~ 26.000 anni.
Ma in un lontano passato non era così. La canonica interpretazione dei ciclo di Milankovitch non va oltre i 50 milioni di anni.

1) La precessione assiale

Regolari alternanze di strati bianchi, marrone-rossastri e grigio-blu, su una scala di circa 10 cm, sono interpretate dai ricercatori come tracce del ciclo di precessione dell’asse terrestre, visibile in primo piano a sinistra nell’immagine. Circa 2,46 miliardi di anni fa, tale ciclo aveva un periodo sensibilmente più breve – intorno agli 11.000 anni – rispetto agli attuali circa 21.000 anni, a causa della minore distanza tra Terra e Luna. La determinazione precisa del periodo dei cicli su piccola scala, e quindi della distanza Terra-Luna, può essere ottenuta confrontando il rapporto di spessore con i cicli su scala maggiore di 100.000 anni, osservabili sullo sfondo.
Credit: Frits Hilgen

Anche questa volta la geologia e la matematica ci sono di aiuto per ricostruire la storia — e la climatica — della Terra. Oggi la durata del giorno è di ~24 ore e la frequenza precessionale (precessione lunisolare o assiale) è ≈ 50,3″ per anno.
\[ \tfrac{360\;^{\circ}}{ 50,3^{\prime\prime}/anno} = \;\approx 25786 \; anni\]
Ma nel Proterozoico [5] non era così. il giorno durava 17 ore e la Luna era ad appena ≈ 216-220 mila chilometri di distanza. E siccome la frequenza di precessione \(\psi\) è direttamente proporzionale al reciproco della velocità angolare di rotazione terrestre \(\omega\):
\[ \psi \propto \tfrac{1}{\omega} \]
Non è quindi difficile dimostrare che nel Proterozoico il ciclo precessionale era molto più breve di oggi del 41%.

2) La precessione del perielio

Parallelamente, la rotazione ellittica dell’orbita influisce sull’alternanza delle stagioni e sulle variazioni orbitali con un periodo lento di ~ 112 mila anni. Questa si chiama precessione del perielio (o della linea degli apsidi).
Anch’essa non è costante nel tempo. È cambiata in modo significativo, ma per ragioni completamente diverse rispetto alla precessione degli equinozi.
La precessione del perielio è un movimento della stessa orbita ellittica terrestre. È causata principalmente dalle attrazioni gravitazionali degli altri pianeti, specialmente Giove e Saturno. La sua durata dipende quindi dalla configurazione del Sistema Solare.
Secondo il modello più accreditato, noto come Modello di Nizza e le sue successive evoluzioni [6], i pianeti giganti del Sistema Solare (Giove, Saturno, Urano e Nettuno) non si sono originati nelle attuali posizioni orbitali. Le interazioni gravitazionali con il disco residuo di gas e planetesimi, avvenute nel corso di lunghi periodi, hanno determinato la migrazione delle loro orbite. Questo processo graduale ha modificato in modo costante le influenze gravitazionali esercitate da ciascun pianeta sull’orbita terrestre, causando variazioni nel periodo della precessione del perielio.
Il Sistema Solare si configura come un sistema dinamico intrinsecamente caotico su scale temporali dell’ordine di milioni di anni. In tale contesto, le orbite planetarie non possono essere previste con precisione indefinita: piccole perturbazioni tendono ad amplificarsi, generando variazioni non lineari nei parametri orbitali, compreso il ciclo della precessione del perielio.
Nel recente passato geologico, ossia negli ultimi pochi milioni di anni, la durata di questo ciclo ha variato tra circa 100.000 e 130.000 anni, attestandosi intorno ai ~ 112.000 anni durante il Quaternario, con un impatto significativo sull’insorgenza delle ere glaciali.
Risalendo a centinaia di milioni di anni fa, nel Proterozoico, la configurazione orbitale della Terra era quasi certamente differente, determinando una durata diversa del ciclo. La stima esatta di tale valore è estremamente complessa, ma i modelli dinamici confermano che non si trattava di un parametro costante.
È fondamentale distinguere che questo ciclo è del tutto indipendente dalla presenza o dalla distanza della Luna. Quest’ultima influisce fortemente sulla precessione degli equinozi e sulle maree, ma esercita un’influenza trascurabile sull’orbita ellittica terrestre attorno al Sole, governata principalmente dall’interazione con gli altri pianeti.

3) La precessione climatica

Quest’altro ciclo di Milankovitch è invece la combinazione dei due illustrati qui sopra. È quindi abbastanza evidente che anche questo, attualmente lungo ~ 21 mila anni, è in realtà piuttosto variabile:
\[ \tfrac{1}{P_{clim}}= \tfrac{1}{P_{assiale}} + \tfrac{1}{P_{orbitale}} \]
In altre parole L’asse terrestre ruota (ciclo lento) e contemporaneamente l’intera ellisse orbitale ruota (ciclo ancora più lento). La posizione relativa tra la direzione dell’asse (che definisce le stagioni) e la direzione del perielio (il punto dell’orbita più vicino al Sole) cambia con una velocità che è la somma delle due velocità di rotazione. Ecco perché il periodo risultante è più corto di entrambi.

4) L’eccentricità dell’orbita

I cicli di Milanković NON sono “fissi”: derivano da frequenze secolari dei pianeti, chiamate:

g, g, g, g, g (precessione dei perieli)
s, s, s, s₄, s (precessione dei nodi)

Le frequenze gₙ (precessione dei perieli)

PianetaSimbologₙ (arcsec/anno)Ruolo
Mercuriog₁+5.59irrilevante per la Terra
Venereg₂+7.45fondamentale per il ciclo di 405 mila anni
Terrag₃+17.35precessione orbitale terrestre
Marteg₄+17.92modula i cicli da 100 mila e 2.4 milioni di anni
Gioveg₅+4.25modula il ciclo di 405 mila anni

Le frequenze sₙ (precessione dei nodi)

PianetaSimbolosₙ (arcsec/anno)Ruolo
Mercurios₁–5.59marginale
Veneres₂–7.06influenza obliquità
Terras₃–18.85ciclo obliquità di 41 mila anni
Martes₄–17.75modula obliquità e cicli lunghi
Gioves₅–6.57contributo minore

Questa spesso è una parte che pochi si soffermano a spiegare.

  • Il Ciclo “Ancorato” di 405.000 anni
    Questo ciclo ultra-lungo è principalmente una risonanza orbitale tra la precessione del perielio di Venere e quella della Terra. In parole povere, i punti dell’orbita più vicini al Sole (perielio) di questi due pianeti si “inseguono” nello spazio con un ritmo fisso e stabile, completando un ciclo completo ogni 405.000 anni.
    Giove, con la sua enorme massa, è il grande regolatore che rende possibile questa risonanza. La sua gravità domina la precessione del perielio di tutti i pianeti interni (Mercurio, Venere, Terra, Marte).
    \[ P= \tfrac{1}{\mid g_{_{2}}\;-\;g_{_{5}}\;\mid} \]
    Senza l’influenza stabilizzante di Giove, le orbite dei pianeti interni mostrerebbero un comportamento molto più caotico. Quindi, è più preciso dire: il ciclo di 405.000 anni è una risonanza tra Venere e Terra mediata dalla gravità di Giove.
    Stabilità: Questo è il ciclo di Milankovitch più stabile nel tempo. I calcoli e le evidenze geologiche suggeriscono che sia rimasto costante per almeno 250 milioni di anni e probabilmente per gran parte dell’era Fanerozoica. Per questo è chiamato il “pendolo geologico” o “cronometro” per calibrare la scala dei tempi geologici profondi.
  • I Cicli di ~100.000 e ~400.000 anni (Eccentricità)
    Questi cicli derivano dalla modulazione dell’eccentricità dell’orbita terrestre. Non sono semplici risonanze a due corpi, ma emergono dalla combinazione di cicli più brevi legati alle interazioni tra più pianeti.
    L’eccentricità \(e\) della Terra varia perché la sua orbita è continuamente perturbata dalle attrazioni degli altri pianeti. Matematicamente, la variazione di \(e\) può essere scomposta in una somma di molte componenti sinusoidali con periodi diversi.
    Un ciclo di ~100.000 anni: Questo è il risultato della combinazione di altri due cicli principali: uno
    legato alle interazioni Terra-Giove-Saturno, con un periodo di circa 95.000 anni e l’altro legato alle interazioni Terra-Marte, con un periodo di circa 99.000 anni (a volte citato come 120.000 anni, a seconda del modello) [7].
    La sovrapposizione (interferenza) di questi due segnali produce il picco di potenza dominante che osserviamo nei dati climatici degli ultimi milioni di anni intorno ai 100.000 anni.
    Ciclo di ~400.000 anni: Questo è un armonico del ciclo di 405.000 anni (\(\sim 405/1 = 405 \;\text{e}\; 405/4 ≈ 101\)), ma anche il risultato di altre interazioni a lungo termine nel sistema solare.

Questo contesto illustra il motivo per cui il ciclo glaciale di circa 100.000 anni, caratteristico degli ultimi 800.000 anni, rimane uno dei fenomeni più enigmatici e dibattuti della paleoclimatologia. Il forcing astronomico legato all’eccentricità, su questa scala temporale, risulta infatti estremamente debole, producendo solo lievi variazioni di insolazione. Perché questo segnale minimo diventi il ciclo glaciale predominante, il sistema climatico terrestre – comprendente calotte di ghiaccio, oceani e concentrazioni atmosferiche di \(CO_{2}\) – deve rispondere in modo non lineare e con meccanismi di amplificazione significativi.
In epoche geologiche più remote, quando la disposizione dei continenti o i livelli di \(CO_{2}\) differivano sensibilmente, altri cicli astronomici, come quello di 41.000 anni legato alle variazioni dell’obliquità, esercitavano un’influenza dominante sulle oscillazioni climatiche globali.

Cicli di Milankovitch

FenomenoPeriodoCausaPianeti coinvolti
Eccentricità lunga405 mila anniRisonanza g₂ - g₅Venere + Giove
Eccentricità breve95-125 mila annig₄ dominanteMarte
Eccentricità molto lunga2,4 milioni annig₃ - g₄Terra + Marte
Obliquità41 mila annis₃, s₄Terra + Marte
Precessione assiale25786 annicoppia Sole + Luna
Precessione orbitale112 mila annig₃Terra
Precessione climatica19-23 mila annicombinazioneTerra + Marte + Giove
gₙ = frequenze di precessione dei perieli (orbite)
sₙ = frequenze di precessione dei nodi (piani orbitali)
Tutti i periodi, eccetto il primo che è stabile, si riferiscono ai periodi attuali.

Conclusione

Bisogna però essere consapevoli che l’anidride carbonica di per sé non è un agente inquinante. Al contrario essa è indispensabile per la vita sul nostro pianeta. … L’origine antropica del riscaldamento globale è però una congettura non dimostrata, dedotta solo da alcuni modelli climatici, cioè complessi programmi al computer, chiamati General Circulation Models. La responsabilità antropica del cambiamento climatico osservato nell’ultimo secolo è quindi ingiustificatamente esagerata e le previsioni catastrofiche non sono realistiche …
L’illusione di governare il clima.
Manifesto negazionisti climatici italiani

I Cicli di Milankovitch non sono di certo una novità per chi segue da vicino l’astronomia. E le risonanze gravitazionali dei pianeti vicini (Venere e Marte) e dell’imponente nostro gigante gassoso (Giove, ma in misura minore anche Saturno) che agiscono sulla linea delle absidi e l’eccentricità dell’orbita planetaria non sono una scoperta dei climapiattisti di oggi.
Ho anche dimostrato, casomai ce ne fosse bisogno per qualche incauto senza mestiere, che il semiasse maggiore dell’orbita terrestre è costante nel tempo (non lo dico io ma le leggi di Keplero).
Quindi no. non ci sono state negli ultimi 170 anni variazioni orbitali repentine o fluttuazioni nella luminosità/temperatura del Sole [8] per giustificare il riscaldamento globale in atto [9].

Vedere poi, che tra i peggiori negazionisti italiani figurano anche alcuni professori universitari, mi provoca sgomento.
Come si può leggere, da uno stralcio del loro manifesto del 17 giugno 2019, riportato qui a fianco, di strafalcioni ne vedo parecchi, a cominciare dal loro motto che la \(CO_{2}\) non è un inquinante ma che è indispensabile alla vita del pianeta.
Ma sicuro, senza una atmosfera la temperatura di equilibrio della Terra sarebbe intoro ai 255 °K, ossia -18 °C. Ma la presenza di una atmosfera con una modesta quantità di anidride carbonica compresa tra i 200 e 300 ppm permette di avere una temperatura media planetaria compresa fra i 13 e i 15 °C, poco sopra il punto triplo dell’acqua.
I climapiattisti nostalgici di oggi spesso riportano le condizioni climatiche del Giurassico come esempio di come la vita prosperava sulla Terra nonostante che l’anidride carbonica atmosferica fosse ben più abbondate di oggi

Nel Giurassico (circa 200-145 milioni di anni fa), nonostante che il Sole fosse circa l’1% più debole di oggi (vedi sopra i lavori di Douglas Gouth) il clima era complessivamente più caldo e umido rispetto a quello attuale, con temperature medie globali superiori di 4-7 °C e minori differenze termiche tra equatore e poli.
In quell’era si verificarono tuttavia episodi di riscaldamento globale che determinarono crisi ecologiche e marine: picchi termici provocarono ampie zone oceaniche povere di ossigeno e estinzioni di massa, evidenziando la vulnerabilità degli ecosistemi ai cambiamenti climatici.
… In conclusione, posta la cruciale importanza che hanno i combustibili fossili per l’approvvigionamento energetico dell’umanità, suggeriamo che non si aderisca a politiche di riduzione acritica della immissione di anidride carbonica in atmosfera con l’illusoria pretesa di governare il clima.
L’illusione di governare il clima.
Manifesto negazionisti climatici italiani

Nel Mesozoico, incluso il Giurassico, la Terra si trovava in una fase di “clima serra”, molto più caldo rispetto a oggi: l’innalzamento del livello marino favorì la formazione di rocce sedimentarie marine, tipiche di ambienti caldi e umidi. Nei periodi di intenso riscaldamento (eventi anossici oceanici), legati a concentrazioni di \(CO_{2}\) fino a 1000-1500 ppm, causarono fioriture algali e gravi estinzioni marine.

Ai poli le temperature erano sensibilmente più alte, con ridotta differenza termica rispetto all’equatore.
Oggi tutti questi eventi estremi sono oggetto di studio per comprendere le reazioni degli ecosistemi ai cambiamenti climatici e alla perdita di biodiversità, offrendo importanti spunti per affrontare le attuali crisi ambientali.
Tornando al presente, invece la specie umana e la sua civiltà si sono tuttavia evoluti in condizioni molto diverse da quelle del Giurassico, con temperature medie globali di 14-15 °C e \(CO_{2}\) intorno a 250-280 ppm; nel Giurassico, L’Umanità non si sarebbe mai potuta evolvere fino allo stadio odierno.
Ridentem dicere verum: quid vetat?

È un’antica locuzione latina del poeta romano Orazio, che oggi potremmo riassumere in Arlecchino si confessò burlando.
In questo caso, potremmo riassumere tutto il pomposo manifesto negazionista climatico nella sua più semplice e provocatoria frase: data la fondamentale importanza dei combustibili fossili per l’approvvigionamento energetico globale, si raccomanda di evitare politiche di riduzione indiscriminata delle emissioni di anidride carbonica. 

Questo è il vero messaggio che si cela dietro al negazionismo climatico e ai deliranti sproloqui sui social dei climapiattisti: le variazioni orbitali della Terra, i cicli di Milankovitch, la \(CO_{2}\) è cibo per le piante [10], e tutte le altre menate possibili e immaginabili — fino a inventarsi falsi storici — per sostenere che l’eccesso di anidride carbonica rispetto ai livelli preindustriali non è responsabile del Riscaldamento Globale non è scientificamente sostenibile.


 

  • * SATIRE-T2 [11]
  • ** GISTEMP 3.1  (4) [12]

La CO₂ non è cibo per le piante: chimica reale contro bufale climatiche

Spesso appaiono in televisione, sui giornali e, soprattutto sui social, improbabili esperti tuttologi che affermano “la CO2 è cibo per le piante!“.
Il divertente, se non ci fosse da piangere, questi pseudoesperti sono più o meno anche coloro che attribuiscono il Riscaldamento Globale Antropogenico ai cicli di Milankovitch 1 e altre menate che ho goliardicamente riassunto nella prima immagine qui sotto.
Se non ci fosse da piangere, sarebbe da riderci su, come quando al circo appare il clown col naso rubizzo e guantoni enormi che, imitando il verso dei leoni marini, cerca di  distogliere gli spettatori da un imprevisto.
Ma nel nostro caso il cambiamento Climatico attuale non è un imprevisto, la comunità scientifica ne dibatte da mezzo secolo e proposto soluzioni mai prese seriamente in considerazione dai legislatori internazionali.

Il ciclo del carbonio nelle piante

Le stupidaggini di un climapiattista medio. Ripete sempre le stesse bischerate.

La \(CO_{2}\) è un gas, altrimenti chiamato anidride carbonica [13]. Non è cibo per le piante ma un gas serra che contribuisce tra il 9 e 26% a trattenere la radiazione infrarossa, proveniente dal Sole e riflessa dalla superficie, nella troposfera.  Certo, il vapore acqueo lo è molto di più – 36-70% -ma a differenza di questo i cui effetti durano pochi giorni, le molecole di anidride carbonica hanno una emivita nell’atmosfera di almeno 30-100 anni.

Per capire meglio il ruolo dell’anidride carbonica nella fotosintesi delle piante, riassumiamo come questa funziona:
Nella sua espressione più brutale la fotosintesi potremmo descriverla così

\[ 6\;CO_{2} + 6\; H_{2}O= + hv \longrightarrow C_{6}H_{12}O_{6}+ 6\;O_{2} \]

dove \(hv\) è un quanto di energia luminosa 2. Naturalmente questa e una semplificazione estrema: il glucosio \( C_{6}H_{12}O_{6}\) non è prodotto direttamente, ma questo lo ritengo un modo per indicare come avviene la fissazione del carbonio [14].
Ma le piante, seppur autotrofe, non sono diverse da ogni altro sistema biologico vivente: devono respirare.
E la respirazione avviene tramite glicolisi: la precedente molecola di glucosio viene scissa così:
\[ C_{6}H_{12}O_{6}+ 6O_{2} \to  6CO_{2} + 6H_{2}O + ATP \left( \text{adenosina trifosfato} \right) \]
e 6 molecole di anidride carbonica e 6 molecole d’acqua (che poi vedremo quanto esse saranno importanti in seguito) sono di nuovo rilasciate nell’ambiente.
E l’adenosina trifosfato è la fonte energetica del metabolismo cellulare.
Nella Respirazione il bilancio della fissazione della \(CO_{2}\) è nullo.

Poi c’è l’accumulo energetico a medio-lungo termine dell’energia  (un po’ come le nostre riserve di grasso) in due polisaccaridi vegetali: amilosio e amilopectina.
\[ \text{Glucosio} \to \overset{amido\;sintasi}{\left( C_{6}H_{12}O_{6} \right)_{n}} \]
Qui, per la prima volta, il carbonio viene integrato nelle piante.

Poi c’è la cellulosa, quella che ha la funzione di creare le pareti cellulari e che offre rigidità e protezione alle piante.
Qui il glucosio viene convertito in UDP-glucosio e poi in β-glucano (un altro polisaccaride complesso).
\[ \text{UDP-glucosio}\to \left( \beta\text{-1,4-glucano} \right)_{n} \]
E anche qui il carbonio contenuto nel glucosio rimane  fissato nelle piante.

Poi c’e la traslocazione del carbonio attraverso il floema [15] [16] sottoforma di linfa elaborata (acqua e saccarosio) verso gli organi non fotosintetici (radici, frutti, semi).
Qui il glucosio si combina col fruttosio (precedentemente prodotto dalla glicolisi di altre molecole di glucosio fosfato durate i Ciclo di Calvin [17])e si trasforma in saccarosio.
\[ \text{glucosio + fruttosio}\to \text{saccarosio}\]

ecco uno schema riassuntivo:

\[ \overset{\text{Fotosintesi} \longrightarrow \text{Glucosio}} \\
\left\{
{
\begin{array}{l}
\text{Respirazione (energia e nessun sequestro di }CO_{2}\text{)} \\
\text{Amido (riserva)} \\
\text{Cellulosa (struttura)} \\
\text{Saccarosio (trasporto)} \\
\text{Metaboliti vari (biosintesi)}
\end{array}
}
\right.
\]

 

La \(CO_{2}\) non è cibo per le piante

Nel Carbonifero (358-303 milioni di anni fa) la CO₂ era simile ai livelli attuali, la pressione parziale di O₂ era molto più alta (fino al 35%) e il Sole era più debole (2-3% meno di oggi).
La produttività primaria era enorme e la biosfera sequestrava carbonio in modo massiccio nella litosfera. Oggi stiamo liberando in atmosfera, in pochi decenni, il carbonio che la Terra aveva sotterrato in milioni di anni: il sistema climatico attuale non ha analoghi diretti nel passato.

Illustrare sommariamente la biochimica delle piante era necessario per capire perché la semplice anidride carbonica non è affatto cibo per le piante ma è soltanto una componente di un sistema molto più complesso a cui servono anche acqua \(H_{2}O\), fosforo \(P\), azoto \(N\) etc. per funzionare correttamente.
È vero, spesso in serra si usano bruciatori per aumentare la \(CO_{2}\) nell’ambiente chiuso per aumentare la resa delle colture, ma vengono forniti anche concimi e acqua in proporzione per aumentare la biomassa coltivata.
Ma nel mondo reale non funziona così: Anche se un aumento di qualche ppm di \(CO_{2}\) nella troposfera può aumentare la biomassa vegetale momentaneamente.
Questo maggiore apporto porta le piante in ambiente naturale a assorbire più  acqua e gli altri oligoelementi necessari al loro sviluppo a scapito del suolo. Livelli più alti di \(CO_{2}\) atmosferica spingono le piante ad produrre minori quantità di proteine su terreni poveri. Come confermato da una mastodontica meta-analisi del 2025 [18]. Circa 59.000 campioni, 43 colture mostrano un calo pesante dello zinco e anche le proteine ​​e il ferro calano in modo significativo. Non è solo diluizione: è un vero cambiamento nella composizione del cibo. E quando il terreno rimane povero o sterile c’è poco da fare: lì le biomasse vegetali si ridurranno o non cresceranno più affatto.
Questo significa che in sostanza più \(CO_{2}\) troposferica alla lunga porta alla desertificazione del suolo.

L’effetto serra

Poi c’è l’effetto serra, che complica ulteriormente le cose.
Le temperature dell’aria variano ampiamente su scale temporali che spaziano da ore a giorni, settimane, mesi e stagioni. In quanto organismi autotrofi sessili, le piante sono esposte a questa ampia gamma di condizioni termiche e hanno sviluppato numerose strategie per percepire e affrontare i cambiamenti di temperatura, e, in misura limitata, regolarne la propria. Sebbene tali adattamenti consentano alle piante di prosperare in diverse condizioni di crescita, la temperatura influisce direttamente su tutti gli aspetti delle attività biochimiche e biofisiche a livello cellulare, d’organo e dell’intera pianta. Le temperature delle piante spesso differiscono da quelle dell’aria a causa dell’assorbimento di radiazioni, della traspirazione e di altri fattori, ma l’aumento termico dell’aria e della chioma è legato al bilancio energetico, determinando un incremento diretto della temperatura vegetale.
Le piante possono acclimatare processi metabolici chiave al variare delle condizioni di crescita, ma tali adattamenti mirano principalmente alla sopravvivenza, non sempre al mantenimento di un’attività fisiologica ottimale per la massima crescita o resa.
Proiezioni indicano che temperature superiori ai 30 °C possono ridurre le rese delle colture principali, una soglia spesso superata e destinata ad aumentare con il riscaldamento globale.
Esperimenti su colture di soia esposte a 3.5°C  sopra altri lotti di controllo, ossia con temperature massime giornaliere che variavano da 32,5°C a 41,5°C, hanno mostrato un  calo della fotosintesi del 15%. Per cui, anche se un più alto livello di \(CO_{2}\)  può portare a un aumento della fotosintesi,  quando  l’acqua è scarsa, la fotosintesi si riduce poiché lo stress da siccità può portare alla chiusura degli stomi e persino alla clorofilla [19] . Analogamente, a temperature elevate, l’aumento della fotosintesi indotta dalla \(CO_{2}\) viene compensata da una diminuzione dell’attività enzimatica[20] [21]. In alcuni casi, la combinazione di siccità e temperatura elevata può portare a risposte fisiologiche superiori agli effetti individuali, suggerendo effetti sinergici negativi ([22] [23]
Di conseguenza, il riscaldamento attuale e futuro, insieme alla frequenza crescente di eventi estremi di calore, rappresenta una sfida significativa per l’acclimatazione e il successo fisiologico, morfologico, di crescita e riproduttivo delle piante nella biosfera terrestre [24].
Come detto prima, una maggiore disponibilità di \(CO_{2}\) deve essere compensata da altri elementi, come l’azoto. Ma pur se questo rappresenta il 78% dell’atmosfera le piante non lo possono processare direttamente, ma lo estraggono con le radici sotto forma di nitriti, nitrati e sali.
Altrimenti, le piante crescono più stente e deboli [25], rimanendo più esposte ad attacchi parassitari [26].
Tradotto in poche parole, l’aumento dell’anidride carbonica nell’atmosfera riduce l’apertura stomatica e quindi riduce la traspirazione. Di conseguenza, così aumenta la temperatura fogliare, peggiorando lo stress termico.

L’acidificazione del suolo

La maggior parte delle piante cresce bene in terreni neutri o leggermente acidi (pH 6.0-7.5), dove nutrienti come azoto, fosforo e potassio sono facilmente assorbibili. L’acidificazione del suolo è un problema che, se non corretto, porta alla desertificazione del suolo.

È vero che l’aumento della \(CO_{2}\) atmosferica stimoli in genere il processo della fotosintesi e l’assorbimento dei nutrienti da parte delle piante, alterando i cicli locali e globali degli elementi bioattivi. Sebbene i cationi nutritivi rivestano un ruolo cruciale nella produttività a lungo termine e nel bilancio del carbonio degli ecosistemi terrestri, l’impatto dell’aumento di \(CO_{2}\) sulla disponibilità di tali cationi nel suolo non è del tutto chiaro.
Ma ci sono evidenze di un nuovo meccanismo attraverso il quale l’incremento di \(CO_{2}\) favorisce il rilascio di cationi dal suolo nei sistemi agricoli a coltivazione di riso.
Concentrazioni elevate di \(CO_{2}\) hanno determinato una maggiore allocazione di carbonio organico nel sottosuolo e una escrezione netta di ioni \(H^{+}\) dalle radici, stimolando la respirazione radicale e microbica, abbassando il potenziale di ossidoriduzione del suolo e incrementando le concentrazioni di \(Fe^{2+}\) e\(Mn^{2+}\) nelle soluzioni circolanti.
L’aumento di \(H^{+}\), \(Fe^{2+}\) e \(Mn^{2+}\) promuove il rilascio di \(Ca^{2+}\) e \(Mg^{2+}\) dai siti di scambio cationico del suolo. Questi risultati suggeriscono che, nel breve periodo, livelli elevati di \(CO_{2}\)  intensificano il rilascio di cationi dal suolo, favorendo la crescita vegetale; nel lungo periodo, tuttavia, tale processo porta alla perdita di cationi e l’acidificazione del suolo, con gravi conseguenze negative sulla produttività degli ecosistemi terrestri — a pH molto bassi (sotto 5.5), l’alluminio diventa tossico e altri elementi come molibdeno scarseggiano, comprese le falde acquifere. E  anche il ricorso massiccio di fertilizzanti, usati per inseguire l’aumento della \(CO_{2}\) atmosferica, per esempio per sopperire alla riduzione dell’azoto disponibile per le piante, tendono ad acidificare il terreno.
Anche questo significa che l’aumento di \(CO_{2}\) non solo non nutre le piante, ma accelera la perdita di nutrienti essenziali dal suolo, rendendo gli ecosistemi meno resilienti.

Conclusione

La letteratura scientifica sull’argomento è sterminata, impossibile citarla tutta. Molti studi si concentrano — comprensibilmente — sulle colture destinate all’alimentazione umana, ma il quadro generale è sempre lo stesso: l’anidride carbonica si comporta come un dopante. Da un lato può stimolare la fotosintesi, dall’altro altera profondamente l’equilibrio fisiologico delle piante.
L’effetto di fertilizzazione del carbonio (CFE) globale sta già declinando dagli anni ’80 per mancanza di nutrienti e acqua [27]. Molti modelli climatici sovrastimano il salvagente vegetale – e noiperò poi paghiamo il conto.

E se questo non bastasse, l’aumento delle temperature dovuto al maggiore effetto serra accelera la traspirazione fogliare, costringendo le piante a chiudere gli stomi per non perdere acqua. A quel punto la fotosintesi rallenta o si blocca del tutto.

In passato 3, in epoche molto diverse dalla nostra, un’atmosfera ricca di CO₂ poteva favorire una crescita vegetale esplosiva. Ma allora il pianeta era privo di ghiacci, gli ecosistemi erano dominati da autotrofi primitivi e non esistevano grandi erbivori a consumare biomassa. La vegetazione cresceva, moriva e si accumulava in un ciclo continuo che oggi non è più replicabile.

Oggi, invece, quell’equilibrio non esiste più. Aumentare la CO₂ non nutre le piante: le stressa, le indebolisce e altera gli ecosistemi da cui dipendiamo. È un mito comodo per i climapiaattisti, ma resta un mito.

Un’indagine astrochimica e narrativa sulla cometa 3I/ATLAS

All’inizio ero piuttosto scettico di parlare di 3I/ATLAS. Non perché non fosse interessante, ma per non aggiungermi al coro delle banalità scritte un po’ ovunque su questa cometa. Ma poi, di fronte alle tante corbellerie da Fine del Mondo che ho letto, mi sono deciso a scrivere anche la mia. Magari anch’essa una corbelleria, ma senz’altro più esotica e affascinante.

\(Ni\left( CO \right)_{4}\): la firma chimica di un viaggiatore interstellare

La C/2025 N1 (3I/ATLAS) non è una comune cometa come quelle che di solito precipitano verso il Sole provenienti dalla Nube di Oort, La sua non è un’orbita ellittica e neppure parabolica. È iperbolica con una eccentricità notevole: \(e ~ 6.13±0.02\). L’immagine qui a fianco mostra il punto d’ingresso di 3I/ATLAS nel Sistema Solare il giorno della sua scoperta. L’oggetto cometario è arrivato nel nostro Sistema Solare poco sopra il piano dell’eclittica dalle regioni più dense della Galassia: tra il Sagittario e il Serpente, poco sotto lo Scudo. Le prime stime della sua età sono strabilianti: 7.8 miliardi di anni, una volta e mezzo quella del Sole e meno della metà dell’Universo!
L’età avanzata di un oggetto che proviene dal bulge galattico potrebbe far pensare che in qualche modo la sua provenienza sia quella. Io penso di no.
La velocità d’ingresso nel Sistema Solare era alta \(~58\;km/s \).
Ora, arrotondando per eccesso a 60 e considerano “solo” 7 miliardi di anni di moto rettilineo uniforme \(Spazio = Velocità \times  Tempo\),
\[60\ km/s\times 2.209032 \times10 ^{17} =1.33 \times10^{19} \ km\]
ovvero ~ 1.4 milioni di anni luce (ovviamente questo è un esercizio concettuale: nessun oggetto mantiene velocità costante per miliardi di anni dentro un ambiente dinamico come una galassia).
Ma  tra il Sistema Solare e il bulge galattico ci sono solo 26 mila anni luce, quindi qualcosa non torna con 3I/ATLAS. Come può essere così antico e veloce? Se l’età è giusta, allora è la velocità è l’unica cosa che può essere cambiata, così come la traiettoria.
Questo significa che 3I/ATLAS potrebbe provenire da molto più lontano, non dal bulge magari, ma da regioni esterne alla Galassia o addirittura da un’altra galassia.
3I/ATLAS potrebbe essere un planetesimo appartenuto a una stella di Popolazione II di una galassia satellite poi cannibalizzata o di un ammasso globulare molto antico distrutto dalle forze mareali del bulge galattico circa 8 miliardi di anni fa. Questa ipotesi può facilmente spiegare parametri come l’elevatata eccentricità,  l’orbita retrograda e l’elevata velocità iperbolica. Infatti, i valori mostrati da 3I/ATLAS sono decisamente troppo alti per un oggetto espulso da un sistema planetario appartenente alla Via Lattea e troppo bassi per un oggetto extragalattico. Ma perfettamente compatibili con un oggetto espulso durante una fusione galattica.
La Via Lattea ha inglobato diverse galassie nane nel corso della sua evoluzione, come la SagDEG (Sagittarius Dwarf Elliptical Galaxy) [28] e la Gaia-Enceladus [29]. Durante l’interazione mareale tra la galassia nana e la Via Lattea, le forze di marea e incontri ravvicinati con stelle massicce potrebbero aver espulso oggetti minori come 3I/ATLAS. Tramite questo meccanismo l’oggetto cometario avrebbe acquisito una velocità di fuga sufficiente a lasciarsi alle spalle il suo sistema d’origine, ma non la galassia ospite. Dopo la disgregazione della galassia nana, l’oggetto avrebbe vagato nel medio interstellare galattico, seguendo un’orbita caotica, fino a incrociare il Sistema Solare. Se 3I/ATLAS provenisse da una di queste galassie, la sua velocità di 68 km/s e la sua orbita iperbolica sarebbero il risultato di un’interazione dinamica antica, avvenuta miliardi di anni fa.

Ovviamente questa non è l’unica ipotesi, ma è una delle più affascinanti perché collega la cometa a eventi galattici antichi e a dinamiche cosmiche su scala galattica.

L’enigma chimico: nichel tetracarbonile

Tra le righe di emissione del monossido di carbonio e il cianuro (quasi assente) c’è una importante riga che appartiene al nichel, che in 3I/ATLAS è molto più abbondante del ferro.

La 3I/ATLAS ha mostrato una combinazione di firme chimiche mai osservate prima: un rapporto \(CO_{2}/H_{2}O\;\text{di}\;19.55:1\), emissioni intense di nickel senza tracce di ferro, e una dinamica che lo colloca tra gli oggetti più energetici mai entrati nel Sistema Solare.
I primi segni tipici di attività cometaria sono stati osservati quando l’oggetto interstellare era a circa 3 AU dal Sole, il che non è insolito per quella distanza. Era ossidrile (\(OH\)) prodotto dalla fotodissociazione ultravioletta delle molecole d’acqua in ragione di circa 40 kg/sec (stechiometricamente circa 88 kg di acqua per secondo). Ma la temperatura superficiale della cometa a quella distanza è di circa 100-120 K (-173°C a -153°C), calcolata con la legge di Stefan-Boltzmann \(\left( T\approx \left( S/ \sigma \right)^\frac{1}{4}\right)\), dove \(S\) è la costante solare ridotta a 162 W/m² a 2,9 UA). Questo significa che in quella regione dello spazio è ancora troppo freddo per la sublimazione diretta del ghiaccio d’acqua, che richiede almeno 150-200 K. Ma potrebbe essere in gioco un altro meccanismo di sublimazione indiretto: piccoli grani di ghiaccio d’acqua, espulsi dalla sublimazione di ghiaccio di \(CO\) o \(CO_{₂}\) (più volatili), vengano dissociati dalla radiazione UV solare a 4.000-10.000 km dal nucleo.

La cosa più eccitante è che lo spettro della cometa a quella distanza mostra anche una grande firma legata al nichel (\(Ni \;\text{I}\)) ma non al ferro, comunemente associato a questo elemento. Il nichel atomico gassoso è stato trovato nella coma di 3I/ATLAS nel agosto scorso dal telescopio Keck II a una distanza di ~3.8 UA dal Sole.
Una plausibile spiegazione è che sia il risultato della fotodissociazione ultravioletta del nichel tetracarbonile \(Ni\left( CO \right)_{4}\)- una sostanza che sulla Terra usiamo in industria ma che nello spazio ancora non è mai stata osservata direttamente, ma solo ipotizzata [30], [31].
il nichel tetracarbonile è un complesso organometallico che si decompone facilmente col calore. la sua temperatura di fusione è di 248 K. Ma come può essersi formato questo complesso? Ce lo spiega questo studio [32] pubblicato su ResearchGate, ed è molto intrigante.

L’ipotesi in questo articolo

 

Una plausibile immagine della superficie di 3I/ATLAS immaginata da me e realizzata dalla AI Grok 3.

Immaginiamo un planetesimo di ghiaccio che orbita nella nube di Oort attorno a una gigante rossa AGB 1 di Pop. II di una antica galassia satellite della Via Lattea. Una supergigante col rapporto \(C/O\gt 1\) e venti stellari ricchi di radicali \(C, C_{2}, CN\). In un ambiente così ricco di carbonio, qualunque metallo che condensa interagisce con superfici carboniose.
E il nichel è proprio uno di quei metalli di transizione capaci di adsorbire il carbonio e catalizzare la sua polimerizzazione e altri processi complessi. Questo non è un dettaglio marginale: è la base della chimica industriale del carbonio. La chimica del tetracarbonile di nickel è sorprendentemente “facile” se si hanno le condizioni giuste:

  • \(Ni\) metallico non ossidato o \(Ni^{0}\)
  • \(CO\) in grande abbondanza
  • basse temperature (50–200 K)
  • pressioni moderate (10⁻⁶–10⁻³ bar)
  • assenza di ossigeno libero

Tutte queste sono proprio le condizioni del vento di una stella asintotica ricca di carbonio e della successiva fase di raffreddamento dei grani. La formazione del nichel tetracarbonile diventa spontanea quando la temperatura dello spazio scende sotto i 200 K.

\[Ni^0 + 4\; CO\to Ni\left( CO \right)_{4}\]

È una reazione esotermica e spontanea, favorita dalle basse temperature e dall’eccesso di \(CO\). In pratica è la medesima reazione che Mond scoprì nel 1890, e che ancora oggi si usa industrialmente per purificare il nickel, solo che in questo caso siamo su scala stellare.
Riassumendo: il vento stellare di una gigante asintotica può essere riassunto in due momenti. Una fase calda (1300-1500 K) in cui avviene la condensazione dei solfuri di nichel (\(NiS, Ni_{3}S_{2}\)) e agglomerati di nichel non ossidato. E una fase fredda (200 > 50 K),m in cui il nichel non ossidato e il monossido di carbonio sono liberi di interagire. Il vento stellare si espande, si raffredda, e gli agglomerati metallici vengono carbonilati 2.

Il processo-s genera elementi pesanti catturando neutroni lentamente, consentendo ai nuclei instabili di decadere in forme stabili prima della successiva cattura. Questo meccanismo incontra due limiti naturali: il Bismuto-209 (209Bi), l’elemento stabile più pesante che il processo-s può produrre direttamente, il quale catturando un neutrone diventa 210Bi, instabile; e la “barriera” del Piombo-208 (208Pb). Il 210Bi decade in circa cinque giorni a Piombo-210 (210Pb), che attraverso successive catture di neutroni si trasforma in una catena stabile fino a Piombo-206, Piombo-207 e infine Piombo-208. Quest’ultimo, caratterizzato da un nucleo doppiamente magico, è estremamente stabile e poco reattivo ai neutroni aggiuntivi. In conclusione, il processo-s arricchisce le stelle soprattutto di 208Pb e, in misura minore, di 209Bi, che attraverso il decadimento contribuisce ulteriormente all’accumulo di 208Pb come prodotto finale.

Ma rimane un altro aspetto affascinante delle giganti asintotiche: i loro brevi ma potentissimi flash dell’elio 3; impulsi termici brevi ma potentissimi in cui il guscio dell’elio si accende violentemente, generando temperature di \(1-3 \times10^8 \;K\). Durante questi parossismi si ha una produzione massiccia di neutroni tramite la reazione \(^{13}C\left( \alpha,n \right)^{16}O\) 4.
Nel modello proposto da Young si calcola che ogni flash dell’elio raddoppi il rapporto \(Ni/Fe\) proprio per cattura neutronica (per ex. 6 flash, \(\to2^{6}\) = 64 volte più nichel del ferro. Ma questo non basta. Il nichel tende a formare solfuri volatili come ho precedentemente descritto, mentre il ferro invece si lega di più con i silicati e ossidi refrattari (olivine, pirosseni, \(FeO\)). E nella fase calda dei venti stellari, il nichel condensa con una efficienza attorno al 90% contro il 10% del ferro. Questo si traduce in un altro arricchimento del nichel a distanza molto maggiori della stella di circa 9 volte.
Combinando i due fattori, nucleosintesi e condensazione, e le debite correzioni al ribasso prudenziali, diciamo un efficienza dell’8%,  si ottiene:
\[Ni/Fe \approx64\times9\times0.08 \approx 46\]
un valore praticamente identico al limite osservato in 3I/ATLAS (Ni/Fe > 46). Almeno finché la 3I/ATLAS era a una distanza eliocentrica di 2,7 UA.

Poi a una distanza eliocentrica di 2.6-2-5 UA ecco comparire la riga spettroscopica del \(Fe \;\text{I}\) 5. Tra i 2.6 e 2 UA il rapporto \(Ni/Fe\) crolla e a distanze ancora inferiori tale rapporto diventa praticamente uguale a quello di una comune cometa del Sistema Solare.
Il concetto è molto semplice ed elegante [33]:
il \(Ni\left( CO \right)_{4}\) sublima molto prima (3,5-4 UA) del \(Fe\left( CO \right)_{5}\) ( <2,6UA).
Per questo si è notata prima la grande presenza del nichel I e poi del ferro I. È un comportamento puramente termico che però non contraddice quanto finora detto sull’abbondanza del nichel primordiale nella cometa. In sostanza si tratta di un processo evolutiv0 dipendente dalla distanza dal Sole, lo straordinario e mutevole rapporto \(Ni/Fe\) che stiamo osservando.

Conclusione

Noi osserviamo unicamente la chioma di 3I/ATLAS, non il suo nucleo. Ma dal modo in cui si evolve il rapporto \(Ni/Fe\) si può intuire l’origine della cometa, che si è fissata approssimativamente tra i 7 e 11 miliardi di anni fa in orbita  intorno a una gigante rossa asintotica di una galassia assorbita dalla Via Lattea, in un’area molto ricca di nichel e povera di ferro.
Io non credo a speculazioni di artefatti alieni e altre bischerate. Ogni cometa naturale ha movimenti non gravitazionali dipendenti dal criovulcanismo. 3I/ATLAS ha avuto 8 miliardi di anni di vuoto interstellare per accumulare ghiaccio che si è poi degradato grazie ai raggi cosmici. Per me è un planetesimo ricoperto di ghiaccio sporco che ci racconta una storia ben più intrigante di una mistica nave ‘liena. Con buona pace a chi ancora a quella strampalata ipotesi vuol ancora credere.

Cieli sereni

 

 

GJ 251c: un mondo alieno tra licheni neri e atmosfere tossiche

Notizia di queste ore è la scoperta di un nuovo pianeta che orbita attorno a una nana rossa (M4) a 18 anni luce di distanza. E giù tutti i simpatici giornaloni a dire una nuova Super Terra, quasi fosse Tahiti, magari abitata da gnomi di Babbo Natale in bermuda e mohito.
Io tutto questo entusiasmo che vedo in giro non lo capisco.
Il pianeta ha una propria rotazione assiale o è bloccato in risonanza con la sua stella? La sua massa la sappiamo, ma la densità? Da questo dipende la gravità in superficie. Al massimo (ammesso abbia una densità simile alla Terra potremo aspettarci un’atmosfera particolarmente ricca di carbonio affinché si raggiunga il punto triplo dell’acqua (273 K), perché la sua temperatura di equilibrio è a 216 K. In queste condizioni, probabilmente la forma di vita più evoluta sarà qualche lichene nero (la radiazione di corpo nero della stella influisce sui processi di fotosintesi) in un’atmosfera per noi tossica. Facciamo due conti.

A soli 18 anni luce dalla Terra, GJ 251c è una Super Terra che ha acceso l’interesse di astronomi e divulgatori. Ma dietro l’entusiasmo dei titoli di giornale, si nascondono alcune domande cruciali per stabilirne l’abitabilità: ha una rotazione propria? Qual è la sua densità? E soprattutto: può davvero ospitare vita?

Parametri orbitali e fisici

  • Massa: \( M_p \approx 4 M_\oplus \)
  • Periodo orbitale: \( P \approx 54 \, \text{giorni} \)
  • Temperatura di equilibrio: \( T_{eq} \approx 216 \, \text{K} \)

Densità e gravità superficiale

\[ \frac{R_p}{R_\oplus} = \left( \frac{M_p / M_\oplus}{\rho_p / \rho_\oplus} \right)^{1/3} \]
\[ \frac{g_p}{g_\oplus} = \frac{M_p / M_\oplus}{(R_p / R_\oplus)^2} \]

Assumendo una densità tra \(\rho_p = 4-5 \ \text{g/cm}^3\) 1 [34], si possono stimare il raggio e la gravità con \( \rho_p = 4.5 \, \text{g/cm}^3 \) e \( \rho_\oplus = 5.51 \, \text{g/cm}^3 \):

Raggio relativo rispetto alla Terra:

\[ \frac{R_p}{R_\oplus} = \left( \frac{4}{4.5 / 5.51} \right)^{1/3} = \left( \frac{4}{0.816} \right)^{1/3} \approx 1.70 \]

E la relativa gravità superficiale (sempre rispetto alla Terra):

\[ \frac{g_p}{g_\oplus} = \frac{4}{(1.70)^2} \approx 1.38 \]

Rotazione e distribuzione termica

Con un periodo orbitale di 54 giorni attorno a una nana rossa, è altamente probabile che Gliese 251c sia bloccato marealmente o in risonanza spin-orbita 2 .
Un blocco mareale stretto, come quello della Luna con la Terra per esempio, implicherebbe che un emisfero del pianeta sia perennemente illuminato, l’altro al buio. In questo caso saremmo di fronte a forti gradienti termici, mitigabili solo da un’atmosfera particolarmente densa e dinamica.
Però potrebbero esserci ancora delle zone potenzialmente sostenibili limitate al terminatore (la fascia tra il giorno e la notte).
Anche in questo caso la matematica ci dice perché:

Tempo di sincronizzazione mareale

La formula estesa è [35]:

\[
t_{\text{sync}} = \frac{\omega a^6 I Q}{3 G m_S^2 k_2 R_P^5}
\]

Dove:

  • \( \omega \): velocità angolare iniziale
  • \( a \): distanza dal corpo centrale
  • \( I = \frac{2}{5} m_p R_P^2 \): momento d’inerzia
  • \( Q \): fattore di dissipazione
  • \( G = 6.674 \times 10^{-11} \, \text{m}^3 \, \text{kg}^{-1} \, \text{s}^{-2} \)
  • \( m_s \): massa del corpo centrale
  • \( k_2 \): numero di Love
  • \( R_P \): raggio del pianeta

Per GJ 251c:

\[ I = \frac{2}{5} \cdot 2.39 \times 10^{25} \cdot (1.08 \times 10^7)^2 \approx 1.11 \times 10^{39} \]
\[ \omega = \frac{2\pi}{86400} \approx 7.27 \times 10^{-5} \]
\[ t_{\text{sync}} \approx \frac{(7.27 \times 10^{-5}) \cdot (3.29 \times 10^{10})^6 \cdot (1.11 \times 10^{39}) \cdot 100}{3 \cdot 6.674 \times 10^{-11} \cdot (7.16 \times 10^{29})^2 \cdot 0.3 \cdot (1.08 \times 10^7)^5} \]
\[ t_{\text{sync}} \approx 1.2 \times 10^7 \, \text{anni} \]

Quasi certamente il nostro pianeta è in uno stato di blocco mareale con la sua stella.

Una plausibile atmosfera

Ecco come potrebbe apparire un ambiente tipico nei pressi del terminatore di GJ 251c in una bella giornata di sole, pardon, Gliese 251.

Una plausibile composizione potrebbe essere  simile a quella terrestre dell’Eone Adeano. Quindi ipotizziamo:

  • Atmosfera:

    • Pressione: \( 3.0 \ \text{bar} \)

    • CO₂: \( 75\% \) → \( 2.25 \ \text{bar} \)

    • N₂: \( 20\% \) → \( 0.6 \ \text{bar} \)

    • CH₄: \( 4\% \) → \( 0.12 \ \text{bar} \)

    • H₂: \( 1\% \) → \( 0.03 \ \text{bar} \)

  • Temperature:

    • Emisfero diurno: \( 290-310 \ K \)

    • Terminatore: \( 273-283 \ K \)

    • Emisfero notturno: \( 200-230 \ K \)

Con una pressione sufficiente a garantire il rimescolamento atmosferico su entrambi gli emisferi di un pianeta marealmente bloccato:

\[
P_{atm} \approx 2 – 4 \, \text{bar}
\]

e una temperatura media di superficie vicina al punto triplo dell’acqua:

\[
T_{surf} = T_{eq} + \Delta T_{serra} \Rightarrow T_{surf} \approx 276 \, \text{K}
\]

Profilo di assorbimento dei pigmenti:

\[
A(\lambda) = A_0 \cdot e^{-\left( \frac{\lambda – \lambda_{peak}}{\sigma} \right)^2}
\]

\[
\lambda_{peak} \approx 1.1 \, \mu m
\]

Biosfera ipotetica: licheni infrarossi

Comparazione della radiazione di corpo nero tra Gliese 251 (in rosso) e il Sole (grigio). Lo sfondo potrebbe somigliare a quello che gli occhi umani percepirebbero in una bella giornata a mezzogiorno.

Tutto quanto  finora detto con la matematica ha una notevole importanza per lo sviluppo di possibili forme di vita su Gliese 251c. Facciamo altri due conti:

La legge di Wien che descrive la radiazione di corpo nero per  \(T\) è:

\[
\lambda_{\text{max}} = \frac{2.898 \times 10^{-3}}{T}
\]

Per \( T = 3350 \, \text{K} \), otteniamo: \(
\lambda_{\text{max}} \approx 865 \, \text{nm}
\), ma abbiamo visto che una atmosfera abbastanza dinamica da agire su entrambi gli emisferi di un pianeta bloccato spinge ancor di più verso il lontano infrarosso il picco di radiazioni: \(
\lambda_{peak} \approx 1100 \, \text{nm}\)

Questo ci suggerisce che su Gliese 251c potremmo aspettarci forme di vita anaerobica, dotate di metabolismo lento e pigmenti scuri, simili alla rodopsina terrestre [36] presente in alcuni funghi chitridiomiceti [37].
Questi organismi potrebbero sfruttare meccanismi di conversione energetica analoghi all’ATP sintasi, l’enzima che immagazzina energia luminosa sfruttando un gradiente elettrochimico nei mitocondri degli eucarioti e nella membrana cellulare dei procarioti.
Il loro habitat ideale potrebbe essere costituito da rocce porose nella zona crepuscolare, dove la luce visibile è scarsa e il vicino infrarosso (NIR) domina. Mentre sulla Terra pigmenti come la rodopsina assorbono nel NIR—una lunghezza d’onda invisibile all’occhio umano—appaiono del tutto incolori 3, in un mondo dove ogni fotone è prezioso, l’evoluzione spingerebbe gli organismi ad adattare i propri enzimi fotosensibili per massimizzare l’assorbimento dell’energia disponibile, spostata verso le lunghezze d’onda rosse e infrarosse.
Dovremmo quindi aspettarci di trovare pigmenti capaci di assorbire uno spettro molto più ampio, ce va dalla parte più alta dello spettro visibile su quel mondo fino alla luce infrarossa dominante. Questi pigmenti assorbirebbero tutta la luce visibile (per quanto scarsa) e quella infrarossa, apparendo neri ai nostri occhi.
Il ciclo biochimico che dovremmo quindi aspettarci di trovare è pressapoco questo:
\[ 4H_2 + CO_2 \rightarrow CH_4 + 2H_2O + \text{energia} \]

Conclusione

Gliese 251c non è una seconda Terra. È un mondo alieno, forse abitabile per quelle forme di vita che metabolizzano nell’infrarosso e respirano metano. Considerando che Gliese 251 ha un’età di 6.8 miliardi di anni – è più vecchia del Sole – il pianeta ha avuto abbondante tempo non solo per sincronizzarsi con la sua stella, ma anche per sviluppare una biosfera matura e stabilizzare la sua atmosfera
Forse, sul pianeta potrebbero coesistere anche sacche di vita con biochimiche molto diverse tra loro la cui unica cosa in comune è la fioca luce della loro stella.
E proprio per questo, è ancora più affascinante.

Come il V2H può cambiare l’Italia (parte prima)

L’autonomia energetica non è solo un sogno. È una scelta tecnica, culturale e personale. Da un paio di anni vivo in una casa alimentata da un impianto fotovoltaico da 8 kWp, con 15 kWh di accumulo e una gestione intelligente orchestrata da intelligenza artificiale. Risultato? La mia ultima bolletta bimestrale è di 48 €, di cui 16 € sono il canone TV. Il resto è energia. E anche quella, è tutta mia.

Ho dovuto, malvolentieri, suddividere l’articolo i due tronconi: ci sono troppe cose da dire rispetto al tempo di attenzione di un lettore medio. Questa m’è parsa la soluzione migliore per tutti, e ne varrà la pena aspettare qualche giorno affinché l’importanza di un veicolo elettrico V2G e del fotovoltaico casalingo con accumulo venga compresa al meglio dal lettore.
Nel prossimo, le considerazioni finali.

L’auto come batteria: il concetto di V2H/V2G

Con l’arrivo della mobilità elettrica, le auto non sono più solo mezzi di trasporto. Sono accumulatori mobili da 60–100 kWh, parcheggiati per il 90% del tempo. Il V2H (Vehicle-to-Home) permette di scaricare energia dalla batteria dell’auto per alimentare la casa. Il V2G (Vehicle-to-Grid) consente di immettere energia nella rete nazionale, contribuendo alla stabilità e ricevendo compensi.

 

Simulazione: un milione di auto elettriche V2G

ParametroValore stimatoNote / fonte
Numero di auto V2G1.000.000
Plausibile al 2028-2030 (oggi ~334k EV totali, proiezione PNIEC: 6,5M al 2030).
Percentuale attiva contemporanea50% → 500.000 autoBasato su soste medie (notte/lavoro), ~50% connesse in orari di picco.
Capacità media batteria60 kWh (conservativa)Media attuale 53 kWh; sale con nuovi modelli.
Energia disponibile per V2G50% della batteria → 30 kWh/autoLimite per non intaccare mobilità; ciclo round-trip 80%.
Totale energia disponibile500.000 × 24 kWh = 12 GWhUtile per ~1-2 ore di scarica di picco.
Potenza media erogabile/auto3 - 7 kW (scarica controllata, non massima)Conservativo; fino a 7 kW domestico, 22 kW aziendale.
Potenza istantanea totale1.5 - 3,5 GWDipende da aggregazione; es. 500k × 3-7 kW.
Impatto sulla rete nazionale
12 GWh di energia immediata disponibile → sufficiente a coprire:
Il fabbisogno giornaliero di 2 milioni di abitazioni (media 6 kWh/giorno/abitazione)
1.5 - 3.5 GW di potenza istantanea → pari a
circa una grande centrale nucleare.
O il 10–15% del picco serale medio italiano in inverno

 

La rete italiana (gestita da Terna) ha un picco di domanda attuale di circa 56 GW (luglio 2025), con consumi medi giornalieri di circa 800 GWh. Un parco V2G come immaginato nella simulazione agirebbe come una batteria distribuita mobile: essa assorbe senza sforzo gli eccessi rinnovabili (ex. il solare diurno) e rilascia in picchi serali, stabilizzando la rete senza bisogno di storage stazionario costoso. Ecco l’impatto stimato, in termini percentuali e benefici:

  1. Su Picchi di Domanda (Peak Shaving)
    • Riduzione potenziale: 1.5-3.5 GW, ovvero il 2.7-6.2% del picco nazionale (56 GW).
    • Esempio locale: A Roma, stime Areti indicano circa 400 MW solo con lo smart charging più il V2G iniziale; su scala nazionale si potrebbe arrivare a 2-4 GW con un milione di auto.
    • Beneficio: Eviterebbe blackout o investimenti di rete per un risparmio di circa 1-2 miliardi di euro fino al 2030.
  2. Su Energia Totale e Integrazione Rinnovabili
    • 12 GWh netti equivalgono a circa l’1.5% del consumo giornaliero, stimati oggi 800 GWh, ma concentrati tutti in 2-4 ore di picco; questo scenario dimezzerebbe i vuoti serali, integrando il surplus del 10-15% di solare/eolico (oggi al 42% della domanda energetica).
    • Al 2030, con 6.5 milioni di veicoli elettrici V2G (stimati) si otterrebbe un potenziale accumulo totale pari a 300 GWh (pari alla produzione giornaliera di 12 centrali nucleari da 1000 MW), riducendo le emissioni CO2 di 200-300 mila tonnellate all’anno (valore economico 0.8-4.8 €/kWh evitato).
  3. Benefici Economici e Ambientali
    • Economici: Almeno 700-800 milioni di euro all’anno per il sistema (riduzione costi dispacciamento del 40%); mentre gli utenti guadagnerebbero intorno ai 100 €/auto/anno vendendo il surplus di energia.
    • Ambientali: Maggiore quota di rinnovabili significa meno emissioni (la doppia vita delle batterie ridurrebbe il bisogno di litio); il degrado extra batteria <1% in 10 anni con gestione smart.
    • Rischi: Congestioni locali se non aggregati bene, ma mitigabili con le Unità Virtuali Abilitate Miste (UVAM) da 1 MW [38]

Sala tecnica operativa di Terna (RM)

Secondo Motus-E e ARERA [39] il V2G potrebbe diventare una delle leve principali per la transizione energetica italiana, con incentivi fino a 600 €/anno per utente e un significativo – come abbiamo visto — impatto strutturale sulla bilancia energetica nazionale.
In pratica, se anche solo metà delle auto elettriche italiane diventassero V2G-ready, potremmo trasformare il parco circolante in un gigantesco UPS nazionale, capace di assorbire e restituire energia in modo intelligente.

Un esempio molto simile è il californiano V2G Curbside [40] dell’aprile 2025. Il California Energy Commission ha finanziato un progetto da 1.1 milioni di dollari per sviluppare il primo sistema V2G curbside al mondo 1. È stato pensato in collaborazione con UC Berkeley e University of Delaware per creare colonnine bidirezionali installabili sui marciapiedi urbani, dove milioni di auto sono parcheggiate ogni giorno, con l’obiettivo di trasformare le auto elettriche in sosta in risorse energetiche attive, capaci di scaricare energia nella rete durante i picchi e ridurre la pressione sulle infrastrutture elettriche.
Solo in California, si parla di 7 milioni di veicoli leggeri parcheggiati quotidianamente. Se anche solo il 10% di questi fosse V2G-ready, si otterrebbero 21 GWh di energia disponibile in caso di necessità. Il progetto include lo sviluppo del J3068 Active Cable [41], un cavo intelligente che gestisce comunicazione, autenticazione e flussi bidirezionali.

24 Giugno 2025, California. Un Modello Perfetto

il 24 giugno 2025, la California ha vissuto un momento storico. Durante una fascia critica tra le 19:00 e le 21:00, la rete elettrica era sull’orlo del blackout a causa di un picco di richiesta e una produzione rinnovabile in calo (picco +15-20% rispetto alla richiesta prevista). Ed è lì che è entrata in gioco la Virtual Power Plant (VPP) di Tesla e Sunrun: una rete di 25.000 Powerwall domestici aggregati e gestiti in tempo reale.
Sunrun ha dispacciato oltre 340 MW prelevate dalle batterie domestiche in serata, mentre Tesla ha testato un evento con migliaia di Powerwall, iniettando potenza extra durante le ore critiche e evitando blackout diffusi. Si è trattato di un salvataggio da 100 MWh in un colpo solo, simile a una centrale termoelettrica di medie dimensioni ma distribuito e scalabile. E il sistema ha risposto in modo sincrono, stabile e distribuito, evitando il collasso della rete. Il modello  californiano, con la sua straordinaria capacità di adattamento — domanda di picco intorno ai 50 GW, ha tagliato i costi emergenziali per centinaia di milioni di dollari e integrato un 15% di surplus di energia rinnovabile senza ricorrere a nuovi impianti centrali.

In Italia, con i nostri picchi estivi (tipo +7% consumi a giugno 2025), un setup VPP da un milione di auto e accumuli casalinghi potrebbe replicarlo alla scala nazionale, coprendo 1-3 GW extra senza muovere nemmeno un mattone.
L’esperienza californiana dimostra che l’energia decentralizzata è affidabile e che l’applicazione concreta dell’intelligenza artificiale nella gestione della rete elettrica distribuita è in grado di coordinare migliaia di dispositivi privati senza sforzo. E questo è un modello perfettamente replicabile in Italia grazie all’integrazione del modello casa-auto elettrica tramite il V2H/V2G.

28 aprile 2025. Caos nella Penisola Iberica

Il blackout del 28 aprile 2025 in Spagna e Portogallo è stato un campanello d’allarme per tutta l’Europa [42]. In pochi secondi, 15 GW di potenza sono spariti dalla rete iberica, causando oltre 10 ore di interruzione in molte zone e gravi disagi nei trasporti, telecomunicazioni e servizi essenziali. E tutto questo, paradossalmente, in un momento di alta produzione rinnovabile.
Non è stata la sovrapproduzione delle fonti rinnovabili, come qualche incauto il giorno dopo azzardò a proporre, ma una rete non sufficientemente flessibile per gestire sbilanciamenti improvvisi. Più precisamente fu proprio l’assenza di sistemi di bilanciamento del carico elettrico nazionale come sistemi di accumulo distribuito configurati in una VPP attiva a far crollare il sistema o, almeno, questa soluzione avrebbe ridotto di almeno un 40/50% le probabilità di un blackout estremo come quello che si è verificato dando il tempo necessario ai gestori di riallineare gli impianti tradizionali.

28 settembre 2003: Blackout italiano

L’Italia vista dallo spazio la notte del blackout nazionale del 2003

Dopo il blackout del 28 settembre 2003 [43], l’Italia ha invece investito pesantemente in reti intelligenti (le smart grid) con sistemi di protezione e riaccensione automatica, e interconnessioni europee più robuste coi paesi europei più vicini (Francia, Svizzera, Slovenia). Anche i sistemi di accumulo stazionario e fotovoltaico residenziale sono in crescita costante.
L’adozione della normativa CEI 0-21 che ora include anche il V2G [44] consentirà alla rete elettrica nazionale italiana di essere ancor più resiliente di quanto sia oggi.

Ora, immaginiamo di adattare l’ipotesi di cui sopra di un parco di un milione di auto elettriche V2G, esteso magari anche alle batterie domestiche per chi ha il fotovoltaico: con ARERA che promuove le Unità Virtuali Miste (UVAM [45]) regolamentate dal Testo  Integrato del Dispaccciamento Elettrico (TIDE [46]) dal 2025, è fattibile: aggregatori come Enel X o nuovi player potrebbero coordinare via app, pagando 0.10-0.20 €/kWh per scarica.
Ecco l’impatto stimato da questo scenario:

  1. Sul picco italiano del 28 giugno scorso  (eccesso di rchiesta di energia intorno a 1-2 GW):
    • La VPP coprirebbe il 75-175% dell’extra domanda: 1.5-3.5 GW iniettati nelle 2-4 ore serali di picco dimezzerebbero il calo del fotovoltaico, evitando così onerose importazioni lampo da Francia e Austria (+20% nei prezzi spot).
    • Beneficio: Risparmio rete di circa 100-200 milioni di euro a evento senza emissioni di gas extra,  grazie al surplus  fotovoltaico (Italia al 10% quota, sale al 25% con VPP).
  2. Rispettto al blackout spagnolo (un distacco generale causato dalla perdita di 30-36 GW):
    • Scala nazionale: La rete italiana (picco 56 GW) è simile; una VPP da un milione di auto V2G mitigherebbe  del 5-6% un guasto simile (appoggiandosi comunque anche alla rete europea). Con espansione a 2-3 milioni di auto V2G al 2027,  si raggiungerebbero i 4-7 GW. Abbastanza per tamponare un 10-20% di caduta, dando tempo a Terna per reindirizzare il sistema.
    • Scenario ottimista: In picco di domanda dovuta a un’ondata di caldo anomalo imprevisto,tipo il caso californiano, o un guasto alla rete , nel caso spagnolo, una VPP e le smart grid ridurrebbero i rischi di blackout totale del 40-50%, come in CA.
    • Economicamente: Gli utenti guadagnerebbero per il loro surplus 100-200 €/auto/anno; il sistema nazionale risparmierebbe intorno ai 500-1 miliardo di euro all’anno in investimenti di stoccaggio.

 

La rana bollita e il Grande Filtro

Sono passati ormai diversi anni da quando ho pubblicato il mio ultimo post. Vuoi per pigrizia, alcuni acciacchi e altri, numerosi, progetti in cantiere che spero di finire, prima o poi. Uno di questi è appunto svecchiare questo bog. C’è ancora molto da fare, ma questo articolo è un inizio.
Ora voglio suggerire il Grande Filtro come un processo già in atto, non come un futuro prossimo o remoto. Magari col botto.

 

1. Il Grande Filtro

Robin Hanson definì il Grande Filtro come l’ostacolo (o la sequenza di ostacoli) che impedisce alla materia inerte di organizzarsi (vita) e diventare civiltà evoluta  [47].
Io aggiungo: che non necessariamente il Grande Filtro deve essere necessariamente una catastrofe col botto come  un meteorite, ma una cottura a fuoco lento iniziata quando la specie ha dimenticato come si regola il termostato.

La rana bollita

Non credo che il Grande Filtro debba essere per forza un evento catastrofico violento come il meteorite di Chicxulub, ma un processo molto più lungo, tipo” rana bollita”.
L’idea che il Grande Filtro sia un processo lento piuttosto che un singolo evento catastrofico è supportata anche da alcuni studiosi, come Anders Sandberg e Peter Søgaard Jørgensen [48] , che suggeriscono che il Filtro possa essere una serie di “trappole evolutive” piuttosto che un unico disastro.
Non necessariamente una civiltà tecnologica potrebbe fallire non per un’esplosione nucleare improvviso o un conflitto, ma per una graduale incapacità di gestire risorse, conflitti o tecnologie avanzate.
La metafora della “rana bollita” è perfetta: l’umanità potrebbe non accorgersi del pericolo finché non è troppo tardi per intervenire.

2. Quando è partito il conto alla rovescia?

Potremmo fissare un inizio convenzionale: 1750, macchina a vapore, carbone, miniere di ferro.
Da allora:
  • +1,5 °C medi globali [49]
  • 150-200 Mld USD / anno di danni climatici solo negli USA [50]
  • fracking, GNL, IA senza vincoli → tutte trappole lente che Sandberg e Jørgensen chiamano evolutionary traps [51].

Ma, molto più plausibilmente, ancora prima.

3. Cooperazione vs. individualismo:
la molla che si spezza

L’Homo sapiens ha sviluppato la sua civiltà proprio grazie a finzioni condivise [52]
Due viraggi l’hanno spostata sul binario opposto:
MomentoDriverEffetto
1550-1700CalvinismoPredestinazione → etica del lavoro individuale [17]Weber, M., & Parsons, T. (2010)
1980-oggiNeoliberismo liquidoMercato > Comunità, ansia, precarietà [18]Bauman, Z. (2020).
Non siamo individui isolati che prendono decisioni in un vuoto razionale. Siamo creature profondamente sociali, guidate da emozioni, relazioni e dall’inconscio, che plasmano chi siamo e come viviamo.
The Social Animal: The Hidden Sources of Love, Character, and Achievement, David Brooks

La cooperazione è stata la chiave del successo umano [53]. La capacità di formare gruppi, condividere risorse e sviluppare culture complesse ha permesso l’evoluzione da piccole comunità di cacciatori-raccoglitori a civiltà avanzate.
Ad esempio, la rivoluzione agricola (circa 10.000 anni fa) e le prime città (es. in Mesopotamia, sulle sponde del Fiume Giallo in Cina, in Mesoamerica come in Nuova Guinea) si basavano su una forte collaborazione sociale,  reti di reciprocità: condivisione di semi, gestione collettiva dell’acqua e difesa comune. Studi antropologici, come quelli in Sapiens [54] e Homo Deus [55], sottolineano che la nostra abilità di creare finzioni condivise (es. religione, leggi e valori) ha reso possibile la cooperazione su larga scala. Non fu quindi la genialità di singoli, ma l’accumulo di conoscenza condivisa (come scrive Jared Diamond in Armi, acciaio e malattie [56].
Invece l’idea che l’individuo prevalga sulla comunità si è affermata con forza soltanto in epoche recenti, specialmente con il calvinismo. 1[57]

l’Illuminismo (XVIII secolo) e il capitalismo moderno.

Ma mentre nel calvinismo delle colonie puritane era presente comunque un forte controllo comunitario (es. norme morali rigide), suggerendo quindi che qui l’individualismo era bilanciato da vincoli sociali, nella versione più liberista queste regole sono state definitivamente infrante.

La glorificazione dell’individuo, del profitto personale e della competizione ha portato a progressi tecnologici ma anche a disuguaglianze estreme. Questo si riflette, ad esempio, nella rivoluzione industriale, che ha concentrato ricchezze in poche mani, o nel neoliberismo degli ultimi decenni, che ha privilegiato il mercato rispetto al bene comune, come ben evidenziato da Zygmunt Bauman [58] nella una critica profonda e articolata alla società contemporanea, centrata sul concetto di modernità liquida e di come la globalizzazione e la perdita di riferimenti stabili (es. lavoro, relazioni, valori) siano fonte di ansia, alimentata da media e politiche che sfruttano l’industria della paura .
Non che l’altro modello alternativo, il marxismo, sia migliore dell’ortodossia capitalista.
Nel marxismo, l’individuo è subordinato alla collettività e alla lotta di classe. Marx vede l’individuo non come un agente isolato, ma come parte di un sistema sociale ed economico (capitalismo, poi socialismo) che ne determina il comportamento e le possibilità. La realizzazione individuale avviene attraverso la partecipazione alla trasformazione collettiva della società, abolendo per legge le disuguaglianze di classe. A differenza del calvinismo, che esalta l’autonomia personale e l’etica del lavoro individuale, il marxismo privilegia la cooperazione e il collettivo per superare lo sfruttamento capitalistico, relegando l’individualismo a un prodotto dell’ideologia borghese. Qui l’individuo è definito dal suo ruolo nella struttura economica (es. operaio, capitalista). Le scelte personali sono limitate dalle condizioni materiali: un lavoratore non è “libero” perché deve vendere la sua forza-lavoro per sopravvivere.
Il marxismo ha ispirato movimenti collettivi (es. Rivoluzione Russa, 1917) che hanno cercato di abolire le disuguaglianze, ma spesso a scapito della libertà individuale (es. autoritarismo sovietico). Questo mostra un paradosso: pur promuovendo il collettivo, alcune applicazioni del marxismo hanno soffocato l’individuo, contrariamente all’ideale di Marx di una società in cui ciascuno si sviluppa liberamente. Senza contare i danni ambientali dove, anche qui come nel capitalismo, si antepone il primato della società umana sulla natura: i disastri ambientali come quello del lago di Aral [59] sono frutto di una gestione delle risorse naturali che non tiene affatto conto delle conseguenze a lungo termine sull’ambiente.
Nel marxismo l’individuo è subordinato alla collettività: la sua realizzazione avviene attraverso la lotta di classe e la costruzione di una società senza sfruttamento, in netto contrasto con l’individualismo calvinista che esalta l’autonomia personale. Marx vede l’individualismo come un’illusione borghese che nasconde lo sfruttamento, e promuove la cooperazione per superare le disuguaglianze. Tuttavia, le applicazioni storiche del marxismo hanno spesso sacrificato l’individuo in nome del collettivo, mostrando un altro rischio del Grande Filtro: perdere l’equilibrio tra i due.

Le opere più enigmatiche e curiose dell’Isola di Pasqua probabilmente segnarono la fine del popolo Rapa Nui. Altre ricerche però sono critiche al riguardo.

Oggi abbiamo tecnologie globali, ma ancora istinti tribali. I social media sfruttano questa dissonanza, polarizzando il pensiero, mentre il mercato continua a premiare chi estrae valore (dati, risorse), non chi crea beni comuni (clima stabile, pace, conoscenza aperta).Un focus eccessivo sull’individuo erode la cooperazione necessaria per affrontare sfide globali come il cambiamento climatico o l’esaurimento delle risorse.
Nel suo libro Collasso [60], Diamond documenta come società del passato (es. Maya, Isola di Pasqua, Norse della Groenlandia) siano crollate a causa di una gestione insostenibile delle risorse, spesso aggravata da disuguaglianze sociali e mancanza di cooperazione. Ad esempio, sull’Isola di Pasqua, l’élite Rapa Nui ha sfruttato le foreste per costruire statue (moai), ignorando i bisogni della comunità, portando alla deforestazione e al collasso. Diamond identifica cinque fattori ricorrenti: danno ambientale, cambiamento climatico, conflitti interni, relazioni esterne e incapacità di adattamento (ricerche più recenti dell’Università di Oackland, Nuova Zelanda, suggeriscono conclusioni diverse [61]).

Il precedente accenno al fracking (costi ambientali, emissioni di metano) mostra come l’interesse individuale delle compagnie petrolifere prevalga sul bene comune, contribuendo al riscaldamento globale (+1,5°C rispetto al preindustriale). Questo è un chiaro esempio di gestione diseguale delle risorse che rischia di “bollire” l’umanità.

Ma più di tutto, quelle che colpiscono la mia attenzione sono le disuguaglianze economiche: Nel 2024, l’1% più ricco possiede il 50% della ricchezza globale, mentre 3 miliardi di persone vivono con meno di 6,85 dollari al giorno 2 [62]. Questa disparità, come descritto da Diamond, crea tensioni sociali e instabilità, rendendo ancora più difficile superare il Grande Filtro.

Conclusione – Disinnescare il Grande Filtro

Se il Grande Filtro è un processo in corso, non è necessariamente un verdetto. Può essere una prova selettiva, un bivio evolutivo che distingue civiltà capaci di visione da quelle prigioniere di miopia sistemica.

Come mostra Anders Sandberg [63], superare il filtro implica:

  • Pensiero su scala temporale estesa, come suggerito da Ord [64], che considera la sicurezza esistenziale una disciplina cruciale.
  • Etica computazionale e governance del rischio, in linea con gli studi del Future of Humanity Institute [65].
  • Progettazione di sistemi resilienti, che integrino tecnologia e coesione sociale (Sandberg et al., 2018, vedi i riferimenti).
  • Riscoperta del valore della cooperazione, anche attraverso finzioni condivise come mostrato da Harari (2014, 2016, vedi riferimenti), e reinterpretato in chiave sistemica da Jørgensen (vedi riferimenti)

In questo scenario, l’individuo non è rifiutato, ma reinserito nel tessuto collettivo con una nuova consapevolezza: quella che la sopravvivenza, il progresso e il senso si raggiungono insieme, non contro.

“Se il Filtro è un esame evolutivo, l’interrogazione è aperta.
Non basta evitare di bollire: occorre imparare a progettare il termostato. E magari, come suggerisce Sandberg, l’astronave.”

Il negazionismo climatico al tempo dei no-vax

È passato molto tempo dall’ultima volta che ho scritto qualcosa su questo blog. L’intenzione sarebbe di scacciare questa pessima abitudine e riprendere a usare questo spazio. Per un po’ ho affidato i miei pensieri e le esternazioni ai Social, ma ora sento che ho fisicamente bisogno di un luogo dove conservarli. Non so se ci riuscirò, non resta che provare.

 

 

Indice incremento annuale dei gas serra nell'atmosfera.

A partire dal 2021, l’effetto di riscaldamento dei gas serra di lunga durata nell’atmosfera terrestre è aumentato del 49% rispetto al 1990. Rispetto all’epoca preindustriale, l’atmosfera odierna assorbe più di 3 Watt in più di energia per metro quadrato.

Dal punto di vista razionale l’ideologia dei no-vax e i negazionisti climatici hanno in comune il totale rigetto delle evidenze scientifiche che si basano sui dati.
Dati che, come ogni cosa quando si cerca di comprendere un qualsiasi fenomeno, sono sempre la base da cui partire. Non è la prima volta — e non sarà certo l’ultima — che spiego cosa sia il Global Warming e che sia la diretta conseguenza delle attività umane.
La congettura che in questi giorni va per la maggiore, pare appartenere a un professore associato dell’Università Federico II di Napoli — non cito il suo nome per non offrirgli maggiore visibilità che qui non merita.  Tale  presunzione quasi sicuramente non è nuova, è presente da diversi anni con qualche variante, nei circoli negazionisti che suppongono che il Riscaldamento Globale non esista affatto o che, al limite, sia il risultato di risonanze orbitali dei pianeti ed effetti gravitazionali ciclici. Questo  professore associato, oggi paladino dei negazionisti italiani che hanno ampio appoggio nei circoli politici del centrodestra italiano, ama raccontare di essere riuscito, nel 2018, a prevedere l’attuale siccità.
In pratica, in altri tempi, si sarebbe parlato di case astrali, di congiunzioni e opposizioni, di transiti dei pianeti su e giù per l’eclittica e di altre amenità astrologiche.

Per l’ennesima volta, l’emissione energetica del Sole è stabile da quando sono iniziate le campagne di misurazione satellitare mentre è cambiata la concentrazione di CO2 nell’atmosfera e negli oceani. E le proporzioni isotopiche tra 13C e 12C [66] confermano che è anidride carbonica emessa dalla combustione di fonti fossili.

Questi sono i dati: l’atmosfera terrestre a causa dell’effetto serra innescato dalla CO2 ora trattiene 3 watt per metro quadrato in più rispetto al periodo preindustriale ed è tanto.
L’immagine di destra mostra che l’irraggiamento solare varia di neanche 2 watt tra il periodo minimo e massimo di attività solare. È un ciclo undecennale, a cui si sommano altri cicli legati a periodi di maggiore o minore quiescenza dell’attività solare, che, inn tempi storici, hanno prodotto il Minimo di Maunder (d’inverno il Tamigi divenne una pista di pattinaggio) nel XVIII secolo oppure il Massimo Medievale. Questo grafico mostra due cose: che per quanto piccolo, se protratto per lungo tempo (il Minimo di Maunder fu innescato da 50 anni di inattività solare) una variazione comunque piccola, abbiamo detto un paio di watt per metro quadrato, ha senz’altro conseguenze sul clima del pianeta. Una variazione di qualche decimo di grado dell’acqua degli oceani può alterare le correnti oceaniche e le precipitazioni, soprattutto ai tropici, con conseguente riallineamento delle correnti cicloniche dell’atmosfera. Ma, il secondo appunto, per colpa dell’eccesso di emissioni di gas serra a opera dell’Uomo, ora l’atmosfera trattiene, come ho detto prima, ben tre watt in più di energia ricevuta dal Sole. Oggi un periodo di quiescenza del Sole della durata di cinquanta anni, sarebbe notato al più come un periodo di tregua del riscaldamento globale, dando adito ai negazionisti climatici di sproloquiare che non è in atto “alcun cambiamento climatico“.

Quest’ultima immagine mostra lo storico delle temperature medie della Terra da quando sono disponibili correlandole con lo storico dell’attività solare. Qui è ancora più evidente che la temperatura media del pianeta, che prima dell’era industriale seguiva grossomodo l’attività del Sole con un fisiologico margine di latenza, mentre adesso non è più così.
E l’andamento a crescere  per ora è inarrestabile. Ne abbiamo avuto la riprova durante il lungo lock down della Pandemia.
Nonostante il fermo quasi totale delle attività umane, il brusco calo dello smog nelle aree industrializzate etc. le quantità di anidride carbonica nell’atmosfera è continuata a crescere!
Magari, ancora un a volta, i negazionisti climatici avranno ancora berciato: “Vedete? Nessuna attività umana, eppure la COè aumentata! Le attività umane non sono responsabili del Global Warming!“.
I bischeri però dimenticano che gli oceani ricoprono oltre del 70% della superficie della Terra. E che essi hanno assorbito gli eccessi di CO2 presenti nell’atmosfera al ritmo di 7 miliardi di tonnellate per anno fino ad un certo punto (circa 500 dall’inizio dell’era industriale), fino a quando cioè  le acque superficiali si sono saturate 1.
Ma è in virtù della legge sui gas soluti in un liquido (Legge di Henry) — che un qualsiasi studente di chimica conosce fin dalle scuole superiori  — che, riscaldandosi, gli oceani hanno iniziato a restituire milioni di tonnellate equivalenti di anidride carbonica all’atmosfera. Per questo il fermo delle attività industriali non ha sortito alcun cambiamento nelle emissioni di CO2. Quindi anche se adesso, da domani, cessassimo ogni ricorso alle fonti fossili per produrre energia, il Riscaldamento Globale non cesserà e sarà un tremendo problema ancora per decenni, forse secoli, prima che si ricrei un accettabile equilibrio naturale. Per questo ogni secondo, ogni singolo grammo di CO2 impunemente rilasciata nell’atmosfera è un crimine verso le future generazioni.

Ma non dovete credere per forza a me, credete ai dati. Questa è scienza, le altre ciarle sono al più un oroscopo pure malfatto.

Breakthrough Listen Candidate 1: molto extra ma quasi certamente terrestre.

Premetto che ancora poco o nulla si sa su Breakthrough Listen Candidate 1. Non esiste ancora un documento ufficiale su questo segnale captato nei pressi di Proxima Centauri. Tutto ha avuto origine da un articolo sul Guardian[67] e poche altre indiscrezioni apparse qua e là.  Le voci finora a me giunte sono ancora troppo poche per poter suggerire quale sia l’esatta origine di BLC-1.
Questo però dimostra ancora una volta che la scienza non teme di rincorrere un tema spinoso come la ricerca di altre intelligenze extraterrestri, così come è impossibile che una notizia simile rimanga celata tanto a lungo. come suggeriscono alcuni furbi ai tanti beoti teorici del complotto.

Il sistema Alpha Centauri

Si fa presto a dire che Breakthrough Listen Candidate 1 (BLC-1) sia stato un segnale emesso da una civiltà tecnologica extraterrestre.
Tra aprile e maggio del 2019, il radiotelescopio Parkes (Australia), nell’ambito della ricerca Breakthrough Initiatives [68] per la ricerca di civiltà extraterrestri, è stato puntato verso la regione di cielo che ospita Proxima Centauri. la terza stella del sistema di Alpha Centauri.
Proxima è una stellina piccola e fredda, una M5 con una massa circa un decimo del Sole. Questo la rende soggetta a esplosioni coronali molto vivaci e frequenti causate dalla sua instabilità magnetica, esplosioni capaci di sterilizzare qualsiasi pianeta le orbitasse vicino.
Proxima in effetti ha due di pianeti uno appena più grande della Terra, in orbita nella zona abitabile (5 centesimi di unità astronomiche, 7,5 milioni di chilometri), e uno a 1,48 UA, grande 6 volte la Terra e completamente ghiacciato. I grandi brillamenti, che per loro natura hanno tutte le stelle di piccola massa, rendono assai poco probabile che si possa essere sviluppata la vita e poi una civiltà avanzata analoga alla nostra in un sistema siffatto, perché semplicemente, le condizioni non sono certamente le più adatte 1.
Parkes era stato puntato verso Proxima non per cercare gli alieni, i ricercatori quello che ho appena detto lo sanno, ma per studiare probabilmente i lampi di energia tipici di una stella a flares. Questo genere di studi è necessario se si vuol  capire come riconoscere un segnale di origine artificiale da uno naturale.
Ma, durante l’ascolto, è stata notata una nota a 982,002 MHz, un debole segnale monotonico, ossia che, apparentemente, non contiene alcuna informazione codificata in esso. Ci si aspetterebbe che qualsiasi segnale di natura artificiale emesso da una civiltà extraterrestre con l’intento di comunicare contenga informazioni, modificando cioè l’intensità del segnale o modulando la sua frequenza, oppure ruotando il suo piano di polarizzazione, come avviene anche nelle comunicazioni terrestri, per esempio.
Ma BLC-1 (il nome dato al segnale) è stato, come ho detto, un debole segnale monotonico, l’equivalente di un fischio di una locomotiva, o di un fascio radar che non necessariamente si pretende che contenga qualche sorta di informazione. Curioso, ma non eccezionale: noi terrestri usiamo spesso segnali di questo genere.
Per dimostrare di essere un segnale di origine extraterrestre, i ricercatori in genere cercano subito se appare una qualche deriva di frequenza2, ovvero l’analogo dello spostamento verso il rosso o il blu caratteristico di una sorgente (o del ricevitore) che si muove nello spazio rispetto al suo opposto. È così che vengono scoperti i pianeti extrasolari col metodo spettrale: osservando e misurando le oscillazioni delle righe spettrali delle stelle. E questa caratteristica, pare che BLC-1 l’abbia mostrata. Ma il monotono è stato registrato per troppo poco tempo (alcune indiscrezioni parlano di 5 volte nell’arco di 3 ore) per stabilire se la sua deriva appartiene al movimento della Terra attorno al Sole (ricevitore) o se è la sorgente (il segnale) a muoversi attorno a Proxima Centauri.

Ipotesi

Come ho sottolineato prima, non necessariamente un segnale artificiale deve per forza contenere informazioni codificate al suo interno: basti pensare ai fasci di radioonde dei radar, che devono semplicemente illuminare un oggetto e captarne il riflesso. Oppure uno di quei transponder usati per la triangolazione e localizzazione delle piste di atterraggio degli aeromobili 3 che, quando sono fuori servizio di solito non trasmettono il loro codice identificativo proprio per dimostrare che non sono operativi.
Anche alcuni satelliti spia della vecchia Unione Sovietica trasmettevano in prossimità della banda L di radiocomunicazioni (tra 1 e 2 Ghz) e anche alcune vecchie telecomunicazioni usavano la parte alta della banda P (UHF).
Un detrito spaziale in un’orbita insolita, pressoché stazionaria, che avesse potuto riflettere un segnale di questi verso la Terra, anche se appare alquanto poco probabile, potrebbe offrire una spiegazione ben più convincente di una ipotetica civiltà tecnologicamente avanzata evolutasi su un pianeta in orbita a Proxima Centauri. Oppure un satellite artificiale non identificato, magari un satellite spia militare non classificato, potrebbe essere all’origine del misterioso segnale.
Un segnale spurio o una sua armonica 4 appare difficile da spiegare, perché il segnale era presente solo quando il Parkes era puntato in direzione di Proxima Centauri, il segnale scompariva appena il radiotelescopio veniva spostato (questa tecnica è chiamata nodding, dal termine inglese usato per descrivere l’annuire con un gesto della testa) ma non impossibile.
Poteva essere un segnale prodotto da una sorgente naturale molto più lontana e non necessariamente sulla stessa linea di vista, che le particolari attività di Proxima di quel momento, per esempio campi magnetici e plasma, hanno deflesso, messo in risonanza ed esaltato, producendo poi il segnale monotonico osservato (BLC-1) a 982 MHz. Oppure un’altra sorgente posta casualmente sulla stessa direttrice di Proxima Centauri, così come la scorsa settimana Giove e Saturno sembravano quasi sovrapporsi se visti dalla Terra.

Conclusioni

Quel che cerco di evidenziare è che non serve necessariamente ricorrere all’ipotesi più fantasiosa e affascinante per spiegare la natura di un segnale radio transitorio. Sì, perché BLC-1 nel frattempo pare che sia scomparso: qualunque cosa fosse stato, ha cessato di trasmettere, o forse noi non siamo più in grado di rivelarlo.
Anche noi, in passato, abbiamo intenzionalmente diretto un segnale radio transitorio verso lo spazio[69] con l’intento di comunicare la nostra presenza al panorama cosmico, ma condensammo un sacco di informazioni nel nostro segnale (se poi chi lo capterà sarà in grado di decifrarlo e comprenderlo, quello è un altro discorso) e BLC-1 non pare essere questo.
Solo il tempo — e ulteriori analisi — potrà dirci qualcosa di più della reale natura di Breakthrough Listen Candidate 1.

Ciclo biochimico del fosforo su Venere?

Sono passati diversi mesi dal mio ultimo articolo qui; diciamo pure che, dopo l’uscita del mio libro, mi sono preso un periodo sabbatico dalla scrittura più impegnata. Certo che nel frattempo, nonostante il fermo dovuto alla pandemia da Covid-19, non sono stato mai in ozio, visto che sto progettando — e costruendo — la mia personale  stazione meteorologica e della qualità del cielo. Spero che presto possa presentare qui alcuni miei risultati, ma proprio oggi una notizia piuttosto importante è stata pubblicata su Nature, e di questo sento il bisogno di dire la mia.

Immagine composita di Venere dai dati della sonda spaziale Magellan della NASA e del Pioneer Venus Orbiter. Credit: NASA / JPL-Caltech

Ipotesi sulla possibile vita microbica sugli altri pianeti del Sistema Solare si sprecano: nel lontano 1967 anche il celebre scienziato Carl Sagan si cimentò nell’immaginare vita aerea sulle sommità dei pianeti giganti gassosi e di Venere.
E nel dicembre 1999, l’astrobiologo britannico Charles S. Cockell,  ipotizzò la presenza di forme di vita chemioautotrofe sulle nubi superiori di Venere[70].

Però come è noto, la superficie di Venere è inospitale per ogni forma di vita a noi nota, anche la più estrema. 460 gradi Celsius, 92 volte la pressione atmosferica della Terra, piogge di acido solforico: niente lì potrebbe sopravvivere. Eppure, sopra questo inferno, tra i 50 e 60 chilometri dalla superficie, c’è uno strato di anidride solforosa e di acido solforico sormontato da uno strato di goccioline, sempre di acido solforico, dove la temperatura e pressione sono simili agli standard terrestri, ed è anche tutto quello che noi riusciamo a vedere di Venere. È comunque un ambiente estremamente acido, dove anche la vita più estrema scoperta sulla Terra[71] potrebbe avere serie difficoltà a sopravvivere.

Il 14 settembre 2020, su Nature, è apparsa una ricerca[72] che pare dare conferma alle tante speculazioni sulla presenza di forme di vita sulla sommità delle nubi di Venere.
Prima di scendere un po’ più in dettaglio, occorre sempre tenere ben presente che quanto finora è stato scoperto è, nel migliore delle ipotesi, una flebile traccia, poco più dell’ombra di una parziale impronta digitale sul luogo di un delitto, il che significa appena un indizio.
La ricerca della vita extraterrestre nel nostro Sistema Solare è piena di indizi: molecole organiche o i loro resti, su Marte e nelle meteoriti, i pennacchi stagionali di metano marziano, l’oceano sotterraneo di Encelado, le molecole complesse di Titano e quelle scoperte nelle comete. Potrei fare un elenco della lavandaia lungo chilometri solo per citare i casi più importanti. E anche laddove sembrava certa la scoperta di altre forme di vita, come nel caso del meteorite di origine marziana ALH84001, oppure l’esperimento Labeled Release di Gilbert Levin, montato sulle sonde Viking, il dibattito Vita/non-Vita è ancora acceso.

Fosfina su Venere

La fosfina è composta da appena 3 atomi di idrogeno legati ad un singolo atomo di fosforo ( formula bruta  PH3), formando così una struttura tetraedrica, molto simile all’ammoniaca (NH3) ma molto più reattiva. Una molecola piuttosto semplice, che si ritrova anche nel materiale interstellare attorno alle stelle  ricche di carbonio e ossigeno (quindi mediamente più vecchie) e nelle atmosfere dei pianeti giganti, dove viene prodotta continuamente dalle pressioni e temperature molto alte negli strati atmosferici profondi e poi trasportata per convezione verso l’alto[73] dove degrada. In questi luoghi la fosfina non desta particolari attenzioni, perché presentano condizioni chimico-fisiche che consentono la formazione stabile di questa molecola, mentre nei pianeti rocciosi, come Venere e Terra, le superfici e le atmosfere planetarie degradano e distruggono molto rapidamente la delicata molecola.

Sulla Terra, ad esempio, le uniche fonti importanti di fosfina, (tralasciando la produzione industriale) sono i processi di scarto prodotti dal metabolismo di batteri anaerobi che si nutrono del materiale biologico in decomposizione o dai minerali fosfati.

L’evidenza di una probabile presenza di fosfine nelle nubi di Venere fu notata nel giugno 2017 dall’astrobiologa Jane Greaves durante una osservazione dal James Clerk Maxwell Telescope. Ma tale scoperta doveva in qualche modo essere confermata: poteva essersi trattato di una svista nella taratura degli strumenti o di un falso segnale.
E nel marzo 2019, attraverso la rete interferometrica dell’Atacama Large Millimeter/submillimeter Array (ALMA) è arrivata la conferma del segnale rilevato nel 2017 dal C. Maxwell1. Sono stati usati 45 telescopi puntati su Venere per tre ore ad una lunghezza d’onda di circa 1 millimetro, ossia 2000 volte più lunga della luce visibile: solo i telescopi ad alta quota (ALMA è a 5100 metri s.l.m.) possono osservare bene nell’infrarosso dalla Terra. L’elaborazione dei dati è stata molto complessa: Alma non è stato progettato per risolvere particolari minuti su sorgenti brillanti come Venere. Tuttavia la procedura di riduzione dei dati è comunque ben documentata e rimando a quello che è stato scritto nell’articolo pubblicato su Nature.

Spettro di Venere ottenuto con ALMA. Il pannello sinistro mostra lo spettro PH3 dell’intero pianeta.  Il pannello destro mostra gli spettri delle zone polari (istogramma in nero), a media latitudine (in blu) ed equatoriale (in rosso). Gli spettri sono stati sfalsati verticalmente per chiarezza, e lo spettro polare è stato collocato in velocità per ottenere un limite superiore più profondo.

Questa scoperta apre scenari molto interessanti: nella sommità delle nubi (53-61 chilometri dal suolo venusiano), nei dintorni delle Celle di Hadley2 i ricercatori hanno scoperto le deboli tracce di fosfina in ragione di 20 ppb (parti per miliardo). Il pozzo nel diagramma qui a lato mostra la riga di assorbimento della fosfina nell’atmosfera di Venere.

Il dilemma è che su Venere di fosfina non dovrebbe essercene proprio: essa è una molecola estremamente reattiva, il famoso gas di palude che dà origine ai fuochi fatui non è altri che metano e fosfina (o fosfano, che è la stessa cosa) originati dalla decomposizione di materiale organico3. Senza una fonte costante di produzione essa non potrebbe esistere a lungo su un pianeta roccioso (sui pianeti giganti invece si forma continuamente per poi degradare). Sulla Terra, l’unica fosfina naturale esistente è prodotta durante il ciclo biologico del fosforo[74] (vedi illustrazione superiore), mentre l’atmosfera ossidativa del pianeta o i minerali della superficie degradano la molecola molto rapidamente.
A questo punto diventa arduo spiegare la presenza di molecole di fosfina nell’alta atmosfera di Venere, un ambiente iperacido e bombardato dai raggi UV del Sole.  Tutti i meccanismi naturali, ovvero fulmini atmosferici, apporto da materiale meteorico, vulcanismo, non sono in grado di giustificare  una presenza costante (ricordo che la presenza della molecola è stata osservata nel 2017 col C. Maxwell Telescope e nel 2019 con ALMA) e massiccia (20 ppb) di fosfina: ad ora nessun meccanismo abiotico noto presente sui pianeti rocciosi è in grado di farlo.

Presunta origine biotica della fosfina su Venere

Eliminate all other factors, and the one which remains must be the truth. Elimina tutti gli altri fattori e quello che rimane deve essere la verità.
Sir Artur Conan Doyle, Sherlock Holmes “The Sign of the Four”, a.D. 1890

In base alle considerazioni precedenti, l’unica strada percorribile per spiegare la presenza di fosfina sulla sommità delle nubi di Venere, resta l’origine biochimica. Ma anche questa non è una via facile da percorrere.
Innanzitutto — ammesso e non concesso — che la fosfina venusiana sia di origine biologica, occorre capire come, in un’atmosfera dinamica e acida, la vita sia riuscita a perpetuarsi ed evolversi. Sulla Terra abbiamo scoperto estremofili che riescono a prosperare in condizioni estreme come quelle presenti nelle sorgenti idrotermali del vulcano Dallol, in Etiopia e che resistono benissimo agli ultravioletti, come i cianobatteri delle stromatoliti del lago salato Salar de Llamara, nella regione di Tarapaca,  nel nord del Cile.
Innanzitutto dovremmo capire come sia possibile l’esistenza di forme di vita esclusivamente aerea. Anche la Terra ha una biosfera aerea, dove microorganismi arrivano a lambire lo spazio[75] e, anche se questa biosfera pare estendersi fino gli 85 chilometri di quota  (giusto per fare un paragone, la ISS orbita a 408 km di quota), essa perlopiù risiede sospeso dentro le goccioline d’acqua nebulari e partecipa al ciclo delle precipitazioni[76]. In pratica, sulla Terra, avviene un continuo scambio di minerali e forme di vita microbica tra il suolo e l’atmosfera, basti osservare che, senza l’apporto delle sabbie dal Sahara, le Bahamas non potrebbero esistere.
Non sappiamo se il medesimo ciclo è presente anche su Venere, ma è improbabile che, se esistesse qualche forma di vita nelle sommità delle nubi del pianeta, possa resistere alle tremende condizioni fisiche presenti al suolo. L’unica alternativa è che la vita venusiana sia limitata alla mesosfera e che sia incapace di scendere al di sotto: uno strato limite che impedisce alle forme di vita microbica e le loro spore di raggiungere gli strati sottostanti dove verrebbero distrutti. Sulla Terra la copertura nuvolosa è discontinua e dinamica; su Venere, invece, è ricoperto da ben tre distinti strati di nubi: uno strato superiore, composto da piccole goccioline di acido solforico ad una quota compresa tra i 60 e 70 km; uno strato intermedio, costituito da gocce più grandi e meno numerose, collocato a 52–59 km di altitudine; e infine uno strato inferiore più denso e costituito dalle particelle più grandi, che scende fino a 48 km di quota. Al di sotto di tale livello la temperatura è talmente elevata da vaporizzare le gocce, generando una foschia che si estende fino a 31 km di quota. Quindi è ipotizzabile che su Venere siano i diversi strati chimico-fisici dell’atmosfera a impedire che l’eventuale biosfera precipiti al suolo e che il taso di riproduzione delle forme di vita che la popolano compensi le inevitabili perdite.
Inoltre, rimangono da comprendere i meccanismi cellulari di forme di vita così estreme. Le nubi di Venere sono molto più aride e acide del più acido e secco ambiente che troviamo qui sulla Terra: nelle piscine idrotermali del Dallol è l’acido solforico ad essere disciolto nell’acqua, mentre su Venere è l’acqua ad essere disciolta nel medesimo acido. Un metabolismo di tipo terrestre non sarebbe possibile su Venere: la biochimica che conosciamo, gli acidi nucleici e le proteine, i lipidi e gli zuccheri, verrebbero distrutti istantaneamente. Nel 2004 l’astrobiologo Dirk Schulze-Makuch propose che una biochimica simile alla nostra avesse imparato ad usare lo zolfo come guscio protettivo[77] (lo zolfo non è bagnato dall’acido solforico) e la fotosintesi come fonte energetica.

Ipotetico ciclo vitale venusiano.

La copertura nuvolosa su Venere è permanente, dove gli strati medi e inferiori offrono le condizioni più simili alla Terra.

Ma rimane pur sempre il problema dell’acqua: anche nelle piscine del Dallol l’acqua è sempre presente. Nel luogo più secco della Terra, il deserto di Atacama difficilmente scende sotto il 2%. Venere è però almeno 50 volte più secco del più secco luogo disponibile sul nostro pianeta. Certo, sono noti funghi e spore che si attivano con un’umidità relativa del 0,7%, ma nelle nubi di Venere questo indice scende a 0,04%. Poi c’è il problema dei nutrienti necessari a mantenere il ciclo metabolico: una importante fonte potrebbe essere la polvere meteorica che cade incessantemente sul pianeta, ad esempio, o riciclare il carbonio e l’azoto direttamente dall’atmosfera.
Per i dettagli rimando all’articolo[78] pubblicato nell’agosto di quest’anno dall’astronoma Sara Seager “The Venusian Lower Atmosphere Haze as a Depot for Desiccated Microbial Life: A Proposed Life Cycle for Persistence of the Venusian Aerial Biosphere” a proposito di un ipotetico ciclo biologico presente su Venere.

Un meccanismo abiotico per la fosfina su Venere

Il vulcanismo venusiano come fonte della fosfina fu scartato da Jane Greaves e gli altri perché ritenevano che l’apporto di questo meccanismo non avrebbe potuto spiegare la persistente quantità osservata (20 ppb) della molecola.
Un nuovo studio[79] (comunque ora pare ritirato) firmato dal professore di Chimica Teorica e Computazionale dell’Università dello Utah  Ngoc Truong e il fisico planetario della Cornell University Jonathan I. Lunine, propone di rivalutare il ruolo del vulcanismo basaltico di Venere: una quantità di 93 chilometri cubici di lava all’anno4 potrebbero essere sufficienti a produrre solfuri a sufficienza per spiegare l’attuale presenza di fosfina nelle nubi superiori di Venere. L’analisi si basa su una presunta ripresa dell’attività vulcanica di Venere basandosi sulla scoperta di punti caldi sulla superficie del pianeta identificati dalla sonda europea Venus Express[80].
Anche ammettendo che le molecole di fosfina si degradino meno nell’atmosfera di Venere (non ci sono radicali ossidrilici (-OH) come sulla Terra) il parossismo vulcanico di Venere pare si sia concluso tra 2 milioni e 250 mila anni fa, e che ora potrebbero essere in atto perlopiù sporadiche emissioni di anidride solforosa, la quantità di fosfina nella mesosfera di Venere rimane ancora un mistero.

Conclusioni

Su Venere potrebbe esistere un meccanismo abiotico per la produzione di fosfina ancora sconosciuto sulla Terra, oppure un composto chimico potrebbe aver imitato la medesima riga spettrale per ora attribuita alla fosfina. O forse è veramente Vita, magari una vita talmente aliena alla nostra esperienza che non potremo neppure riconoscere come tale perché la sua biochimica è del tutto diversa dalla nostra.
Solo una ricerca sul campo potrà aiutarci a capire cosa succede nelle nubi più alte di Venere.

Interminati mondi e infiniti quesiti

La copertina del mio libro: anche la fotografia qui è mia. Su Amazon si può leggere sia la sinossi che un breve estratto gratuito.

Ho sempre sostenuto che nell’affrontare un argomento tanto complesso non si dovrebbe mai prescindere dal raccontare anche le condizioni che lo circondano, esattamente come per lo scrivere, o il parlare, occorre conoscere il significato di ogni singola parola usata. Mi è altrettanto caro però anche un altro concetto: un libro non serve a dare esclusivamente nozioni, ma deve offrire al lettore anche qualcosa su cui riflettere e proporre di approfondire autonomamente l’argomento di cui tratta.

Per questo saggio[81] a me sono serviti quattro anni. O forse anche di più.
Sicuro che il primo embrione di quello che poi sarebbe diventato il mio primo libro — non ho affatto intenzione di fermarmi a questo, uscì proprio su questo Blog nel 2015[82], attraverso una serie di articoli sul celebre Paradosso di Fermi. Non sto a ripeterne qui la storia, l’ho spiegata in un capitolo del mio lavoro.
Ho detto quattro anni, perché ne parlai durante un pranzo con la Responsabile della Didattica e Divulgazione presso la Fondazione GAL Hassin-Centro Internazionale per le Scienze Astronomiche, Isnello (PA), (blogger di Tutti Dentro , firmatrice di diversi articoli qui ospitati, nonché mia carissima amica) Sabrina Masiero nel lontano 2016, e che poi mi ha aiutato tantissimo proprio nelle ultime revisioni alla fine dello scorso anno.

È stata una genesi lunga che alla fine mi ha portato molto lontano — e non solo da queste pagine — e fatto maturare in modi che, sinceramente, non avrei mai creduto possibile. Ho rivisto alcune mie posizioni, affrontato argomenti e campi a me del tutto sconosciuti o appena osservati da lontano.
Esplorare le innumerevoli domande insite in questo saggio è virtualmente impossibile, perché ognuna di esse apre infiniti altri quesiti che richiederebbero altrettanti trattati. Per questo ne ho scelti e affrontati soltanto qualcuno. Una scelta difficile, che mi ha portato a scrivere e abbandonare centinaia di bozze e sviluppare quelle che ho comunque ritenuto più significative.

Affrontare i temi della Vita, Intelligenza e Civiltà extraterrestri prendendo spunto unicamente dall’umana esperienza su questo mondo può sembrare scontato, ma molto spesso tale sforzo non viene  compiuto.
Duecento o quattrocento miliardi di stelle nella nostra Galassia non significa che ognuno di quei soli sia accompagnato da qualche forma di vita, anche se appena batterica. Anzi: la maggior parte delle stelle che vediamo ad occhio nudo (appena qualche migliaio) o è troppo grande oppure possiede qualche altro handicap da scontare.
Eppure tra queste centinaia di miliardi si possono ancora calcolare milioni di altre stelle che potrebbero benissimo ospitare altrettante terrificanti e pur sempre meravigliose forme di vita; queste potrebbero funzionalmente somigliare ad alcune di quelle che la Terra ha ospitato in quattro miliardi di anni, oppure no.
Come è esattamente sorta la vita sulla Terra ancora nessuno lo sa, ma ci sono buoni e ragionevoli motivi per pensare che questo sia accaduto — e che accada ancora — attorno a quei milioni di stelle che ho appena citato, e questo lo si è creduto o, perlomeno sospettato, fin dalla preistoria.
Il concetto stesso di Vita ha mutato significato nei secoli e con esso anche il modo in cui si è supposto che la Vita sarebbe potuta emergere. Dall’aristotelica abiogenesi alla sua definitiva smentita da parte di Pasteur, dal concetto fumoso di Erasmus Darwin (il nonno di Charles) fino agli esperimenti di Miller e Urey[83] che hanno spianato poi la strada alla moderna astrobiologia.
Ma quello che — almeno per me, amante da sempre del razionalismo scientifico — è apparso sempre più evidente, man mano che andavo avanti con la stesura, è stata la similitudine tra il concetto metafisico del Divino e quello dell’Universo e la sua storia che  faticosamente stiamo scoprendo nel’ultimo secolo.
Deus sive Natura, diceva più di tre secoli fa il filosofo olandese Baruch Spinoza, Dio ossia la Natura. E l’implicito che qui in parte tento di mostrare è simile: tutta la storia dell’Universo che abbiamo ricostruito ci mostra che sotto molti aspetti il Divino e la Natura possono essere concetti piuttosto simili e spesso essere perfino sovrapponibili. Col mio studio desidero soltanto offrire alcuni spunti su cui riflettere partendo da una domanda fatta per celia all’ora di pranzo dal grande fisico che fu Enrico Fermi e che è matematicamente riassunta nell’Equazione di Francis Drake.

Come ogni buon libro che si rispetti, ho chiesto a Marco Castellani, dell’Osservatorio Astronomico di Roma – INAF, blogger di Gruppo Locale e scrittore, di curare la prefazione del mio lavoro. Ne è sortita una piccola perla che merita di essere gustata per intero, perché anch’essa offre al lettore miriadi stimoli di riflessione.

Non voglio svelare di più per non rovinarvi il gusto della lettura del mio saggio, ma posso dirvi che per me è stato un viaggio meraviglioso e che spero, con l’approvazione di voi lettori, presto di rifare.

 

Cieli sereni.