Principio di autorità e Riscaldamento Globale Antropogenico

Il principio di autorità descrive la propensione ad accettare —o imporre — un’affermazione come vera basandosi sulla reputazione, sul ruolo o sulla notorietà di chi la formula, anziché sulla solidità intrinseca delle prove che la supportano.
Si tratta di una scorciatoia cognitiva che molto spesso può condurre a fallacie logiche, specialmente in ambito scientifico, dove è fondamentale valutare criticamente fonti e argomentazioni.
Un po’ come dire ” …me lo ha detto mio cugino!” e quindi deve essere vero per forza, o “Lo dico io che sono il Megadirettore Galattico Duca Conte etc. e voi altri non avete titoli per smentire le mie affermazioni
Ma nel mondo reale non funziona così. In contesti scientifici, così come in filosofia e nel diritto, l’autorevolezza deve sempre essere sottoposta a un esame empirico o razionale, al fine di evitare gravi e talvolta grotteschi errori.

Il Cambiamento Climatico non ha niente a che vedere con le variazioni dell’orbita terrestre

Questo grafico mostra chiaramente due linee che vanno in direzioni opposte: l’irradianza solare totale (TSI, linea gialla): oscillazioni cicliche di ~11 anni (ciclo solare), ma con tendenza a lungo termine in calo (da ~1362 W/m² medi intorno agli anni ’80 a ~1360-1361 negli ultimi decenni) Dati SATIRE-T2 * e temperatura globale (linea rossa, GISTEMP 3.1 **): salita costante e accelerata, da ~0.2°C anomalia negli anni ’80 a +1.0°C+ oggi (rispetto al riferimento base 1951-1980, la tendenza è inequivocabile).

Nel mio recente articolo La CO₂ non è cibo per le piante: chimica reale contro bufale climatiche [1] ho smontato unna congettura fatalista tanto cara a coloro che, dopo aver negato per anni ogni evidenza che dimostrava l’aumento antropogenico della \(CO_{2}\), cercavano di farla digerire affermando che la \(CO_{2}\) è cibo per le piante.
Un’altra congettura cara ai climapiattisti più puri e negazionisti è quella di attribuire il Riscaldamento Climatico Antropogenico a non meglio precisate variazioni dell’orbita terrestre (ora colpa di Giove, ora di Venere, ora di entrambi) come nella miglior tradizione ‘strologica 1 fino a scomodare i  Cicli di Milankovitch (fa sempre ganzo usare termini e fenomeni che realmente non si comprendono giusto per darsi una certa importanza).

Non avendo altre argomentazioni a supporto delle loro congetture, nelle loro comparsate nelle trasmissioni-pollaio 2 in televisione questi vecchi arnesi iniziano la loro solita sequela di anatemi snocciolando titoli accademici e incarichi ricoperti con la presunzione di essere gli unici a poter parlare di Riscaldamento Globale verso chiunque gli si opponga, siano essi scienziati o attivisti informati.

L’orbita terrestre

Partiamo dai dati veri: Senza risalire oltre, diciamo dall’eone Proterozoico (2,5 miliardi di anni fa), l’orbita terrestre  sempre rimasta stabile a una distanza media di 149,6 milioni di chilometri [2].
Questo accade perché la massa della Terra (o meglio, del sistema Terra-Luna) è relativamente grande rispetto agli altri corpi minori e non subisce perturbazioni estreme da parte dei giganti gassosi del Sistema Solare, checché ne dicano gli ‘strologi.
Insomma, vista dalla Terra, la struttura complessiva del Sistema Solare è dinamicamente tranquilla e — per nostra fortuna — piuttosto noiosa.
Gli unici eventi che potrebbero alterare drasticamente l’orbita terrestre sono:

  • incontri ravvicinati con pianeti massicci,
  • passaggi di stelle vicine,
  • instabilità dinamiche del Sistema Solare.

Le ricostruzioni geologiche e astronomiche, però, non mostrano tracce di sconvolgimenti orbitali nel periodo fin qui considerato.

Geometria astronomica for dummies

1) Energia orbitale e semiasse maggiore

Per un’orbita kepleriana attorno a una stella, il semiasse maggiore \(a\) è legato all’energia specifica orbitale \(\epsilon\):

\[ \epsilon = – \tfrac{\mu}{2a} \]

dove

  • \(\mu = GM_{\odot}\) è il parametro gravitazionale 3
  • \(a\) è il semiasse maggiore
  • \(\epsilon\) è l’energia per unità di massa

Se non sono presenti altre forze dissipative, ma solo gravità newtoniana, \(\epsilon\; \text{e}\; a\) sono costanti. Le altre perturbazioni planetarie alterano l’eccentricità, l’inclinazione, gli argomenti angolari, ma il semiasse maggiore resta praticamente invariato al primo ordine.

2) Perché le variazioni sono minime: le equazioni di Lagrange per \(a\)

In teoria, il semiasse maggiore può variare per effetto di un potenziale perturbativo \(R\)
(dovuto agli altri pianeti, ecc.). Le equazioni planetarie di Lagrange danno:

\[ \tfrac{da}{dt}=\tfrac{2}{na} \tfrac{\partial R}{\partial M} \]

dove

  • \(n =\sqrt{\tfrac{\mu}{a^3}}\) è il moto medio
  • \(M\) è l’anomalia media
  • \(R\) è il potenziale perturbativo medio

Facendo la media su molte orbite (per esempio con approssimazione secolare, il termine \(\tfrac{\partial R}{\partial M}\)  tende a zero:

\[ \left\langle \tfrac{da}{dt} \right\rangle \approx 0 \]]

ovvero il semiasse maggiore può oscillare, ma non deriva mai sistematicamente [3].

3) Effetto della perdita di massa solare

E qui la cosa si fa parecchio interessante. Tutte le stelle durante tutto il loro ciclo vitale perdono una piccola frazione della propria massa sotto forma di vento stellare e radiazione; anche il Sole non fa eccezione
Se la massa del Sole diminuisce nel tempo (\(M_{\odot} \)) diminuisce lentamente nel tempo, il parametro gravitazionale \(\mu =\;GM_{\odot}\) si riduce e le orbite dei pianeti si espandono.
Per un lento calo della massa centrale, al primo ordine vale la relazione (problema kepleriano a due corpi):

\[\tfrac{\overset{.}a}{a} \approx – \tfrac{\overset{.}M_{\odot}}{M{\odot}}\]
dove \(a\) è il semiasse maggiore dell’orbita terrestre.
Assumendo  \(\tfrac{\overset{.}M_{\odot}}{M{\odot}}\) circa costante su tempi geologici, si integra ottenendo:

\[ a(t) \approx a_{0}  \tfrac{M_{\odot} \;(0)}{M_{\odot} \;(t)}  \]
Osservazioni e modelli suggeriscono per il Sole un tasso relativo di perdita di massa dell’ordine di:

\[ \tfrac{\overset{.}M_{\odot}}{M{\odot}} \approx 9 \times 10^{-14}\;yr^{-1} \]
somma di vento solare e conversione massa–energia. Prendiamo così il nostro intervallo di tempo dal Proterozoico:
\[t=2.5 \times 10^{9}\;\text {anni} \]

Con \(a_{0} \simeq 1,496\times 10^{8}\;km \), la variazione al primo ordine del semiasse maggiore è:

\[ \Delta a \simeq a_{0}\left| \tfrac{\overset{.}M_{\odot}}{M{\odot}} \right|t\]
sostituendo i valori:
\[ \Delta a \simeq 1,496 \times 10^{8}\;km \times 8,95 \times 10^{-14}\;yr^{-1}\times 2,5 \times 10^{9}\;yr  \]
Pertanto:
\[ \Delta a \approx1,496 \times 10^{8}\;km \times 2,2375 \times 10^{-4} \approx 3,35 \times 10^{4}\;km \]

In altri termini, dal Proterozoico (2.5 miliardi di anni fa) il semiasse maggiore dell’orbita terrestre è aumentato di 33500 chilometri su una distanza di 149,6 milioni di chilometri.
\[ \tfrac{\Delta a}{t} \approx \tfrac{3,35\times 10^{4}\;\text{km}}{2,5\times^{9}\;\text{anni}}\sim 1,34 \;\text{cm/anno} \]
Un’inezia, se oggi, con un’eccentricità dell’orbita di 0,0167 (quasi circolare) la differenza tra afelio e perielio è di \(4.999.627\; km \approx 5 \times 10^{6}\;km\).

Ma mica è finita qui.

4) La formula di Gough  [4]

Il Sole, proprio come tutte le altre stelle di tipo G nel Ramo Principale, aumenta lentamente la propria luminosità mentre:

  • converte idrogeno in elio nel nucleo
  • il nucleo si contrae
  • la temperatura centrale aumenta
  • la potenza irradiata cresce

I modelli di evoluzione solare mostrano una crescita quasi lineare su scale di centinaia di milioni di anni.

\[ \tfrac{L(t)}{L_{0}} \approx 1-\tfrac{2}{5}\left( 1-\tfrac{t}{t_{0}} \right) \]
ovvero un aumento di luminosità di circa il 30% da quando è nato il Sole. Un tasso medio ≈ 0,7% ogni 100 milioni di anni. Ai fini pratici, un aumento di luminosità di questa portata comporta un aumento della costante solare di \(9-10\;W/m^{2}\), ossia \(\sim 1^{\circ}C \) ogni 100 milioni di anni.  Anche qui, neanche il 2% rispetto al Proterozoico.

Concludendo questa prima carrellata tra geometria astronomica e astrofisica cari pseudoesperti climapiattisti non sono le orbite o la luminosità solare i responsabili del Riscaldamento Globale.
Ma so di certo che tirereste la scusa: Ma allora i Cicli di Milankovitch?

I Cicli di Milankovitch

I cicli di Milankovitch descrivono i cambiamenti a lungo termine nella traiettoria terrestre, proposta negli anni ’20 dal geofisico e astronomo Milutin Milankovitch. Egli analizzò le variazioni dell’eccentricità terrestre, dell’inclinazione dell’asse e della precessione orbitale avvenute negli ultimi milioni di anni, individuando la correlazione tra tali parametri e i modelli climatici del pianeta, in particolare i cicli glaciali.
Attualmente, la  precessione assiale della Terra completa un intero ciclo di precessione all’incirca in ~ 26.000 anni.
Ma in un lontano passato non era così. La canonica interpretazione dei ciclo di Milankovitch non va oltre i 50 milioni di anni.

1) La precessione assiale

Regolari alternanze di strati bianchi, marrone-rossastri e grigio-blu, su una scala di circa 10 cm, sono interpretate dai ricercatori come tracce del ciclo di precessione dell’asse terrestre, visibile in primo piano a sinistra nell’immagine. Circa 2,46 miliardi di anni fa, tale ciclo aveva un periodo sensibilmente più breve – intorno agli 11.000 anni – rispetto agli attuali circa 21.000 anni, a causa della minore distanza tra Terra e Luna. La determinazione precisa del periodo dei cicli su piccola scala, e quindi della distanza Terra-Luna, può essere ottenuta confrontando il rapporto di spessore con i cicli su scala maggiore di 100.000 anni, osservabili sullo sfondo.
Credit: Frits Hilgen

Anche questa volta la geologia e la matematica ci sono di aiuto per ricostruire la storia — e la climatica — della Terra. Oggi la durata del giorno è di ~24 ore e la frequenza precessionale (precessione lunisolare o assiale) è ≈ 50,3″ per anno.
\[ \tfrac{360\;^{\circ}}{ 50,3^{\prime\prime}/anno} = \;\approx 25786 \; anni\]
Ma nel Proterozoico [5] non era così. il giorno durava 17 ore e la Luna era ad appena ≈ 216-220 mila chilometri di distanza. E siccome la frequenza di precessione \(\psi\) è direttamente proporzionale al reciproco della velocità angolare di rotazione terrestre \(\omega\):
\[ \psi \propto \tfrac{1}{\omega} \]
Non è quindi difficile dimostrare che nel Proterozoico il ciclo precessionale era molto più breve di oggi del 41%.

2) La precessione del perielio

Parallelamente, la rotazione ellittica dell’orbita influisce sull’alternanza delle stagioni e sulle variazioni orbitali con un periodo lento di ~ 112 mila anni. Questa si chiama precessione del perielio (o della linea degli apsidi).
Anch’essa non è costante nel tempo. È cambiata in modo significativo, ma per ragioni completamente diverse rispetto alla precessione degli equinozi.
La precessione del perielio è un movimento della stessa orbita ellittica terrestre. È causata principalmente dalle attrazioni gravitazionali degli altri pianeti, specialmente Giove e Saturno. La sua durata dipende quindi dalla configurazione del Sistema Solare.
Secondo il modello più accreditato, noto come Modello di Nizza e le sue successive evoluzioni [6], i pianeti giganti del Sistema Solare (Giove, Saturno, Urano e Nettuno) non si sono originati nelle attuali posizioni orbitali. Le interazioni gravitazionali con il disco residuo di gas e planetesimi, avvenute nel corso di lunghi periodi, hanno determinato la migrazione delle loro orbite. Questo processo graduale ha modificato in modo costante le influenze gravitazionali esercitate da ciascun pianeta sull’orbita terrestre, causando variazioni nel periodo della precessione del perielio.
Il Sistema Solare si configura come un sistema dinamico intrinsecamente caotico su scale temporali dell’ordine di milioni di anni. In tale contesto, le orbite planetarie non possono essere previste con precisione indefinita: piccole perturbazioni tendono ad amplificarsi, generando variazioni non lineari nei parametri orbitali, compreso il ciclo della precessione del perielio.
Nel recente passato geologico, ossia negli ultimi pochi milioni di anni, la durata di questo ciclo ha variato tra circa 100.000 e 130.000 anni, attestandosi intorno ai ~ 112.000 anni durante il Quaternario, con un impatto significativo sull’insorgenza delle ere glaciali.
Risalendo a centinaia di milioni di anni fa, nel Proterozoico, la configurazione orbitale della Terra era quasi certamente differente, determinando una durata diversa del ciclo. La stima esatta di tale valore è estremamente complessa, ma i modelli dinamici confermano che non si trattava di un parametro costante.
È fondamentale distinguere che questo ciclo è del tutto indipendente dalla presenza o dalla distanza della Luna. Quest’ultima influisce fortemente sulla precessione degli equinozi e sulle maree, ma esercita un’influenza trascurabile sull’orbita ellittica terrestre attorno al Sole, governata principalmente dall’interazione con gli altri pianeti.

3) La precessione climatica

Quest’altro ciclo di Milankovitch è invece la combinazione dei due illustrati qui sopra. È quindi abbastanza evidente che anche questo, attualmente lungo ~ 21 mila anni, è in realtà piuttosto variabile:
\[ \tfrac{1}{P_{clim}}= \tfrac{1}{P_{assiale}} + \tfrac{1}{P_{orbitale}} \]
In altre parole L’asse terrestre ruota (ciclo lento) e contemporaneamente l’intera ellisse orbitale ruota (ciclo ancora più lento). La posizione relativa tra la direzione dell’asse (che definisce le stagioni) e la direzione del perielio (il punto dell’orbita più vicino al Sole) cambia con una velocità che è la somma delle due velocità di rotazione. Ecco perché il periodo risultante è più corto di entrambi.

4) L’eccentricità dell’orbita

I cicli di Milanković NON sono “fissi”: derivano da frequenze secolari dei pianeti, chiamate:

g, g, g, g, g (precessione dei perieli)
s, s, s, s₄, s (precessione dei nodi)

Le frequenze gₙ (precessione dei perieli)

PianetaSimbologₙ (arcsec/anno)Ruolo
Mercuriog₁+5.59irrilevante per la Terra
Venereg₂+7.45fondamentale per il ciclo di 405 mila anni
Terrag₃+17.35precessione orbitale terrestre
Marteg₄+17.92modula i cicli da 100 mila e 2.4 milioni di anni
Gioveg₅+4.25modula il ciclo di 405 mila anni

Le frequenze sₙ (precessione dei nodi)

PianetaSimbolosₙ (arcsec/anno)Ruolo
Mercurios₁–5.59marginale
Veneres₂–7.06influenza obliquità
Terras₃–18.85ciclo obliquità di 41 mila anni
Martes₄–17.75modula obliquità e cicli lunghi
Gioves₅–6.57contributo minore

Questa spesso è una parte che pochi si soffermano a spiegare.

  • Il Ciclo “Ancorato” di 405.000 anni
    Questo ciclo ultra-lungo è principalmente una risonanza orbitale tra la precessione del perielio di Venere e quella della Terra. In parole povere, i punti dell’orbita più vicini al Sole (perielio) di questi due pianeti si “inseguono” nello spazio con un ritmo fisso e stabile, completando un ciclo completo ogni 405.000 anni.
    Giove, con la sua enorme massa, è il grande regolatore che rende possibile questa risonanza. La sua gravità domina la precessione del perielio di tutti i pianeti interni (Mercurio, Venere, Terra, Marte).
    \[ P= \tfrac{1}{\mid g_{_{2}}\;-\;g_{_{5}}\;\mid} \]
    Senza l’influenza stabilizzante di Giove, le orbite dei pianeti interni mostrerebbero un comportamento molto più caotico. Quindi, è più preciso dire: il ciclo di 405.000 anni è una risonanza tra Venere e Terra mediata dalla gravità di Giove.
    Stabilità: Questo è il ciclo di Milankovitch più stabile nel tempo. I calcoli e le evidenze geologiche suggeriscono che sia rimasto costante per almeno 250 milioni di anni e probabilmente per gran parte dell’era Fanerozoica. Per questo è chiamato il “pendolo geologico” o “cronometro” per calibrare la scala dei tempi geologici profondi.
  • I Cicli di ~100.000 e ~400.000 anni (Eccentricità)
    Questi cicli derivano dalla modulazione dell’eccentricità dell’orbita terrestre. Non sono semplici risonanze a due corpi, ma emergono dalla combinazione di cicli più brevi legati alle interazioni tra più pianeti.
    L’eccentricità \(e\) della Terra varia perché la sua orbita è continuamente perturbata dalle attrazioni degli altri pianeti. Matematicamente, la variazione di \(e\) può essere scomposta in una somma di molte componenti sinusoidali con periodi diversi.
    Un ciclo di ~100.000 anni: Questo è il risultato della combinazione di altri due cicli principali: uno
    legato alle interazioni Terra-Giove-Saturno, con un periodo di circa 95.000 anni e l’altro legato alle interazioni Terra-Marte, con un periodo di circa 99.000 anni (a volte citato come 120.000 anni, a seconda del modello) [7].
    La sovrapposizione (interferenza) di questi due segnali produce il picco di potenza dominante che osserviamo nei dati climatici degli ultimi milioni di anni intorno ai 100.000 anni.
    Ciclo di ~400.000 anni: Questo è un armonico del ciclo di 405.000 anni (\(\sim 405/1 = 405 \;\text{e}\; 405/4 ≈ 101\)), ma anche il risultato di altre interazioni a lungo termine nel sistema solare.

Questo contesto illustra il motivo per cui il ciclo glaciale di circa 100.000 anni, caratteristico degli ultimi 800.000 anni, rimane uno dei fenomeni più enigmatici e dibattuti della paleoclimatologia. Il forcing astronomico legato all’eccentricità, su questa scala temporale, risulta infatti estremamente debole, producendo solo lievi variazioni di insolazione. Perché questo segnale minimo diventi il ciclo glaciale predominante, il sistema climatico terrestre – comprendente calotte di ghiaccio, oceani e concentrazioni atmosferiche di \(CO_{2}\) – deve rispondere in modo non lineare e con meccanismi di amplificazione significativi.
In epoche geologiche più remote, quando la disposizione dei continenti o i livelli di \(CO_{2}\) differivano sensibilmente, altri cicli astronomici, come quello di 41.000 anni legato alle variazioni dell’obliquità, esercitavano un’influenza dominante sulle oscillazioni climatiche globali.

Cicli di Milankovitch

FenomenoPeriodoCausaPianeti coinvolti
Eccentricità lunga405 mila anniRisonanza g₂ - g₅Venere + Giove
Eccentricità breve95-125 mila annig₄ dominanteMarte
Eccentricità molto lunga2,4 milioni annig₃ - g₄Terra + Marte
Obliquità41 mila annis₃, s₄Terra + Marte
Precessione assiale25786 annicoppia Sole + Luna
Precessione orbitale112 mila annig₃Terra
Precessione climatica19-23 mila annicombinazioneTerra + Marte + Giove
gₙ = frequenze di precessione dei perieli (orbite)
sₙ = frequenze di precessione dei nodi (piani orbitali)
Tutti i periodi, eccetto il primo che è stabile, si riferiscono ai periodi attuali.

Conclusione

Bisogna però essere consapevoli che l’anidride carbonica di per sé non è un agente inquinante. Al contrario essa è indispensabile per la vita sul nostro pianeta. … L’origine antropica del riscaldamento globale è però una congettura non dimostrata, dedotta solo da alcuni modelli climatici, cioè complessi programmi al computer, chiamati General Circulation Models. La responsabilità antropica del cambiamento climatico osservato nell’ultimo secolo è quindi ingiustificatamente esagerata e le previsioni catastrofiche non sono realistiche …
L’illusione di governare il clima.
Manifesto negazionisti climatici italiani

I Cicli di Milankovitch non sono di certo una novità per chi segue da vicino l’astronomia. E le risonanze gravitazionali dei pianeti vicini (Venere e Marte) e dell’imponente nostro gigante gassoso (Giove, ma in misura minore anche Saturno) che agiscono sulla linea delle absidi e l’eccentricità dell’orbita planetaria non sono una scoperta dei climapiattisti di oggi.
Ho anche dimostrato, casomai ce ne fosse bisogno per qualche incauto senza mestiere, che il semiasse maggiore dell’orbita terrestre è costante nel tempo (non lo dico io ma le leggi di Keplero).
Quindi no. non ci sono state negli ultimi 170 anni variazioni orbitali repentine o fluttuazioni nella luminosità/temperatura del Sole [8] per giustificare il riscaldamento globale in atto [9].

Vedere poi, che tra i peggiori negazionisti italiani figurano anche alcuni professori universitari, mi provoca sgomento.
Come si può leggere, da uno stralcio del loro manifesto del 17 giugno 2019, riportato qui a fianco, di strafalcioni ne vedo parecchi, a cominciare dal loro motto che la \(CO_{2}\) non è un inquinante ma che è indispensabile alla vita del pianeta.
Ma sicuro, senza una atmosfera la temperatura di equilibrio della Terra sarebbe intoro ai 255 °K, ossia -18 °C. Ma la presenza di una atmosfera con una modesta quantità di anidride carbonica compresa tra i 200 e 300 ppm permette di avere una temperatura media planetaria compresa fra i 13 e i 15 °C, poco sopra il punto triplo dell’acqua.
I climapiattisti nostalgici di oggi spesso riportano le condizioni climatiche del Giurassico come esempio di come la vita prosperava sulla Terra nonostante che l’anidride carbonica atmosferica fosse ben più abbondate di oggi

Nel Giurassico (circa 200-145 milioni di anni fa), nonostante che il Sole fosse circa l’1% più debole di oggi (vedi sopra i lavori di Douglas Gouth) il clima era complessivamente più caldo e umido rispetto a quello attuale, con temperature medie globali superiori di 4-7 °C e minori differenze termiche tra equatore e poli.
In quell’era si verificarono tuttavia episodi di riscaldamento globale che determinarono crisi ecologiche e marine: picchi termici provocarono ampie zone oceaniche povere di ossigeno e estinzioni di massa, evidenziando la vulnerabilità degli ecosistemi ai cambiamenti climatici.
… In conclusione, posta la cruciale importanza che hanno i combustibili fossili per l’approvvigionamento energetico dell’umanità, suggeriamo che non si aderisca a politiche di riduzione acritica della immissione di anidride carbonica in atmosfera con l’illusoria pretesa di governare il clima.
L’illusione di governare il clima.
Manifesto negazionisti climatici italiani

Nel Mesozoico, incluso il Giurassico, la Terra si trovava in una fase di “clima serra”, molto più caldo rispetto a oggi: l’innalzamento del livello marino favorì la formazione di rocce sedimentarie marine, tipiche di ambienti caldi e umidi. Nei periodi di intenso riscaldamento (eventi anossici oceanici), legati a concentrazioni di \(CO_{2}\) fino a 1000-1500 ppm, causarono fioriture algali e gravi estinzioni marine.

Ai poli le temperature erano sensibilmente più alte, con ridotta differenza termica rispetto all’equatore.
Oggi tutti questi eventi estremi sono oggetto di studio per comprendere le reazioni degli ecosistemi ai cambiamenti climatici e alla perdita di biodiversità, offrendo importanti spunti per affrontare le attuali crisi ambientali.
Tornando al presente, invece la specie umana e la sua civiltà si sono tuttavia evoluti in condizioni molto diverse da quelle del Giurassico, con temperature medie globali di 14-15 °C e \(CO_{2}\) intorno a 250-280 ppm; nel Giurassico, L’Umanità non si sarebbe mai potuta evolvere fino allo stadio odierno.
Ridentem dicere verum: quid vetat?

È un’antica locuzione latina del poeta romano Orazio, che oggi potremmo riassumere in Arlecchino si confessò burlando.
In questo caso, potremmo riassumere tutto il pomposo manifesto negazionista climatico nella sua più semplice e provocatoria frase: data la fondamentale importanza dei combustibili fossili per l’approvvigionamento energetico globale, si raccomanda di evitare politiche di riduzione indiscriminata delle emissioni di anidride carbonica. 

Questo è il vero messaggio che si cela dietro al negazionismo climatico e ai deliranti sproloqui sui social dei climapiattisti: le variazioni orbitali della Terra, i cicli di Milankovitch, la \(CO_{2}\) è cibo per le piante [10], e tutte le altre menate possibili e immaginabili — fino a inventarsi falsi storici — per sostenere che l’eccesso di anidride carbonica rispetto ai livelli preindustriali non è responsabile del Riscaldamento Globale non è scientificamente sostenibile.


 

  • * SATIRE-T2 [11]
  • ** GISTEMP 3.1  (4) [12]

Come il V2H può cambiare l’Italia (parte prima)

L’autonomia energetica non è solo un sogno. È una scelta tecnica, culturale e personale. Da un paio di anni vivo in una casa alimentata da un impianto fotovoltaico da 8 kWp, con 15 kWh di accumulo e una gestione intelligente orchestrata da intelligenza artificiale. Risultato? La mia ultima bolletta bimestrale è di 48 €, di cui 16 € sono il canone TV. Il resto è energia. E anche quella, è tutta mia.

Ho dovuto, malvolentieri, suddividere l’articolo i due tronconi: ci sono troppe cose da dire rispetto al tempo di attenzione di un lettore medio. Questa m’è parsa la soluzione migliore per tutti, e ne varrà la pena aspettare qualche giorno affinché l’importanza di un veicolo elettrico V2G e del fotovoltaico casalingo con accumulo venga compresa al meglio dal lettore.
Nel prossimo, le considerazioni finali.

L’auto come batteria: il concetto di V2H/V2G

Con l’arrivo della mobilità elettrica, le auto non sono più solo mezzi di trasporto. Sono accumulatori mobili da 60–100 kWh, parcheggiati per il 90% del tempo. Il V2H (Vehicle-to-Home) permette di scaricare energia dalla batteria dell’auto per alimentare la casa. Il V2G (Vehicle-to-Grid) consente di immettere energia nella rete nazionale, contribuendo alla stabilità e ricevendo compensi.

 

Simulazione: un milione di auto elettriche V2G

ParametroValore stimatoNote / fonte
Numero di auto V2G1.000.000
Plausibile al 2028-2030 (oggi ~334k EV totali, proiezione PNIEC: 6,5M al 2030).
Percentuale attiva contemporanea50% → 500.000 autoBasato su soste medie (notte/lavoro), ~50% connesse in orari di picco.
Capacità media batteria60 kWh (conservativa)Media attuale 53 kWh; sale con nuovi modelli.
Energia disponibile per V2G50% della batteria → 30 kWh/autoLimite per non intaccare mobilità; ciclo round-trip 80%.
Totale energia disponibile500.000 × 24 kWh = 12 GWhUtile per ~1-2 ore di scarica di picco.
Potenza media erogabile/auto3 - 7 kW (scarica controllata, non massima)Conservativo; fino a 7 kW domestico, 22 kW aziendale.
Potenza istantanea totale1.5 - 3,5 GWDipende da aggregazione; es. 500k × 3-7 kW.
Impatto sulla rete nazionale
12 GWh di energia immediata disponibile → sufficiente a coprire:
Il fabbisogno giornaliero di 2 milioni di abitazioni (media 6 kWh/giorno/abitazione)
1.5 - 3.5 GW di potenza istantanea → pari a
circa una grande centrale nucleare.
O il 10–15% del picco serale medio italiano in inverno

 

La rete italiana (gestita da Terna) ha un picco di domanda attuale di circa 56 GW (luglio 2025), con consumi medi giornalieri di circa 800 GWh. Un parco V2G come immaginato nella simulazione agirebbe come una batteria distribuita mobile: essa assorbe senza sforzo gli eccessi rinnovabili (ex. il solare diurno) e rilascia in picchi serali, stabilizzando la rete senza bisogno di storage stazionario costoso. Ecco l’impatto stimato, in termini percentuali e benefici:

  1. Su Picchi di Domanda (Peak Shaving)
    • Riduzione potenziale: 1.5-3.5 GW, ovvero il 2.7-6.2% del picco nazionale (56 GW).
    • Esempio locale: A Roma, stime Areti indicano circa 400 MW solo con lo smart charging più il V2G iniziale; su scala nazionale si potrebbe arrivare a 2-4 GW con un milione di auto.
    • Beneficio: Eviterebbe blackout o investimenti di rete per un risparmio di circa 1-2 miliardi di euro fino al 2030.
  2. Su Energia Totale e Integrazione Rinnovabili
    • 12 GWh netti equivalgono a circa l’1.5% del consumo giornaliero, stimati oggi 800 GWh, ma concentrati tutti in 2-4 ore di picco; questo scenario dimezzerebbe i vuoti serali, integrando il surplus del 10-15% di solare/eolico (oggi al 42% della domanda energetica).
    • Al 2030, con 6.5 milioni di veicoli elettrici V2G (stimati) si otterrebbe un potenziale accumulo totale pari a 300 GWh (pari alla produzione giornaliera di 12 centrali nucleari da 1000 MW), riducendo le emissioni CO2 di 200-300 mila tonnellate all’anno (valore economico 0.8-4.8 €/kWh evitato).
  3. Benefici Economici e Ambientali
    • Economici: Almeno 700-800 milioni di euro all’anno per il sistema (riduzione costi dispacciamento del 40%); mentre gli utenti guadagnerebbero intorno ai 100 €/auto/anno vendendo il surplus di energia.
    • Ambientali: Maggiore quota di rinnovabili significa meno emissioni (la doppia vita delle batterie ridurrebbe il bisogno di litio); il degrado extra batteria <1% in 10 anni con gestione smart.
    • Rischi: Congestioni locali se non aggregati bene, ma mitigabili con le Unità Virtuali Abilitate Miste (UVAM) da 1 MW [13]

Sala tecnica operativa di Terna (RM)

Secondo Motus-E e ARERA [14] il V2G potrebbe diventare una delle leve principali per la transizione energetica italiana, con incentivi fino a 600 €/anno per utente e un significativo – come abbiamo visto — impatto strutturale sulla bilancia energetica nazionale.
In pratica, se anche solo metà delle auto elettriche italiane diventassero V2G-ready, potremmo trasformare il parco circolante in un gigantesco UPS nazionale, capace di assorbire e restituire energia in modo intelligente.

Un esempio molto simile è il californiano V2G Curbside [15] dell’aprile 2025. Il California Energy Commission ha finanziato un progetto da 1.1 milioni di dollari per sviluppare il primo sistema V2G curbside al mondo 1. È stato pensato in collaborazione con UC Berkeley e University of Delaware per creare colonnine bidirezionali installabili sui marciapiedi urbani, dove milioni di auto sono parcheggiate ogni giorno, con l’obiettivo di trasformare le auto elettriche in sosta in risorse energetiche attive, capaci di scaricare energia nella rete durante i picchi e ridurre la pressione sulle infrastrutture elettriche.
Solo in California, si parla di 7 milioni di veicoli leggeri parcheggiati quotidianamente. Se anche solo il 10% di questi fosse V2G-ready, si otterrebbero 21 GWh di energia disponibile in caso di necessità. Il progetto include lo sviluppo del J3068 Active Cable [16], un cavo intelligente che gestisce comunicazione, autenticazione e flussi bidirezionali.

24 Giugno 2025, California. Un Modello Perfetto

il 24 giugno 2025, la California ha vissuto un momento storico. Durante una fascia critica tra le 19:00 e le 21:00, la rete elettrica era sull’orlo del blackout a causa di un picco di richiesta e una produzione rinnovabile in calo (picco +15-20% rispetto alla richiesta prevista). Ed è lì che è entrata in gioco la Virtual Power Plant (VPP) di Tesla e Sunrun: una rete di 25.000 Powerwall domestici aggregati e gestiti in tempo reale.
Sunrun ha dispacciato oltre 340 MW prelevate dalle batterie domestiche in serata, mentre Tesla ha testato un evento con migliaia di Powerwall, iniettando potenza extra durante le ore critiche e evitando blackout diffusi. Si è trattato di un salvataggio da 100 MWh in un colpo solo, simile a una centrale termoelettrica di medie dimensioni ma distribuito e scalabile. E il sistema ha risposto in modo sincrono, stabile e distribuito, evitando il collasso della rete. Il modello  californiano, con la sua straordinaria capacità di adattamento — domanda di picco intorno ai 50 GW, ha tagliato i costi emergenziali per centinaia di milioni di dollari e integrato un 15% di surplus di energia rinnovabile senza ricorrere a nuovi impianti centrali.

In Italia, con i nostri picchi estivi (tipo +7% consumi a giugno 2025), un setup VPP da un milione di auto e accumuli casalinghi potrebbe replicarlo alla scala nazionale, coprendo 1-3 GW extra senza muovere nemmeno un mattone.
L’esperienza californiana dimostra che l’energia decentralizzata è affidabile e che l’applicazione concreta dell’intelligenza artificiale nella gestione della rete elettrica distribuita è in grado di coordinare migliaia di dispositivi privati senza sforzo. E questo è un modello perfettamente replicabile in Italia grazie all’integrazione del modello casa-auto elettrica tramite il V2H/V2G.

28 aprile 2025. Caos nella Penisola Iberica

Il blackout del 28 aprile 2025 in Spagna e Portogallo è stato un campanello d’allarme per tutta l’Europa [17]. In pochi secondi, 15 GW di potenza sono spariti dalla rete iberica, causando oltre 10 ore di interruzione in molte zone e gravi disagi nei trasporti, telecomunicazioni e servizi essenziali. E tutto questo, paradossalmente, in un momento di alta produzione rinnovabile.
Non è stata la sovrapproduzione delle fonti rinnovabili, come qualche incauto il giorno dopo azzardò a proporre, ma una rete non sufficientemente flessibile per gestire sbilanciamenti improvvisi. Più precisamente fu proprio l’assenza di sistemi di bilanciamento del carico elettrico nazionale come sistemi di accumulo distribuito configurati in una VPP attiva a far crollare il sistema o, almeno, questa soluzione avrebbe ridotto di almeno un 40/50% le probabilità di un blackout estremo come quello che si è verificato dando il tempo necessario ai gestori di riallineare gli impianti tradizionali.

28 settembre 2003: Blackout italiano

L’Italia vista dallo spazio la notte del blackout nazionale del 2003

Dopo il blackout del 28 settembre 2003 [18], l’Italia ha invece investito pesantemente in reti intelligenti (le smart grid) con sistemi di protezione e riaccensione automatica, e interconnessioni europee più robuste coi paesi europei più vicini (Francia, Svizzera, Slovenia). Anche i sistemi di accumulo stazionario e fotovoltaico residenziale sono in crescita costante.
L’adozione della normativa CEI 0-21 che ora include anche il V2G [19] consentirà alla rete elettrica nazionale italiana di essere ancor più resiliente di quanto sia oggi.

Ora, immaginiamo di adattare l’ipotesi di cui sopra di un parco di un milione di auto elettriche V2G, esteso magari anche alle batterie domestiche per chi ha il fotovoltaico: con ARERA che promuove le Unità Virtuali Miste (UVAM [20]) regolamentate dal Testo  Integrato del Dispaccciamento Elettrico (TIDE [21]) dal 2025, è fattibile: aggregatori come Enel X o nuovi player potrebbero coordinare via app, pagando 0.10-0.20 €/kWh per scarica.
Ecco l’impatto stimato da questo scenario:

  1. Sul picco italiano del 28 giugno scorso  (eccesso di rchiesta di energia intorno a 1-2 GW):
    • La VPP coprirebbe il 75-175% dell’extra domanda: 1.5-3.5 GW iniettati nelle 2-4 ore serali di picco dimezzerebbero il calo del fotovoltaico, evitando così onerose importazioni lampo da Francia e Austria (+20% nei prezzi spot).
    • Beneficio: Risparmio rete di circa 100-200 milioni di euro a evento senza emissioni di gas extra,  grazie al surplus  fotovoltaico (Italia al 10% quota, sale al 25% con VPP).
  2. Rispettto al blackout spagnolo (un distacco generale causato dalla perdita di 30-36 GW):
    • Scala nazionale: La rete italiana (picco 56 GW) è simile; una VPP da un milione di auto V2G mitigherebbe  del 5-6% un guasto simile (appoggiandosi comunque anche alla rete europea). Con espansione a 2-3 milioni di auto V2G al 2027,  si raggiungerebbero i 4-7 GW. Abbastanza per tamponare un 10-20% di caduta, dando tempo a Terna per reindirizzare il sistema.
    • Scenario ottimista: In picco di domanda dovuta a un’ondata di caldo anomalo imprevisto,tipo il caso californiano, o un guasto alla rete , nel caso spagnolo, una VPP e le smart grid ridurrebbero i rischi di blackout totale del 40-50%, come in CA.
    • Economicamente: Gli utenti guadagnerebbero per il loro surplus 100-200 €/auto/anno; il sistema nazionale risparmierebbe intorno ai 500-1 miliardo di euro all’anno in investimenti di stoccaggio.

 

Ricerca di base per l’ambiente

C’è chi ancora pensa che gli scienziati del CERN (Consiglio Europeo per la Ricerca Nucleare) siano delle specie di talpe che vivono sottoterra a giocare con il destino del mondo con i loro acceleratori di particelle, che progettino di costruire buchi neri che inghiottano la Terra, che facciano ricerche blasfeme sulla Particella di Dio (il bosone di Higgs). Più semplicemente – e generalmente – c’è chi vede nella Scienza tutto il male possibile dell’uomo e  della sua natura autodistruttiva. Non è così, e vorrei un attimino spiegare il perché di quella Scienza con la lettera maiuscola: essa è figlia dell’intelletto e del ragionamento umano, al contrario della pseudo-scienza frutto dell’ignoranza e della superstizione che oggi è purtroppo tanto di moda.


Una striscia di Getter

Il CERN non è solo ricerca sui protoni, quark e affini: chi pensa che la ricerca di base sia una spesa inutile (come spesso la vedono gli ottusi responsabili dei bilanci statali e coloro che sono preposti a difendere l’istituto dell’istruzione fondamentale nel nostro paese) sbaglia: pensate se Tim Berners-Lee e Robert Cailliau nel 1989 avessero tenuto per sé le loro intuizioni e brevettato il World Wide Web: ora sarebbero arci-mega-pluri-fantastiliardari e vivrebbero in un deposito a Paperopoli, solo per fare uno dei più eclatanti esempi di invenzioni e scoperte che il CERN ha fatto dall’anno della sua fondazione.

Adesso una tecnologia che è fondamentale per lo studio delle particelle sta per rivelarsi importantissima nel campo delle energie alternative del solare termico, facendo fare a quest’ultima (spesso a torto considerata “il solare dei poveri”) un balzo enorme nella cattura dell’energia solare.
Una società di ingegneria civile ha recentemente iniziato ad utilizzare pannelli solari termici basati sulla tecnologia ultra alto vuoto sviluppato al CERN. In questi pannelli  le perdite di calore sono  state ridotte al minimo, consentendo ai fluidi vettori di raggiungere diverse centinaia di gradi anche in un ambiente con ridotta irradiazione solare, come ad esempio lo è il Nord Europa. A Ginevra infatti, lo scorso 15 giugno, la società di ingegneria civile Colas ha aperto un nuovo impianto di energia solare basato sulla tecnologia del vuoto del CERN. Si tratta di  un totale di 80 metri quadrati e funziona riscaldando circa 80.000 metri cubi di bitume a 180 gradi.

Questo è stato reso possibile attraverso l’uso della tecnologia dell’ultra alto vuoto  che viene usata al CERN all’interno degli acceleratori di particelle inventata dal fisico italiano Cristoforo Benvenuti, che ha sostituito il tradizionale nastro Getter con un film sottile di materiale Getter realizzato con speciali leghe metalliche messe a punto nei laboratori del Cern e  deposto su tutta la superficie interna delle camere da vuoto, tecnologia sviluppata prima per il LEP e poi adottata anche per l’LHC.

IL VUOTO DELL’LHC

Per realizzare il vuoto negli acceleratori di particelle, l’aria viene dapprima evacuata mediante normali pompe meccaniche. L’anello viene poi successivamente scaldato a 150 gradi per eliminare il vapore acqueo ancora presente sulle superfici interne. A questo punto restano da eliminare le molecole di gas (soprattutto idrogeno) che ancora  permeano le pareti. Durante il funzionamento dell’ acceleratore infatti, le pareti interne subiscono il violento bombardamento della luce di sincrotone, la quale produce un’ ulteriore emissione di gas che deve essere eliminato. Entra qui in gioco il nastro Getter  il quale cattura le molecole vaganti fissandole sotto forma di composti chimici stabili come ossidi, nitruri e carburi.

Cristoforo Benvenuti con la sua invenzione

La ridotta dispersione di calore  è ciò che rende questi pannelli solari  innovativi: per poter aumentare la temperatura d’esercizio è necessario ridurre al minimo la perdita di calore e il vuoto appunto è il miglior isolante termico che la natura stessa può offrire.  La luce diffusa o indiretta – che può rappresentare anche più del 50% del totale dell’energia solare disponibile nei paesi del Centro e Nord Europa, viene recuperata utilizzando un dispositivo riflettente costituito da due specchi cilindrici (vedi foto) e permette all’impianto di  creare vapore anche  in assenza di luce solare diretta.
Questa nuova tecnologia di costruzione dei pannelli solari potrebbe rivelarsi  interessante per le industrie che l’adotteranno, consentendo dei notevoli progressi nel contenimento delle emissioni di CO2 nell’atmosfera. In ogni caso, ci sono già i piani per estenderla a tutti gli impianti Colas in Svizzera. Tuttavia, è di minore interesse per l’uso abitativo civile: infatti questi pannelli solari producono acqua calda, ma a temperature molto elevate, fino a 300 gradi, quindi  per un semplice uso domestico è necessario che l’intero sistema venga semplificato e reso meno costoso.