Come la paleoclimatologia ricostruisce il passato climatico della Terra (seconda parte)

Ecco la seconda parte di questo trittico. Non sarà esauriente come vorrei — la Paleoclimatologia è una materia estremamente complessa — ma spero di riuscire nell’intento di darvi un’idea di come questa scienza funziona.

1

Oltre la storia: la Paleoclimatica

La realtà è che la climatologia moderna ha due colonne portanti: la paleoclimatologia, che si occupa di ricostruire il clima fino a milioni di anni fa, e l’osservazione moderna, fatta di stazioni al suolo, boe oceaniche, radiosonde, satelliti in orbita e reanalisi 2.
Insieme ricostruiscono una cronologia continua e coerente.

1) Paleoclimatologia: la fisica che legge il passato

La paleoclimatologia non è un’interpretazione a caso: è geochimica applicata. Ogni archivio naturale registra la temperatura attraverso frazionamenti isotopici, rapporti elementari e segnali fisici. Una volta compreso come il frazionamento isotopico risponde alla temperatura, gli archivi naturali diventano veri termometri del passato.

  • Gli isotopi dell’ossigeno: il cuore della paleotermometria
Due diversi isotopi dell'ossigeno: il¹⁶O e il ¹⁸O. Meno neuroni, atomo più legegro.

L’isotopo dell’ossigeno-18 ha due neutroni in più, per un totale di 10 neutroni e 8 protoni, rispetto agli 8 neutroni e 8 protoni di un atomo di ossigeno normale. La massa leggermente maggiore di \( ^{18}O\), circa il 12,5 percento in più rispetto al \( ^{16}O\), porta alla differenziazione degli isotopi nell’atmosfera terrestre e nell’idrosfera. Gli scienziati misurano differenze nelle concentrazioni di isotopi dell’ossigeno per rivelare i climi passati. (Illustrazione di Robert Simmon, NASA GSFC)

Gli isotopi dell’ossigeno sono il metodo più robusto per ricostruire temperature passate, sia nei ghiacci che nei sedimenti marini. Qui il parametro chiave si chiama: \(\delta^{18}O\)

\[ \delta^{18}O\;=\left( \tfrac{\left( ^{18}\;O/^{16}\;O \right)_{_{campione}}}{\left( ^{18}\;O/^{16}\;O \right)_{_{standard}}} \;\; -1\right) \cdot 1000 \left[ ‰ \right] \]
Supponiamo che il nostro campione standard (VSMOW [1]) sia: 0,0020052  e che il campione rivelato sia 0,0020102. Avremmo:
\[ \delta^{18}O\;=\left( \tfrac{0,0020102}{0,0020052} -1\right) \cdot 1000 \\ \longrightarrow  \left( 1,00249 -1 \right) \cdot 1000 \approx +2,49 ‰ \]
Quindi, il nostro campione ha un eccesso di \( ^{18}O\) di circa 2,49 parti per mille rispetto allo standard VSMOW.

Il legame tra \(\delta^{18}O\) e la temperatura è uno dei principi fondamentali della paleoclimatologia.
Il meccanismo chiave si basa su un processo fisico-chimico chiamato frazionamento isotopico, che avviene durante i cambiamenti di fase dell’acqua, in particolare evaporazione e condensazione.
L’acqua con \(^{16}O\), più leggera, evapora più facilmente rispetto all’acqua con \(^{18}O\) che è più pesante. Questo perché il legame \(H_{2}^{18}O\) è leggermente più forte, richiede più energia per rompersi.
Il vapore acqueo risultante è quindi impoverito in \(^{18}O\) (\(\delta^{18}O\) più negativo) rispetto all’acqua sorgente (ad esempio l’oceano).
Invece, durante la condensazione, cioè la formazione di pioggia o neve, accade l’opposto: la molecola con \(^{18}O\), più pesante, condensa prima e più facilmente.
Qui entra in gioco la temperatura dell’aria:
Quando fa più caldo, la differenza di energia necessaria per far evaporare \(H_{2}^{18}O\) e \(H_{2}^{16}O\) è minore. Quindi il frazionamento è meno pronunciato. Il vapore che si allontana dall’oceano è meno impoverito in \(^{18}O\), e la pioggia che si forma ha un \(\delta ^{18}O\) meno negativo (è quindi più pesante).
Quando fa più freddo, il frazionamento è invece più forte. Il vapore è molto impoverito in \(^{18}O\), e la precipitazione che ne deriva (soprattutto neve) ha un \(\delta ^{18}O\) molto negativo (è pertanto più leggera).

In sintesi: c’è una relazione approssimativamente lineare tra la temperatura dell’aria alla sede di condensazione e il \(\delta^{18}O\) della precipitazione.
Quando è più freddo, il \(\delta^{18}O\) è più negativo. All’opposto, nei periodi più caldi, il \(\delta^{18}O\) è meno negativo o anche positivo.

Antartide (Vostok)
Nel periodo caldo attuale il
\(\delta^{18}O\text{è}\approx -55 ‰\), mentre al picco dell’ultima glaciazione scende a
\(\approx -60\;/-62  ‰\) e oltre.
Una differenza di \(\sim 5‰\) corrisponde a un raffreddamento di circa\(8-10\; ^{\circ}C\).

Gli scienziati misurano il \(\delta^{18}O\) in archivi climatici che catturano l’acqua delle precipitazioni del passato:
Carote di ghiaccio (Groenlandia, Antartide): ogni strato di neve accumulata registra il \(\delta^{18}O\) dell’acqua meteorica dell’anno in cui è caduta.
Un \(\delta^{18}O\) più negativo nello strato di ghiaccio indica che l’anno in cui cadde quella neve faceva più freddo rispetto alla media.
Andando in profondità (indietro nel tempo), si vedono le oscillazioni-60 tra periodi glaciali (\(\delta^{18}O\) molto negativo) e interglaciali (\(\delta^{18}O\) meno negativo).
Carote di sedimenti oceanici (foraminiferi):
I microscopici gusci carbonatici (foraminiferi) negli oceani incorporano ossigeno dall’acqua marina.
Il \(\delta^{18}O\) del loro guscio dipende da due fattori:

  1. La temperatura dell’acqua: in acqua più calda, il frazionamento è minore, quindi il guscio ha un \(\delta^{18}O\) meno negativo.
  2. Il volume di ghiaccio sulla terraferma: durante le glaciazioni, enormi quantità di acqua con un \(\delta^{18}O\) molto negativo (il ghiaccio) sono bloccate sulle calotte. Di conseguenza, l’acqua oceanica residua diventa più ricca in \(^{18}O\)  (\(\delta^{18}O\) più positivo).

L’effetto combinato fa sì che durante un’era glaciale il \(\delta^{18}O\) nei foraminiferi sia più positivo (più pesante), segnalando un mondo più freddo con molto ghiaccio.

  • Idrogeno e Deuterio: il \(\delta D\)
Carota di ghiaccio estratta dalla stazione Vostok in Antartide, che mostra gli strati annuali usati per misurare δ18O e δD

Foto di gruppo della famosa carota di ghiaccio del team Vostok (Antartide) nel 1990

Concettualmente la formula è uguale a quella descritta per gli isotopi dell’ossigeno:
\[ \delta D=\left( \tfrac{\left( D/H \right)_{_{campione}}}{\left( D/H\right)_{_{standard}} }\; -1 \right) \cdot 1000 \left[ \;‰\right] \]
\(D\) è ovviamente l’isotopo pesante dell’idrogeno \(^{2}H\), ovvero un protone e un neutrone.
\(H\) è l’idrogeno \(^{1}H\), un solo protone nel nucleo.
E il riferimento \(D/H\) standard è stabilito dallo stesso usato per l’ossigeno standard: il Protocollo VSMOW.
In pratica il \(\delta D\) indica di quanto il rapporto \(D/H\) si discosta dallo standard in parti per mille.

Per maggiore accuratezza, infatti, quando è possibile si usano i due tracciati indipendenti sullo stesso oggetto di studio: ossia il \(\delta^{18}O\) sa il \(\delta D\). In questo modo si ottiene una doppia conferma del frazionamento isotopico durante il ciclo idrologico e una maggiore sensibilità. Di fatto il frazionamento isotopico tra \(H\) e \(D\) è circa 8 volte maggiore di quella tra \(^{16}O\) e \(^{18}O\), per cui le variazioni di \(\delta D\) sono più ampie e facili da misurare. Combinando le misurazioni dei due frazionamenti si ottiene un parametro chiamato deuterium excess [2].
\[  \text{d-excess} = \delta D -8\delta ^{18}O \]
Il d-excess permette di ricavare informazioni sull’umidità e sulla temperatura della sorgente da cui ha avuto origine l’evaporazione (per esempio il mare), perché il suo valore varia con l’umidità relativa durante l’evaporazione.

  • La relazione empirica di Dansgaard  [3]

Nelle carote di ghiaccio antartiche, la variazione del rapporto isotopico del deuterio \(\delta D\)) è proporzionale alla variazione di temperatura dell’atmosfera in cui si è formata la neve.
L’analisi dei dati mostra una relazione approssimativamente lineare:
\[ \Delta T \approx \tfrac{\Delta\delta D}{10} \]
Dove il \(\Delta T\) è la variazione di temperatura in gradi centigradi e \(\Delta \delta D\) è la variazione del rapporto isotopico del deuterio \(\delta D\) espressa in parti per mille.
Questa relazione dice che per ogni \(10\;‰\) di variazione di \(\delta D\) corrisponde a \(\approx 1\;^{\circ}C\) di variazione termica 3.

Nel caso della carota di Vostok lo strato corrispondente all’attuale periodo interglaciale (Olocene, 11.700 anni fa – presente) mostra un \(\delta D \approx -440\; ‰\)  e un \(\delta ^{18}O \approx -55,5\; ‰\) , mentre quello del massimo glaciale un \(\delta D\ \approx -480\; ‰\)  e un \(\delta ^{18}O \approx -60\; ‰\) (Last Glacial Maximum, LGM), circa 21 mila anni fa). Da questi dati si può stabilire che:
\[ \Delta \delta D = \left( -440 \right) -\left( -480 \right) = + 40‰ \\ \longrightarrow  \Delta T \approx \tfrac{+40}{10} = +\;4 ^{\circ}C \]
Grafico del ciclo idrologico e frazionamento isotopico (δ18O e δD)L’attuale periodo caldo interglaciale (Olocene) è in Antartide, \(\sim 4\;^{\circ}C\) più caldo rispetto all’ultima grande glaciazione 4.
Prendendo invece a riferimento il \(\delta ^{18}O\) con la rispettiva relazione empirica di Dansgaard \(\Delta T \approx {\Delta \delta ^{18}O}/{1,2}\), avremmo:
\[ \Delta \delta^{18}O=\left( -55,5 \right) – \left( -60 \right)= 4,5 \,‰ \\ \longrightarrow  \Delta T \approx \tfrac{4,5}{1,2} \approx 3,75\; ^{\circ}C \]
anche il frazionamento isotopico \(\delta^{18}O\) restituisce dati coerenti col frazionamento \(D/H\).
Ma attenzione. Le relazioni \(\Delta T = {\Delta \delta D}/{10}\) e \(\Delta T \approx {\Delta \delta ^{18}O}/{1,2}\) sono empiriche, cioè sono calibrate sui dati osservativi e sono fortemente influenzate dalla regione del carotaggio, dalla stagione di riferimento e dai cambiamenti nella temperatura oceanica.

  • La \(CO_{2}\) dall’Ultimo Massimo Glaciale a oggi
Durante l’Ultimo Massimo Glaciale (LGM), circa 21.000 anni fa, la concentrazione di \(CO_{2}\) atmosferica era significativamente più bassa rispetto ai livelli preindustriali.
Vediamo alcuni dati:

Tabella delle concentrazioni atmosferiche di CO₂ dall'Ultimo Massimo Glaciale (185 ppm) fino al 2026 (~430 ppm)

Tempo (anni)CO₂ (ppm)EventoΔT globale °C (*)
- 21.000185Picco LGM-6 ± 0,5[4]
- 17.000200Inizio deglaciazione-5 ± 0,5
- 14.700240Riscaldamento Bølling-Allerød -2,5 ± 0,4[5]
- 12.800260Dryas recente-3,5 ± 0,3[6]
- 11.700265Inizio Olocene0,8 ± 0,2
- 10.000 - 1750 d.C280Olocene stabile0,0 (riferimento standard)
1750 - 1974 d.C.280 ↑ 333Era Industriale[7]
2026 d.C.430 ↑Oggi+1,3 ±0,1[8]
(*) Note:
I valori antichi sono medie globali ricostruite, non temperature locali (per esempio la Groenlandia).
Il valore del LGM (−6 °C) è una media tra oceani e continenti, con variazioni regionali molto più ampie.
Il periodo 1750–1974 mostra un incremento graduale, ma il salto più netto avviene dopo il 1980.
Il valore attuale di +1,3 °C è rispetto alla media 1850–1900, coerente con i report IPCC AR6.

Questi sono i meccanismi principali che riducono la \(CO_{2}\) durante le glaciazioni:

  1. Aumento della pompa biologica oceanica: Maggiore efficienza nel sequestro di carbonio negli oceani profondi
  2. Cambiamenti nella circolazione oceanica: Spostamento verso modalità “glaciali” con maggior ventilazione delle acque profonde
  3. Espansione dei ghiacci marini: Riduzione dello scambio aria-mare alle alte latitudini
  4. Basse temperature: Maggiore solubilità della \(CO_{2}\) in acqua fredda (legge di Henry [4])

Una differenza di ~100 ppm (da 280 a 180 ppm) fornì una forzante radiativa che, insieme ai feedback associati, contribuì a un raffreddamento di circa \(\approx 2-3\;^{\circ}C\) su un totale di \(4-7\;^{\circ}C\) di raffreddamento globale tra Olocene e Ultimo Massimo Glaciale. Al restante calo contribuirono l’aumento dell’albedo dovuto a una maggiore estensione di ghiaccio e neve, nonché la riduzione di altri gas climalteranti (\(CH_{4}\) e \(N_{2}O\) legati ai processi biologici e alla decomposizione delle piante. In pratica, tutti i feedback climatici (albedo, vapore acqueo, etc.) furono amplificati.

Il livello di \(CO_{2}\) durante LGM (185 ppm) è molto vicino al limite inferiore per molte piante C3 (150-200 ppm), il che  avrebbe potuto influire sulla produttività degli ecosistemi 5.
La crescita da 185 a 280 ppm durante la deglaciazione (≈95 ppm in 7.000 anni) è stata molto più lenta rispetto all”attuale aumento di 148 ppm nel solo periodo dell’era industriale.
Questi dati sono tra le prove più solide del ruolo della \(CO_{2}\) come leva fondamentale nel sistema climatico terrestre, sia in passato che oggi.

2) La biomineralizzazione dei foraminiferi
Gusci fossili di foraminifero planctonico (Globigerinoides ruber) visti al microscopio elettronico

Gusci fossili di foraminifero planctonico (Globigerinoides ruber) visti al microscopio elettronico

Oltre agli isotopi dell’acqua conservati nei ghiacci, i paleoclimatologi utilizzano anche altri indicatori chimici incorporati nei resti di organismi marini, che permettono di ricostruire sia la temperatura dell’oceano sia il volume dei ghiacci.

Tutto ha inizio col processo di formazione del guscio calcareo dei foraminiferi.
Questo processo, chiamato biomineralizzazione [5], produce una molecola di calcio \(CaCO_{3}\) partendo da uno ione carbonato \(CO_{3}\;^{2-}\)  e ioni di calcio bivalenti \(Ca^{2+}\).
Nell’ambiente marino gli ioni di calcio sono abbondanti ma non i carbonati.
Per sopperire a questa mancanza, i foraminiferi hanno sviluppato una strategia che sfrutta l’anidride carbonica disciolta nel mare e uno ione carbonato \(HCO^{-}_{3}\) per ricavare il carbonato necessario alla mineralizzazione.
Durante questo processo, però, accade qualcosa di cruciale per la paleoclimatologia.
Uno ione magnesio \(Mg^{2+}\), che ha un raggio ionico simile ma leggermente più piccolo rispetto allo ione calcio\(Ca^{2+}\), può sostituirsi a esso nel reticolo cristallino del carbonato. Questa sostituzione non avviene con la stessa facilità a tutte le temperature:
A temperature più basse la barriera energetica per la sostituzione di \(Ca^{2+}\) con \(Mg^{2+}\) nel reticolo cristallino è più alta. Il risultato è che meno \(Mg\) viene incorporato e, di conseguenza, anche il rapporto \(Mg/Ca\) nel guscio risulta basso.
All’opposto, con temperature più alte l’energia termica permette di superare più facilmente la barriera e di conseguenza lo ione \(Mg^{2+}\) può sostituire lo ione calcio. Di conseguenza, il rapporto \(Mg/Ca\) è più alto.
Da qui nasce la relazione esponenziale tra temperatura e rapporto Mg/Ca, spesso espressa come:
\[ \left( \tfrac{Mg}{Ca} \right)_{foram} = A \cdot e^{\left( B \cdot T \right)}\]

Il rapporto\(Mg/Ca\) nei gusci dei foraminiferi è quindi un vero termometro geochimico a memoria lunga. Pur richiedendo correzioni per la chimica oceanica del passato (in particolare per la concentrazione di \(Mg/Ca\) dell’acqua di mare)6, questo proxy permette di separare il segnale termico da quello legato al volume dei ghiacci registrato negli isotopi dell’ossigeno. È uno strumento essenziale per ricostruire in modo quantitativo la temperatura degli oceani del passato.

Questi sono i parametri dell’equazione:

  • \(Mg/Ca\) è il rapporto molare Magnesio/Calcio nel guscio del foraminifero
  • \(T\) è la temperatura dell’acqua di mare espressa in gradi Celsius
  • \(A\) è il valore del rapporto \(Mg/Ca\) a 0 °C (termine pre‑esponenziale);
  • \(B\) è la misura di quanto rapidamente cresce \(Mg/Ca\) per ogni grado in più (sensibilità termica).
  • \(e\) è il numero di Eulero (2,71828)

I valori di \(A\) e \(B\) variano leggermente a seconda della specie di foraminifero e della chimica dell’acqua (soprattutto il rapporto \(Mg/Ca\) dell’acqua di mare stessa, che è cambiato nel tempo geologico). Non sono inventati, ma derivano da regressioni su colture di foraminiferi e da carote recenti confrontate con la temperatura strumentale.

Per i foraminiferi planctonici 7
Esempio per Globigerinoides ruber [6] :
\[ \tfrac{Mg}{Ca}(mmol/mol)= 0,38 \cdot e^{\left( 0.089 \cdot T \right)} \]
Dove \(T\) è espresso in gradi centigradi.
Per i foraminiferi bentonici 8, invece, la sensibilità generalmente è minore:
\[ \tfrac{Mg}{Ca}=1,2 \cdot e ^{\left( 0,055 \cdot T \right)} \]

  • Come funziona nella pratica

Dai sedimenti marini si estraggono i gusci di foraminiferi, si misura il loro rapporto Mg/Ca con la spettrometria di massa (ICPS-MS o simili 9) e si inverte la formula per ottenere la temperatura:
\[ T=\tfrac{1}{B}\cdot ln \left( \tfrac{\left( Mg/Ca \right)\text{foram\;}}{A} \right)\]
Supponiamo di misurare Mg/Ca = 4,0 mmol/mol in G. ruber.
Usando la calibrazione: \(A\) = 0,38 e \(B\) = 0,089
\[ T= \tfrac{1}{0,089}\cdot ln \left( \tfrac{4,0}{0,38} \right)\\ \longrightarrow  11,24 \cdot ln \left( 10,526 \right) \\ \longrightarrow 11,24 \cdot 2,354 =\;\approx 26.5\,^{\circ}C \]

Un’indagine sul campione di Globigerinoides ruber [7] dimostra che questi foraminiferi sono vissuti in un ambiente tropicale caldo e poco profondo; circa 26 °C.

Rispetto al \(\delta{18}O\), che è influenzato dal ciclo globale del ghiaccio, il paleotermometro \(Mg/Ca\) possiede una diretta sensibilità termica e un’alta risoluzione temporale. Però, se combinati, il\(\delta^{18}O\) e \Mg/Ca\) permettono di separare il segnale termico da quello del volume di ghiaccio.
Il \(\delta^{18}O\) del carbonato di calcio di foraminiferi dipende sia dalla temperatura dell’acqua sia dal volume di ghiaccio continentale, mentre il rapporto \(Mg/Ca\) dipende quasi esclusivamente dalla temperatura. Utilizzando \(Mg/Ca\) per stimare \(T\) e sottraendo l’effetto termico dal \(\delta^{18}O\), si ottiene una stima sommaria indipendente del volume globale del ghiaccio passato. Il principio è questo:
\[ \delta^{18}O_{_{calcite}}\;\; = f\left( T \right) + f\left( \text{volume di ghiaccio globale} \right) \\ Mg/Ca= g(T) \]
E quindi:
\[\ \delta^{18}O_{_{ghiaccio}} \;\;=\delta^{18}O{_{calcite}}-f\left( T \right)\]

Misurando il \(\delta^{18}O\) sui gusci fossili estratti dalle carote di sedimento oceanico 10), si ottengono curve di variazioni glaciali-interglaciali su milioni di anni. Il segnale combina due effetti principali:

  • La temperatura dell’acqua — superficiale o profonda — (temperature più basse favoriscono l’incorporazione di \(^{18}O\) nei gusci — \(\delta^{18}O\) positivo), con un effetto di circa -0,22‰ per °C di riscaldamento.
  • Il volume globale di ghiaccio (effetto dominante nei cicli glaciali del Pleistocene): durante i periodi glaciali, l’acqua impoverita in \(^{18}O\) si accumula nelle calotte polari come ghiaccio, lasciando gli oceani arricchiti in \(^{18}O\) e quindi i gusci bentonici con valori più positivi.

Studi di decomposizione del segnale mostrano che, nel Pleistocene superiore, l’effetto del volume di ghiaccio domina (~50–70% della varianza in \(\delta^{18}O\) bentonico), mentre la temperatura profonda contribuisce in misura minore ma significativa, specialmente nei cicli più brevi. Le curve di riferimento più utilizzate derivano da stack globali di record bentonici, come lo stack LR04 [8], che media 57 registrazioni distribuite globalmente che coprono gli ultimi 5,3 milioni di anni (Pliocene-Pleistocene). Questo stack evidenzia cicli di ~100.000 anni dominanti nel Pleistocene superiore, legati principalmente alle variazioni orbitali di Milankovitch (eccentricità terrestre, che modula obliquità e precessione). Negli ultimi anni sono emersi stack aggiornati e regionali che incorporano più dati (fino a 200+ core) e strategie di modelli di età diverse (tuning orbitale minimo, vincoli geomagnetici, ottimizzazione automatica). Esempi includono grandi database pleoclimatici [9], con versioni globali, Atlantico e Pacifico, che confermano il dominio del ciclo 100-ka post-MPT ma evidenziano divergenze regionali nella \(\delta^{18}O\) bentonica (es. differenze tra Atlantico e Pacifico dovute a circolazione profonda). Questi nuovi stack offrono maggiore flessibilità per allineamenti stratigrafici senza sovraccaricare il tuning astronomico.

  • Il rapporto \(Sr/Ca\) nei coralli
Esemplare di corallo cervello (Diploria) usato per ricostruire temperature oceaniche tramite rapporto Sr/Ca

Un esemplare di Diploria, al largo di Portorico.
È conosciuto anche come cervello corallo.

Il rapporto Stronzio/Calcio negli scheletri di corallo rappresenta un altro paleotermometro di alta precisione per le temperature superficiali oceaniche tropicali 11

I coralli costruttori di barriera (sclerattinie) come Porites e Diploria secernono uno scheletro di aragonite (una forma di \(CaCO_{3}\)). Durante la biomineralizzazione incorporano oligoelementi dall’acqua marina, ioni di calcio \(Ca^{2+}\) e,  in tracce, ioni di stronzio \(Sr^{2+}\) [10].
Il rapporto \(Sr/Ca\) registrato nello scheletro varia in modo sistematico e quasi lineare con la temperatura dell’acqua superficiale del mare: più l’acqua è calda, più basso è il rapporto \(Sr/Ca\) incorporato. Questa relazione inversa si esprime empiricamente come \[ Sr/Ca \approx A − B \cdot T\], dove \(T\) è la temperatura in °C e \(B\) (la sensibilità) è tipicamente tra 0.06 e 0.08 mmol/mol per grado Celsius, a seconda della specie [11].

Il parametro \(A\) nella relazione \(Sr/Ca \approx A − B\cdot T\) non è un numero arbitrario, ma l’intercetta della regressione lineare ottenuta confrontando \(Sr/Ca\) misurato in coralli vivi con le temperature strumentali dell’acqua nello stesso periodo.
In altre parole, \(A\) è determinato dai dati, non scelto a piacere: cambia da specie a specie e da sito a sito, ed è calcolato statisticamente insieme alla pendenza \(B\). Per coralli tropicali come Porites, i valori tipici di \(A\) risultano intorno a 9.8–10.2, coerenti con \(Sr/Ca\) osservati (8.6–9.2 mmol/mol) e le temperature delle acque superficiali tropicali (24–30 °C).

Il motivo fisico principale è legato alle dimensioni degli ioni: lo ione \(Ca^{2+}\) ha un raggio ionico di circa 1.00 Å, mentre \(Sr^{2+}\) è più grande (1.18 Å) e quindi meno compatibile col reticolo dell’aragonite. A temperature più alte la crescita cristallina è più rapida e la struttura discrimina più efficacemente contro gli ioni sovradimensionati, la crescita del cristallo è più rapida escludendo lo stronzio e abbassando il rapporto \(Sr/Ca\). A temperature più basse, invece, la crescita rallenta e l’aragonite accetta più facilmente anche gli ioni leggermente sovradimensionati come gli \(Sr^{2+}\), aumentando il rapporto \(Sr/Ca\).
Si tratta quindi di un classico processo di frazionamento elementare dipendente dalla temperatura, che rende \(Sr/Ca\) un paleotermometro affidabile per ricostruire variazioni stagionali e interannuali con risoluzione sub-annuale. Quando l’acqua è più calda, gli organismi incorporano meno stronzio rispetto al calcio; analizzando questo rapporto nei fossili, gli scienziati possono ricostruire le temperature oceaniche degli ultimi secoli e millenni.
Pur richiedendo attenzione a potenziali effetti diagenetici e fisiologici, questo proxy ha illuminato la dinamica di fenomeni climatici come ENSO (El Niño-Southern Oscillation), documentando l’eccezionalità del riscaldamento oceanico moderno nel contesto storico recente.

Ipotizzando un rapporto \(Sr/Ca\) di 8,80 mmol/mol e usando una calibrazione\(Sr/Ca =10,0 -0,05 T\) [12] si ottiene:
\[ T = \tfrac {10,0 – \tfrac{Sr}{Ca} }{0,05} \\
\rightarrow T=\tfrac{1,20}{0,05} = 24\,^{\circ}C \]

3) Gli speleotemi (stalattiti e stalagmiti)

Formazione di stalattiti nella grotta di Avshalom (Israele)
By Sir_Joseph – Own work, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=72897795

Gli speleotemi sono l’archivio terrestre ad alta risoluzione.
Accanto agli archivi marini (foraminiferi e coralli), i depositi carbonatici nelle grotte — speleotemi (stalagmiti, stalattiti e altre concrezioni calcaree) — rappresentano uno degli archivi paleoclimatici più precisi disponibili sul continente. Sono il complemento terrestre degli archivi marini (foraminiferi, coralli), ma con una sensibilità completamente diversa: non integrano l’oceano globale, bensì l’idrologia locale. Crescono per precipitazione di calcite (o aragonite) da acqua di percolazione, registrando con precisione cronologica (grazie alla datazione \(U-Th\) 12) le variazioni di precipitazione, temperatura e circolazione atmosferica su scala regionale.
A differenza dei foraminiferi, che integrano segnali oceanici globali, gli speleotemi catturano soprattutto l’idrologia terrestre: intensità dei monsoni, quantità della pioggia e, in alcuni casi, pure la temperatura locale.

  • Il proxy principale: il \(\delta^{18}O\) nella calcite

Il \(\delta^{18}O\) dello speleotema dipende da due fattori principali:

  1. Il \(\delta^{18}O\) dell’acqua di gocciolamento riflette il relativo frazionamento isotopico della pioggia locale. Quindi il fattore quantità (“amount effect” nella letteratura scientifica) nelle regioni tropicali, la temperatura di condensazione, traiettoria delle masse d’aria 13, evaporazione e rievaporazione lungo il percorso.
    Più che un proxy termometrico, è quindi un proxy idrologico, almeno nella maggior parte dei casi.
  2. Il frazionamento isotopico temperatura-dipendente durante la precipitazione della calcite.
La relazione di equilibrio più utilizzata oggi [13] è:
\[ \delta^{18}O_{\text{calcite (SMOW)}}\;\; \approx \delta^{18}O_{\text{acqua}}+ \left( \tfrac{16,1 \times 1000}{T} – 24,6 \right) \]
dove \(T\) questa volta è espresso in Kelvin. Qui il \(\delta^{18}O\) dell’acqua è la parte idrologica, mentre il frazionamento di equilibrio è correlato alla temperatura.
In pratica, tuttavia, i due effetti risultano strettamente interconnessi e spesso non possono essere distinti senza il ricorso a ulteriori proxy, quali \(\delta^{13}C\), \(Mg/Ca\), \(Sr/Ca\), inclusioni fluide e modelli di bilancio idrico.

Cosa “misura” davvero il \(\delta^{18}O\) negli speleotemi?

AmbienteCosa domina il segnale \(\delta^{18}O\)
Tropici monsonicifattore quantità → pioggia
Medie latitudiniTraiettorie delle masse d’aria, stagionalità
Zone arideEvaporazione del suolo e del film d’acqua
Ambienti freddiTemperatura di condensazione della neve
Questa variabilità rappresenta la ragione per cui gli speleotemi costituiscono strumenti di straordinaria efficacia, pur necessitando di un’accurata calibrazione locale e di una rigorosa contestualizzazione.

Un aspetto spesso trascurato riguarda il fatto che gli speleotemi non rappresentano termometri puri. Numerosi divulgatori, e talvolta anche articoli scientifici redatti con eccessiva fretta, descrivono il \(\delta^{18}O\) degli speleotemi come un diretto indicatore della temperatura, il che risulta fuorviante.
La temperatura interviene unicamente nel processo di frazionamento acqua–calcite, con un’influenza relativamente ridotta rispetto alle variazioni del \(\delta^{18}O\) presenti nelle precipitazioni. Di conseguenza:

  • Negli ambienti tropicali il\(\delta^{18}O\) riflette quasi esclusivamente fattori idrologici;
  • Alle medie latitudini si osserva un insieme complesso di influenze;
  • Solo in condizioni climatiche molto fredde e stabili il \(\delta^{18}O\) può avvicinarsi a un indicatore termometrico.

Gli speleotemi e i foraminiferi rappresentano due archivi paleoclimatici complementari, in grado di fornire informazioni distinte ma integrabili per ricostruire le dinamiche climatiche del passato. I foraminiferi, organismi marini con guscio calcareo, registrano il segnale isotopico dell’oceano globale, permettendo di dedurre variazioni della temperatura superficiale e del volume dei ghiacci.
Gli speleotemi, concrezioni minerali che si formano nelle grotte, incorporano invece il segnale isotopico dell’acqua meteorica, rivelando indicazioni sull’idrologia regionale e sulla circolazione atmosferica. L’integrazione di questi due proxy consente di ottenere un quadro più completo e dettagliato di fenomeni come la dinamica dei monsoni, gli spostamenti della Zona di Convergenza Intertropicale (ITCZ), i pattern di teleconnessione climatica (ENSO, NAO) e le risposte dei sistemi continentali ai cambiamenti globali.

Ispirandosi ai dati reali della Grotta di Avshalom (Israele- Mediterraneo orientale), si può utilizzare una forma semplificata della relazione tra acqua e calcite (in scala VSMOW), identica sia per l’acqua che per la calcite.
Le condizioni attuali (clima moderno) indicano una temperatura media in grotta: \(T\) di circa \(19^{\circ}C \Rightarrow 292 K\)
Gli isotopi dell’acqua di gocciolamento: \(\delta{18}O_{\text{acqua}}\; \approx −5,0 ‰\) (valore tipico per il Mediterraneo orientale)
Pertanto, calcolando il termine di frazionamento si ottiene:
\[ \frac{16,1 \times 1000}{292}- 24,6 \\\longrightarrow \;
\approx 55,1 -24,6 \\ \longrightarrow \; \approx 30,5‰ \]Ne consegue che, oggi, la \(\delta^{18}O_{\text{calcite}}\;\text{ è} \approx -5,0 + 30,5 = + 25,5‰\)
Considerando un periodo passato invece, si può supporre di incontrare in una stalagmite un valore di \(\delta^{18}O_{\text{calcite}\;_{\text{passato}}}\;\;\; = +27,0‰\)
Ipotizzando una temperatura in grotto sia circa la stessa(\(19 ^{\circ}C\)), invertendo la relazione si otterrebbe:
\[ \delta^{18}O_{\text{acqua}\;_{\text{passato}}}\;\;\; \approx \delta^{18}O_{\text{calcite}\;_{\text{passato}}};\; \; – 30,5 \\\longrightarrow 27,0-30,5 \\\longrightarrow -3.5‰ \]Questo significa che l’acqua di gocciolamento nel passato risultava circa essere 1,5 ‰ più pesante (−3.5 ‰ rispetto a −5.0 ‰) rispetto a oggi. In un contesto simile a quello delle grotte di Avshalom o Soreq, questo dato è coerente con una fase climatica più umida, caratterizzata da un maggiore apporto di intense piogge autunnali e invernali e da una diversa combinazione di masse d’aria rispetto ad oggi.

Come hanno avuto origine gli elementi?

Nucleosynthesis_Cmglee_1080Sorgente: APOD: 25 gennaio 2016 – Where Your Elements Came From

Molto tempo fa ho narrato delle abbondanze chimiche nella nostra galassia e come le analisi delle varie proporzioni degli elementi del Sistema Solare ci aiutano a capire quali fossero i loro progenitori. Oggi Astronomy Picture of the Day (APOD) pubblica una divertente Tavola Periodica con suindicate le origini di ogni singolo elemento; un modo per ricordarci che l’origine dei diversi elementi che ci compongono non è sempre la stessa e che siamo in definitiva il risultato di un lungo intreccio di eventi passati molto diversi e distanti fra loro, sia nel tempo che nello spazio.

La percentuale d'acqua presente nel corpo umano varia con l'età ma dalla metà fino ai 2/3 della massa corporea è comunque acqua.

La percentuale d’acqua presente nel corpo umano varia con l’età ma si può tranquillamente sostenere che dalla metà fino ai 2/3 della massa corporea è comunque acqua.

Due atomi di idrogeno (simbolo \(H\), in alto a sinistra nella tabella) insieme a un atomo di ossigeno (simbolo \(O\), nella seconda riga in alto a destra) compongono l’acqua, da quella degli oceani alle nubi cariche di pioggia e anche quella che è presente nel corpo umano. Gli atomi di  idrogeno si formarono ben 13,8 miliardi di anni fa subito dopo il Big Bang, non ci sono state da allora altre fonti di questo elemento, che oltre ad essere il mattone elementare con cui sono stati poi costruiti nelle fucine stellari tutti gli altri elementi sparsi nell’universo, è anche quello più antico.
Il carbonio del nostro corpo, il calcio delle nostre ossa e il fluoro nello smalto dei nostri denti sono il risultato della fusione dell’idrogeno nelle stelle. Il ferro contenuto nell’emoglobina del sangue e anche quello che quotidianamente conosciamo con altre forme e con altri nomi, come ad esempio l’acciaio delle posate da cucina e quello delle automobili, nasce un attimo prima che una stella grande almeno una decina di volte il nostro Sole esploda in supernova.  Il metallo che più di tutti consideriamo da sempre il più prezioso e usato anche come controvalore negli scambi commerciali, l’oro, è il risultato di una fusione tra due stelle di neutroni [cite]http://wwwmpa.mpa-garching.mpg.de/mpa/institute/news_archives/news1109_janka/news1109_janka-en.html[/cite], uno degli eventi cosmici più potenti in assoluto e quasi sicuramente l’unico responsabile dei Gamma Ray Burst (GRB). Anche il piombo, metallo assai povero, piuttosto tossico se inalato o ingerito e conosciuto fin dall’antichità per le sue notevoli proprietà metallurgiche, è prodotto dal decadimento dell’uranio 238 (simbolo \(U\), ultima riga della tavola), che anche lui trae origine nelle collisioni di stelle di neutroni. Quando sentirete di un avvistamento di un nuovo avvistamento di un lampo di raggi gamma pensate che lì si è formato dell’oro e dell’uranio.
Solo gli ultimi, dall’americio (simbolo \(Am\) al laurenzio (simbolo \(Lr\), senza contare anche altri elementi chimici di sintesi che qui non sono riportati, sono opera dell’uomo.
Come vedete, noi e tutto quello che ci circonda nell’Universo è in definitiva Figlio delle Stelle.


 

Il neutrino TAU e la massa di Majorana

Conoscere la massa di ogni particella è importatissimo. questa proprietà è fondamentale per capirne come si propaga e interagisce con le altre particelle. Sappiamo esattamente quanto pesa un elettrone o un quark, ma continua a sfuggirci quanto sia (e cosa la produca) la massa dei neutrini. Esse sono talmente piccole che fino a pochi anni fa si dubitava che ne avessero una. Ma la scoperta dell’oscillazione dei neutrini implica che, per quanto piccola, anche i neutrini debbano averne una. Ora resta da capire come questo sia possibile nell’ambito della teoria del Modello Standard. 

Schema dell'esperimento CNGS: i neutrini di tipo mu prodotti al CERN vengono indirizzati verso i rivelatori dell'esperimento OPERA presso i Laboratori nazionali del Gran Sasso, dove arrivano dopo un tragitto di 732 cholometri nel sottosuolo (Cortesia CERN/Laboratori Nazionali del Gran Sasso) Credit: Le Sienze

Schema dell’esperimento CNGS: i neutrini \(\mu\) prodotti al CERN vengono indirizzati verso i rivelatori dell’esperimento OPERA presso i Laboratori nazionali del Gran Sasso, dove arrivano dopo un tragitto di 732 chilometri nel sottosuolo.  Credit: CERN/Laboratori Nazionali del Gran Sasso/Le Scienze

I neutrini sono senza dubbio le particelle elementari più esotiche e sfuggenti che conosciamo.
Le loro peculiarità sono straordinarie: sono sensibili solo alla forza debole e alla gravità.  La forza debole è una interazione a cortissimo raggio, mentre la gravità è estremamente debole su scale subatomiche. Tutto questo rende molto difficile intercettare e studiare i neutrini e le loro peculiarità.
Infatti solo ora l’esperimento OPERA è riuscito ad intercettare con certezza la traccia del ben quinto neutrino \(\tau\) prodotto dall’oscillazione di neutrini muonici prodotti dal CERN di Ginevra, raggiungendo così la precisione statistica di 5 sigma necessari perché si possa ragionevolmente ritenere il fenomeno statisticamente certo.
La rivelazione di neutrini TAU dall’oscillazione di neutrini muonici fu la motivazione per la quale l’esperimento OPERA fu progettato alla fine degli Anni novanta. Precedenti esperimenti di rivelazione dei neutrini di origine naturale avevano mostrato la possibile esistenza di due diversi tipi di oscillazioni. Una oscillazione tra gli autostati \(\mu – \tau\) (2 – 3) rendeva conto degli effetti osservati nei neutrini atmosferici; l’altra oscillazione \(e – \mu\) (1 – 2) invece era coerente con l’osservazione dei neutrini solari [cite]http://goo.gl/tREB56[/cite].

Il  neutrino \(\nu\) legato al leptone \(\tau\) TAU, la cui esistenza era prevista dal Modello Standard,  fu scoperto nel 2000 [cite]http://goo.gl/Anu9Y6[/cite] al Fermilab con un esperimento 1 studiato apposta per trovarlo.

Qui si parla di “autostati di sapore del neutrino”, in analogia on i “sapori” dei quark; questi ultimi, però, oltre ad essere in numero doppio (6 invece di 3), identificano gli autostati di massa e non quelli dell’interazione debole di corrente carica .
[table “28” not found /]

Infatti, proprio come prevede il Modello, i neutrini sono una particella (leptone) che oscilla tra tre diversi autostati: elettronico,  muonico e tauonico [cite]http://goo.gl/q7gTiD[/cite] legate agli altri tre leptoni tradizionali: elettrone, muone e tauone (particella TAU).

Ed è proprio questa capacità di oscillare tra tre diversi autostati prevista dal Modello Standard a mettere in crisi lo stesso Modello: tutti i leptoni carichi ed i quark sono fermioni 2  che per rispettare la legge di conservazione della carica ogni tipo di particella deve esistere la corrispettiva antiparticella, con uno stato opposto di elicità (da non confondersi con la chiralità!), levogiro o destrogiro e carica elettrica. i neutrini (che sono ovviamente neutri) finora osservati sono solo levogiri e rispettando così il principio del numero leptonico 3
Ora se i neutrini fossero privi di massa, essendo neutri, dovrebbero poter viaggiare alla velocità della luce e possedere appunto un solo stato di elicità, cosa quest’ultima verificata sperimentalmente, infatti non sono mai stati registrati neutrini destrorsi. 
Invece è proprio il fatto di oscillare tra i tre diversi autostati di massa, cosa anche questa, a questo punto ampiamente confermata da OPERA che in qualche modo mette in crisi il Modello Standard, perché attribuire una qualsiasi massa ai neutrini implicherebbe col modello di Dirac sostenere anche l’esistenza dei neutrini destrogiri, altrimenti verrebbero violate le precedenti affermazioni, e cosa questa mai registrata finora.
Non avendo alcuna carica elettrica o di colore, sono due i modi che possono permettere al neutrino di possedere una massa: uno di essi, chiamato Massa di Dirac ed è lo stesso meccanismo che attribuisce la massa ai leptoni carichi [cite]http://goo.gl/WyLYY1[/cite], mentre l’altro Massa di Majorana, che però consentirebbe processi che violano la conservazione del numero leptonico e valido solo per i leptoni privi di carica.
Pertanto solo uno di questi o un apporto condiviso può attribuire massa al neutrino.

Se il meccanismo responsabile della massa fosse il primo (\(M_{Dirac}\)) significa che il neutrino e l’antineutrino non possono essere la stessa particella: la coppia neutrino/antineutrino verrebbe descritta da  due stati di spin per il neutrino e due per per l’antineutrino (Spinore di Dirac) come accade per gli altri fermioni elementari (leptoni carichi e quark). Questo significa appunto che i neutrini e gli antineutrini siano particelle distinte che acquisiscono massa tramite il meccanismo di Higgs facendo di loro dei semplici fermioni di Dirac.

Diagramma di Feynman di decadimento doppio decadimento beta, con due neutroni che decadono a due protoni. I prodotti emessi solo in questo processo sono due elettroni, che può verificarsi se il neutrino e antineutrino sono la stessa particella (es neutrini di Majorana), così lo stesso neutrini possono essere emessi e assorbiti all'interno del nucleo. In convenzionale doppio decadimento beta, due antineutrini - uno dovuta a ciascuna W vertici - sono emessi dal nucleo, oltre ai due elettroni. La rilevazione di neutrini doppio decadimento beta è quindi un test sensibile se i neutrini sono particelle di Majorana.

Diagramma di Feynman del doppio decadimento beta, con due neutroni che decadono a due protoni. I prodotti emessi solo in questo processo sono due elettroni, ipotesi che può verificarsi soltanto se il neutrino e antineutrino fossero la stessa particella c così come previsto dalle equazioni di Majorana in cui i neutrini sono emessi e assorbiti all’interno del nucleo. Credit: Wikipedia

Se il meccanismo di massa fosse quello di Majorana  (\(M_{Majorana}\)), ipotizzato dallo scienziato italiano nel 1937, allora il neutrino coinciderebbe con la sua antiparticella, ovvero mescolerebbe gli autostati di particella a quelli di antiparticella, rendendolo di fatto lo stesso oggetto e verrebbe quindi descritto da uno spinore con due soli stati di spin. Questo renderebbe possibile tutta una serie di fenomeni finora mai osservati come il decadimento doppio beta senza neutrini (descritto nel disegno qui accanto) che non conservano il numero leptonico 4.
Infine c’è anche la possibilità che entrambi i modelli descritti contribuiscano singolarmente a generare una parte della massa indicata per i neutrini: un approccio teorico molto interessante che si chiama See-Saw, ovvero altalena.
In tal caso ad energie spaventosamente alte (\(10^{15}\ GeV\) come quelle che furono presenti al momento della nascita dell’Universo), le masse dei neutrini 5 sarebbero dovute essere altissime, dell’ordine di \(10-11\ GeV\), tanto che potrebbero avere avuto un ruolo importante nell’asimmetria materia-antimateria all’epoca del Big Bang.

La fisica dei neutrini non segnerà magari la fine del Modello Standard così come la Relatività Generale non ha cancellato la Meccanica Newtoniana. Però c’è da attendersi che un nuovo capitolo molto interessante della fisica delle particelle sta per essere scritto.

 


Note:

 

Omochiralità quantistica, biologica e universalità della Vita

Anche se in merito sono state fatte le diverse e più disparate ipotesi, dalla radiazione polarizzata di una supernova vicina nel periodo della nascita della vita sulla Terra fino alla radiazione di una pulsar ormai spersa e forse estinta che investiva il pianeta sempre in quei momenti, nessuna di queste è a mio avviso abbastanza libera da eventi dovuti al caso. Probabilmente l’origine dell’omochiralità levogira degli aminoacidi necessari alla vita è dovuta a fattori più fondamentali e universali. 

[latexpage]

stereochemTutti gli aminoacidi e molte altre molecole – isomeri – hanno un aspetto diverso se invertite spazialmente. Tutta la vita che conosciamo è capace di utilizzare solo una delle due immagini; in genere la versione levogira per quanto riguarda gli aminoacidi e la versione destrogira per i glucidi. Queste molecole complesse esistono in due forme speculari e non sovrapponibili dette enantiomeri  che, in base alla disposizione spaziale in tre dimensioni degli atomi, vengono definite destro o levogire per la loro capacità di ruotare il piano della luce polarizzata 1. A parte questa apparente sottigliezza, entrambi gli enantiomeri hanno sostanzialmente le stesse proprietà fisiche 2. Però, in certe reazioni o strutture, è utilizzabile solo l’una o l’altra forma. La principale funzione di particolari proteine (macromolecole biologiche formate da sequenze di aminoacidi legate tra loro) dette enzimi, è quella di catalizzare le reazioni biomolecolari, tra cui la sintesi delle altre proteine. La capacità catalitica degli enzimi dipende criticamente dalla loro struttura tridimensionale, la quale a sua volta dipende dalla direzione della sequenza degli aminoacidi. Catene sintetiche di amminoacidi formate sia da enantiomeri levogiri sia da enantiomeri destrorsi in una miscela 1:1, detta racemo, non si avvolgono nel giusto modo per produrre un’efficace attività catalitica; esse sono incapaci di formare una regolare struttura elicoidale.  Il DNA, ad esempio, è composto da basi azotate, glucidi e fosfati racchiusi in strutture chiamate nucleotidi le quali compongono la celebre doppia elica: che qui è sempre destrorsa. 
Ogni produzione spontanea 3 di aminoacidi ottenuta in laboratorio da luogo sempre a una soluzione racemica mentre le catene proteiche degli esseri viventi che conosciamo utilizzano esclusivamente forme levogire. 
Il problema dell’omichiralità degli  isomeri necessari alla vita non è mai stata risolta del tutto. Alcuni ritengono che questa sia frutto della selezione entropica naturale [cite]http://dx.doi.org/10.2174/187231308784220536[/cite] che pare favorisca la selezione delle migliori soluzioni di trasduzione dell’energia disponibili. In questo una soluzione enantiopura è decisamente migliore di una racemica, come dimostrano altri studi [cite]http://pubs.acs.org/doi/abs/10.1021/jp046478x[/cite], ma tutti questi studi pur dimostrando la necessità della vita di scegliere per l’omochiralità non spiegano perché per gli aminoacidi sia stato scelto il modello levogiro e destrogiro per gli zuccheri.
Una plausibile spiegazione viene dalle riflessioni di Frederic Vester e Tilo L. V. Ulbricht del 1957, i quali sospettarono la appena scoperta Violazione della Parità prodotta dall’Interazione Debole negli atomi [cite]10.1016/S0040-4020(01)92714-0[/cite] di essere responsabile dell’omochiralità a ogni scala. o quasi..

La simmetria P

L'interazione debole di un antineutrino elettronico con un neutrone all'interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

L’interazione debole di un antineutrino elettronico con un neutrone all’interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

In fisica si chiama Simmetria P, simmetria di trasformazione di parità 4. Quasi tutte le leggi fisiche fondamentali rispettano questa regola. L’elettromagnetismo, la forza di gravità e l’interazione nucleare forte rispettano tale simmetria, ossia sono invarianti rispetto all’inversione delle coordinate spaziali (potremmo immaginare lo stesso fenomeno come visto riflesso allo specchio procedere verso il medesimo risultato che nel mondo reale, solo che è appunto invertito spazialmente). La più debole delle quattro interazioni, l’interazione debole, invece no. Anzi è proprio lei la causa della violazione della Simmetria P.
Come dice il suo nome, l’interazione debole è veramente debole: circa 1000 volte meno intensa della forza elettromagnetica e 100 000 volte meno intensa della forza nucleare forte. L’interazione debole è responsabile sia per la fusione nucleare delle particelle subatomiche che per l’emissione di raggi beta durante il decadimento radioattivo. I raggi beta sono in realtà elettroni o positroni ad alta energia espulsi da un nucleo atomico durante il decadimento beta ($\beta$). Queste particelle hanno uno spin intrinseco e quindi, quando si muovono lungo il loro asse di spin, si possono classificare come sinistrorsi o destrorsi. La violazione della parità indica che le particelle beta emesse dai nuclei radioattivi mostrano segni evidenti di una asimmetria chirale: le particelle sinistrorse emesse durante il decadimento superano di gran lunga quelli destrorse.
Durante il decadimento beta vengono emesse anche altre particelle elettricamente neutre – il neutrino e l’antineutrino – che si propagano quasi alla velocità della luce. Come l’elettrone, l’antineutrino emesso dalla materia radioattiva ha uno spin ma, diversamente dall’elettrone, esiste solo nella forma destrorsa. Pare che nell’universo non esistano neutrini destrorsi e antineutrini sinistrorsi.

Chiralità Quantistica

wzIl Modello Standard delle particelle elementari, unisce le leggi dell’eletttromagnetismo di Maxwell e l’interazione debole in un’unica forza, l’Interazione Elettrodebole e introduce il concetto di correnti deboli cariche e le correnti deboli neutre mediate dai bosoni $W^\pm$ e $Z^0$. L’opera di queste correnti , o forze,  tra due particelle elementari dipende dalla distanza tra le particelle, dalla loro carica elettrica e dalla direzione del loro spin. L’elettrone ha una carica elettrica negativa e la forza elettrica tra due elettroni qualsiasi è sempre repulsiva. Invece, la carica debole $W$ è non nulla per un elettrone sinistrorso e nulla per uno destrorso. Quindi, un elettrone destrorso si limita semplicemente a non percepire la forza $W$. La corrente debole neutra $Z$ invece agisce sullo spin, elettroni sinistrorsi e destrorsi hanno cariche $Z$ di segno opposto e di intensità circa uguale. La differenza di segno provoca l’attrazione degli elettroni destrorsi verso il nucleo da parte della corrente $Z$ e la repulsione di quelli sinistrorsi 5 6. È per questo che il decadimento nucleare beta, dominato dalle correnti deboli, produce un eccesso di elettroni sinistrorsi. Se non fosse violata la parità, in un mondo visto allo specchio il decadimento beta produrrebbe elettroni destrorsi e la corrente debole neutra $Z$ attirerebbe verso il nucleo anche gli elettroni sinistrorsi. Questi processi non si osservano però nel mondo reale, il che è un altro modo per affermare che la forza debole è chiralmente asimmetrica e che la parità non viene conservata.

Chiralità molecolare

life

Pozze di fango, comete e sacche di polvere interstellare. Ecco dove possono nascere i mattoni della Vita. Credit: Il Poliedrico

Come conseguenza dell’interazione debole, gli atomi, finora pensati achirali, mostrano invece di possedere una distinzione tra destra e sinistra. Questa distinzione se è presente su scala atomica, potrebbe riflettersi su scale di ordine superiore? C’è da aspettarsi che anche le strutture molecolari più complesse, come ad esempio gli aminoacidi, mostrino proprietà fisiche differenti in base alla loro chiralità. L’asimmetria chirale a livello subatomico ha origine a livello fondamentale con la violazione della parità. Su scala superiore la corrente debole neutra $Z$ fa sì che che una molecola chirale abbia stati energetici diversi tra i due isomeri.
Per comprendere meglio questo meccanismo, immaginiamo una molecola chirale come un’elica o una vite e supponiamo che la corrente $Z$ non esista. Un elettrone con spin $\uparrow$ che si muove nello stesso senso dell’elica $\uparrow$ è destrorso,  mentre è sinistrorso se si muove nel senso contrario. Dal punto di vista probabilistico però dovremmo comunque aspettarci che la chiralità media degli elettroni sia nulla; però le correnti elettromagnetiche presenti nell’atomo tendono a far allineare l’asse orbitale dell’elettrone nel senso opposto al suo spin. Questo fenomeno, noto come accoppiamento spin-orbita, tende a far allineare l’elettrone nel moto opposto al suo spin in una molecola chirale destrorsa, per cui in questo caso gli elettroni tendono ad essere sinistrorsi. Invece negli enantiomeri levogiri sono gli elettroni destrorsi a prevalere. Ora tornando a prendere in considerazione anche la corrente debole neutra $Z$, che interagisce con gli elettroni  in modi dipendenti dalla loro chiralità, viene fuori che essa provoca una diversità energetica tra due enantiomeri opposti [cite]http://pubs.rsc.org/en/content/articlelanding/1983/c3/c39830000117#!divAbstract[/cite].
Come è facile intuire, l’enantiomero levogiro degli aminoacidi- che è quello biologicamente più dominante – è anche quello che possiede l’energia molecolare più bassa (gli elettroni dominanti sono destrorsi), mentre al contrario è l’enantiomero destrorso il più energetico.
Tutto questo è sostanzialmente in accordo con i principi della statistica e della termodinamica che in caso di sostanziale equilibrio è la forma con l’energia più bassa a prevalere; è stato calcolato che la discrepanza nella produzione spontanea dei due isomeri è così minuscola da passare inosservata: una parte su 10^17.
Un’altra fonte dell’omochiralità è il decadimento $\beta$. Nell’ipotesi Vester-Ulbricht si sostiene che durante il decadimento spontaneo viene emessa una debole traccia elettromagnetica, un Effetto Bremsstrahlung 7 interno all’atomo [cite]10.1016/S0031-8914(36)80008-1[/cite]. Questa emissione ha la stessa polarizzazione della particella che la emette. Per gli effetti dell’interazione elettrodebole che abbiamo visto più sopra, la maggior parte, circa l’80%, degli elettroni emessi durante il decadimento sono sinistorsi, e così è anche per la radiazione. Gli effetti della radiazione polarizzata è che essa tende a distruggere le molecole chirali dello stesso ordine, così una polarizzazione sinistrorsa tende a distruggere le molecole sinistrorse, ma il contributo della radiazione Bremsstrahlung interna è veramente molto piccolo; si calcola invece che l’interazione diretta della radiazione $\beta$ (elettroni e positroni) sui due isomeri sia comunque solo di una parte su 10^11. Un importante sostegno a questa teoria viene dai risultati di un recente studio che mostra un legame significativo  tra l’energia degli elettroni diversamente polarizzati e l’evoluzione chirale della bromocanfora [cite]http://dx.doi.org/10.1103/PhysRevLett.113.118103[/cite].
Ecco quindi sostanzialmente spiegato come mai ogni produzione spontanea di aminoacidi in laboratorio (ex. gli esperimenti di Stanley e Urey) porta sempre a una sostanziale soluzione racemica.
Ma una scappatoia al racemo c’è. Come insegna la termodinamica, un sistema chiuso tende sempre ad evolversi verso uno stato di equilibrio di minima energia, dove le concentrazioni molecolari sono definite dalla loro energia ed entropia. Trascurando la diversità energetica tra i due enantiomeri dovuta dalle correnti nucleari deboli, differenza reale ma comunque piccolissima, un sistema chiuso quindi può solo evolversi verso un sistema chiralmente simmetrico dove gli isomeri levogiri e destrorsi sono presenti in uguale proporzione. In un sistema aperto all’ingresso di nuova materia ed energia invece non è raggiungibile un equilibrio termodinamico; al suo posto accade un fenomeno chiamato rottura di simmetria, che porta alla predominanza spontanea di uno dei due enantiomeri sull’altro. Anche in questo caso gli gli stessi principi statistici e termodinamici suggeriscono che siano gli enantiomeri levogiri degli aminoacidi a prevalere.
E come la mano sinistra si intreccia meglio con la destra, anche i glucidi di conseguenza hanno subito la loro selezione: per adattarsi meglio agli aminoacidi levogiri i glucidi hanno subito un’evoluzione complementare fino a produrre strutture elicoidali destrorse, precursori del DNA.

Conclusioni

L’idea che l’omochiralità delle forme più complesse possa trarre origine dalle leggi più fondamentali della natura è veramente attraente. 
Non occorrerebbe più attendere – o dimostrare – che un sorgente di radiazioni polarizzata illumini un mondo promettente per ottenere la scintilla omochirale. Elettroni sinistrorsi prodotti dal decadimento $\beta$ di isotopi prodotti dalle supernovae sono senza dubbio un fonte universale  di radiazione polarizzata capace di condizionare gli isomeri ovunque: dagli asteroidi alle comete ghiacciate nelle nubi di Oort di di ogni sistema stellare; dai fondali di oceani alieni a pozze di fango su mondi appena formati fino ad arrivare anche alle nubi interstellari e ai globuli di Bok.
Se l’ipotesi che le radici dell’omochiralità sono nell’Interazione Elettrodebole fosse corretta, dimostrerebbe che le fondamenta della Vita sono più legate alla struttura fondamentale dell’Universo di quanto finora si pensi. Una gran bella idea!


Note:

Alla ricerca del Santo Graal della fisica: la Gravità Quantistica

Oggi la scienza deve risolvere un grosso problema: esiste una teoria che descrive efficacemente il moto dei pianeti e delle stelle  chiamata Relatività Generale, ed una teoria che descrive altrettanto efficacemente il mondo microscopico chiamata Meccanica Quantistica. Entrambe nel loro raggio d’azione consentono di fare previsioni molto precise ma non possono essere usate contemporaneamente.

È tutta una questione di scala

L'Universo Viene descritto da due grandi teoremi apparentemente in contrasto tra loro. Eppure la sua isotropia e invarianza di scala dovrebbe darci la giusta chiave di lettura.

L’Universo Viene descritto da due grandi teoremi apparentemente in contrasto tra loro.
Eppure la sua isotropia e invarianza di scala dovrebbe darci la giusta chiave di lettura.

La relatività generale ci mostra uno spazio-tempo piatto e liscio, curvato  solo dalla massa e dall’energia degli oggetti che ospita. La meccanica quantistica ci mostra invece un Universo spumeggiante dominato dal Principio di Indeterminazione di Heisenberg. Quale è quindi la vera natura dell’Universo fra queste?
Possiamo immaginarci lo spazio-tempo come il mare visto da un aereo: liscio e piatto, disturbato solo dalle occasionali navi di passaggio. Ma se scendessimo sulla sua superficie, lo vedremmo mosso e spumeggiante, con un certo grado di indeterminazione che potremmo identificare col nostro stato di galleggiamento. Data la sua stazza, una nave non risente di questa incertezza, così come un oggetto macroscopico non risente della spinta indeterministica della meccanica quantistica nello spazio-tempo descritto dalla relatività. Quindi abbiamo due domini ugualmente veri che però non possiamo usare contemporaneamente per descrivere lo stesso fenomeno. Perché?
Occorre una fisica diversa, che sappia descrivere bene sia il macrocosmo relativistico dominato dalla gravità e dalla massa, che il microcosmo quantistico, dominato dal Principio di Indeterminazione. Siccome non avrebbe senso aggiungere incertezza a ciò che si è sempre finora dimostrato esatto, è necessario aggiungere la gravità alla meccanica quantistica.
Ormai è evidente a tutti che il semplice Modello Standard 1 – che non dimentichiamolo, ha saputo fin qui esprimere risultati eccellenti nella fisica delle particelle –  sta  mostrando tutti i suoi limiti alla luce delle nuove scoperte. Adesso è giunto il momento di andare oltre, di proporre una nuova teoria quantistica che aggiunga – e tenga conto – della gravità insieme alle altre tre forze di cui si era occupata finora la meccanica quantistica.

Per i fisici che studiano la materia condensata 2 è tutta una questione di dimensioni.  La descrizione che diamo di un sistema fisico dipende dalla scala in cui osserviamo. Come ho detto prima, da una quota molto alta descriveremmo il mare sotto di noi come una distesa piatta e liscia, mentre nei pressi della superficie magari staremmo assistendo ad un’onda di tsunami.
Il problema della rappresentazione di scala di solito viene risolto facendo uso di un notevole strumento matematico: il gruppo di rinormalizzazione. con questo strumento è possibile descrivere la realtà a diverse scale di interpretazione, un po’ come lo zoom di una fotocamera che permette di cogliere istantanee a scale diverse di ciò che si sta studiando.
Adesso molti ricercatori stanno tentando questa strada per vedere se attraverso i gruppi di rinormalizzazione riescono a includere una gravità coerente con la relatività generale nella meccanica quantistica.

Quella che adesso la relatività generale descrive come una distorsione spazio-temporale dovuta alla massa e che si propaga nello spazio come un’onda alla velocità della luce, forse presto sarà possibile descriverla anche con una teoria di campo che viene mediata da un bosone, proprio come le altre tre forze. Allora sarà un gran giorno per la scienza.


Note:

Materia esotica per le stelle a neutroni

[latexpage]

I componenti della materia sono fatti di leptoni (come l’elettrone e i neutrini) e quark (che costituiscono protoni, neutroni ed altre particelle). I quark sono molto diversi dalle altre particelle. Oltre alla carica elettrica particolare ($\frac{1}{3}$ o $\frac{2}{3}$ quella dell’elettrone e del protone), essi possiedono infatti anche un diverso tipo di carica ​​chiamato colore. Il peculiare meccanismo in cui opera questa carica può aiutarci a far luce su alcuni oggetti astrofisici più esotici: le stelle di neutroni.

Le combinazionii di carica  colore devono produrre un colore neutro (ovvero si devono annullare) per produrre una particella libera dalla Interazione Forte.

Le combinazioni di carica colore devono produrre un colore neutro (ovvero si devono annullare) per produrre una particella libera dalla Interazione Forte.

I quark sono particelle elementari (fermioni,  cioè che obbediscono alla statistica di Fermi-Dirac e  al principio di esclusione di Pauli) che risentono dell’Interazione Forte, una delle 4 forze fondamentali. I mediatori principali di questa forza sono i gluoni, bosoni senza massa come gli analoghi del campo elettromagnetico, i fotoni. Ma a differenza di questi che non hanno carica, i gluoni sono portatori di una particolare forma di carica chiamata colore 1, per analogia al comportamento dei colori primari dello spettro visibile, non perché essi siano colorati. Per il modo in cui la forza forte agisce, è impossibile osservare un quark libero.

La carica di colore  è esapolare, composta cioè da 3 cariche (verde, rosso e blu) e 3 anticariche (anti-verde, anti-rossso e anti-blu) ) che si comportano in maniera analoga ai colori primari: quando la somma delle cariche di colore restituisce un colore neutro, come il bianco, , allora la particella composta è rilevabile. Così si possono avere particelle di colore neutro composte da tre quark con i colori verde rosso e blu chiamate barioni (i protoni e i neutroni sono i barioni più comuni), oppure particelle composte da due soli quark possessori di un colore e il suo corrispettivo anti-colore chiamate mesoni, che svolgono un ruolo importante nella coesione del nucleo atomico. Per l’interazione forte, questi sono solo i più comuni modi per ottenere un adrone. Infatti è previsto che ci siano anche altre combinazioni di carica colore per formarne una di colore neutro. Uno di questi, il tetraquark, combina fra loro quattro quark, dove due di essi hanno un colore particolare e gli altri due posseggono i corrispettivi anti-colori.

LHCb-Z (4430)

La particella$Z (4430)^-$ appare composta da un quark charm, , un anti-charm , un down e un anti-up. I  punti neri rappresentano i dati, la curva rossa il risultato della simulazione dello stato previsto per la $Z (4430)^-$. La  curva tratteggiata marrone indica quello che ci aspetterebbe  in assenza di questa. Questo dato afferma l’esistenza dell’esotica particella con 13,9 σ (cioè che il segnale è 13,9 volte più forte di tutte le possibili fluttuazioni statistiche combinate).

Segnali sull’esistenza di questo adrone esotico si ebbero nel 2007 dall’Esperimento Belle [cite]http://arxiv.org/abs/0708.1790[/cite],  che ricevette il nome di $Z (4430)^-$ 2. Ora questa particella con una massa di $4430 MeV/c^2$  (circa quattro volte quella del protone) è stata confermata dall’Esperimento LHCb di Ginevra con una significatività molto alta (13,9 $\sigma$) [cite]http://arxiv.org/abs/1404.1903v1[/cite]. Questo significa che i quark si possono combinare fra loro in modi molto più complessi di quanto finora osservato 3. Questo è un enorme passo avanti nella comprensione di come si può comportare la materia in condizioni estreme. Barioni e mesoni esotici detti glueball 4 o una miscela di questi può esistere in un solo posto in natura: nel nucleo di una stella a neutroni.

Le stelle compatte inferiori alle 1,44 masse solari sono nane bianche, stelle in cui la pressione di degenerazione degli elettroni riesce a controbilanciare la gravità. Oltre questo limite, chiamato limite di Chandrasekhar, il peso della stella supera il limite di degenerazione degli elettroni che si fondono coi protoni dando origine a una stella a neutroni 5.

quark_star (1)

Credit: NASA/Chandra

Il risultato è una stella fatta da soli neutroni dominata dalla gravità che in questo caso vince sulla repulsione elettrica. Di questo stato esotico della materia degenere non si sa molto di più delle speculazioni teoriche, ma questo potrebbe essere solo l’inizio: si calcola che la densità media delle stelle di neutroni vada da $3,7$ a $5,9 \times 10^{14} g/cm^3$ (un nucleo atomico ha una densità stimata di circa $3 \times 10^{14} g/cm^3$), con la densità passi da circa $1 \times 10^6 g/cm^3$ della superficie fino ai $6$ o $7 \times 10^{14} g/cm^3$ del loro nucleo. Come il limite di Chandrasekhar delinea il limite inferiore di una stella di neutroni, esiste un limite superiore la quale nessun’altra forza riesce ad impere il collassso gravitazionale che porta a formare un buco nero. Questo limite superiore è il limite di Tolman-Oppenheimer-Volkoff. È in questo intervallo di massa che esistono le stelle di neutroni [cite]http://www.scribd.com/doc/219247197/The-maximum-mass-of-a-neutron-star[/cite]. È probabile che solo le stelle di neutroni più leggere siano composte di neutroni degeneri, mentre man mano sale la massa verso il limite superiore la materia di neutroni degeneri ulteriormente in prossimità del nucleo e poi sempre più verso il guscio esterno in un brodo indistinto di quark tenuti insieme dalla gravità che riesce a soppiantare perfino l’interazione forte [cite]http://www.scribd.com/doc/219246949/Nuclear-equation-of-state-from-neutron-stars-and-core-collapse-supernovae[/cite]. Il tetraquark individuato dall’LHC è sicuramente solo il primo di una lunga serie di adroni esotici che può aiutare a comprendere meglio questi stati degeneri della materia che immaginiamo essere al centro di questi minuscoli e compatti resti stellari.


Note:

Rielaborazione del concetto di Buco Nero

[latexpage]

Riuscire ad immaginare oggi un buco nero non è difficile, anzi. La fantascienza del XX secolo e il cinema hanno reso i buchi neri talmente familiari quasi da distorcerne il significato. Per la fisica invece sono semplicemente delle regioni di spazio dove materia – o energia – è collassata oltre una certa densità critica, dove la velocità di fuga supera anche la velocità della luce. Tutto quello che è o finisce all’interno di questa regione di spazio si suppone converga verso una singolarità, ovvero un punto geometrico di densità infinita, questo almeno per la meccanica relativistica. Il confine tra questa regione di spazio collassato e il resto dell’universo si chiama orizzonte degli eventi, sede di tutta una serie di bizzarri fenomeni quantistici ancora lungi dall’essere pienamente compresi.

La storia dei buchi neri

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Credit: P. Marenfeld / NOAO / AURA / NSF, via Gemini Observatory at http://www.gemini.edu/node/11703

Il concetto di buco nero nacque molto prima della Relatività Generale. Verso la fine dell’Settecento, quando la Meccanica di Newton sembrava fosse in grado di spiegare la gravità, all’astronomo inglese John Michell (che per primo fornì un’accurata misura della costante gravitazionale) e, successivamente, il marchese Pierre-Simon Laplace, uno dei più grandi scienziati del periodo napoleonico,  ebbero indipendentemente l’idea che potessero esistere corpi celesti con una velocità di fuga superiore a quella della luce. In particolare si chiesero quale potesse essere il raggio $R$ di una stella di massa $M$ fissata la cui velocità di fuga fosse pari a quella della luce $c$ 1.

Tenendo conto della legge di conservazione dell’energia meccanica totale, si ricava: \[ \frac{1}{2} mv_f^2-G \frac{mM}{R}=0 \]

Da qui si può di conseguenza ricavare la velocità di fuga $v_f$: \[ v_f=\sqrt{\frac{2GM}{R}} \]

Dove $G$ e’ la costante di gravitazione universale. In questa formula il raggio $R$ della stella si trova al denominatore. Questo significa che se la massa della stella rimane costante mentre il suo raggio diminuisce (dato che la stella si contrae) la velocità di fuga aumenta. Con il diminuire del raggio, la velocità di fuga può aumentare fino a superare la velocità della luce nel vuoto $c$. Dato che secondo la relatività generale, niente può avere una velocità superiore a questo valore, è impossibile che un qualsiasi oggetto, anche un raggio di luce, possa allontanarsi da questa stella. Il valore critico del raggio $R$ per il quale la velocità di fuga diventa uguale alla velocità della luce nel vuoto lo calcolò esattamente nel 1916 Karl Schwarzschild, da cui ha preso il nome. Imponendo allora $v_f = c$ e $R = R_S$, si ricava:

\[ c^2=\frac {2GM}{R_S}

\]

da cui: \[ R_S=\frac{2GM}{c^2} \]

Queste stelle all’inizio vennero chiamate dark star, ma in seguito allo sviluppo della teoria ondulatoria e corpuscolare della luce il loro studio viene abbandonato quasi subito. Infatti la teoria ondulatoria e corpuscolare della luce stabilisce che i fotoni abbiano una massa nulla, quindi, secondo la teoria di Newton i fotoni non possono risentire dell’attrazione di alcuna stella, dunque le dark star non possono esistere.

Poi nel XX secolo la teoria dei buchi neri riaccese l’interesse degli scienziati, in seguito allo sviluppo di due potenti teorie che avrebbero riscritto la fisica macroscopica classica, la Relatività Ristretta e la Relatività Generale, e la fisica delle particelle, la Meccanica Quantistica. A questo punto, giusto per non generare equivoci, è bene sottolineare che col termine buco nero si intende una regione di spazio collassato su sé stesso. Quella parte di spazio ancora accessibile allo studio si chiama orizzonte degli eventi, sede di tutta una serie di fenomeni bizzarri che vanno dall’emissione spontanea di particelle (Radiazione di Hawking) fino a fenomeni di dilatazione temporale. La parte a noi sconosciuta e – per adesso – inconoscibile, è quello che rimane dell’oggetto (materia o radiazione) che ha prodotto lo spazio collassato: per la relatività generale è un punto geometrico di densità infinita chiamato singolarità. Dato che secondo la relatività generale niente può viaggiare più veloce della luce, dai buchi neri non sarebbe dovuto sfuggire niente, nemmeno un briciolo di radiazione termica. Per questa ragione all’inizio si era creduto che la temperatura dell’orizzonte degli eventi pari a zero Kelvin (ossia allo zero assoluto, $-273,15$ gradi centigradi). Questo assunto però era in contrasto con uno dei mostri sacri della fisica: il secondo principio della termodinamica.

Non importa se l'osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Non importa se l’osservatore si avvicina a una stella o a un buco nero: egli percepirà la stessa curvatura nello spazio dovuta da un corpo di massa M.

Karl Schwarzschild, risolvendo le equazioni di Einstein (il campo gravitazionale è determinato dalla distribuzione di materia e dice alla materia come muoversi) in un caso molto particolare di perfetta simmetria sferica dello spazio-tempo, trovò una coincidenza molto interessante con la teoria newtoniana: se una stella di massa $M$ si contrae fino al raggio di Schwarzschild, il tempo sulla sua superficie si ferma e la luce che parte da quest’ultima subite un redshift infinito per cui non può raggiungere nessun osservatore al di fuori della stella. Cosa succede se il raggio della stella diventasse ancora più piccolo è ancora tema di dibattito. La relatività generale di Einstein non pone limiti al collasso della materia verso un punto di densità infinita. Per questo caso venne coniato il termine di singolarità di Schwarzschild, ma questa ipotesi fu accolta con grande scetticismo dalla comunità scientifica, oltre che dallo stesso Schwarzschild, convinti del fatto che la natura avrebbe trovato un modo per impedire simile ipotesi Grazie a una maggiore conoscenza e comprensione dei fenomeni fisici che avvengono all’interno delle stelle, tra gli anni Trenta e Cinquanta si arrivò alla conclusione che  l’ipotesi della singolarità era reale e che la relatività generale non aveva alcun problema con la materia concentrata entro il raggio di Schwarzschild, anzi essa era in grado di spiegare chiaramente cosa succedeva fino all’orizzonte degli eventi: materia e luce intrappolate al suo interno e senza possibilità alcuna di uscire: una regione dello spazio-tempo che non può comunicare con il resto dell’universo. Il termine buco nero venne introdotto da Wheeler alla fine degli anni Sessanta, quando l’importanza fisica di tali oggetti era oramai chiara alla maggior parte dei fisici teorici e a gran parte degli astrofisici. Molti furono gli esperimenti compiuti per la ricerca di buchi neri e in effetti i telescopi furono in grado di rilevare dei candidati sempre più promettenti, anche se ancora oggi l’osservazione certa di un buco nero non sia stata confermata in modo assoluto. Ma sono rimasti in pochi a dubitare della loro esistenza. Negli stessi anni gli strumenti matematici impiegati dalla relatività generale furono notevolmente ampliati, comprendendo meglio i limiti di tale teoria. Le equazioni di Einstein vennero risolte sotto ipotesi meno restrittive di quelle di Schwarzschild insieme ad altri risultati. Grazie al contributo di numerosi teorici della relatività generale emersero quattro leggi fondamentali che regolano la meccanica dei buchi neri e presentano una straordinaria somiglianza formale con i principi della termodinamica. Inizialmente tale somiglianza venne considerata una pura coincidenza, a causa di evidenti incompatibilità tra le variabili che determinano la meccanica di un buco nero e le variabili termodinamiche a cui dovrebbero corrispondere.

La termodinamica dei buchi neri

Secondo Hawking non vi è alcun pericolo di perdere la popolazione di buchi neri nel nostro universo. Attualmente   la radiazione di Hawking avrebbe un effetto rilevante solo sui buchi neri di piccola massa. 2. Questo perché la temperatura di un buco nero, cioè la radiazione di Hawking che emette il suo orizzonte degli eventi, deve superare la materia e l’energia che intercetta. Dato che la temperatura di un buco nero è inversamente proporzionale alla sua massa, allora con l’aumentare della massa la quantità di energia che riesce ad emettere diminuisce.
In questo modo, i buchi neri più massicci di quel limite, nati dal collasso di stelle  massicce 3 4, presentano un’emissione di energia piuttosto bassa. E dato che ricevono continuamente luce dalle stelle, dalla radiazione cosmica di fondo e dalla materia che vi cade, è evidente che tali buchi neri non cessano di crescere.
Sarà solo quando in una data imprecisata nel futuro tutte le stelle si saranno spente, la poca materia ancora rimasta in un universo ormai freddo si troverà al di là  della portata dei più grandi buchi neri ; quando la temperatura dell’universo sara’ inferiore a quella della radiazione di Hawking dei buchi neri neri che questi evaporeranno.

Nel 1974 il matematico inglese Stephen Hawking provò ad applicare la Meccanica Quantistica al concetto previsto dalla Relatività Generale conosciuto come Buco Nero. Questo dimostrò come i buchi neri non siano realmente neri, ma che emettano una temperatura di corpo nero inversamente proporzionale alla loro massa 5 6 [cite]10.1103/PhysRevD.23.287[/cite].

Il meccanismo della radiazione di Hawking introduce un paradosso insidioso e di difficile soluzione: la conservazione dell’informazione all’interno di un Buco Nero.

Detta così appare terribile, ma per la relatività generale non importa se la materia originale del buco nero sia materia o antimateria, di carica elettrica o  di un sapore quantico particolare, potrebbe essere un astronauta, un libro o l’intera vostra collezione di CD; di tutto quello che supera l’orizzonte degli eventi se ne perde traccia e la radiazione di Hawking che ne esce non  contiene alcuna informazione che consenta di risalire a ciò che era prima. Per la meccanica quantistica, lo stato di un sistema in qualsiasi momento è descritto da una funzione d’onda. Per la loro natura casuale, le particelle che compongono la radiazione di Hawking non hanno una funzione d’onda definita, ma solo una matrice di densità. Questo significa che la radiazione ha molte funzioni d’onda possibili, con una certa probabilità distribuita tra le particelle. Oltre all’incertezza usuale tipica della meccanica quantistica, nella radiazione si inserisce anche l’incertezza della funzione d’onda delle singole particelle: l’informazione è stata distrutta. Come Hawking ebbe a dire in proposito: “Non solo Dio gioca a dadi, ma a volte ci confonde gettandoli là dove non possono essere visti“.

buco neroAl contrario, per la meccanica quantistica l’informazione non può essere distrutta. Qui ogni stato quantico di un insieme di due o più sistemi fisici, virtuali o reali,  dipende dallo stato di quando ciascun sistema viene creato e si mantiene anche quando i singoli componenti dello stesso sistema sono spazialmente separati. Questo significa che se a una delle due particelle create insieme (un esempio classico sono un fascio di fotoni) viene imposto un particolare stato di polarizzazione esso si trasmette istantaneamente anche all’altra particella, senza alcuna limitazione spaziale 7. Quindi ogni modifica dello stato di una delle due particelle (o quella che cade oltre l’orizzonte degli eventi o quella che sfugge dal buco nero) si ripercuote anche sull’altra trasferendo informazione in un senso o nell’altro. Per comprendere meglio questo concetto è opportuno fare ricorso a un  gedankenexperiment, un esperimento ideale tanto caro alla fisica teorica. Supponiamo due particelle entangled con spin $\nwarrow \hspace{0.75in} \nwarrow$ in prossimità dell’orizzonte degli eventi e una delle due cade nel buco nero mentre l’altra sfugge. Per il principio di equivalenza alla particella che cade non succede niente di particolare: lo spin $\nwarrow$ finisce oltre l’orizzonte degli eventi senza problemi. Ora all’esterno c’è una particella con spin $\nwarrow$ uguale a quella caduta all’interno, imbrigliata con questa; qualsiasi cambiamento di stato che una delle due subisce, si riflette istantaneamente attraverso l’orizzonte degli eventi.

È evidente che questo è il nodo centrale di tutta la discussione: o si rinuncia alla trasmissione dello stato quantico delle particelle che oltrepassano l’orizzonte degli eventi oppure si rinuncia alla casualità della radiazione di Hawking. Un modo elegante per uscire da questa impasse consiste nel congelare l’informazione – e la rispettiva particella – proprio sull’orizzonte degli eventi, interrompendo così anche l’azione di entanglement che trasporta l’informazione di stato all’esterno. In questo modo, tutta l’informazione che precipita in un buco nero rimane congelata sul suo orizzonte degli eventi.

l’Effetto Unruh e il Principio Olografico

Per il Principio Olografico l'informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell'acqua si proiettano nei giochi di luce sul fondo di una piscina.,

Per il Principio Olografico l’informazione può essere desunta dalle proprietà che proietta su una superficie, esattamente come le increspature nell’acqua si proiettano nei giochi di luce sul fondo di una piscina.

Nel 1993, Lenny Susskind ed altri [cite]http://arxiv.org/abs/hep-th/9306069[/cite][cite]http://arxiv.org/abs/hep-th/9308100[/cite] provano a definire una situazione non locale che non comprenda una perdita delle informazioni 8[cite]http://prd.aps.org/abstract/PRD/v14/i4/p870_1[/cite][cite]http://arxiv.org/abs/0710.5373[/cite]. Qui l’orizzonte degli eventi appare come una matrice di celle delle dimensioni di Plank, dove le informazioni di stato di ciò che cade nel buco nero vengono assorbite, mentre per il solito osservatore lontano pare che siano perse. Quindi i fenomeni entanglement non scompaiono ma vengono congelati sull’orizzonte degli eventi e l’informazione in realtà non è andata persa. Questa nuova interpretazione che voleva un orizzonte degli eventi caldo, all’inizio non era poi tanto convincente fino a che nel campo delle teorie quantistiche non apparvero le teorie delle stringhe e la teoria M, che avevano lo scopo di riunificare la meccanica quantistica con la gravità. Qui il contributo del fisico argentino Juan Maldacena fu determinante per comprendere meglio cos’è questo nuovo aspetto dell’orizzonte degli eventi caldo [cite]http://arxiv.org/abs/hep-th/9711200[/cite]. Anche alla luce della corrispondenza fra Spazio Anti de Sitter e Teoria di campo conforme (AdS / CFT) i risultati sono analoghi ai precedenti. Qui l’orizzonte degli eventi viene visto come un ologramma, una superficie che contiene tutte le informazione del buco nero 9. Così la corrispondenza AdS / CFT risolve, almeno in una certa misura, il paradosso dell’informazione dei buchi neri, mostrando come un buco nero possa evolvere coerente alla meccanica quantistica, senza alcuna perdita di informazioni.

Le ultime proposte di Hawking

black-hole-wallpaper-hdNella sua ultima opera Hawking [cite]http://arxiv.org/abs/1401.5761[/cite] avanza delle critiche al concetto di firewall (come è stato ribattezzato l’effetto Unruh  presso l’orizzonte degli eventi) trovando almeno tre grandi obiezioni a questo costrutto. Ha suggerito che occorre un cambio di passo (quello sì reale) nel modo di concepire i buchi neri pensandoli come oggetti finiti nel tempo, anche se lontanissimo, piuttosto che eterni e immutabili come spesso fatto finora. In quest’ottica anche il costrutto matematico che conosciamo come orizzonte degli eventi e descritto da Schwarzschild cambia di significato: è solo un limite del campo gravitazionale destinato a cambiare nel tempo, quindi si può definire come metastabile. Per questo Hawking lo definisce apparente, perché così appare all’osservatore per un tempo $T$. In questa nuova interpretazione il principio di unitarietà rimane intatto. La metrica di Kerr che può essere usata per descrivere un collasso di un buco nero reale indica che lo spazio oltre l’orizzonte degli eventi è essenzialmente caotico, quindi non occorre ricorrere al teorema olografico (e al firewall) per preservare l’informazione: questa passa nella radiazione di Hawking, ma talmente confusa da essere irriconoscibile. In questo modo  la radiazione non appare più essere casuale come finora si era creduto, ma talmente caotica da sembrare tale.

Quindi interpretare il pensiero di Hawking che chiede un nuovo approccio sui buchi neri come un rifiuto a  questi è solo buttarla in caciara. I buchi esattamente neri non lo sono mai stati, e lo si sapeva dal 1974. Adesso sappiamo che l’orizzonte eventuale dura solo un tempo finito, e anche questa appare come la scoperta dell’acqua calda.


Note:

Il terribile equivoco del cianogeno

Buffo! Di solito ci attendiamo una corretta informazione dai siti scientifici ma a volte, rare volte, non è così.

La cometa di Halley al suo ultimo passaggio confrontata col suo spettro nel visibile e vicino infrarosso Credit: Uppasala University per lo spettro e NASA/W. Liller per l'immagine. Rielaborazione: Il Poliedrico

La cometa di Halley al suo ultimo passaggio confrontata col suo spettro nel visibile e vicino infrarosso. Credit: Uppasala University per lo spettro e NASA/W. Liller per l’immagine. Rielaborazione: Il Poliedrico

Tutto probabilmente nacque intorno al 1910, durante il penultimo ritorno della Cometa di Halley, quando gli scienziati resero pubblici i loro sospetti derivati da una scienza ancora agli albori, la spettroscopia: secondo i loro dati la coda della cometa conteneva elementi tossici come l’arsenico (As) e gas cianogeni  1. Ovviamente questo non avrebbe comportato alcun  problema per i terrestri, grazie alla protezione svolta dall’atmosfera e all’esigua densità della coda della cometa 2. Ma intanto alcuni venditori senza scrupoli approfittarono della notizia per vendere – e arricchirsi – inutili maschere antigas 3.

Durante il suo ultimo passaggio, nel 1986, la Halley si mostrò come nella prima immagine: aveva un colore abbastanza neutro che virava leggermente verso il violetto nella chioma di polveri e una coda di gas di un blu discreto.

Credit: ESO

Credit: ESO

Osservando lo spettro nella zona ultravioletta e violetta tra i 332 e i 432 nm si notano alcune righe di emissione:  all’estremo dello spettro visibile  4 e un’altra poco più giù attorno ai 420 nm. Altre righe importanti sono quelle prodotte dal radicale ossidrile (OH), il monossido di carbonio (CO) e il carbonio triatomico (C3).

E infatti la coda di gas ionizzato blu pallido lo conferma: i suoi colori sono quelli dei gas appena citati: cianogeno, radicale ossidrile, monossido di carbonio e carbonio triatomico.

La cometa Lemmon.confrontata col suo spettro. Credit: RobK di Bright, Vic, Australia per lo spettro e anonimo per l’immagine. Rielaborazione: Il Poliedrico

La cometa Lemmon.confrontata col suo spettro.
Credit: RobK di Bright, Vic, Australia per lo spettro e anonimo per l’immagine.
Rielaborazione: Il Poliedrico

Adesso torniamo ai giorni d’oggi e alla stupenda – per chi è riuscito a vederla – C/2012 F6 (LEMMON) dello scorso marzo.
Dallo spettro di questa cometa è evidente che del radicale cianogeno non ce n’è traccia, né a 380 nm, né ai 420 nm. Piuttosto qui il verde brillante della chioma è dato dalle intense righe del carbonio biatomico (C2).
Lo stesso errore viene ancora oggi commesso riguardo la C/2012 S1 (ISON) che – nel momento in cui scrivo – emette molto poco a 380 nm, mentre le righe del carbonio biatomico a 440 e a 520 nm sono più pronunciate, come evidenzia il primo spettro:


Lo spettro di C/2012 S1 (ISON) l'11/10/2013

Lo spettro di C/2012 S1 (ISON) l’11/10/2013 Credit:  astrosurf.com

Lo spettro di C/2012 S1 (ISON) il 24/10/2013

Lo spettro di C/2012 S1 (ISON) il 24/10/2013  Credit: astrosurf.com

Credit: Wikipedia

Nel secondo spettro anche se la riga del radicale cianogeno appare molto più pronunciata del primo, il contributo di questa emissione al colore complessivo della cometa non appare evidente, come si può facilmente notare dalle innumerevoli immagini in Rete della cometa in quei momenti. Questo perché il picco di sensibilità dell’occhio umano raggiunge il massimo proprio tra i 500 e i 600 nm, giusto dove anche l’emissione del carbonio biatomico è più elevata.
Invece, tornando alla Halley del 1986, le emissioni del carbonio biatomico ionizzato erano trascurabili, tanto da far risaltare la scia azzurrognola e violetta delle emissioni di CN.
Eppure Spaceweather.comAPOD della NASA e via di seguito molti altri siti che si occupano di astronomia fanno, e hanno fatto tutti lo stesso errore; attribuire indistintamente l’aspetto verdastro di una cometa al cianogeno. Su questo tema il dibattito su alcuni forum astrofili oltreoceano è acceso, tant’è che anche un astronomo e divulgatore scientifico come Phil Plait ha riconosciuto l’equivoco 5.

Colore
Lunghezza d’onda
Violetto 380–435 nm
Blu 435–500 nm
Ciano 500-520 nm
Verde 520–565 nm
Giallo 565–590 nm
Arancione 590–625 nm
Rosso 625–740 nm

Probabilmente la spiegazione a questa errata interpretazione è molto più banale di quanto si pensi:  una riga di emissione (spesso la più intensa) del carbonio biatomico è fra i 510 e i 520 nm, proprio nel mezzo della fascia di colore che comunemente attribuiamo al colore ciano!
Molto probabilmente a partire dai tempi della scoperta dei composti cianogeni nella coda della Cometa di Halley, qualcuno in passato ha erroneamente associato il termine cianogeno col colore ciano e l’errore poi si è tramandato nel tempo e nessuno l’ha poi più corretto.

Quindi, anche se pare diventata affermazione comune associare il verde brillante della chioma di una cometa con i radicali cianogeni, questi non ne hanno alcuna responsabilità, la colpa è tutta del carbonio biatomico emesso dalla cometa che si ricombina attorno ai 520 nm.
Spargete la voce.


Bibliografia:

 

  1. Ji Hye Lee, Tae Yeon Kang, Hyonseok Hwang, Chan Ho Kwon, Hong Lae Kim, “Photodissociation Dynamics of Cyanamide at 193 nm: The CN Radical Production Channel”, Bulletin Of The Korean Chemical Society 29, 1685-1688 (2008).[08LeKaHw.CN
  2. David G. Schleicher, “THE FLUORESCENCE EFFICIENCIES OF THE CN VIOLET BANDS IN COMETS”, Astronomical Journal140, 973-984 (2010). [link to article][10Scxxxx.CN]
  3. M. Kleine, S. Wyckoff, P. A. Wehinger, B. A. Peterson, “THE COMETARY FLUORESCENCE-SPECTRUM OF CYANOGEN – A MODEL”, Astrophysical Journal 436, 885-906 (1994). [link to article][94KlWyWe.CN]
  4. Atlas of cometary spectra, Institut d’Astrophysique et de Géophysique de l’Université de Liège, Allée du 6 Août, 17 – Bât B5cB-4000 Liège 1, BELGIQUE E-Mail : hyperion@astro.ulg.ac.be

 

Gli straordinari risultati di AMS-02

Martedì scorso a Los Angeles il celebre cosmologo Stephen Hawking ha suggerito che l’unico modo che ha l’umanità di sopravvivere per i prossimi mille anni è quello di dedicarsi alla colonizzazione dello spazio. Questo è ragionevole: con otto miliardi di bocche da sfamare, gli equilibri economici e le risorse sempre più scarse, il rischio di guerre, pestilenze o catastrofi naturali, vivere su un solo pianeta come dice Hawking è veramente rischioso.
Ma anche andarsene da questo posto, la Terra, non è affatto facile.
Colonizzare altri mondi allo stato tecnologico attuale non è possibile. Potremmo costruire habitat orbitali come suggerì O’Neill nel 1976, colonizzare Marte con città protette da cupole gigantesche che trattengono l’atmosfera 1, spingerci fino ai confini del Sistema Solare e in futuro forse fino alle stelle più vicine con immense navi generazionali. Il Cosmo è sicuramente il posto più inospitale in assoluto che ci sia, ma è anche quello che più ci fa sognare. Un vero salto nel buio.

Rappresentazione schematica dell’Alpha Magnetic Spectrometer. – Credit: INFN

Rappresentazione schematica dell’Alpha Magnetic Spectrometer. – Credit: INFN

Uno dei misteri più grandi del cosmo riguarda la sua composizione: secondo il Modello Cosmologico Standard l’Universo è composto per il 4,9% da materia ordinaria (barionica), il 26,8% da materia di cui non se ne conosce la natura (oscura) e per il 68,3% da energia oscura 2 3. Quindi l’84,5% di tutta la materia di tutto l’Universo sfugge alla nostra comprensione. L’unica cosa certa è che questa esotica forma della materia è sensibile all’interazione gravitazionale ma non emette o assorbe la luce.

Lo scorso 3 aprile il team di ricercatori guidati dal premio Nobel Samuel Ting del MIT/CERN ha annunciato che l’Alpha Magnetic Spectrometer (AMS-02 4) dalla sua installazione sulla Stazione Spaziale Internazionale (2011) a fine 2012 oggi ha contato più di 400.000 positroni, l’equivalente antimateria degli elettroni.
Di per sé non è poi così difficile produrre positroni in laboratorio, basta bombardare la materia con fotoni ad alta energia 5 o sfruttare il naturale processo di decadimento radioattivo di alcuni isotopi (decadimento β+) ma, essendo il nostro universo dominato dalla materia, la sopravvivenza – emivita – di questa antiparticella è limitata all’incontro con un elettrone con cui si annichila emettendo due fotoni gamma da 511 kev emessi in direzioni opposte 6.

Il decadimento b+

Il decadimento β+

Per questo rilevare 400 mila positroni fra i 25 miliardi di eventi 7 registrati in 18 mesi (maggio 2011 – dicembre 2012) è straordinario.
Che i raggi cosmici contenessero un po’ di antimateria era risaputo almeno dal 2009 8, ma non in quantità così insolite: almeno il 10% del totale degli eventi dovuti a elettroni e positroni è dovuto da questi ultimi.

Una pulsar può accelerare le coppie di particelle-antiparticelle che AMS-02 ha rilevato.

Cosa produca tutti questi positroni in un universo di materia è un mistero. Questo potrebbe essere un indizio importante per scovare finalmente la materia oscura.

Per spiegare la natura della materia oscura sono state avanzate le più disparate teorie, dai neutrini massivi a particelle esotiche supersimmetriche 9  chiamate neutralini, che collidendo tra loro dovrebbero produrre un gran numero di positroni ad alta energia.

Un’altra sorgente di positroni molto meno esotica ma che vale comunque la pena di prendere in considerazione è nascosta nelle pulsar.
Le pulsar sono stelle di neutroni che si formano in seguito alle esplosioni di supernova. Questi resti ruotano sul loro asse migliaia di volte al secondo e hanno un campo magnetico milioni di volte più potente di quello che possiamo creare in laboratorio 10.
Le pulsar in pratica sono dei fantastici acceleratori naturali di particelle tra cui  coppie di elettroni e positroni, che possono spiegare le quantità rilevate da AMS-02.
Come riconosce Samuel Ting l’unico modo per distinguere l’origine dei positroni è quello di raccogliere altri dati e coprire un più ampio spettro di energia che per ora l’Alpha Magnetic Specrometer ha solo iniziato a mostrare 11.
L’ASM-02 rimarrà in funzione almeno fino al 2020 e potrà aiutare a risolvere finalmente il mistero della materia oscura.


La stupefacente realtà del neutrino

[latexpage]

Comprendere come nel neutrino le diverse masse associate a ciascun sapore si rendono manifeste aiuta a capire come questa particella così elusiva da sfidare anche il Modello Standard sia importante anche per superare il modello stesso. Nato per spiegare il Principio di Conservazione dell’Energia nel processo del decadimento beta, il neutrino forse può aprire una breccia nel solido muro del Modello Standard e indicare la strada verso una nuova teoria quantistica.

Credit: Il Poliedrico

Credit: Il Poliedrico

La realtà quantistica è molto lontana dalla nostra percezione comune. I neutrini esistono in una sovrapposizione di stati di massa definita. Questo è un concetto un po’ complicato da spiegare, ma non è corretto credere che gli autostati 1  di sapore – elettronico, muonico e tauonico – siano gli autostati di massa. I neutrini sono prodotti dell’interazione debole e nascono con un autostato di sapore a  cui corrisponde una certa combinazione degli autostati della sua massa.
Però a parità di energia le tre diverse masse si propagano in modo diverso. Questo comporta che l’autostato di sapore dei neutrini cambierà nel tempo, perché muteranno gli autostati legati alle diverse masse. Le tre diverse masse del neutrino sono legate fra loro da tre angoli di mescolamento a cui però non si sa esattamente a quali masse  o stati siano associati.
Detto così sembra ostrogoto antico, ma lasciate che vi faccia un esempio un po’ più comprensibile, un gedankenexperiment come lo avrebbe chiamato Einstein: immaginate un Pendolo di Newton con tre sfere di massa diverse collegate l’una all’altra da una debole molla. Ora facciamone oscillare una e vediamo che il movimento viene trasmesso alla seconda e poi alla terza sfera dalle molle $k’$ e $k”$ e da questa il moto ritorna indietro fino alla prima, e così via; In questa riflessione ideale immaginate che non ci sia attrito e che il moto continui indefinitamente. Le sfere si trasmettono il movimento seguendo uno schema oscillatorio, che poi è quello che viene osservato nei neutrini. L’angolo $\theta$ è l’ampiezza dell’angolo che le diverse sfere raggiungono rispetto all’asse di riposo.

Il $\theta\ \ 1-2$ e il $\theta\ \ 2-3$ ormai sono conosciuti con una certa precisione: supponiamo che il $\theta\ \ 1-2$ indicasse la differenza di massa tra l’autostato del neutrino indicato con $1$ e l’autostato $2$, leggermente diverso. Il $\theta\ \ 2-3$, più ampio,  quindi dovrebbe indicare la differenza di massa tra l’autostato di tipo $2$ e l’autostato di tipo $3$.
Ma le masse stesse non sono note, così come il loro ordine. Tutto indica che l’autostato $3$ è molto diverso dagli altri, ma è il più leggero o il più pesante fra gli stati assunti dal neutrino?
Un importante aiuto per la comprensione di questo importante rebus viene dai risultati ottenuti a marzo 2012 dall’esperimento Daya Bay 2, che ha dato un valore, piccolo ma non nullo come era stato ipotizzato in seguito a precedenti esperimenti, all’angolo di mescolamento mancante: il $\theta\ \ 1-3$.
Sarà così possibile stabilire finalmente la gerarchia della massa del neutrino e scoprire se le interazioni dei neutrini violano la simmetria materia-antimateria e perché i neutrini si comportano diversamente dagli antineutrini. Questo a sua volta può riuscire a spiegare perché il nostro Universo sia dominato dalla materia 3.

(continua)


Note: