Le grandezze fisiche dei buchi neri

La radiazione di Hawking

Credit: Il Poliedrico.

Come ho cercato di spiegare nelle puntate scorse dedicate ai buchi neri [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite], questi curiosi oggetti hanno diverse peculiarità uniche definibili solo matematicamente.  
Sulla base della convinzione — corretta — che niente può viaggiare più veloce della luce si era supposto quindi che nulla potesse sfuggire da un buco nero. Tecnicamente è ancora corretto pensare questo, ma nel 1974 il cosmologo Stephen Hawking dimostrò che in realtà i buchi neri emettono una radiazione termica di corpo nero diversa da zero. Il ragionamento che è alla base di questa scoperta è che lo spazio non è mai esattamente vuoto ma ribolle di energia che si manifesta con la produzione spontanea di coppie di particelle e antiparticelle virtuali, ovvero che la loro esistenza è limitata dal Principio di Indeterminazione di Heisenberg [cite]https://ilpoliedrico.com/2016/07/zenone-olbers-lenergia-oscura-terza-parte.html[/cite].
Quando queste fluttuazioni del vuoto si manifestano in prossimità dell’orizzonte degli eventi di un buco nero può capitare che una coppia di particelle virtuali finisca oltre l’orizzonte (A nella figura); in tal caso l’equilibrio energetico complessivo del’universo e la massa/energia del buco nero non variano, come impone il Principio della Conservazione della massa/energia. Lo stesso ovviamente accade anche per le particelle virtuali che si annichiliscono spontaneamente nello spazio normale (scenario B nella figura). Ma può capitare che soltanto una di queste finisca oltre l’orizzonte degli eventi (vedi evento C);  questo scenario potrebbe far da principio supporre che esso violi il postulato precedente in quanto la particella che riesce a non finire oltre l’orizzonte degli eventi diviene una particella reale, ma in realtà non è così. La particella che cade nel buco nero è l’antiparticella di quella che sfugge, ossia possiede alcuni numeri quantici opposti rispetto ad essa. Questo non viola il Principio di Conservazione della massa/energia perché il buco nero acquista una particella opposta al resto dell’universo e la somma totale dell’energia rimane invariata. Ma se adesso nell’universo c’è la massa/energia di una particella in più allora significa che il processo iniziale sottrae la medesima quantità di massa/energia al buco nero. Per un ideale osservatore lontano la nuova particella appare provenire dal buco nero, ma in realtà essa ha origine nello spazio normale appena oltre l’orizzonte degli eventi.

[fancybox url=”https://ilpoliedrico.com/le-grandezze-fisiche-dei-buchi-neri” ][/fancybox]Cliccando sull’immagine qui sopra vi si aprirà una finestra su cui potete sbizzarrirvi a studiare alcune delle bizzarre  proprietà matematiche dei buchi neri.

Questa intuizione di Stephen Hawking, che ricordo ebbe origine anche dai lavori di due scienziati sovietici, Yakov Zeldovich e Alexei Starobinsky, che fin dagli inizi degli anni 70 del secolo scorso avevano ipotizzato la generazione di particelle attorno ai buchi neri rotanti (1973/74), dimostra che i buchi neri in effetti possano perdere massa tramite la radiazione che porta, appunto, il suo nome.
Quindi, in un certo senso i buchi neri non sono poi così neri.  Il lavoro di Hawking ha spinto altri cosmologi a studiare più in dettaglio i buchi neri fino a postulare le loro leggi termodinamiche [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-la-termodinamica.html[/cite], il noto Principio Olografico e altre bizzarre proprietà che in queste pagine posso solo elencare solo parzialmente. 

 Giocando con i calcoli

 Giostrando un po’ coi diversi parametri nella pagina che ho creato (è presente anche nel menù a discesa sotto la voce “Science”) si nota come i buchi neri siano ancora più strani di quel che si pensi.
Ad esempio, la temperatura di un buco nero, conseguenza della Radiazione di Hawking, è inversamente proporzionale alla sua massa ossia un buco nero piccolo irradia di più di uno di massa più grande.
L’attuale fondo di radiazione cosmica ha una temperatura di 2.72 kelvin; perché un buco nero sia termicamente rilevabile dovrebbe poter emettere a una temperatura appena superiore. Ma i numeri sono impietosi: un siffatto buco nero sarebbe grande appena 67μm, circa quanto lo spessore di un capello umano, e quindi — almeno con gli strumenti attuali — impossibile da rilevare direttamente.  
Un buco nero capace di emettere alla stessa temperatura del Sole, ovvero 5778 kelvin, sarebbe grande appena 30 nanometri, quanto cioè la giunzione di un transistor in un processore di qualche anno fa. Avrebbe ancora una vita molto lunga prima di evaporare, circa 2,5 x 1034 anni, comunque moltissime volte di più dell’età attuale dell’Universo.
Magari una civiltà avanzatissima potrebbe essere in grado di imbrigliare un micro buco nero ed avere così una fonte virtualmente infinita di energia.

Non voglio levarvi il divertimento di provare a fare nuove speculazioni con le cifre che si possono ricavare dalla tabella. Anzi vi invito a farlo e poi a condividerle nei commenti. 
Cieli sereni

Il principio olografico dei buchi neri – L’orizzonte olografico

I buchi neri sono un argomento molto complesso. Per descriverli compiutamente e raccontare del loro impatto sugli studi del cosmo non basterebbe una enciclopedia, figuriamoci le poche pagine di un blog. Parafrasando la celebre frase — forse apocrifa anch’essa come la celebre mela di Newton — del grande Galileo: “Eppur ci provo” …

[vrview img=”https://ilpoliedrico.com/wp-content/uploads/2017/03/p02rz7hw.png” stereo=”false”]
Volete fare un viaggio in prossimità dell’orizzonte degli eventi? Ecco una plausibile simulazione. Cliccate sulla figurina in basso a destra.

Senza ombra di dubbio i buchi neri sono tra gli oggetti astrofisici più noti e studiati nel dettaglio. Nessuno ha mai realmente visto un buco nero, ma grazie alla Relatività Generale se ne conoscono talmente bene gli effetti che esso ha sul tessuto dello spazio-tempo circostante che oggi è possibile cercare nel Cosmo i segni della loro presenza e descriverli graficamente.
Dai nuclei delle galassie AGN fino ai resti di stelle massicce collassate e ancora più giù fino agli ipotetici micro buchi neri formatisi col Big Bang, si può dire che non c’è quasi limite alle dimensioni che questi oggetti possono raggiungere [cite]https://arxiv.org/abs/astro-ph/9605152[/cite].

Il Principio Olografico


L’entropia (misura dell’informazione nascosta) di un buco nero, misurata in bit, è proporzionale all’area del suo orizzonte degli eventi misurata in unità di Planck
Jacob Bekenstein

Per comprendere l’interpretazione olografica dell’orizzonte degli eventi di un buco nero, occorre prima ripetere ciò che avevo accennato nella scorsa puntata, ossia se un buco nero distrugga o meno l’informazione riguardante tutto ciò che finisce oltre il suo orizzonte degli eventi — ricordo che questo è più un concetto matematico più che un oggetto tangibile.
Secondo Shannon i concetti di entropia e di informazione si equivalgono e, come anche Leonard Susskind ha ribadito, l’entropia non è altro che la misura delle informazioni nascoste, cioè quelle che a noi non sono note. Se infatti le conoscessimo potremmo ricostruire l’evento che le ha generate, come ad esempio possiamo risalire alla massa, traiettoria ed energia di una particella coinvolta in una collisione in una camera a bolle semplicemente ripercorrendo a ritroso la storia degli eventi che essa ha scatenato.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell'informazione perduta dentro un buco nero. Qui per l'osservatore A l'astronauta varcherebbe l'orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell'orizzonte degli eventi. Invece per l'osservatore B oltre l'orizzonte o per lo stesso astronauta l'attraversamento dell'orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell’informazione perduta dentro un buco nero. Qui per l’osservatore A l’astronauta varcherebbe l’orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell’orizzonte degli eventi. Invece per l’osservatore B oltre l’orizzonte o per lo stesso astronauta l’attraversamento dell’orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Come ho cercato di spiegare nelle precedenti puntate tutta l’entropia — o informazione nascosta equivalente — di un buco nero può solo risiedere sulla superficie degli eventi come microstati — o bit — grandi quanto il quadrato della più piccola unità di misura naturale, ossia la lunghezza di Plank 1. Questo significa che tutta l’informazione di tutto ciò che è, od è finito, oltre l’orizzonte degli eventi, è nascosta nella trama dell’orizzonte degli eventi stesso. Potessimo interpretare compiutamente questa informazione, idealmente potremmo risalire alla sua natura.
In base a questa interpretazione tutto ciò che è contenuto in una data regione di spazio può essere descritto dall’informazione confinata sul limite della stessa, così come la mia mano è descritta da ciò che di essa percepisco dalla superficie dello spazio che occupa.
In pratica quindi l’informazione tridimensionale di un qualsiasi oggetto è contenuta su una superficie bidimensionale, che nel caso dei buchi neri, è rappresentata dall’orizzonte degli eventi 2.
L’analogia col fenomeno a noi più familiare è quella dell’ologramma, dove tutte le informazioni spaziali riguardanti un oggetto tridimensionale qualsiasi sono impresse su una superficie bidimensionale. Osservando l’ologramma noi effettivamente percepiamo le tre dimensioni spaziali, possiamo ruotare l’immagine, osservarla da ogni sua parte etc., ma essa comunque trae origine dalle informazioni impresse su una superficie bidimensionale; la terza dimensione percepita emerge 3 dalla combinazione di tutte le informazioni lì racchiuse.

Conclusioni

Il Principio Olografico è questo: un modello matematico che tenta di conciliare la Termodinamica e la meccanica della Relatività Generale dei buchi neri, due leggi che finora si sono dimostrate universalmente esatte e che nel caso specifico dei buchi neri sembrano violarsi.
Questo modello è reso ancora più intrigante per le sue particolari previsioni teoriche: dalla validità della Teoria delle Stringhe alla Super Gravità Quantistica passando per le teorie MOND (Modified Newtonian Dynamics) che potrebbero addirittura dimostrare l’inesistenza della materia e dell’energia oscure.
Addirittura il Principio Olografico potrebbe essere usato per suggerire che l’intero nostro Universo è in realtà un buco nero provocato dal collasso di una stella di un superiore universo a cinque dimensioni, ci sono studi al riguardo [cite]https://www.scientificamerican.com/article/information-in-the-holographic-univ/[/cite] [cite]https://arxiv.org/abs/1309.1487[/cite].
Cercherò in futuro di trattare questi argomenti, sono molto intriganti.

Il principio olografico dei buchi neri – La termodinamica

Può suonare strano a dirsi, ma tutta l’energia che vediamo e che muove l’Universo, dalla rotazione delle galassie ai quasar, dalle stelle alle cellule di tutti gli esseri viventi e perfino quella immagazzinata nelle pile del vostro gadget elettronico preferito è nato col Big Bang. È solo questione di diluizioni, concentrazioni e trasformazioni di energia. Sì, trasformazioni; l’energia può essere trasformata da una forma all’altra con estrema facilità. La scienza che studia tali trasformazioni è la termodinamica. Per trasformarsi l’energia ha bisogno di differenza di potenziale, ossia una maggior concentrazione contrapposta a una minore concentrazione nella stessa forma. L’entropia non è altro che la misura della capacità che ha l’energia di decadere compiendo un lavoro fino a raggiungere di uno stato di equilibrio.

[virtual_slide_box id=”11″]
L’entropia statistica si fonda sulle probabilità delle posizioni delle molecole in uno spazio chiuso. Il II Principio della Termodinamica deriva dal fatto che le configurazioni ad alta entropia sono più probabili di quelle a bassa entropia.
L’esempio dei vasi comunicanti è un classico. Quando fra i due contenitori viene rimosso il tappo (blu), le molecole di un gas (rosse) saranno libere e si distribuiranno uniformemente in entrambi i contenitori compiendo un lavoro (il transito).
Quando la distribuzione sarà uniforme non potrà più esserci lavoro (equilibrio).

Nella termodinamica l’entropia è la misura delle capacità di un sistema fisico in grado di essere sede di trasformazioni spontanee. In altre parole essa indica la perdita di capacità a compiere un lavoro quando tali trasformazioni avvengono. Il valore dell’entropia cresce quando il sistema considerato man mano perde la capacità di compiere lavoro ed è massimo quando tutto il sistema è in condizioni di equilibrio.
La meccanica statistica ha poi reso lo stesso concetto, originariamente legato agli stati di non equilibrio di un sistema fisico chiuso, ancora più generale, associandolo anche alle probabilità degli stati — microstati 1 — in cui può trovarsi lo stesso sistema; da qui in poi si parla di grado di disordine di un sistema quale misura di indeterminazione, degrado o disordine di questo. Il classico esempio dei vasi comunicanti aiuta senz’altro a capire questo poi banale concetto. Ne potete vedere un esempio illustrato qui accanto.
Il legame fra l’entropia statistica e la teoria dell’informazione lo si deve a  Claude Shannon (il padre del termine bit e dell’uso della matematica binaria nei calcolatori) intorno agli anni quaranta del ‘900. Shannon notò che non c’era differenza tra il calcolo del livello di imprevedibilità di una sorgente di informazione e il calcolo dell’entropia di un sistema termodinamico.
Per esempio, una sequenza come ‘sssss‘ possiede uno stato altamente ordinato, di bassa entropia termodinamica. Una sequenza come ‘sasso‘ ha un grado di complessità superiore e e trasporta più informazioni ma ha anche un po’ di entropia in più, mentre ‘slurp‘ dimostra un ancora più alto grado di complessità, di informazione e di entropia perché contiene tutte lettere diseguali; noi le diamo un significato, è vero, ma se dovessimo basarci solo sulla frequenza con cui appaiono le singole lettere in una parola composta da cinque di esse, questa possiede la stessa entropia di “srplu“, che per noi non ha senso e diremmo che essa è una parola disordinata o degradata.
Nell’informazione l’entropia definisce la quantità minima delle componenti fondamentali (bit) necessarie a descriverla, esattamente come i gradi di libertà descrivono lo stato di un sistema fisico. In altre parole essa indica la misura del grado di complessità di una informazione: una singola nota, un suono monotonale, possiede pochissima informazione, mentre la IX Sinfonia di Beethoven ne contiene molta di più. Però attenzione: il suono ricavato da mille radioline sintonizzate ognuna su una diversa stazione è sostanzialmente inintelligibile ma nel suo complesso contiene molta più informazione di quanta ne abbia mai scritta il celebre compositore in tutta la sua vita. Per poter ascoltare la IX Sinfonia trasmessa da una sola radio dovremmo spegnere tutti gli altri ricevitori o alzare il volume di quella radiolina fino a sovrastare il rumore proveniente dalle altre, ossia compiere un lavoro o iniettare energia dall’esterno.

La termodinamica dei buchi neri


Le tre leggi della termodinamica dei buchi neri

Come per la termodinamica classica anche quella dei buchi neri ha le sue leggi non meno importanti. L’analogia tra i due insiemi di assiomi indica anche la strada da seguire per comprendere il bizzarro fenomeno.
Legge zero della  termodinamica dei buchi neri
Per  un buco nero stazionario la gravità all’orizzonte degli eventi è costante.
Questo sembra un concetto banale ma non lo è. Per qualsiasi corpo in rotazione su un asse anche se di forma perfettamente sferica la gravità non è costante alla sua superficie: ce ne sarà un po’ di più ai poli e un po’ meno al suo equatore. Questo principio ricorda che l’orizzonte degli eventi invece è un limite matematico dettato esclusivamente dall’equilibrio tra la gravità e la velocità della luce.
Prima legge della  termodinamica dei buchi neri
Nei buchi neri stazionari ogni variazione o apporto di energia comporta una modifica della sua area: $$d M={\frac{\kappa}{8\pi}}\,d A_{OE}\,+\,\Omega d J\,+\,\Phi d Q\,$$
I buchi neri sono descritti da solo tre parametri: la massa \(M\) , la carica elettrica \(Q\) e momento angolare \(J\) . Come nell’esempio nell’articolo è quindi possibile calcolare quanto varia l’area di un buco nero in cui una quantità di materia/energia diversa da zero cade oltre l’orizzonte degli eventi.
Tralasciando le note costanti naturali \(G\) e \(c\), \(\kappa\) indica la gravità superficiale all’orizzonte degli eventi, \(A_{OE}\) l’area di questo, mentre \(\Omega\) la velocità angolare, \(J\) il momento angolare, \(\Phi\) il potenziale elettrostatico, \(Q\) la carica elettrica sono propri del buco nero all’orizzonte degli eventi.
Questo complesso schema matematico è molto simile alla descrizione del Primo Principio Termodinamico dove si scopre che il differenziale energetico \(E\) è correlato alla temperatura \(T\), all’entropia \(S\) e alla capacità di svolgere un lavoro \(W\) in un sistema chiuso: $$dE=TdS\,+\,dW$$
Seconda legge della  termodinamica dei buchi neri
La somma dell’entropia ordinaria esterna al buco nero con l’entropia totale di un buco nero aumenta nel tempo come conseguenza delle trasformazioni generiche di questo: $$\Delta S_{o}\,+\,\Delta S_{BN}\,\geq\,0$$
Il Secondo Principio Termodinamico richiede che l’entropia di un sistema chiuso debba sempre aumentare come conseguenza di trasformazioni generiche. Se un sistema ordinario cade in un buco nero, la sua’entropia \(S_{o}\) diventa invisibile ad un osservatore esterno ma con questa interpretazione si esige che l’aumento dell’entropia del buco nero \(S_{BN}\) compensi la scomparsa di entropia ordinaria dal resto dell’universo. Con la scoperta della radiazione di Hawking è anche evidente il decremento della massa di un buco nero che essa comporta. Di conseguenza ci si dovrebbe aspettare che anche l’entropia connessa alla sua area diminuisca. Con questa interpretazione (Bekenstein, 1973) si tiene conto anche del fenomeno di evaporazione.
Terza legge della  termodinamica dei buchi neri
È impossibile annullare la gravità dell’orizzonte degli eventi con qualsiasi processo fisico.
Il Terzo Principio Termodinamico afferma che è fisicamente impossibile raggiungere una temperatura nulla tramite qualsiasi processo fisico.
Applicato ai buchi neri questa legge mostra come sia impossibile raggiungere una gravità nulla all’orizzonte degli eventi di un buco nero. In linea di principio aumentando la carica elettrica di un buco nero, sarebbe possibile cancellare l’orizzonte degli eventi e mostrare così finalmente la singolarità nuda. Tuttavia, l’energia che dovremmo iniettare nel buco nero sotto forma di particelle cariche sarebbe sempre più grande tanto più ci si avvicinasse al risultato senza mai poterlo raggiungere.

Un buco nero è causato dal collasso della materia o, per l’equivalenza tra materia ed energia, dalla radiazione, entrambi i quali possiedono un certo grado di entropia. Tuttavia, l’interno del buco nero e il suo contenuto non sono visibili ad un osservatore esterno. Questo significa che non è possibile misurare l’entropia dell’interno del buco nero.
Nell’articolo precedente [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite] ho detto che un buco nero stazionario è parametrizzato unicamente dalla sua massa, carica elettrica e momento angolare. Secondo il No Hair Theorem tutto ciò che scompare oltre l’orizzonte degli eventi viene totalmente sottratto all’universo. Quello che potremmo percepire di un buco nero sono la sua massa, carica elettrica e momento angolare; pertanto le medesime proprietà possedute da un oggetto inghiottito da un buco nero verrebbero a sommarsi con le precedenti, contribuendo così alla loro espressione complessiva. In soldoni — trascurando per un attimo la sua carica elettrica e il momento angolare — un oggetto di massa \(m\) andrebbe a sommarsi a \(M_{BN}\) del buco nero, cosi che \(M_{BN}’\) finirebbe per essere \(m+M_{BN}\) facendo crescere anche la dimensione dell’orizzonte degli eventi.
Ma secondo questa interpretazione, null’altro rimarrebbe dell’oggetto finito oltre l’orizzonte degli eventi, la sua entropia andrebbe perduta per sempre. Questa interpretazione — come fece notare per primo Bekenstein — cozza però col Secondo Principio della Termodinamica che afferma che il grado di disordine – entropia – di un sistema chiuso — l’Universo è un sistema chiuso — può solo aumentare. Quindi qualsiasi cosa, materia o energia, che finisse oltre l’orizzonte degli eventi di un buco nero finirebbe per sottrarre entropia all’universo, e questo è inaccettabile.
L’unico modo per non contraddire questa legge fondamentale 2 è assumere che anche i buchi neri abbiano un’entropia.
Questa come si è visto dipende dalla massa/energia che cade in un buco nero e che va a sommarsi alla precedente, e, visto che per l’interpretazione classica niente può uscire da un buco nero, non può che aumentare col tempo. Ma anche le altre due proprietà, carica elettrica e momento angolare, contribuiscono nella loro misura a descrivere compiutamente un buco nero. Per ogni combinazione di questi tre parametri si possono perciò teorizzare altrettanti stati diversi riguardo ad esso; quello che ne esce è un concetto molto simile all’entropia legata ai possibili microstati della termodinamica statistica. L’entropia, ossia l’informazione di questi microstati, è pertanto distribuita sull’unica parte accessibile all’universo, la superficie dell’area dell’orizzonte degli eventi.
In natura la più piccola unità dimensionale di superficie è l’Area di Planck, quindi è naturale esprimere l’entropia di un buco nero in questa scala. Per descrivere matematicamente l’entropia \(S\) 3  di un buco nero di Schwarzschild partendo dall’area dell’orizzonte degli eventi \(A_{O E}\), allora dovremmo scrivere $$\tag{1}S_{buco nero}={A_{O E}\over 4 L_{P}^2}={c^3 A_{O E}\over 4 G \hbar}$$ dove \(L_{P}\) è la lunghezza di Plank, \(G\) è la Costante di Gravitazione Universale, \(\hbar\) la costante di Plank ridotta e \(c\) ovviamente la velocità della luce, sapendo che la suddetta area è condizionata unicamente dalla massa del buco nero $$\tag{2}A_{O E}=16\pi \frac{G^2M_{BN}^2}{c^4}$$.
Facciamo ad esempio l’ipotesi, che poi servirà in futuro per illustrare il Principio Olografico e che si rifà anche direttamente alla Prima Legge della Termodinamica dei Buchi Neri (vedi box qui accanto), di un fotone avente una lunghezza d’onda \(\lambda\) — la lunghezza d’onda di un fotone è inversamente proporzionale alla sua energia — che cade in un buco nero di massa \(M_{BN}\) e di conseguenza di raggio \(r_{S}\) da una direzione indeterminata.
Avvicinandosi all’orizzonte degli eventi suddetto fotone finirà per decadere fino ad avere una lunghezza d’onda paragonabile alla dimensione del raggio di Schwartzschild: \(\lambda\sim\pi r_{S}\).
L’energia rilasciata dal fotone nel buco nero quindi è $$\tag{3}d E = \frac{hc}{\lambda} = \frac{2\pi \hbar c}{r_{S}}$$
Per l’equivalenza tra massa ed energia — la stranota \(e=mc^2\) della Relatività Generale — la massa del buco nero finisce per crescere$$\tag{4}d M_{BN}=\frac{d E}{c^2} = \frac{2\pi \hbar}{c r_{S}}$$
Di conseguenza un aumento della massa, per quanto piccola, del buco nero finisce per far aumentare anche le dimensioni dello stesso nella misura $$\tag{5}d r_{S}=\frac{2G}{c^2} d M_{BN}=\frac{4\pi\hbar G}{c^3 r_{S}}$$
e anche l’area: $$\tag{6}d A_{OE}=4\pi d r_{S}^2 = 8\pi r_{S}d r_{S}=32\pi^2\frac{\hbar G}{c^3}$$

Anche se questo genere molto semplificato di buchi neri è solo teorico, permette però di esplorare la complessità del problema e di farsi un’idea delle dimensioni dell’entropia di un buco nero 4.

Il principio olografico dei buchi neri – L’orizzonte degli eventi

Prima di scrivere questo pezzo ho fatto una scorsa dei risultati che restituiscono i motori di ricerca sul Principio Olografico, giusto per curiosità. Ne è uscito un quadro desolante; da chi suggerisce che siamo tutti ologrammi alla medicina quantistica (roba di ciarlatani creata per i beoti). Ben pochi hanno descritto il modello e ancora meno (forse un paio sparsi nella profondità suggerita dal ranking SEO) hanno scritto che si tratta solo di un modello descrittivo. Cercherò ora di aggiungere il mio sussurro al loro, giusto per farli sentire un po’ meno soli.

Essenzialmente il mezzo più immediato e naturale che usiamo per descrivere il mondo che circonda è dato dalla vista. Essa però restituisce unicamente un’immagine bidimensionale della realtà, esattamente come fanno anche una fotografia o un quadro. Ci viene in soccorso la percezione della profondità spaziale, dove la terza dimensione emerge grazie all’effetto prospettico che fa apparire più piccole e distorte le immagini sullo sfondo rispetto a quelle in primo piano. L’unico mezzo veramente efficace che abbiamo per cercare di rappresentare correttamente la realtà è la matematica, anche se essa appare spesso controintuitiva.

Ripetendo in parte ciò che ho detto in altre occasioni, l’Uomo ha sempre cercato di dare una spiegazione convincente a tutto quello che lo circonda, che per brevità di termine chiamiamo realtà. Ad esempio, la scoperta delle stagioni, il costante ripetersi ogni anno delle diverse levate eliache e i cicli lunari sono culminati nell’invenzione del calendario, che nelle sue varie interpretazioni e definizioni, ha sempre accompagnato l’umanità. Eppure esso in astratto non è che un modello, grossolano quanto si vuole, ma che consente di prevedere quando sarà la prossima luna nuova o l’astro Sirio allo zenit a mezzanotte.
Anticamente anche le religioni erano modelli più o meno astratti che avevano il compito di spiegare ad esempio, i fulmini, le esondazioni, le maree, il giorno e la notte, etc.
Oggi sappiamo che i fulmini sono una scarica elettrica, che il giorno e la notte sono la conseguenza della rotazione terrestre e che le esondazioni avvengono perché da qualche altra parte piove.
Abbiamo teorizzato per secoli una cosmologia geocentrica e solo più tardi quella eliocentrica, quando abbiamo capito che la prima era sbagliata. Abbiamo accarezzato per un breve periodo l’idea galattocentrica prima di apprendere che le galassie erano più di una e il Sole era solo una comune stellina grossomodo a metà strada fra il centro e la periferia della Via Lattea, e abbiamo anche creduto ad un universo statico prima di scoprire che l’Universo si espandeva in dimensioni.
Anche tutti questi erano modelli e modelli pensati su altri modelli dati per sicuri finché non venivano dimostrati sbagliati. E questo vale anche per i modelli attuali e le teorie fino ad oggi considerate certe.

L’orizzonte degli eventi.

\(raggio_{Schwarzschild}=\left (\frac{2GM}{c^2}  \right )\)
Il raggio dell’orizzonte degli eventi di un buco nero è restituito da questa formula matematica che stabilisce l’equilibrio tra gravità e velocità della luce.  Esso esiste solo teoricamente perché si suppone che l’oggetto che ha dato origine al buco nero abbia avuto con sé un certo momento angolare che poi si è conservato.
Infatti, per descrivere matematicamente un buco nero reale si usa una metrica leggermente diversa che tiene conto anche del campo elettromagnetico e del momento angolare: quella di Kerr-Newman.

Già alla fine del 1700 si teorizzava di una stella tanto densa e massiccia da ripiegare la luce con la sua gravità. John Michell e Pierre-Simon de Laplace la chiamavano stella oscura. Ma fu solo dopo il 1915, con la Relatività Generale, che Karl Schwarzschild trovò le equazioni che descrivevano il campo gravitazionale di un oggetto capace di ripiegare la luce su di sé. Così fu evidente che esiste un limite, un orizzonte oltre il quale neppure la luce può sfuggire. Non è un limite solido, tangibile come quello di una stella o di un pianeta come talvolta qualcuno è portato a immaginare, ma è un limite matematico ben preciso definito dall’equilibrio tra la gravità e la velocità della luce, che è una costante fisica assoluta 1.
La relatività insegna che niente è più veloce della luce. Pertanto, basandosi solo su questo assioma, è ragionevole pensare che qualsiasi cosa oltrepassi l’orizzonte degli eventi di un buco nero sia definitivamente persa e scollegata dal resto dell’universo. Questa interpretazione, chiamata teorema dei buchi neri che non hanno capelli o No Hair Theorem, niente, più nessuna informazione potrebbe uscire una volta oltrepassato quel limite. Infatti se descrivessimo matematicamente un buco nero usando la metrica di Kerr-Newman – è una soluzione delle equazioni di Einstein-Maxwell della Relatività Generale che descrive la geometria dello spazio-tempo nei pressi di una massa carica in rotazione – viene fuori che un buco nero può essere descritto unicamente dalla sua massa, il momento angolare e la sua carica elettrica [1].

Cercare di spiegare la complessità dello spazio-tempo in prossimità degli eventi senza ricorrere alla matematica è un compito assai arduo.
L’oggetto che descrive Shwartzschild è solo il contorno osservabile di un buco nero. Ciò che vi finisce oltre scompare all’osservatore esterno in un tempo infinito. Egli vedrebbe che il tempo sul bordo degli eventi si ferma mentre la lunghezza d’onda della luce gli apparirebbe sempre più stirata 2 in rapporto alla sua metrica temporale, man mano che essa proviene da zone ad esso sempre più prossime fino a diventare infinita.
Invece, volendo fare un gedankenexperiment [cite]https://it.wikipedia.org/wiki/Esperimento_mentale[/cite] come avrebbe detto Einstein, per colui che cercasse di oltrepassare l’orizzonte degli eventi – ammesso che sopravviva tanto da raccontarlo – il tempo risulterebbe essere assolutamente normale e tramite misure locali non noterebbe alcuna curvatura infinita dello spaziotempo e finirebbe per oltrepassare l’orizzonte degli eventi in un tempo finito.
Appare controintuitivo ma è così. Se dovessimo assistere come osservatore privilegiato alla formazione di un buco nero dal collasso di una stella [cite]https://ilpoliedrico.com/2017/02/supernova.html[/cite], non vedremmo mai il nocciolo stellare oltrepassare l’orizzonte degli eventi. Noteremmo solo che la luce proveniente da esso diventa sempre più fioca: vedremmo che i raggi gamma più duri emessi dal nocciolo diventare raggi X, poi luce visibile, infrarosso e radio  e poi più nulla; nessuna radiazione, più nessuna informazione proveniente dal nocciolo stellare potrebbe più raggiungerci.
Quello che c’è oltre lo chiamiamo singolarità. Le leggi fisiche a noi note non possono più descrivere cosa succede oltre l’orizzonte degli eventi e tutto ciò che lo oltrepassa non può più comunicare il suo stato all’esterno.

È difficile descrivere ciò che non si può osservare.

Materia oscura: e se fossero anche dei buchi neri?

Rotationcurve_3 Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La "curva di rotazione" non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che \(V = \sqrt (GM / R)\). La "M" indica tutta la massa che è racchiusa all'interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo \(M / R\) è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l'esistenza della materia oscura e, sorprendentemente, predicono all'incirca la stessa quantità!

Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La “curva di rotazione” non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che \(V = \sqrt (GM / R)\). La “M” indica tutta la massa che è racchiusa all’interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo \(M / R\) è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l’esistenza della materia oscura e, sorprendentemente, predicono all’incirca la stessa quantità!

Finora – e credo che non lo sarà ancora per diverso tempo – la reale natura della materia oscura non è stata chiarita. Non sto ancora a ripetermi nello spiegare per filo e per segno come si sia arrivati a concludere che molta materia che percepiamo è in realtà una frazione di quella che gli effetti gravitazionali (curve di rotazione delle galassie) mostrano.
Se avete letto il mio articolo su quante stelle ci sono nella nostra galassia [cite]http://ilpoliedrico.com/2015/12/quante-stelle-ci-sono-nella-via-lattea.html[/cite] lì spiego che a concorrere alla massa totale di una galassia ci sono tante componenti barioniche (cioè composte da protoni e neutroni) più gli elettroni che non sono solo stelle. Ci sono anche corpi di taglia substellare, pianeti erranti, stelle degeneri e buchi neri di origine stellare, il risultato cioè della fine di enormi stelle  che dopo essere esplose come supernova hanno lasciato sul campo nuclei con una massa compresa tra le 3 e le 30 masse solari, tra i 9 e i 90 km di raggio. Questi oggetti non sono direttamente osservabili perché non emettono una radiazione rilevabile, ma i cui effetti gravitazionali sono ben visibili quando si studiano le quantità di moto di galassie e ammassi di queste rispetto al centro di gravità comune.
Obbiettivamente stimare la massa barionica non visibile di una galassia è molto difficile ma se prendiamo come esempio  il Sistema Solare il 99,8% dell’intera sua massa è nel Sole, una stella. Anche decidendo di considerare che la materia barionica non direttamente osservabile fosse un fattore dieci o venti volte più grande di quella presente nel Sistema Solare ed escludendo a spanne tutta la materia stellare degenere (nane bianche, stelle di neutroni e buchi neri) non più visibile presente in una tipica galassia come la nostra, in numeri ancora non tornano.
Più o meno tutte le galassie pare siano immerse in una tenue bolla di gas caldissimo grande circa cinque o sei volte la galassia stessa, probabilmente frutto del vento stellare galattico e dei processi parossistici dei nuclei galattici. Queste bolle sono impalpabili e caldissime a tal punto che solo da poco ne è stata avvertita la presenza [cite]http://hubblesite.org/newscenter/archive/releases/2011/37/[/cite], capaci quanto basta però per contenere una massa pari alla parte visibile; questo significa che finora la massa barionica di una galassia è stata finora sottostimata di un fattore 2.
Ma tutto questo ancora non basta. Anche se volessimo comunque raddoppiare o perfino triplicare le stime precedenti della massa barionica, verrebbe fuori che comunque una frazione ancora piuttosto cospicua di massa manca all’appello: almeno tra i due terzi e la metà mancherebbero comunque all’appello.
grafico universoE sulla natura di questa materia oscura (oscura appunto perché non visibile direttamente o indirettamente tranne che per la sua presenza come massa) che si sono avanzate le più disparate ipotesi.
Una di queste prevede che se, come molti esperimenti mostrano [cite]http://ilpoliedrico.com/2013/02/la-stupefacente-realta-del-neutrino.html[/cite], che i neutrini hanno una massa non nulla, allora questi potrebbero essere i responsabili della massa mancante. Questa si chiama Teoria WIMP (Weakly Interacting Massive Particle) Calda, cioè particelle debolmente interagenti dotate di massa che si muovono a velocità relativistiche. Particelle così sono note da sessant’anni, sono i neutrini che, grazie alla loro ridotta sezione d’urto e alla loro incapacità di  interagire con la forza nucleare forte (quella che cioè tiene uniti i quark e il nucleo degli atomi) e l’interazione elettromagnetica – però interagiscono bene con la forza nucleare debole (quella responsabile del decadimento radioattivo) e la forza gravitazionale – sono esattamente elusivi quanto si chiede alla materia oscura. Purtroppo se la materia oscura si identificasse unicamente nei neutrini avremmo un grande problema: forse non esisteremmo! Tutte le strutture di scala fine, le galassie e quindi le stelle, non avrebbero avuto modo di formarsi, disperse dai neutrini e dall’assenza di zone di più alta densità verso cui concentrarsi. Pertanto la Hot Dark Matter –  Materia Oscura Calda – non può essere stata rilevante alla formazione dell’Universo [cite]https://arxiv.org/abs/1210.0544[/cite].
Quindi se la materia oscura non può avere una rilevante componente calda, cioè che si muove a velocità relativistiche come i neutrini, deve essere prevalentemente fredda, cioè che, come la materia ordinaria, è statica. Una possibile spiegazione al mistero della materia oscura fa ricorso a oggetti barionici oscuri, che cioè non emettono una radiazione percettibile ai nostri strumenti, i cosiddetti MACHO (Massive Astrophysical Compact Halo Object) ossia oggetti compatti di alone. Questi MACHO sono composti da resti di stelle ormai morte come nane bianche e stelle di neutroni ormai freddi, buchi neri, stelle mancate e pianeti erranti. Certamente oggetti simili esistono e sono una componente importante della massa di qualsiasi galassia e più queste invecchiano più la componente degenere che contengono aumenta. L’indice di colore delle galassie associato alla loro massa viriale lo dimostra. Ma tutta la componente barionica dell’Universo può essere calcolata anche usando il rapporto tra gli isotopi dell’elio 4He e litio  7Li usciti dalla nucleosintesi cosmica iniziale come descritto dai modelli ΛCDM e questo pone un serio limite alla quantità di materia barionica degenere possibile [cite]http://xxx.lanl.gov/abs/astro-ph/0607207[/cite]. Pertanto risolvere il dilemma della materia oscura ricorrendo ai MACHO è impossibile.
Le uniche altre vie percorribili paiono essere quelle che fanno ricorso a particelle non barioniche (come i neutrini) ma che siano statiche come la materia barionica ordinaria: le cosiddette Cold WIMP, ovvero particelle debolmente interagenti dotate di massa non dotate di moto proprio è appunto una di queste. Particelle simili non sono ancora state osservate direttamente ma la cui esistenza può anch’essa essere dimostrata indirettamente confrontando le abbondanze isotopiche accennate prima [cite]http://arxiv.org/abs/astro-ph/9504082[/cite] con le equazioni di Friedmann.

Il pannello di destra è un'immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell'Orsa Maggiore. L'immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l'universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell'Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell'immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Il pannello di destra è un’immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell’Orsa Maggiore. L’immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l’universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell’Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell’immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Ora appare una ricerca [cite]https://arxiv.org/abs/1605.04023[/cite] che suggerisce che buona parte della parte della massa mancante sia collassata in buchi neri subito dopo il Big Bang. A riprova di questo studio viene portata la scoperta di numerose anisotropie nella radiazione cosmica infrarossa (CIB) rilevate nel corso di una survey del cielo a partire dal 2005 dal telescopio infrarosso Spitzer della NASA .
L’autore di questo studio (Kashlinsky) suggerisce che nei  primissimi istanti di vita dell’Universo (Era QCD da Quantum ChromoDynamics o Era dei Quark, tra i 10-12 secondi e i 10-6 secondi dopo il Big Bang) si siano verificate delle fluttuazioni quantistiche di densità che hanno dato origine ai buchi neri primordiali. Il meccanismo, per la verità non nuovo, è quello descritto anche da Jedamzik [cite]http://arxiv.org/abs/astro-ph/9605152[/cite] nel 1996 sui buchi neri primordiali creatisi nell’Era dei Quark. Nella sua opera Jedamskin prevede anche che a causa dell’espansione iniziale dell’Universo i buchi neri primordiali si possono essere formati solo per un ristretto intervallo di massa. Un aspetto importante che mi sento di sottolineare è che questi buchi neri primordiali non sono il prodotto del collasso gravitazionale di materia barionica come il nucleo di una stella, ma bensì il collasso di una fluttuazione di densità nel brodo di  quark e gluoni che in quell’istante stava emergendo; quindi prima della Leptogenesi e della Nucleosintesi Iniziale dell’Universo. Ma coerentemente con la fisica dei buchi neri la natura della sostanza che li ha creati  non ha alcuna importanza: che fossero orsetti gommosi o  il collasso di un nucleo stellare il risultato è il medesimo.
Finalmente Kashlinsky pare essere riuscito a trovare una prova visiva di quello che in pratica ha da sempre sostenuto, e che cioè almeno una buona parte della materia oscura possa essere spiegata da questi oggetti primordiali. Una conferma interessante a questa tesi potrebbe essere rappresentata dalla scoperta dei segnali dell’evaporazione  dei buchi neri più piccoli (1015 g) che dovrebbero essere stati generati durante l’Era dei Quark come proposto nel 2004 da BJ Carr [cite]http://arxiv.org/abs/astro-ph/0504034[/cite].
L’idea in sé quindi che buona parte della materia oscura possa essere interpretata come buchi neri primordiali non è affatto nuova. Va riconosciuto a Kashlinsky il merito di averci creduto e di aver trovato prove abbastanza convincenti per dimostrarlo. Certo il dilemma della materia oscura rimane a dispetto dei tanti annunci apparsi in questi giorni e ci vorranno ancora anni di indagine per svelarlo. Io penso che sia un ragionevole mix di tutte le idee qui proposte, anche perché l’attuale modello ΛCDM pone – come abbiamo visto – dei limiti piuttosto stringenti per l’attuale densità barionica che di fatto esclude le forme di materia convenzionale (vedi MACHO) oltre quelle già note. Anche il ruolo dei neutrini primordiali nella definizione delle strutture di scala fine dell’Universo merita attenzione, Alla fine forse scopriremo che la materia oscura è esistita fin quando non abbiamo cercato di comprenderne la sua natura.

Buchi neri di un altro universo?

Distribuzione spaziale di 2074 GRBs osservati da BATSE, strumento a bordo del Compton Gamma Ray Observatory – Credit: Wikipedia .

Nel 1973 uno dei satelliti spia americani incaricati della sorveglianza degli esperimenti atomici Vela, registrò il primo lampo in luce gamma mai registrato nella storia dell’astronautica.
Fu però nel 1991 con il lancio del Compton Gamma Ray Observatory che la ricerca scientifica sui Gamma Ray Burst (GRB) potè progredire. Si scoprì che questi lampi – o almeno quasi tutti – non erano di origine galattica 1.

L’energia prodotta da un lampo gamma è enorme e nel corso degli anni sono tate proposte diversi meccanismi che possono innescare l’GRB, un po’ come avviene per le supernovae che si differenziano nel tipo di emissione luminosa a seconda dell’evento che ne è responsabile.

Animazione di una Collasar (click sull’immagine) Credit: NASA

Uno di questi è il modello Collapsar, ossia gigantesche stelle molto povere di metalli, con una massa attorno alle 40 masse solari e un momento angolare molto elevato che al termine della loro esistenza esplodono in supernova e il loro nucleo diventa un buco nero.
La materia degli strati esterni della stella precipita dentro il buco nero  appena formato creando un piccolo e densissimo disco di accrescimento. A questo punto si formano due getti di materia lungo l’asse di rotazione della precedente stella diventata buco nero; materia che ha velocità relativistiche pari 0,9999 c  e che rilascia la sua energia sotto forma di raggi gamma fortemente collimati, osservabili quindi da un osservatore che si trova lungo  il loro percorso.

La radiazione di Hawking
La Radiazione di Hawking viene prodotta in prossimità dell’orizzonte degli eventi di un buco nero dalle continue fluttuazioni quantistiche del vuoto che generano coppie di particelle virtuali 2 che si annichiliscono normalmente subito dopo essersi formate  (per questo non viene violato il 1° principio della termodinamica). Quando una coppia di particelle si forma vicino all’orizzonte degli eventi una di queste può cadere nel buco nero mentre l’altra sfugge e diventa reale; quella che cade è l’opposto della particella sfuggita, così il buco nero è in difetto di massa rispetto all’universo e quindi evapora.

Stelle con queste caratteristiche erano molto comuni all’inizio dell’Universo, quando era molto più piccolo di oggi.
Questo spiegherebbe anche la relativa isotropia, ossia l’uniformità nella distribuzione di questi lampi gamma nel cielo senza alcuna preferenza particolare per una qualsiasi direzione, osservata.

Anche altri modelli, non mutualmente escludibili secondo me, sono stati proposti per spiegare i GRB: dalla fusione di due  stelle di neutroni fino all’evaporazione di buchi neri primordiali 3 per effetto della Radiazione di Hawking.

La velocità di evaporazione prevista dalle equazioni di Hawking per un buco nero è inversamente  proporzionale alla sua massa, questo significa che questi buchi neri primordiali stanno terminando la loro esistenza circa in questo momento della storia dell’Universo e – almeno una parte – dei GRB osservati potrebbe essere il lampo di radiazione gamma che testimonia la fine di un buco nero primordiale 4.

Ma per due cosmologi, Bernard Carr della Queen Mary University di Londra e Alan Coley della Dalhousie University in Canada, oltre ai buchi neri primordiali dovremmo tenere conto anche di un’altra classe di buchi neri che non sono di questo universo ma addirittura di quello precedente, creatosi cioè prima del Big Bang attuale 5.

Il modello dell’universo ciclico – Credit: HowStuffWorks

Esiste una teoria cosmologica chiamata Universo Ciclico 6, che vuole che il nostro Universo sia nato da un altro universo che ha subito un precedente Big Crunch. Dopo il collasso avvenuto per contrazione gravitazionale, tutta la materia del precedente universo contratto fino a diventare una singolarità, rimbalza, creando un nuovo universo – il nostro – passando sempre da un Big Bang. Per questa teoria anche il nostro Universo alla fine dovrà ricomporsi in una singolarità per dar modo a un nuovo universo – successivo al nostro – di nascere.
Anche se la teoria dell’Universo  Ciclico fosse vera 7 e tutta la materia e l’energia dell’universo precedente è confluita in un punto per poi risorgere in un nuovo Big Bang, perché anche tutta l’informazione dello stato precedente non è andata distrutta?
Per i due scienziati i buchi neri che possono essersi generati nel precedente universo prima del Big Crunch possono essere sopravvissuti al Big Bang e essersi diffusi nell’attuale Universo preservando quindi l’informazione dell’universo precedente 8.
La massa di questi buchi neri pre-crunch sarebbe paragonabile a quella dei buchi neri primordiali del nostro Universo: da  qualche centinaio di milioni di chilogrammi fino a una massa solare. Praticamente i buchi neri con questo range di masse sarebbero riusciti a preservare la loro struttura rimanendo separati dalla singolarità creata dal Big Crunch e riuscendo a sopravvivere nel successivo Big Bang, penetrando così nel nuovo universo.

Anche il padre dei twistori Roger Penrose affermò di scorgere gli echi di onde gravitazionali di un universo precedente sotto forma di impronte nella radiazione cosmica di fondo, rimettendo in dubbio l’attuale modello inflattivo largamente accettato in cosmologia.

Certo è che questa ipotesi più che offrire un meccanismo che spieghi l’origine dei GRB, pare offrire lo spunto per una profonda riflessione sulla cosmologia e la fisica. Vera o sbagliata che sia questa ipotesi, è comunque Scienza.