HR8799. Una stella distante 129 anni luce, è la prima ad ospitare un pianeta di cui si sia osservata direttamente l’atmosfera!
Sono passati appena 40 anni da quando fu accertata l’esistenza dei pianeti attorno alle altre stelle; non che vi fossero dubbi al riguardo ma si riteneva che dimostrarne l’esistenza e perfino scrutarne qualcuno — come poi è stato fatto — fosse impossibile. E invece … eccoci qua!
Sfruttando l’ eccezionale apertura interferometrica di ben 100 metri (vedi nota a piè di pagina), gli astronomi sono riusciti a ricavare lo spettro dell’atmosfera di HR 8799 e, uno dei quattro pianeti di una stella molto giovane — appena una trentina di milioni di anni — di classe F0, distante appena 129 anni luce [1]. Il corpo celeste è un gioviano caldo, con una massa superiore di circa 10 volte quella di Giove ed è altrettanto giovane quanto la sua stella. Questa è una fortuna, perché permetterà in seguito di studiare nel dettaglio la sua evoluzione.
Comunque intanto sono stati raggiunti, e superati, diversi traguardi: il primo, e sicuramente il più importante, riguarda la capacità tecnologica di riuscire ad osservare finalmente l’atmosfera di un esopianeta, ossia di un mondo che non appartiene al nostro sistema solare; il secondo è che quell’atmosfera non è esattamente come i modelli standard delle atmosfere planetarie descrivono. E questo spingerà senz’altro gli astronomi a cercare e studiare altre esoatmosfere per cercare di comprenderne meglio i meccanismi. Intanto vi invito a consultare i link a fine articolo per vedere i risultati scientifici.
Questo è il link al comunicato ufficiale dell’ESO
Schizzo della disposizione dell’interferometro del VLT. La luce da un oggetto celeste distante entra in due dei telescopi del VLT e viene riflessa dai vari specchi nel tunnel interferometrico, al di sotto della piattaforma di osservazione sulla cima del Paranal. Due linee di ritardo con carrelli mobili correggono in continuazione la lunghezza dei cammini in modo che i due fasci interferiscano costruttivamente e producano frange di interferenza nel fuoco interferometrico in laboratorio.
L’Interferometria viene usata da decenni nel campo delle onde radio, dove si possono ottenere immagini con strumenti virtuali pari quasi al diametro terrestre, Il principio di funzionamento di un apparato interferometrico si basa sulla sovrapposizione in fase di due o più segnali coerenti allo scopo di esaltarne il segnale; per ottenere questo effetto però la differenza tra i cammini ottici dei fasci stessi deve rimanere inferiore ad un decimo della loro lunghezza ottica. Ora, nella radioastronomia il margine è piccolo ma comunque ottenibile senza grosse difficoltà: a 21 cm di lunghezza d’onda — ossia quella dell’idrogeno interstellare — la tolleranza è di appena 2 cm; anche se questa è misurata su basi lunghe migliaia di chilometri (Very-Long-Baseline Interferometry). Ma ricorrendo a trucchi che prevedono l’uso combinato di orologi atomici locali e maser all’idrogeno, l’ostacolo è comunque facilmente risolvibile.
Ma questi non funzionano nell’interferometria ottica dove le fasi del segnale sono lunghe appena 1μm (ossia nel vicino infrarosso) e dove quindi la tolleranza richiesta deve essere ancora dieci volte più piccola, Questo risultato però è ottenibile facendo convergere i fuochi dei 4 telescopi del VLT in un unico punto avendo cura che tutti i segnali percorrano esattamente la stessa distanza. In questo modo, e sfruttando sapientemente le ottiche adattive dei telescopi, si può raggiungere l’incredibile risultato di avere una risoluzione pari a circa un millesimo di secondo d’arco a 1μm di lunghezza d’onda. Il che significa risolvere un oggetto grande appena un paio di metri sulla Luna!
SPHERE (Spectro-Polarimetric High-contrast Exoplanet REsearch instrument) sta davvero rivoluzionando l’astrofisica. Adesso è possibile scrutare i pianeti intorno alle loro stelle e studiare perfino per sommi capi la loro probabile atmosfera attraverso l’analisi spettroscopica di quella debole luce riflessa. Un traguardo che fino a pochi anni fa era ritenuto impossibile e che invece oggi si avvera. Già mi pare di sentire le critiche — stupide — di chi pensa che tutto questo non serva a niente. Le immagini spettroscopiche e termiche riprese da droni, aerei e satelliti permettono di studiare e identificare infezioni e parassiti nelle coltivazioni agricole ben prima che i segni siano visibili sul campo [2]. Le tecnologie e principi che consentono di scorgere altri pianeti sono le stesse degli strumenti che ci permettono di vivere meglio su questo sassolino sperduto nell’infinito cosmo.
La posizione nel cielo di PDS 70 (V* V1032 Cen), una stella di tipo T Tauri un po’ più piccola del Sole (0,82 M☉) a 370 a.l. dalla Terra.
A prima vistaPDS 70è soltanto una delle miriadi di stelline che un qualsiasi buon telescopio nell’emisfero australe permette di vedere. Ma in realtà è molto di più: essa è una stella nata da pochissimo, appena tra i 6 e i 10 milioni di anni ed è abbastanza vicina da permettere di studiare cosa accade in quel particolare momento, ovvero come si forma un sistema planetario.
Già nel 1992 i dati del satellite IRAS[3] suggerivano PDS 70 come candidata ospite di un disco planetario, poi scoperto nel 2006.
Nel 2012 la svolta: una regione vuota a circa 65 U.A. dalla stella suggerivano che lì si stava forse formando un pianeta [4] tra le 30 e le 50 volte Giove.
Successive osservazioni [5] hanno rivisto e corretto le prime stime confermando però la presenza di strutture protoplanetarie multiple: intorno a quella debole stellina si stavano formando più pianeti!
Lo studio con SPHERE: PDS 70b
Questa immagine, catturata dallo strumento SPHERE installato sul VLT (Very Large Telescope) dell’ESO, è la prima chiara fotografia di un pianeta nel momento in cui si sta formando; in questo caso intorno alla stella nana PDS 70, nella costellazione australe del Centauro. Il pianeta si distingue nitidamente; è il punto brillante alla destra della stella adeguatamente oscurata da un coronografo, una maschera che blocca la luce accecante della sorgente principale. Credit: ESO/A. Müller et al.
Quindi questa è per sommi capi la storia di PDS 70, una stellina di classe spettrale K5-K7 12, distante appena 370 anni luce — praticamente dietro l’angolo — e molto giovane (a quell’epoca sulla Terra le prime scimmie antropomorfe si preparavano a conquistare il mondo: i nostri antenati). E adesso, grazie allo strumento SPHEREinstallato sul VLT (Very Large Telescope) dell’ESO, è stato finalmente possibile osservare il primo pianeta mentre è ancora nella fase della sua formazione [6] e di distinguere spettroscopicamente la sua probabile atmosfera [7].
Il pianeta, chiamato PDS 70b, appare mentre si sta aprendo la strada nel disco primordiale di gas e polvere intorno alla giovanissima stella a circa 3 miliardi di chilometri da questa (circa 20 U.A.), più o meno la distanza che separa Urano dal Sole con un periodo orbitale di 119 anni. Data la distanza e il periodo di rivoluzione non è stato difficile risalire alla stima della sua massa, che appare così di circa 10 masse gioviane.
Atmosfera protoplanetaria
Lo spettro di PDS 70b alla base delle simulazioni della sua atmosfera. Per una migliore comprensione leggere lo studio al riferimento 6 di questo articolo.
Ma non solo. Grazie a SPHERE è stato possibile intercettare lo spettro di PDS 70b — che appare decisamente rosso, e stimare così anche la sua temperatura: circa 1200 ± 200 gradi Kelvin. E sempre grazie allo spettro del protopianeta è stato possibile risalire attraverso modelli e simulazioni numeriche alla possibile atmosfera di questo.
Conclusioni
Il primo esopianeta fu scoperto nel 1995, ossia più di vent’anni fa. I primi esopianeti osservati erano enormi e di solito orbitavano attorno a stelle più piccole del Sole. Questo perché per gli strumenti di quell’epoca erano gli unici oggetti che era possibile intercettare con le osservazioni, tant’è che per un momento si credette che tutte le nostre teorie sulla formazione planetaria fossero sbagliate. Dopo arrivarono strumenti più sofisticati, pensati apposta per raccogliere l’immane sfida di osservare oggetti sempre più piccoli e più difficili da scrutare. E così anche le teorie sulla formazione planetaria partendo dalla frammentazione dei resti della nube che aveva generato la stella furono confermate. Oggi lo vediamo con PDS 70b grazie a strumenti sempre più sofisticati come SPHERE. Anche strumenti di calcolo sempre più potenti permettono di risalire alla composizione chimica delle atmosfere esoplanetarie così come possiamo risalire alla composizione chimica delle nubi di Venere con un normale telescopio.
Tra vent’anni cosa potremmo scoprire partendo da queste premesse?
Appena tre articoli fa avevo stimato in un paio di miliardi di anni a partire dal Big Bang l’intervallo di tempo ragionevole per il crearsi delle condizioni minime necessarie per lo sviluppo degli elementi chimici più pesanti dell’idrogeno (per gli astrofisici questi sono chiamati tutti metalli a prescindere del loro peso atomico) necessari alla vita come la conosciamo, che io per comodità qui su questo Blog ho sempre chiamato Vita con la maiuscola. Ma forse mi sbagliavo, quelle condizioni potrebbero essersi sviluppate molto prima: almeno 2/3 di quel lasso di tempo: appena 250-500 milioni di anni dopo il Big Bang. Quella fu la prima, vera, alba del Cosmo? difficile dirlo per ora; certo è che la primissima generazione di stelle apparve molto, molto, presto.
Nella grande immagine a sinistra, le numerose galassie dell’ammasso galattico MACS J1149 + 2223. Le lenti gravitazionali del cluster hanno permesso di scoprire una galassia 15 volte più lontana: MACS 1149-JD. In alto a destra vediamo lo zoom della regione mentre MACS 1149-JD è in evidenza nel dettaglio in basso a destra. Credit: NASA / ESA / STScI / JHU
MACS1149-JD1 non è una galassia appena scoperta e nemmeno la più grande — è appena un centesimo della Via Lattea. Fu scoperta dai telescopi spaziali Hubble e Spitzer nel lontano 2012 grazie all’azione di lensing gravitazionale mediato dall’ammasso di galassie MACS J1149.6+2223, nella costellazione del Leone. Ma è nota per essere tra le più distanti dell’Universo osservabile — ha un redshift \(z \) di 9.6. La luce che oggi osserviamo abbandonò quella lontana galassia circa 13.3 miliardi di anni fa, cioè circa 500 milioni di anni dopo il Big Bang ed è talmente stirata per effetto dell’espansione dell’Universo da essere visibile solo nell’infrarosso (redshift cosmologico).
Ma seppur notevole non è questa la notizia più clamorosa che coinvolge MACS1149-JD1 [8]: un team di astronomi hanno studiato la luce di questa minuscola e debolissima galassia con ALMA (Atacama Large Millimeter/submillimetr Array) e il VLT (Very Large Telescope) dell’ESO scoprendo così in essa il debole segnale dell’ossigeno ionizzato. Questo significa che nei suoi 500 milioni di anni era lì esistita una primissima generazione di grandi stelle che alla fine del loro ciclo vitale avevano cosparso il cosmo con le loro ceneri ricche di elementi pesanti tra cui l’ossigeno.
Già nel 2016 ALMA aveva permesso di scoprire tracce di ossigeno ionizzato in un altro oggetto del profondo cielo, la galassia SDXF-NB1006-2 [9], distante 13.1 miliardi di anni luce. Anche se la quantità di ossigeno allora rivelata risultava essere circa 10 volte meno di quella presente attualmente nella nostra galassia, in linea con quanto ci suggeriscono le simulazioni, indicava anche che l’intensa radiazione ultravioletta di quelle lontane stelle stava ionizzando una enorme quantità di gas, ben più di quanto ci si aspetterebbe se la quantità di polvere e di carbonio fosse in linea con le proporzioni osservate dell’ossigeno. In pratica non c’era per SDXF-NB1006-2 quell’estinzione della componente ultravioletta che ci si sarebbe aspettato.
Ora MACS1149-JD1, oltre a spostare ancora più indietro nel tempo la presenza di ossigeno nell’Universo e di conseguenza la generazione stellare che l’ha creato, potrebbe contribuire a spiegare se la carenza di polveri era una caratteristica di quella lontana epoca oppure no.
Using the ESO’s SPHERE instrument at the Very Large Telescope, a team of astronomer observed the planetary disc surrounding the star RX J1615 which lies in the constellation of Scorpius, 600 light-years from Earth. The observations show a complex system of concentric rings surrounding the young star, forming a shape resembling a titanic version of the rings that encircle Saturn. Such an intricate sculpting of rings in a protoplanetary disc has only been imaged a handful of times before. The central part of the image appears dark because SPHERE blocks out the light from the brilliant central star to reveal the much fainter structures surrounding it.
Se poteste tornare alla lontana epoca della formazione del Sistema Solare, quasi 5 miliardi di anni fa, ecco cosa vedreste.
Questo è quello che invece vediamo noi oggi, qui sulla Terra, guardando verso WRAY 15-1443[10], una giovanissima (5-27 milioni di anni) stellina di classe K5 distante circa 600 anni luce. Essa è parte di un filamento di materia nebulare nelle costellazioni australi del Lupo e lo Scorpione insieme a decine di altre stelline altrettanto giovani. È il medesimo scenario che vide la nascita del nostro Sole.
Noi vediamo il disco protoplanetario ancora come è durante la formazione dei pianeti e prima che i venti stellari della fase T Tauri lo spazzassero via, È un disco caldissimo e denso, con una consistenza è una plasticità più simili alla melassa che alla polvere che siamo soliti vedere qui sulla Terra. Qui le onde di pressione e i fenomeni acustici giocano un ruolo fondamentale nella nascita dei protopianeti creando zone di più alta densità e altre più povere di materia. E questa immagine ce lo dimostra chiaramente.
Lo strumento di cattura della luce polarizzata ad alto contrasto SPHERE.
Credit: ESO
Se oggi quindi possiamo ben osservare i primi istanti della formazione di un sistema solare questo lo dobbiamo a SPHERE (Spectro-Polarimetric High-contrast Exoplanet REsearch instrument) [11][12]: uno strumento concepito proprio per catturare l’immagine degli esopianeti e dei dischi protoplanetari come questo.
L’ostacolo principale per osservare direttamente un esopianeta lontano è che la luce della sua stella è così forte che sovrasta nettamente la luce riflessa di questo: un po’ come cercare di vedere una falena che vola intorno a un lampione da decine di chilometri di distanza. Lo SPHERE usa un coronografo per bloccare la regione centrale della stella per ridurne il bagliore, lo stesso principio per cui ci pariamo gli occhi dalla luce più intensa per scrutare meglio. E per restare nell’ambito degli esempi, quando indossiamo un paio di lenti polarizzate per guidare o andare sulla neve, lo facciamo perché ogni luce riflessa ha un suo piano di polarizzazione ben definito e solo quello; eliminandolo con gli occhiali questo non può più crearci fastidio. Ma SPHERE usa questo principio fisico al contrario: esalta la luce polarizzata su un piano specifico e solo quella, consentendoci così di vedere particolari che altrimenti non potremmo mai vedere.
Lo strumento per il rilevamento delle velocità radiali HARPS.
Credit: ESO
Oggi grazie a SPHERE e al team che l’ha ideato e costruito la ricerca astrofisica europea può vantare anche questo tipo di osservazioni che si sarebbe supposto essere di dominio della sola astronomia spaziale. E invece strumenti come HARPS[13] e HARPS-N alle Canarie consentono di scoprire sempre nuovi pianeti extrasolari, e ora SPERE ci aiuta a vederne pure alcuni.
Il 17 agosto del 2017 è uno spartiacque nella storia dell’astronomia, ma soprattutto della cosmologia. È un momento che potremmo paragonare alla scoperta dell’inconsistenza della teoria dell’Etere Luminifero o quella della fine dell’universo statico sia nel tempo che nello spazio. Ma comunque, è ingiusto adesso pensare che l’aver speso tempo ed energie a studiare e proporre teorie della gravitazione che andassero al di la della Relatività Generale sia stato inutile. In fondo anche l’opera di Einstein appariva inutile visto che già c’era la Teoria di Gravitazione di Newton e che pareva funzionare quasi alla perfezione. Il tempo speso a meditare cose nuove o a vedere cose vecchie con spirito nuovo non è tempo buttato ma il sale della scienza.
E a chi afferma che di scienza si debbano occupare esclusivamente gli accademici, vorrei ricordare Milton Humason, collaboratore di Edwin Hubble e che insieme al celebre astronomo scoprì l’espansione dell’Universo, frequentò la scuola fino a 14 anni; Michael Faraday, uno dei padri dell’elettromagnetismo, era nato poverissimo e divenne garzone di bottega a 13 anni, fino a che a 23 anni non divenne assistente e cameriere di un professore di chimica: Sir Humphry Davy. E potrei continuare all’infinito: Guglielmo Marconi era un autodidatta, proprio come me; Konstantin Ciolkovski, uno dei padri del volo coi razzi, anche lui era un autodidatta.
La scienza non è di nessuno, è di tutta l’umanità e soprattutto, non ha caste.
La prima e indubbiamente più eclatante previsione della Relatività Generale di Einstein fu quella relativa alla deviazione della luce delle stelle in presenza di oggetti dalla massa così enorme da piegare letteralmente lo spazio.
La conferma del fenomeno la fornì nel 1920 l’astronomo inglese Sir Arthur Eddington quando pubblicò i risultati delle sue osservazioni svolte durante l’eclissi totale di Sole del 1919. Qui è la distorsione dello spazio-tempo causata da una grande massa a flettere il percorso di un raggio luminoso. È il principio su cui si basano le lenti gravitazionali che ci consentono di veder le altre galassie dietro alla linea di vista di una galassia più vicina.
L’effetto Shapiro
Ma non di meno, una distorsione dello spazio-tempo causata da una massa ha anche un altro importante, e soprattutto misurabile, effetto: un ritardo temporale, conosciuto come effetto Shapiro [14].
Quando un segnale luminoso (ad esempio un segnale radar) passa vicino ad una massa importante impiega un po ‘più di tempo per colpire il bersaglio e tornare indietro rispetto a quando la suddetta massa non è presente. Tale ritardo di tempo è prodotto dalla distorsione dello spazio che aumenta la lunghezza fisica del percorso. Questo non è l’effetto della dilatazione temporale dovuta al pozzo gravitazionale (redshift gravitazionale) e anche se spesso i due effetti sono confusi fra loro, è proprio un’altra cosa [15].
Una delle prime immagini di Doppler di Venere fatta con un interferometro radar, le antenne Haystack e Westford in tandem, nel 1967. Sono riconoscibili le regioni Alpha e Beta, e la complessità di quest’ultima. Tener conto dell’effetto Shapiro è stato fondamentale per ottenere questo risultato. Credit: Alan EE Rogers.
Quando negli anni ’60 furono esplorati gli altri pianeti come Venere e Mercurio coi radar dalla Terra, fu assai importante tenere conto dell’effetto Shapiro per ottenere le prime immagini del suolo di quei pianeti: il ritardo del segnale radio causato dalla massa del Sole era sì piccolo, appena 200 microsecondi per Venere, ma importante.
Lo stesso discorso vale per ogni altro segnale luminoso che viaggia nell’Universo. Se idealmente depurassimo ogni segnale luminoso dai redshift gravitazionali, i moti intrinseci dovuti dalla sorgente e dall’osservatore e da quello dell’espansione universale, quel che rimane è il ritardo temporale causato dall’effetto Shapiro, che è espressione indiretta delle distorsioni dello spazio causate da tutta la massa cosmologica presente tra la sorgente e l’osservatore. La massa cosmologica in questo caso è intesa essere la somma della massa barionica più il contributo della materia oscura, rilevabile esclusivamente dalla distorsione della metrica spazio-tempo. La certezza che la distorsione dello spazio-tempo sia dovuta a entrambe le due componenti viene dalle analisi del confronto delle radiazioni elettromagnetiche e il flusso di neutrini rilevato nell’occasione della supernova SN1987A [16] e altri studi sulle pulsar millisecondo [cite]https://arxiv.org/abs/1210.1167[/cite].
Ma torniamo per un attimo al magico anno 1915. Fino a quel momento si era pensato alla gravità come una forza che agisce istantaneamente tra due corpi [17]. Se il Sole fosse misteriosamente scomparso dal Sistema Solare, i pianeti avrebbero immediatamente preso a girovagare nello spazio per la tangente, in virtù del principio di conservazione della quantità di moto. Per la Relatività invece, la gravità è concepita come una distorsione dello spazio-tempo: l’orbita di un corpo appare ellittica perché lo spazio in cui esso si muove è curvo. Nel tal caso i pianeti avrebbero continuato a percorrere le loro orbite finché lo spazio-tempo per loro non si fosse disteso: per esempio per la Terra questo accadrebbe dopo soli 500 secondi, per Giove dopo 43 minuti. Questo perché le le distorsioni nella metrica dello spazio, come lo sono anche le onde gravitazionali, si muovono alla velocità della luce [1. La simmetria di Lorentz implica che tutto ciò che non è dotato di massa si propaghi nel vuoto alla velocità della luce e questo vale anche per le onde. Tuttavia quando un mezzo è presente, questa simmetria viene violata spontaneamente e anche le velocità di propagazione possono essere diverse. Pertanto, in virtù di questo principio, nella Relatività Generale ogni alterazione dello spazio-tempo viaggia — nel vuoto — alla massima velocità possibile per un’onda priva di massa: la velocità della luce \(c\). ] e che quindi risentono della presenza di tutto ciò che può alterare lo spazio, ossia di tutta la materia ordinaria e di quella che oggi etichettiamo come materia oscura.
Le teorie MOND
Le teorie MOND sono una classe di teorie che tentano di spiegare la curva di velocità delle galassie assumendo che le Leggi di Newton non siano corrette se interpretate su scala galattica.
Ogni tentativo di conciliare la Relatività Generale con la Meccanica Quantistica è finora sempre fallito. È però apparso evidente fin da subito che una Teoria del Tutto avrebbe richiesto di passare per una riscrittura del concetto di gravità, che per la Relatività Generale è intesa come una distorsione nella metrica spazio-tempo piuttosto che come particella. Negli anni sono state tentate vie come la Teoria delle Stringhe, le Teorie M-Brane, suggerito nuove forze intese come tensori metrici che modificano la geometria dello spazio-tempo su scala cosmologica e dimensioni extra nel tentativo di spiegare certe anomalie che apparivano dai dati raccolti da nuovi e sempre più raffinati strumenti e da nuove scoperte riguardanti concetti come la Materia Oscura [18], l’Inflazione post Big Bang e l’Energia Oscura 1.
Però intanto anche i test finora proposti hanno sempre mostrato che la Relatività Generale non è affatto facile da sostituire. L’unica soluzione possibile pare essere quella in cui il formalismo della Relatività Generale appare come caso speciale in un nuovo schema più fondamentale della Gravità allo stesso modo in cui il formalismo della Gravità di Newton appare all’interno della Relatività Generale.
Le teorie che tentano di spiegare la piattezza delle curve di rotazione delle galassie senza ricorrere a nuove forme di materia esotica sono conosciute come Teorie MOND(MOdified Newtonian Dynamics), dette anche emulatori di materia oscura. Per questa classe di teorie sono le leggi della gravitazione di Newton (e quindi per estensione anche la Relatività Generale) a essere in errore quando si tratta di piccolissime accelerazioni su scala galattica e comunque molto al di sotto di quello che oggi possiamo sperimentare all’interno del Sistema Solare.
La rivoluzione delle onde gravitazionali
Per le Teorie MOND le onde gravitazionali (in viola) percorrerebbero geodetiche molto diverse rispetto alla loro controparte elettromagnetica (in giallo) in quanto l’effetto Shapiro è molto diverso. Credit: Il Poliedrico
Il 17 agosto scorso la scoperta del primo segnale gravitazionale associato a un evento visibile (GRB 170817A), una kilonova 2 fu una scoperta grandiosa. Essa permise di misurare esattamente l’intervallo tra due tipi molto diversi di emissioni dello stesso evento: l’onda gravitazionale e l’impulso gamma scaturiti entrambi dalla coalescenza di una coppia di stelle di neutroni. Il dato fu molto interessante:1,74 secondi tra l’arrivo del treno di onde gravitazionali e il primo impulso elettromagnetico gamma.
Un niente se paragonato alla scala della distanza percorsa, 130 milioni di anni luce. Inoltre la differenza temporale tra i due eventi non ha in sé niente di trascendentale; anzi. Le onde gravitazionali hanno avuto origine pochissimi istanti prima della coalescenza delle due stelle di neutroni, quando cioè i due oggetti stavano cadendo l’uno sull’altro nella loro danza cosmica sempre più vorticosa. L’impulso gamma invece si è generato al contatto, quando cioè i due oggetti sono diventati uno solo. Ecco spiegato il ritardo tra i due impulsi: il GW170817 e il GRB170817A. Questo ci dice che entrambi gli impulsi hanno percorso i 130 milioni di anni luce alla medesima velocità.
Per la Relatività Generale, sia le onde gravitazionali che le elettromagnetiche percorrono le stesse geodetiche, ossia affrontano lo stesso percorso attraverso lo spazio-tempo. Per le teorie MOND invece le geodetiche percorse dai due tipi di onde sarebbero state molto diverse. Questo avverrebbe perché per loro la forza gravitazionale è intesa agire in modo assai diverso, essendo per questa classe di teorie la curvatura di potenziale gravitazionale dovuta esclusivamente dalla materia barionica ordinaria, lasciando tutto il resto alla reinterpretazione della gravitazione. In altre parole in base alla loro interpretazione, non essendo più la gravità una costante, di conseguenza finirebbe per non esserlo neppure il percorso delle onde gravitazionali rispetto alla luce. Pertanto se fossero state in qualche modo vere le basi delle teorie MOND avremmo dovuto registrare l’arrivo delle onde gravitazionali dell’evento GW170817 centinaia di giorni prima dell’evento elettromagnetico GRB170817A (e ovviamente a questo punto anche gli eventi avrebbero avuto nomi diversi).
Con l’aver registrato la sostanziale contemporaneità dell’evento gravitazionale con quello elettromagnetico si ottiene un altro punto fermo a cui ogni altra teoria alternativa o successiva alla Relatività Generale — ad esempio una Teoria del Tutto — deve per forza soggiacere per essere coerente con l’Universo che osserviamo. Di fatto questa osservazione contraddice in pratica ogni teoria che cerca di spiegare gli effetti che oggi attribuiamo alla materia oscura con una modifica delle leggi di gravitazione. Ma non solo. Anche ogni altro tentativo di spiegazione dei fenomeni che oggi osserviamo e i modi con cui tentiamo di spiegare l’Universo e come esso è nato, dovranno tener conto anche di questo importante paletto.
No, una kilonova non è è una nova che si vende al mercato un tanto al chilo come si fa con le aringhe. E neppure è una miniera d’oro come alcuni roboanti titoli delle scorse ore, quelle seguenti l’annuncio della scoperta della prima controparte ottica di una sorgente di onde gravitazionali — anche questo è un termine alquanto impreciso in quanto tutti gli oggetti dotati di una grande massa che si muovono nello spazio in qualche modo lo sono — hanno cercato di sottolineare. È un altro tipo dei tanti eventi violenti dell’Universo, ma solo un migliaio di volte, da qui il nome appunto di kilonova, di una nova comune.
Rappresentazione artistica dei resti di una kilonova. In giallo il nome di alcuni degli elementi prodotti dalla sintesi per cattura neutronica veloce che popolano la nebulosa finale. Tra parentesi il loro numero atomico. Credit: Il Poliedrico
L’Universo è una fonte inesauribile di meraviglie e di cose altrettanto grandiose. Dal pacato vuoto intergalattico alle possenti forze di un buco nero, dal flebile canto dell’atomo di idrogeno al cozzare di galassie in un balletto che dura milioni di anni. E in mezzo a tutto questo ci sono miriadi di fenomeni che ancora ci sono per la gran parte ignoti e che soltanto negli ultimi anni con l’avvento delle tecnologie radio e satellitari abbiamo imparato a vedere.
Ora alla pletora di strumenti che usiamo per scrutare il cosmo se n’è aggiunto un altro: l’interferometria gravitazionale. Per ora sono soltanto tre strumenti, due negli USA, a Hanford, Washington, e a Livingston, Louisiana che formano il complesso interferometrico LIGO, e l’altro è Virgo, a Cascina (PI), frutto di una collaborazione italo-francese (ad appena 83 chilometri da dove sono ora).
Un po’ di storia
Ma partiamo dall’inizio, come piace a me.
I primi evidenti segni che qualcosa ancora mancava al quadro generale dell’Universo, era che nonostante fosse stato compreso come si formassero gli elementi più pesanti dell’idrogeno — quelli che gli astrofisici apostrofano come metalli: carbonio, ossigeno, ferro, uranio, etc. — [19] era comunque difficile comprendere le quantità relative di alcuni elementi più pesanti del ferro che, come ho narrato nello scorso articolo sulle supernove [20], non sono prodotti dalla normale attività di fusione nucleare di una stella ma per cattura neutronica quando questa esplode 1. Doveva esserci quindi qualche altro processo cosmico ancora sconosciuto che ricorresse alla cattura neutronica veloce (r-process) al di fuori delle supernove comuni per giustificarne le quantità osservate.
Intanto si erano scoperti anche i lampi di raggi gamma (Gamma Ray Burst o GRB), i più violenti fenomeni dell’intero Universo, capaci di sterilizzare interi mondi a una distanza di migliaia di anni luce [21].
Si è scoperto che questi eventi, che di solito durano da qualche secondo a qualche minuto mentre la loro energia luminosa decade verso frequenze più basse come raggi X, ultravioletto, visibile, etc., sono di solito associati a eventi di supernova mentre questa decade verso una stella di neutroni o un buco nero. I precursori più probabili per emettere un lampo gamma finale sono le stelle molto massicce come le Wolf-Rayet: \(\eta\) Carinae e WR 104 sono le nostre più vicine (entrambe tra i 7500 e gli 8200 anni luce, per nostra fortuna).
Ma ci sono anche GRB molto più rapidi, dell’ordine di un paio di secondi o meno. Questi sono difficili da spiegare con lo stesso meccanismo delle supernove, eppure sono capaci di rilasciare lo stesso energia sulla scala delle loro galassie ospiti nell’arco di pochissimi secondi. Una plausibile spiegazione a questi fenomeni parossistici arrivò nel 2007 coi lavori di Benjamin P. Abbott del LIGO – Caltech [cite]https://arxiv.org/abs/0709.0766[/cite] che ipotizzò essere generati dalla fusione di due stelle di neutroni o tra una stella di neutroni e un buco nero.
Kilonova
Queste immagini furono scattate dal NASA Hubble Space Telescope il 13 giugno e poi il 3 luglio 2013 e rivelano un nuovo tipo di esplosione stellare prodotta dalla fusione di due oggetti compatti: due stelle di neutroni o una stella di neutroni e un buco nero. Credit: NASA, ESA, N. Tanvir (Università di Leicester) e A. Fruchter, Z. Levay (Space Telescope Science Institute), A. Levan (Università di Warwick)
Una teoria interessante che trovò la prima conferma quando il 3 giugno del 2013 il telescopio per raggi gamma Swift intercettò un evento che durò poco meno di due secondi proveniente da una galassia a 4 miliardi di anni luce, GRB130603B. In seguito, il 13 giugno, l’Hubble Telescope registrò nello stesso posto una sorgente infrarossa in decadimento. L’analisi spettrale della sorgente mostrava una inusuale abbondanza di elementi chimici più pesanti del ferro tipici di un processo di cattura neutronica rapida r-process2 rispetto agli altri spettri usuali di supernova.
Quando due stelle di neutroni finiscono per fondersi parte della loro energia cinetica si disperde sotto forma di increspature dello spazio-tempo, ossia onde gravitazionali allo stesso modo del merging di due buchi neri come già VIGO era riuscito a rilevare in passato e a quelle rilevate col GW170817 [22]. Un’altra parte invece viene assorbita dai due oggetti che sì disintegrano disperdendo così una buona parte della loro massa. È qui, nel materiale espulso che avvengono le reazioni di cattura neutronica: in pratica un immenso guscio di neutroni ancora ad altissima densità e temperatura (\(\rho\) > 3 x1011 gm/cm3 e T > 9×109 K) in cui le reazioni di nucleogenesi fino ad allora inibite dalla possente gravità delle precedenti stelle di neutroni riprendono vigore [cite]https://arxiv.org/abs/1105.2453[/cite].
In una kilonova quindi il processo di nucleogenesi per cattura neutronica rapida pare essere la principale reazione nucleare presente. Tale reazione consente la formazione di nuovi elementi più pesanti del ferro, ed è pertanto una reazione che assorbe energia dal sistema (reazione endotermica), raffreddandolo. Per questo appare debole come flusso elettromagnetico, da un decimo a un centesimo rispetto a una normale supernova; una parte assai importante dell’energia viene assorbita dalla creazione di elementi pesanti attraverso l’unico processo possibile: la cattura nucleare di altri neutroni. Il raffreddamento del materiale eiettato aumenta in modo drammatico l’opacità dell stesso spostando di conseguenza l’emissione radiativa principale verso frequenze sempre più basse piuttosto in fretta. Per questo l’Hubble Telescope non poté che registrare che il 3 luglio 2013, dopo appena un mese dal lampo gamma GRB130603B, l’evento era quasi scomparso anche dalla banda dell’infrarosso.
Il processo-r
Il reazioni di nucleogenesi per cattura neutronica rapida che danno origine a nuclei atomici più pesanti del ferro (u > 55) sono endotermiche, assorbono cioè energia all’ambiente dove avvengono. In una supernova esse sono responsabili della perdita di equilibrio della stella che finisce così per esplodere. Dal momento dell’esplosione, la densità neutronica della stella decresce rapidamente così che queste reazioni cessano abbastanza in fretta. Inoltre i processi di fotodisintegrazione causati dai fotoni più energetici che colpiscono i nuclei più instabili estinguono la produzione di atomi pesanti altrettanto rapidamente.
Nel caso di fusione di due stelle di neutroni invece la densità energetica dei fotoni è alquanto minore mentre la densità dei neutroni liberati nell’evento è molto più grande rispetto a un normale evento di supernova di tipo II (T ≥ 1,2 x 109 K e nn > 1 x 1022 cm-3). Qui processi di cattura neutronica sono molto più importanti e anche il decadimento beta che spinge i nuclei più instabili verso la formazione di atomi più stabili ha più tempo per prodursi prima che intervengano i processi di fotodisintegrazione.
La sottrazione di energia dal sistema è anch’essa molto importante perché pone un limite minimo al di sotto del quale comunque le reazioni di cattura neutronica cessano. Una volta cessata la produzione di nuclidi instabili ricchi di neutroni, è il decadimento radioattivo di questi a dominare la scena della nebulosa creatasi dopo il merging dei due corpi originali.
Conclusioni
L’ultimo evento scoperto, GW170817 è il secondo caso ormai accertato di una kilonova. La rilevazione delle onde gravitazionali prodotte durante l’evento di coalescenza fissa drammaticamente un limite alle masse delle stelle di neutroni coinvolte e questo permette così di studiare più in dettaglio questo genere di fenomeni e le reazioni nucleari che lo governano.
Un altro importante traguardo è stata la stima della differente velocità delle onde gravitazionali rispetto alle onde elettromagnetiche su un percorso di ben 130 milioni di anni luce: 1,7 secondi a vantaggio delle prime. Dal punto di vista cosmologico questo è un grande risultato che spazza via tante teorie che puntavano a modificare la gravità pur di eliminare il problema della materia oscura. Ma questo potrà essere argomento di un’altra storia.
Come ho cercato di spiegare nelle puntate scorse dedicate ai buchi neri [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite], questi curiosi oggetti hanno diverse peculiarità uniche definibili solo matematicamente.
Sulla base della convinzione — corretta — che niente può viaggiare più veloce della luce si era supposto quindi che nulla potesse sfuggire da un buco nero. Tecnicamente è ancora corretto pensare questo, ma nel 1974 il cosmologo Stephen Hawking dimostrò che in realtà i buchi neri emettono una radiazione termica di corpo nero diversa da zero. Il ragionamento che è alla base di questa scoperta è che lo spazio non è mai esattamente vuoto ma ribolle di energia che si manifesta con la produzione spontanea di coppie di particelle e antiparticelle virtuali, ovvero che la loro esistenza è limitata dal Principio di Indeterminazione di Heisenberg [cite]https://ilpoliedrico.com/2016/07/zenone-olbers-lenergia-oscura-terza-parte.html[/cite].
Quando queste fluttuazioni del vuoto si manifestano in prossimità dell’orizzonte degli eventi di un buco nero può capitare che una coppia di particelle virtuali finisca oltre l’orizzonte (A nella figura); in tal caso l’equilibrio energetico complessivo del’universo e la massa/energia del buco nero non variano, come impone il Principio della Conservazione della massa/energia. Lo stesso ovviamente accade anche per le particelle virtuali che si annichiliscono spontaneamente nello spazio normale (scenario B nella figura). Ma può capitare che soltanto una di queste finisca oltre l’orizzonte degli eventi (vedi evento C); questo scenario potrebbe far da principio supporre che esso violi il postulato precedente in quanto la particella che riesce a non finire oltre l’orizzonte degli eventi diviene una particella reale, ma in realtà non è così. La particella che cade nel buco nero è l’antiparticella di quella che sfugge, ossia possiede alcuni numeri quantici opposti rispetto ad essa. Questo non viola il Principio di Conservazione della massa/energia perché il buco nero acquista una particella opposta al resto dell’universo e la somma totale dell’energia rimane invariata. Ma se adesso nell’universo c’è la massa/energia di una particella in più allora significa che il processo iniziale sottrae la medesima quantità di massa/energia al buco nero. Per un ideale osservatore lontano la nuova particella appare provenire dal buco nero, ma in realtà essa ha origine nello spazio normale appena oltre l’orizzonte degli eventi.
[fancybox url=”https://ilpoliedrico.com/le-grandezze-fisiche-dei-buchi-neri” ][/fancybox]Cliccando sull’immagine qui sopra vi si aprirà una finestra su cui potete sbizzarrirvi a studiare alcune delle bizzarre proprietà matematiche dei buchi neri.
Questa intuizione di Stephen Hawking, che ricordo ebbe origine anche dai lavori di due scienziati sovietici, Yakov Zeldovich e Alexei Starobinsky, che fin dagli inizi degli anni 70 del secolo scorso avevano ipotizzato la generazione di particelle attorno ai buchi neri rotanti (1973/74), dimostra che i buchi neri in effetti possano perdere massa tramite la radiazione che porta, appunto, il suo nome.
Quindi, in un certo senso i buchi neri non sono poi così neri. Il lavoro di Hawking ha spinto altri cosmologi a studiare più in dettaglio i buchi neri fino a postulare le loro leggi termodinamiche [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-la-termodinamica.html[/cite], il noto Principio Olografico e altre bizzarre proprietà che in queste pagine posso solo elencare solo parzialmente.
Giocando con i calcoli
Giostrando un po’ coi diversi parametri nella pagina che ho creato (è presente anche nel menù a discesa sotto la voce “Science”) si nota come i buchi neri siano ancora più strani di quel che si pensi.
Ad esempio, la temperatura di un buco nero, conseguenza della Radiazione di Hawking, è inversamente proporzionale alla sua massa ossia un buco nero piccolo irradia di più di uno di massa più grande.
L’attuale fondo di radiazione cosmica ha una temperatura di 2.72 kelvin; perché un buco nero sia termicamente rilevabile dovrebbe poter emettere a una temperatura appena superiore. Ma i numeri sono impietosi: un siffatto buco nero sarebbe grande appena 67μm, circa quanto lo spessore di un capello umano, e quindi — almeno con gli strumenti attuali — impossibile da rilevare direttamente.
Un buco nero capace di emettere alla stessa temperatura del Sole, ovvero 5778 kelvin, sarebbe grande appena 30 nanometri, quanto cioè la giunzione di un transistor in un processore di qualche anno fa. Avrebbe ancora una vita molto lunga prima di evaporare, circa 2,5 x 1034 anni, comunque moltissime volte di più dell’età attuale dell’Universo.
Magari una civiltà avanzatissima potrebbe essere in grado di imbrigliare un micro buco nero ed avere così una fonte virtualmente infinita di energia.
Non voglio levarvi il divertimento di provare a fare nuove speculazioni con le cifre che si possono ricavare dalla tabella. Anzi vi invito a farlo e poi a condividerle nei commenti.
Cieli sereni
I buchi neri sono un argomento molto complesso. Per descriverli compiutamente e raccontare del loro impatto sugli studi del cosmo non basterebbe una enciclopedia, figuriamoci le poche pagine di un blog. Parafrasando la celebre frase — forse apocrifa anch’essa come la celebre mela di Newton — del grande Galileo: “Eppur ci provo” …
[vrview img=”https://ilpoliedrico.com/wp-content/uploads/2017/03/p02rz7hw.png” stereo=”false”] Volete fare un viaggio in prossimità dell’orizzonte degli eventi? Ecco una plausibile simulazione. Cliccate sulla figurina in basso a destra.
Senza ombra di dubbio i buchi neri sono tra gli oggetti astrofisici più noti e studiati nel dettaglio. Nessuno ha mai realmente visto un buco nero, ma grazie alla Relatività Generale se ne conoscono talmente bene gli effetti che esso ha sul tessuto dello spazio-tempo circostante che oggi è possibile cercare nel Cosmo i segni della loro presenza e descriverli graficamente.
Dai nuclei delle galassie AGN fino ai resti di stelle massicce collassate e ancora più giù fino agli ipotetici micro buchi neri formatisi col Big Bang, si può dire che non c’è quasi limite alle dimensioni che questi oggetti possono raggiungere [cite]https://arxiv.org/abs/astro-ph/9605152[/cite].
Il Principio Olografico
L’entropia (misura dell’informazione nascosta) di un buco nero, misurata in bit, è proporzionale all’area del suo orizzonte degli eventi misurata in unità di Planck
Jacob Bekenstein
Per comprendere l’interpretazione olografica dell’orizzonte degli eventi di un buco nero, occorre prima ripetere ciò che avevo accennato nella scorsa puntata, ossia se un buco nero distrugga o meno l’informazione riguardante tutto ciò che finisce oltre il suo orizzonte degli eventi — ricordo che questo è più un concetto matematico più che un oggetto tangibile.
Secondo Shannon i concetti di entropia e di informazione si equivalgono e, come anche Leonard Susskind ha ribadito, l’entropia non è altro che la misura delle informazioni nascoste, cioè quelle che a noi non sono note. Se infatti le conoscessimo potremmo ricostruire l’evento che le ha generate, come ad esempio possiamo risalire alla massa, traiettoria ed energia di una particella coinvolta in una collisione in una camera a bolle semplicemente ripercorrendo a ritroso la storia degli eventi che essa ha scatenato.
Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell’informazione perduta dentro un buco nero. Qui per l’osservatore A l’astronauta varcherebbe l’orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell’orizzonte degli eventi. Invece per l’osservatore B oltre l’orizzonte o per lo stesso astronauta l’attraversamento dell’orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.
Come ho cercato di spiegare nelle precedenti puntate tutta l’entropia — o informazione nascosta equivalente — di un buco nero può solo risiedere sulla superficie degli eventi come microstati — o bit — grandi quanto il quadrato della più piccola unità di misura naturale, ossia la lunghezza di Plank 1. Questo significa che tutta l’informazione di tutto ciò che è, od è finito, oltre l’orizzonte degli eventi, è nascosta nella trama dell’orizzonte degli eventi stesso. Potessimo interpretare compiutamente questa informazione, idealmente potremmo risalire alla sua natura.
In base a questa interpretazione tutto ciò che è contenuto in una data regione di spazio può essere descritto dall’informazione confinata sul limite della stessa, così come la mia mano è descritta da ciò che di essa percepisco dalla superficie dello spazio che occupa.
In pratica quindi l’informazione tridimensionale di un qualsiasi oggetto è contenuta su una superficie bidimensionale, che nel caso dei buchi neri, è rappresentata dall’orizzonte degli eventi 2.
L’analogia col fenomeno a noi più familiare è quella dell’ologramma, dove tutte le informazioni spaziali riguardanti un oggetto tridimensionale qualsiasi sono impresse su una superficie bidimensionale. Osservando l’ologramma noi effettivamente percepiamo le tre dimensioni spaziali, possiamo ruotare l’immagine, osservarla da ogni sua parte etc., ma essa comunque trae origine dalle informazioni impresse su una superficie bidimensionale; la terza dimensione percepita emerge3 dalla combinazione di tutte le informazioni lì racchiuse.
Conclusioni
Il Principio Olografico è questo: un modello matematico che tenta di conciliare la Termodinamica e la meccanica della Relatività Generale dei buchi neri, due leggi che finora si sono dimostrate universalmente esatte e che nel caso specifico dei buchi neri sembrano violarsi.
Questo modello è reso ancora più intrigante per le sue particolari previsioni teoriche: dalla validità della Teoria delle Stringhe alla Super Gravità Quantistica passando per le teorie MOND (Modified Newtonian Dynamics) che potrebbero addirittura dimostrare l’inesistenza della materia e dell’energia oscure.
Addirittura il Principio Olografico potrebbe essere usato per suggerire che l’intero nostro Universo è in realtà un buco nero provocato dal collasso di una stella di un superiore universo a cinque dimensioni, ci sono studi al riguardo [cite]https://www.scientificamerican.com/article/information-in-the-holographic-univ/[/cite] [cite]https://arxiv.org/abs/1309.1487[/cite].
Cercherò in futuro di trattare questi argomenti, sono molto intriganti.
Può suonare strano a dirsi, ma tutta l’energia che vediamo e che muove l’Universo, dalla rotazione delle galassie ai quasar, dalle stelle alle cellule di tutti gli esseri viventi e perfino quella immagazzinata nelle pile del vostro gadget elettronico preferito è nato col Big Bang. È solo questione di diluizioni, concentrazioni e trasformazioni di energia. Sì, trasformazioni; l’energia può essere trasformata da una forma all’altra con estrema facilità. La scienza che studia tali trasformazioni è la termodinamica. Per trasformarsi l’energia ha bisogno di differenza di potenziale, ossia una maggior concentrazione contrapposta a una minore concentrazione nella stessa forma. L’entropia non è altro che la misura della capacità che ha l’energia di decadere compiendo un lavoro fino a raggiungere di uno stato di equilibrio.
[virtual_slide_box id=”11″]
L’entropia statistica si fonda sulle probabilità delle posizioni delle molecole in uno spazio chiuso. Il II Principio della Termodinamica deriva dal fatto che le configurazioni ad alta entropia sono più probabili di quelle a bassa entropia.
L’esempio dei vasi comunicanti è un classico. Quando fra i due contenitori viene rimosso il tappo (blu), le molecole di un gas (rosse) saranno libere e si distribuiranno uniformemente in entrambi i contenitori compiendo un lavoro (il transito).
Quando la distribuzione sarà uniforme non potrà più esserci lavoro (equilibrio).
Nella termodinamica l’entropia è la misura delle capacità di un sistema fisico in grado di essere sede di trasformazioni spontanee. In altre parole essa indica la perdita di capacità a compiere un lavoro quando tali trasformazioni avvengono. Il valore dell’entropia cresce quando il sistema considerato man mano perde la capacità di compiere lavoro ed è massimo quando tutto il sistema è in condizioni di equilibrio.
La meccanica statistica ha poi reso lo stesso concetto, originariamente legato agli stati di non equilibrio di un sistema fisico chiuso, ancora più generale, associandolo anche alle probabilità degli stati — microstati 1 — in cui può trovarsi lo stesso sistema; da qui in poi si parla di grado di disordine di un sistema quale misura di indeterminazione, degrado o disordine di questo. Il classico esempio dei vasi comunicanti aiuta senz’altro a capire questo poi banale concetto. Ne potete vedere un esempio illustrato qui accanto.
Il legame fra l’entropia statistica e la teoria dell’informazione lo si deve a Claude Shannon (il padre del termine bit e dell’uso della matematica binaria nei calcolatori) intorno agli anni quaranta del ‘900. Shannon notò che non c’era differenza tra il calcolo del livello di imprevedibilità di una sorgente di informazione e il calcolo dell’entropia di un sistema termodinamico. Per esempio, una sequenza come ‘sssss‘ possiede uno stato altamente ordinato, di bassa entropia termodinamica. Una sequenza come ‘sasso‘ ha un grado di complessità superiore e e trasporta più informazioni ma ha anche un po’ di entropia in più, mentre ‘slurp‘ dimostra un ancora più alto grado di complessità, di informazione e di entropia perché contiene tutte lettere diseguali; noi le diamo un significato, è vero, ma se dovessimo basarci solo sulla frequenza con cui appaiono le singole lettere in una parola composta da cinque di esse, questa possiede la stessa entropia di “srplu“, che per noi non ha senso e diremmo che essa è una parola disordinata o degradata.
Nell’informazione l’entropia definisce la quantità minima delle componenti fondamentali (bit) necessarie a descriverla, esattamente come i gradi di libertà descrivono lo stato di un sistema fisico. In altre parole essa indica la misura del grado di complessità di una informazione: una singola nota, un suono monotonale, possiede pochissima informazione, mentre la IX Sinfonia di Beethoven ne contiene molta di più. Però attenzione: il suono ricavato da mille radioline sintonizzate ognuna su una diversa stazione è sostanzialmente inintelligibile ma nel suo complesso contiene molta più informazione di quanta ne abbia mai scritta il celebre compositore in tutta la sua vita. Per poter ascoltare la IX Sinfonia trasmessa da una sola radio dovremmo spegnere tutti gli altri ricevitori o alzare il volume di quella radiolina fino a sovrastare il rumore proveniente dalle altre, ossia compiere un lavoro o iniettare energia dall’esterno.
La termodinamica dei buchi neri
Le tre leggi della termodinamica dei buchi neri Come per la termodinamica classica anche quella dei buchi neri ha le sue leggi non meno importanti. L’analogia tra i due insiemi di assiomi indica anche la strada da seguire per comprendere il bizzarro fenomeno. Legge zero della termodinamica dei buchi neri Per un buco nero stazionario la gravità all’orizzonte degli eventi è costante. Questo sembra un concetto banale ma non lo è. Per qualsiasi corpo in rotazione su un asse anche se di forma perfettamente sferica la gravità non è costante alla sua superficie: ce ne sarà un po’ di più ai poli e un po’ meno al suo equatore. Questo principio ricorda che l’orizzonte degli eventi invece è un limite matematico dettato esclusivamente dall’equilibrio tra la gravità e la velocità della luce. Prima legge della termodinamica dei buchi neri Nei buchi neri stazionari ogni variazione o apporto di energia comporta una modifica della sua area: $$d M={\frac{\kappa}{8\pi}}\,d A_{OE}\,+\,\Omega d J\,+\,\Phi d Q\,$$ I buchi neri sono descritti da solo tre parametri: la massa \(M\) , la carica elettrica \(Q\) e momento angolare \(J\) . Come nell’esempio nell’articolo è quindi possibile calcolare quanto varia l’area di un buco nero in cui una quantità di materia/energia diversa da zero cade oltre l’orizzonte degli eventi. Tralasciando le note costanti naturali \(G\) e \(c\), \(\kappa\) indica la gravità superficiale all’orizzonte degli eventi, \(A_{OE}\) l’area di questo, mentre \(\Omega\) la velocità angolare, \(J\) il momento angolare, \(\Phi\) il potenziale elettrostatico, \(Q\) la carica elettrica sono propri del buco nero all’orizzonte degli eventi. Questo complesso schema matematico è molto simile alla descrizione del Primo Principio Termodinamico dove si scopre che il differenziale energetico \(E\) è correlato alla temperatura \(T\), all’entropia \(S\) e alla capacità di svolgere un lavoro \(W\) in un sistema chiuso: $$dE=TdS\,+\,dW$$ Seconda legge della termodinamica dei buchi neri La somma dell’entropia ordinaria esterna al buco nero con l’entropia totale di un buco nero aumenta nel tempo come conseguenza delle trasformazioni generiche di questo: $$\Delta S_{o}\,+\,\Delta S_{BN}\,\geq\,0$$ Il Secondo Principio Termodinamico richiede che l’entropia di un sistema chiuso debba sempre aumentare come conseguenza di trasformazioni generiche. Se un sistema ordinario cade in un buco nero, la sua’entropia \(S_{o}\) diventa invisibile ad un osservatore esterno ma con questa interpretazione si esige che l’aumento dell’entropia del buco nero \(S_{BN}\) compensi la scomparsa di entropia ordinaria dal resto dell’universo. Con la scoperta della radiazione di Hawking è anche evidente il decremento della massa di un buco nero che essa comporta. Di conseguenza ci si dovrebbe aspettare che anche l’entropia connessa alla sua area diminuisca. Con questa interpretazione (Bekenstein, 1973) si tiene conto anche del fenomeno di evaporazione. Terza legge della termodinamica dei buchi neri È impossibile annullare la gravità dell’orizzonte degli eventi con qualsiasi processo fisico. Il Terzo Principio Termodinamico afferma che è fisicamente impossibile raggiungere una temperatura nulla tramite qualsiasi processo fisico. Applicato ai buchi neri questa legge mostra come sia impossibile raggiungere una gravità nulla all’orizzonte degli eventi di un buco nero. In linea di principio aumentando la carica elettrica di un buco nero, sarebbe possibile cancellare l’orizzonte degli eventi e mostrare così finalmente la singolarità nuda. Tuttavia, l’energia che dovremmo iniettare nel buco nero sotto forma di particelle cariche sarebbe sempre più grande tanto più ci si avvicinasse al risultato senza mai poterlo raggiungere.
Un buco nero è causato dal collasso della materia o, per l’equivalenza tra materia ed energia, dalla radiazione, entrambi i quali possiedono un certo grado di entropia. Tuttavia, l’interno del buco nero e il suo contenuto non sono visibili ad un osservatore esterno. Questo significa che non è possibile misurare l’entropia dell’interno del buco nero.
Nell’articolo precedente [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite] ho detto che un buco nero stazionario è parametrizzato unicamente dalla sua massa, carica elettrica e momento angolare. Secondo il No Hair Theorem tutto ciò che scompare oltre l’orizzonte degli eventi viene totalmente sottratto all’universo. Quello che potremmo percepire di un buco nero sono la sua massa, carica elettrica e momento angolare; pertanto le medesime proprietà possedute da un oggetto inghiottito da un buco nero verrebbero a sommarsi con le precedenti, contribuendo così alla loro espressione complessiva. In soldoni — trascurando per un attimo la sua carica elettrica e il momento angolare — un oggetto di massa \(m\) andrebbe a sommarsi a \(M_{BN}\) del buco nero, cosi che \(M_{BN}’\) finirebbe per essere \(m+M_{BN}\) facendo crescere anche la dimensione dell’orizzonte degli eventi.
Ma secondo questa interpretazione, null’altro rimarrebbe dell’oggetto finito oltre l’orizzonte degli eventi, la sua entropia andrebbe perduta per sempre. Questa interpretazione — come fece notare per primo Bekenstein — cozza però col Secondo Principio della Termodinamica che afferma che il grado di disordine – entropia – di un sistema chiuso — l’Universo è un sistema chiuso — può solo aumentare. Quindi qualsiasi cosa, materia o energia, che finisse oltre l’orizzonte degli eventi di un buco nero finirebbe per sottrarre entropia all’universo, e questo è inaccettabile.
L’unico modo per non contraddire questa legge fondamentale 2 è assumere che anche i buchi neri abbiano un’entropia.
Questa come si è visto dipende dalla massa/energia che cade in un buco nero e che va a sommarsi alla precedente, e, visto che per l’interpretazione classica niente può uscire da un buco nero, non può che aumentare col tempo. Ma anche le altre due proprietà, carica elettrica e momento angolare, contribuiscono nella loro misura a descrivere compiutamente un buco nero. Per ogni combinazione di questi tre parametri si possono perciò teorizzare altrettanti stati diversi riguardo ad esso; quello che ne esce è un concetto molto simile all’entropia legata ai possibili microstati della termodinamica statistica. L’entropia, ossia l’informazione di questi microstati, è pertanto distribuita sull’unica parte accessibile all’universo, la superficie dell’area dell’orizzonte degli eventi.
In natura la più piccola unità dimensionale di superficie è l’Area di Planck, quindi è naturale esprimere l’entropia di un buco nero in questa scala. Per descrivere matematicamente l’entropia \(S\) 3 di un buco nero di Schwarzschild partendo dall’area dell’orizzonte degli eventi \(A_{O E}\), allora dovremmo scrivere $$\tag{1}S_{buco nero}={A_{O E}\over 4 L_{P}^2}={c^3 A_{O E}\over 4 G \hbar}$$ dove \(L_{P}\) è la lunghezza di Plank, \(G\) è la Costante di Gravitazione Universale, \(\hbar\) la costante di Plank ridotta e \(c\) ovviamente la velocità della luce, sapendo che la suddetta area è condizionata unicamente dalla massa del buco nero $$\tag{2}A_{O E}=16\pi \frac{G^2M_{BN}^2}{c^4}$$.
Facciamo ad esempio l’ipotesi, che poi servirà in futuro per illustrare il Principio Olografico e che si rifà anche direttamente alla Prima Legge della Termodinamica dei Buchi Neri (vedi box qui accanto), di un fotone avente una lunghezza d’onda \(\lambda\) — la lunghezza d’onda di un fotone è inversamente proporzionale alla sua energia — che cade in un buco nero di massa \(M_{BN}\) e di conseguenza di raggio \(r_{S}\) da una direzione indeterminata.
Avvicinandosi all’orizzonte degli eventi suddetto fotone finirà per decadere fino ad avere una lunghezza d’onda paragonabile alla dimensione del raggio di Schwartzschild: \(\lambda\sim\pi r_{S}\).
L’energia rilasciata dal fotone nel buco nero quindi è $$\tag{3}d E = \frac{hc}{\lambda} = \frac{2\pi \hbar c}{r_{S}}$$
Per l’equivalenza tra massa ed energia — la stranota \(e=mc^2\) della Relatività Generale — la massa del buco nero finisce per crescere$$\tag{4}d M_{BN}=\frac{d E}{c^2} = \frac{2\pi \hbar}{c r_{S}}$$
Di conseguenza un aumento della massa, per quanto piccola, del buco nero finisce per far aumentare anche le dimensioni dello stesso nella misura $$\tag{5}d r_{S}=\frac{2G}{c^2} d M_{BN}=\frac{4\pi\hbar G}{c^3 r_{S}}$$
e anche l’area: $$\tag{6}d A_{OE}=4\pi d r_{S}^2 = 8\pi r_{S}d r_{S}=32\pi^2\frac{\hbar G}{c^3}$$
Anche se questo genere molto semplificato di buchi neri è solo teorico, permette però di esplorare la complessità del problema e di farsi un’idea delle dimensioni dell’entropia di un buco nero 4.
Prima di scrivere questo pezzo ho fatto una scorsa dei risultati che restituiscono i motori di ricerca sul Principio Olografico, giusto per curiosità. Ne è uscito un quadro desolante; da chi suggerisce che siamo tutti ologrammi alla medicina quantistica (roba di ciarlatani creata per i beoti). Ben pochi hanno descritto il modello e ancora meno (forse un paio sparsi nella profondità suggerita dal ranking SEO) hanno scritto che si tratta solo di un modello descrittivo. Cercherò ora di aggiungere il mio sussurro al loro, giusto per farli sentire un po’ meno soli.
Essenzialmente il mezzo più immediato e naturale che usiamo per descrivere il mondo che circonda è dato dalla vista. Essa però restituisce unicamente un’immagine bidimensionale della realtà, esattamente come fanno anche una fotografia o un quadro. Ci viene in soccorso la percezione della profondità spaziale, dove la terza dimensione emerge grazie all’effetto prospettico che fa apparire più piccole e distorte le immagini sullo sfondo rispetto a quelle in primo piano. L’unico mezzo veramente efficace che abbiamo per cercare di rappresentare correttamente la realtà è la matematica, anche se essa appare spesso controintuitiva.
Ripetendo in parte ciò che ho detto in altre occasioni, l’Uomo ha sempre cercato di dare una spiegazione convincente a tutto quello che lo circonda, che per brevità di termine chiamiamo realtà. Ad esempio, la scoperta delle stagioni, il costante ripetersi ogni anno delle diverse levate eliache e i cicli lunari sono culminati nell’invenzione del calendario, che nelle sue varie interpretazioni e definizioni, ha sempre accompagnato l’umanità. Eppure esso in astratto non è che un modello, grossolano quanto si vuole, ma che consente di prevedere quando sarà la prossima luna nuova o l’astro Sirio allo zenit a mezzanotte.
Anticamente anche le religioni erano modelli più o meno astratti che avevano il compito di spiegare ad esempio, i fulmini, le esondazioni, le maree, il giorno e la notte, etc.
Oggi sappiamo che i fulmini sono una scarica elettrica, che il giorno e la notte sono la conseguenza della rotazione terrestre e che le esondazioni avvengono perché da qualche altra parte piove.
Abbiamo teorizzato per secoli una cosmologia geocentrica e solo più tardi quella eliocentrica, quando abbiamo capito che la prima era sbagliata. Abbiamo accarezzato per un breve periodo l’idea galattocentrica prima di apprendere che le galassie erano più di una e il Sole era solo una comune stellina grossomodo a metà strada fra il centro e la periferia della Via Lattea, e abbiamo anche creduto ad un universo statico prima di scoprire che l’Universo si espandeva in dimensioni.
Anche tutti questi erano modelli e modelli pensati su altri modelli dati per sicuri finché non venivano dimostrati sbagliati. E questo vale anche per i modelli attuali e le teorie fino ad oggi considerate certe.
L’orizzonte degli eventi.
\(raggio_{Schwarzschild}=\left (\frac{2GM}{c^2} \right )\)
Il raggio dell’orizzonte degli eventi di un buco nero è restituito da questa formula matematica che stabilisce l’equilibrio tra gravità e velocità della luce. Esso esiste solo teoricamente perché si suppone che l’oggetto che ha dato origine al buco nero abbia avuto con sé un certo momento angolare che poi si è conservato.
Infatti, per descrivere matematicamente un buco nero reale si usa una metrica leggermente diversa che tiene conto anche del campo elettromagnetico e del momento angolare: quella di Kerr-Newman.
Già alla fine del 1700 si teorizzava di una stella tanto densa e massiccia da ripiegare la luce con la sua gravità. John Michell e Pierre-Simon de Laplace la chiamavano stella oscura. Ma fu solo dopo il 1915, con la Relatività Generale, che Karl Schwarzschild trovò le equazioni che descrivevano il campo gravitazionale di un oggetto capace di ripiegare la luce su di sé. Così fu evidente che esiste un limite, un orizzonte oltre il quale neppure la luce può sfuggire. Non è un limite solido, tangibile come quello di una stella o di un pianeta come talvolta qualcuno è portato a immaginare, ma è un limite matematico ben preciso definito dall’equilibrio tra la gravità e la velocità della luce, che è una costante fisica assoluta 1.
La relatività insegna che niente è più veloce della luce. Pertanto, basandosi solo su questo assioma, è ragionevole pensare che qualsiasi cosa oltrepassi l’orizzonte degli eventi di un buco nero sia definitivamente persa e scollegata dal resto dell’universo. Questa interpretazione, chiamata teorema dei buchi neri che non hanno capelli o No Hair Theorem, niente, più nessuna informazione potrebbe uscire una volta oltrepassato quel limite. Infatti se descrivessimo matematicamente un buco nero usando la metrica di Kerr-Newman – è una soluzione delle equazioni di Einstein-Maxwell della Relatività Generale che descrive la geometria dello spazio-tempo nei pressi di una massa carica in rotazione – viene fuori che un buco nero può essere descritto unicamente dalla sua massa, il momento angolare e la sua carica elettrica [23].
Cercare di spiegare la complessità dello spazio-tempo in prossimità degli eventi senza ricorrere alla matematica è un compito assai arduo.
L’oggetto che descrive Shwartzschild è solo il contorno osservabile di un buco nero. Ciò che vi finisce oltre scompare all’osservatore esterno in un tempo infinito. Egli vedrebbe che il tempo sul bordo degli eventi si ferma mentre la lunghezza d’onda della luce gli apparirebbe sempre più stirata 2 in rapporto alla sua metrica temporale, man mano che essa proviene da zone ad esso sempre più prossime fino a diventare infinita.
Invece, volendo fare un gedankenexperiment [cite]https://it.wikipedia.org/wiki/Esperimento_mentale[/cite] come avrebbe detto Einstein, per colui che cercasse di oltrepassare l’orizzonte degli eventi – ammesso che sopravviva tanto da raccontarlo – il tempo risulterebbe essere assolutamente normale e tramite misure locali non noterebbe alcuna curvatura infinita dello spaziotempo e finirebbe per oltrepassare l’orizzonte degli eventi in un tempo finito.
Appare controintuitivo ma è così. Se dovessimo assistere come osservatore privilegiato alla formazione di un buco nero dal collasso di una stella [cite]https://ilpoliedrico.com/2017/02/supernova.html[/cite], non vedremmo mai il nocciolo stellare oltrepassare l’orizzonte degli eventi. Noteremmo solo che la luce proveniente da esso diventa sempre più fioca: vedremmo che i raggi gamma più duri emessi dal nocciolo diventare raggi X, poi luce visibile, infrarosso e radio e poi più nulla; nessuna radiazione, più nessuna informazione proveniente dal nocciolo stellare potrebbe più raggiungerci.
Quello che c’è oltre lo chiamiamo singolarità. Le leggi fisiche a noi note non possono più descrivere cosa succede oltre l’orizzonte degli eventi e tutto ciò che lo oltrepassa non può più comunicare il suo stato all’esterno.
È difficile descrivere ciò che non si può osservare.