La fusione dei ghiacciai e il campanilismo antiscientifico

Questa immagine aerea della Groenlandia mostra i fiumi d'acqua causati dal disgelo e le aree di ghiaccio più scuro descritte dall'articolo. la superficie della Groenlandia sta assorbendo più radiazione solare e i processdi di fusione sono proporzionali alle dimensioni dei grani di ghiaccio e alle impurità liberate. Credit: Marco Tedesco / Lamont-Doherty Earth Observatory

Questa immagine aerea della Groenlandia mostra i fiumi d’acqua causati dal disgelo e le aree di ghiaccio più scuro descritte dall’articolo. la superficie della Groenlandia sta assorbendo più radiazione solare e i processdi di fusione sono proporzionali alle dimensioni dei grani di ghiaccio e alle impurità liberate.
Credit: Marco Tedesco / Lamont-Doherty Earth Observatory

La scienza  aborre i campanilismi. Ogni campanilismo.
Solo 120 anni fa la Legge di Gravitazione di Newton pareva spiegare tutto: dalla caduta di un frutto dall’albero all’orbita della Luna e dei pianeti; eccetto uno. Un pianetino poco più di un terzo più grande della nostra Luna, Mercurio, ha un moto orbitale che non può essere spiegato con le leggi di Keplero, di cui la legge di Gravitazione Universale è l’espressione matematica. Occorse attendere la Relatività Generale di Einstein per capire perché quel sassolino nello spazio, così vicino al Sole, avesse quell’orbita. Per questo affermo che la scienza aborre ogni forma di campanilismo, ogni teoria è valida finché qualche fenomeno fino ad allora inspiegabile trova una nuova spiegazione universalmente valida.

E la climatologia è una scienza.  Può non sembrare esatta perché è estremamente complessa, ma è una scienza e come tale anche lei aborrisce i campanilismi.
Giusto stamani una mia carissima amica è stata oggetto di deploro per aver condiviso un articolo che nel titolo manifesta perplessità sulla responsabilità del Riscaldamento Globale sullo scioglimento dei ghiacciai della Groenlandia [cite]http://goo.gl/5WBgoS[/cite] [cite]http://goo.gl/xJ70qp[/cite]. Bastava leggere l’articolo senza soffermarsi al titolo per capire che esso descrive un fatto reale e che questa forma di campanilismo è quanto di più becero e lontano che ci possa essere dalla scienza.
Pur esprimendo conclusioni che io considero opinabili, l’articolo di cui offro il link più sotto, il primo, mette in evidenza un fenomeno forse poco conosciuto dai più ma che invece ha una grande importanza sugli effetti del clima: la neve sporca.
In pratica diversi studi del ricercatore Marco Tedesco del Lamont-Doherty Earth Observatory della Columbia University, indicano che è in atto da almeno un paio di decadi un meccanismo di feedback positivo causato dalla maggiore capacità dei ghiacciai di assorbire la radiazione solare che provoca la loro fusione. La causa sono le polveri presenti nell’atmosfera e che la neve raccoglie a scatenare questo meccanismo. Durante la stagione più calda la neve che man mano si scioglie aumenta per ogni unità di superficie il tasso di impurità presente e che fino ad allora era intrappolata nel manto nevoso. Queste impurità aumentano la capacità di trattenere ancora più energia e questo provoca ancora altro discioglimento. I vari cicli di fusione diurna e congelamento notturno favoriscono la creazione di cristalli di ghiaccio ancora più grandi e meno riflettenti col risultato di abbassare ancora di più l’albedo – il rapporto tra la radiazione solare riflessa e quella in arrivo – dei ghiacciai, ossia un aumento del tasso di scioglimento di questi.
Dove sia la contraddizione tra questa notizia e il Global Warming in atto non lo capisco. Il clima globale è il risultato di tanti piccoli eventi e fenomeni che presi singolarmente alcuni di essi paiono in contrasto o che sembrano slegati fra loro.
IMG_0427Qui la componente comune col Riscaldamento Globale è da ricercarsi  nelle polveri. Non è affatto un mistero che già in passato siano state rivelate tracce di polveri inquinanti di origine antropica nelle carote di ghiaccio prelevate in Antartide [cite]http://www.nature.com/articles/srep05848[/cite] e in Groenlandia [cite]http://pubs.acs.org/doi/abs/10.1021/es970038k[/cite], dove addirittura furono trovate tracce dell’inquinamento Romano e Cartaginese. Nell’aria il pulviscolo atmosferico (quella polvere che vedete sospesa nei raggi di luce che attraversano una stanza buia e che si accumula sotto i letti e sui mobili) è in perenne movimento; ogni volta che respirate fate entrare alcune particelle prodotte giorni e mesi fa in Cina, altre in India o in Perù o in Canada. Queste possono essere di origine biologica, minerale, il prodotto di processi industriali oppure un miscuglio di tutti questi. Le precipitazioni atmosferiche intrappolano e trasportano al suolo queste polveri e nel caso delle nevi possono rimanere intrappolate anche per anni e secoli; dipende dal clima locale.
Nel caso dei ghiacciai groenlandesi questo fenomeno di rilascio sta avvenendo ora. Non è necessario vedere la neve più sporca ad occhio nudo, al meccanismo di retroazione che ho descritto più sopra non serve; avviene.  E tutti i meccanismi di retroazione positiva, come questo, sono molto difficili da controllare e bloccare. l’unica cosa veramente efficace è quella di prenderne atto e di bloccarli alla fonte. Ovviamente non si possono fermare i fenomeni naturali come le polveri provenienti dai deserti – vi è mai capitato di scoprire che dopo una pioggia il vostro balcone o la vostra auto fosse ricoperta di una patina rossastra? quella è spesso la polvere del Sahara – o le eruzioni vulcaniche o il pulviscolo biologico. Ma molte polveri originate dalle attività umane sì. Abbattitori industriali che catturano le polveri delle ciminiere, conversione degli impianti di riscaldamento a olio combustibile a forme meno inquinanti e più efficienti (i frequenti allarmi dell’inquinamento metropolitano sono causati molto più dai sistemi di riscaldamento domestico che dal traffico automobilistico, solo che fermare le auto è più facile) abbandonare la tecnologia dei combustibili fossili là dove è fisicamente possibile.

Quindi non c’è contraddizione tra Global Warming e la fusione dei ghiacciai groenlandesi, alpini e del Tibet, così come non c’è con la morte della Grande Barriera Corallina australiana. Sono tutti fenomeni in gran parte riconducibili all’inquinamento umano che ha innescato diversi meccanismi che si autoalimentano e che sono quasi impossibili da controllare.
Qui ha ragione il Presidente Barak Obama quando afferma che noi siamo l’ultima generazione che può fare qualcosa per fermare tutto questo.  Non voglio che questa generazione sia ricordata come quella che poteva ma che non fece.

Le (buone) ragioni del partito del NO

Sono stato indeciso fino all’ultimo se scrivere questo post o meno; e passato molto tempo da quando parlavo di politica su queste pagine. Ma adesso credo che il momento sia maturo per affrontare l’importante argomento politico del Partito del NO a tutto; un partito abbastanza trasversale (da destra a sinistra, dagli accademici più premiati ai più fessi che si possono incontrare un po’ in ogni dove).
Purtroppo la corruzione endemica di questo paese ha impedito che in più di cinquant’anni non si completassero 500 chilometri di autostrada, dove i piloni stradali crollano per l’inconsistenza dei materiali usati eppure pagati 10 volte tanto quanto ne costerebbe uno buono. Fareste costruire una centrale nucleare, una piattaforma estrattiva o una semplice galleria (guardate in proposito il valico tra Toscana ed Emilia …) a costoro?
A volte dire no in questo paese anche se forse non sembra la scelta più logica da fare, inevitabilmente si rivela col senno del poi quella più giusta.
Aggiornamento: lo studio sui costi della linea ad alta velocità Torino -Lione della Corte dei Conti francese del 2012 non è più disponibile sul sito originale ma ne esiste una copia su web.archive.org.

images (1)Un detto abbastanza comune nel mondo anglosassone “Not in my back yard!” almeno in Italia pare riscuotere molto successo. Il perché di questo è presto detto: negli ultimi anni molti comitati cittadini si sono costituiti per dire NO a tante opere e infrastrutture volute spesso imposte come necessarie ed emergenziali da un certo modo, spesso sordo e non lungimirante, di fare politica.
Ma se fino agli anni ’90 del XX secolo la notizia dell’esistenza di molti di questi comitati cittadini spesso non varcava neppure i confini della propria provincia, con l’avvento della comunicazione democratica di Internet, la notorietà di questi comitati è – giustamente – esplosa. Si possono condividere o meno le ragioni di questi comitati, ma è giusto e anche democratico scoprirne l’esistenza e conoscere i motivi della loro battaglia.
Qualche volta il valore di queste battaglie è stato usato  anche a sproposito o per fini di visibilità, onorificenze e carriere politiche, ad esempio.

NO-NUKE

Prendiamo ad esempio i due referendum sull’uso dello sfruttamento a scopo civile dell’energia nucleare. Il primo, del maggio 1986, sull’onda emotiva del disastro di Chernobyl gli italiani scelsero di abbandonare quel settore, nonostante che fosse ben evidente che la centrale nucleare sovietica era ben più pericolosa di una italiana: diversi i sistemi di raffreddamento del nocciolo combustibile e gli scopi per cui era stata creata. Uno di quei promotori di quel NO al nucleare vent’anni dopo, due legislature politiche e incarichi altrettanto prestigiosi, decise che era giunto il momento per l’Italia di riconsiderare le proprie scelte energetiche e, da buon lobbista, questa volta si schierò per il ritorno del nucleare in Italia.
Si dice che è prerogativa unica degli stolti quella di non cambiare mai idea, e infatti, non mi vergogno affatto a dirlo, nel 1986 infatti votai per l’uso civile dell’energia nucleare in Italia perché non esistevano ancora alternative economicamente più vantaggiose all’uso dei combustibili fossili.
Quello che negli anni mi ha spinto a riconsiderare la mia posizione  non è legata al mio percorso scientifico, politico e formativo, quanto piuttosto alle mutate condizioni socio-economiche del nostro Belpaese.
In primis le condizioni economiche e la tecnologia per lo sfruttamento delle tecnologie rinnovabili hanno reso virtualmente improponibile una riproposizione dell’energia nucleare in questo paese. Un centrale elettronucleare ha una vita tutto sommato breve a fronte dei suoi ingenti costi di realizzazione e gestione. Adesso non siamo nella situazione molto più rosea per i conti pubblici degli anni ’90. Con un debito pubblico così alto gli incentivi economici necessari al recupero della somma investita sarebbero improponibili, scaricando così i costi su tutta la collettività, mentre invece un investimento serio su un piano di rientro energetico a lungo termine basato sulle fonti rinnovabili sarebbe molto più economico, al di là delle solite bischerate raccontate sui costi indotti di queste.
Poi c’è l’aspetto secondo me ben più importante, anche se sembra di parte: la corruzione che parte dal piccolo “Lei non sa chi sono io!” fino ai vertici politici di questo Paese che non ha abbastanza memoria per ricordare i suoi macroscopici errori, come ad esempio – e perdonatemi se parto da lontano – gli infiniti errori nella pianificazione e nella costruzione della diga del Vajont, ma anche dei piloni dei cavalcavia che crollano prima – per fortuna – dell’inaugurazione delle strade, dei controsoffitti in materiale scadente di molti edifici scolastici, delle case della New Town del dopo terremoto dell’Aquila. Fareste costruire una centrale nucleare a chi lucra sulla bontà dei materiali una centrale elettronucleare anche se questa sulla carta fosse la più sicura del mondo? Io credo proprio di no, e principalmente per questi due motivi nel 2011 mi sono apertamente schierato per dire NO al ritorno del nucleare in Italia.
Ma se il mio NO al nucleare non vi sembra supportato da buoni motivi, esiste anche il mio NO alla linea ad alta velocità in Val di Susa.

NO-TAV

 Ulteriori dettagli Rapporto Alpinfo 2010 - Andamento 1980-2010 dei traffici ferroviari e stradali attraverso le Alpi. Credit Wikipedia

Rapporto Alpinfo 2010 – Andamento 1980-2010 dei traffici ferroviari e stradali attraverso le Alpi.
Credit Wikipedia

Il progetto della ferrovia Torino-Lione nasce in un contesto di viabilità europea sviluppato tra gli anni ’90 e il 2000. Il mastodontico progetto da 23 miliardi di euro nacque in un quadro economico precedente alla crisi economica del 2008 e dal quale l’Italia, ben lungi dai canti di sirena dei vari governi che si sono succeduti nel frattempo,  non è mai risorta. Qui valgono le stesse motivazioni economiche del quadro precedente e dico che essa è troppo costosa per potercela permettere. Inoltre proprio li vicino esiste già un’altro tracciato ferroviario molto simile: quello del Frejus. Questo tracciato, che già collega la Francia con l’Italia nacque nel XIX secolo ma durante tutto il ‘900 e il decennio appena trascorso è stato più volte aggiornato agli standard dell’epoca. L’ultima opera di ammodernamento risale al periodo 2003-2011 per un costo complessivo ufficiale di 108 milioni di euro (alcune voci parlano che in  realtà il costo finale sia stato intorno ai 400 e non stento a crederlo) ma che per colpa dei francesi che volevano risparmiare dalla loro parte l’opera in realtà è riuscita zoppa, facendo così di conseguenza lievitare i costi di manutenzione della tratta [cite]http://www.mit.gov.it/mit/mop_all.php?p_id=11149[/cite].
Nel frattempo l’ipotesi che rendeva apparentemente spendibile il tratto Torino-Lione, lo scambio merci principalmente tra i due paesi in un più vasto quadro di collegamenti europei, veniva meno quando già diversi rapporti internazionali indicavano in realtà un prepotente calo nel transito delle stesse. Come se questo non bastasse, anche la stessa Corte dei Conti francese dichiarava nel 2012 che il costo di questa nuova infrastruttura era ben più alto rispetto ai benefici raggiunti [gview file=”https://ilpoliedrico.com/wp-content/uploads/2016/03/rapport_situation_perspectives_finances_publiques_2012.pdf”]
Poi dal punto di vista ambientale ci sono i rischi ambientali legati alla natura metamorfica delle rocce in quel tratto. Uno studio del 2003 del Centro di Geotecnologie dell’Università di Siena [cite]http://www.spintadalbass.org/images/sienaamianto.pdf[/cite] ha evidenziato la presenza di minerali di amianto, che ricordo essere estremamente tossico per gli esseri umani, che andrebbero smaltiti in modo poi adeguato per non esporre tutte le comunità montane limitrofe alle polveri del minerale, con conseguente innalzamento spropositato dei costi delle operazioni di scavo 1.

LTF (Lyon Turin Ferroviarie) ha stimato che i due tunnel principali (il tunnel di base e il tunnel di Bussoleno), le discenderie, ecc. riceveranno un flusso cumulativo di acque sotterranee compreso tra 1951 e 3973 L/s nel caso stabilizzato. Ciò equivale a una portata compresa fra i 60 e i 125 Milioni di m3 /anno, comparabile alla fornitura d’acqua necessaria a una città di circa 1 milione di abitanti. Il drenaggio delle acque sotterranee è tutt’altro che trascurabile comparativamente al ricarico totale delle acque sotterranee nelle zone situate lungo il tunnel. (Analisi degli studi condotti da LTF in merito al progetto Lione-Torino,   Client : European Commission – DG-TREN [cite]http://ec.europa.eu/ten/transport/priority_projects/doc/2006-04-25/2006_ltf_final_report_it.pdf[/cite])

Altri sudi scientifici (anche dello stesso consorzio committente, la Lyon Turin Ferroviarie, presentato alla Commissione Europea) indicano che l’impatto ambientale sul sistema idreogeologico non sono poi così piccoli come spesso si vuole far credere da chi vuole quest’opera. È inutile girarci intorno, i motivi per dire NO a questa costosissima e inutile opera pubblica internazionale sono tanti, mentre a favore cantano solo coloro che vogliono realizzarla costi quel che costi, anche a scapito di tutti i pareri e degli studi scientifici e qualificati, che ne dimostrano la totale inutilità. Forse anche per questo il governo italiano (Monti) nel 2012 cessa di considerare prioritario il traffico merci per una versione a più basso costo della tratta internazionale, ma i costi comunque sarebbero ancora troppo alti rispetto ai dubbi vantaggi che può portare, soprattutto considerando l’investimento – a paragone molto più contenuto – dell’ammodernamento del Frejus che i tirchi francesi hanno cannato.
Ma se anche qui i motivi economici non bastano (chissà perché quando si tratta di far risparmiare denaro della collettività questi motivi non vengono mai ascoltati), ecco che spuntano inchieste della magistratura italiana che dimostrano che “… negli ultimi trent’anni l’Alta velocità è diventata uno strumento per la diffusione della corruzione e della criminalità organizzata…” [cite]http://www.repubblica.it/cronaca/2012/03/06/news/tav_saviano-31013967/[/cite] [cite]http://www.ilfattoquotidiano.it/2015/09/25/tav-aderenze-politiche-di-imprenditore-coinvolto-in-processo-per-mafia-per-lui-interventi-del-senatore-esposito/2067985/[/cite] [cite]http://video.corrieredelmezzogiorno.corriere.it/de-magistris-la-tav-imbroglio-serve-far-fare-quattrini-mafia/bf9acb26-87b3-11e5-b16f-562f60a54edb[/cite] dimostrando ancora una volta di più la mia seconda convinzione sul NO convinto al nucleare si applica esattamente anche a questo caso. Garda a volte le coincidenze!

NO-TRIV

Il caso sul prossimo referendum del 17 aprile p.v. è un vero guazzabuglio giuridico che spesso confonde gli elettori. Non entro nel merito di discutere le motivazioni storiche che hanno portato 10 regioni (in seguito 9 perché l’Abruzzo, fino ad allora in prima fila per la battaglia referendaria poi improvvisamente si è ritirato) a chiedere il referendum nazionale perché riguardano anche lo spirito politico personale di ognuno di voi e di me e io non voglio influenzare nessuno facendo una sterile campagna politica.
Nonostante vi siano molti siti internet che spiegano le ragioni del dire SI e del NO, una valutazione scientifica ed economica sono necessarie per decidere cosa scegliere di votare.
Questo è il testo del quesito referendario:

Volete voi che sia abrogato l’art. 6, comma 17, terzo periodo, del decreto legislativo 3 aprile 2006, n. 152, ‘Norme in materia ambientale’, come sostituito dal comma 239 dell’art. 1 della legge 28 dicembre 2015, n. 208 ‘Disposizioni per la formazione del bilancio annuale e pluriennale dello Stato (Legge di Stabilità 2016)’, limitatamente alle seguenti parole: “per la durata di vita utile del giacimento, nel rispetto degli standard di sicurezza e di salvaguardia ambientale”?

Ora andarsi a leggere tutto il decreto e le sue successive modifiche è una fatica immane che mi sento di risparmiarvi, dico solo che il bizantinismo delle leggi italiane è qualcosa di unico fatto apposta perché le persone normali non possano interpretarlo, un po’ come la supercazzola del Conte Mascetti nell’ottimo film “Amici miei“; uguale.

Questo è il quadro normativo che uscirebbe in caso di vittoria del SI 2, in neretto barrato le parti che verrebbero cancellate:

«17. Ai fini di tutela dell’ambiente e dell’ecosistema, all’interno del perimetro delle aree marine e costiere a qualsiasi titolo protette per scopi di tutela ambientale, in virtù di leggi nazionali, regionali o in attuazione di atti e convenzioni internazionali sono vietate le attività di ricerca, di prospezione nonché di coltivazione di idrocarburi liquidi e gassosi in mare, di cui agli articoli 4, 6 e 9 della legge 9 gennaio 1991, n. 9. Il divieto è altresì stabilito nelle zone di mare poste entro dodici miglia dalle linee di costa lungo l’intero perimetro costiero nazionale e dal perimetro esterno delle suddette aree marine e costiere protette, fatti salvi i procedimenti concessori di cui agli articoli 4, 6 e 9 della legge n. 9 del 1991 in corso alla data di entrata in vigore del decreto legislativo 29 giugno 2010, n. 128 ed i procedimenti autorizzatori e concessori conseguenti e connessi, nonché l’efficacia dei titoli abilitativi già rilasciati alla medesima data, anche ai fini della esecuzione delle attività di ricerca, sviluppo e coltivazione da autorizzare nell’ambito dei titoli stessi, delle eventuali relative proroghe e dei procedimenti autorizzatori e concessori conseguenti e connessi. Il divieto è altresì stabilito nelle zone di mare poste entro dodici miglia dalle linee di costa lungo l’intero perimetro costiero nazionale e dal perimetro esterno delle suddette aree marine e costiere protette. I titoli abilitativi già rilasciati sono fatti salvi per la durata di vita utile del giacimento, nel rispetto degli standard di sicurezza e di salvaguardia ambientale. Sono sempre assicurate le attività di manutenzione finalizzate all’adeguamento tecnologico necessario alla sicurezza degli impianti e alla tutela dell’ambiente, nonché le operazioni finali di ripristino ambientale. A decorrere dalla data di entrata in vigore della presente disposizione, i titolari delle concessioni di coltivazione in mare sono tenuti a corrispondere annualmente l’aliquota di prodotto di cui all’articolo 19, comma 1 del decreto legislativo 25 novembre 1996, n. 625, elevata dal 7% al 10% per il gas e dal 4% al 7% per l’olio. Il titolare unico o contitolare di ciascuna concessione è tenuto a versare le somme corrispondenti al valore dell’incremento dell’aliquota ad apposito capitolo dell’entrata del bilancio dello Stato, per essere interamente riassegnate, in parti uguali, ad appositi capitoli istituiti nello stato di previsione , rispettivamente, del Ministero dello sviluppo economico, per lo svolgimento delle attività di vigilanza e controllo della sicurezza anche ambientale degli impianti di ricerca e coltivazione in mare, e del Ministero dell’ambiente e della tutela del territorio e del mare, per assicurare il pieno svolgimento delle azioni di monitoraggio, ivi compresi gli adempimenti connessi alle valutazioni ambientali in ambito costiero e marino, anche mediante l’impiego dell’Istituto superiore per la protezione e la ricerca ambientale (ISPRA), delle Agenzie regionali per l’ambiente e delle strutture tecniche dei corpi dello Stato preposti alla vigilanza ambientale, e di contrasto dell’inquinamento marino.»

Credit: il Sole 24 Ore

Credit: il Sole 24 Ore

Questo significa che ai pozzi estrattivi entro le 12 miglia marine, principalmente il giacimento di Guendalina (Eni) nel Medio Adriatico, il giacimento Rospo (Edison) davanti all’Abruzzo e il giacimento Vega (Edison) al largo di Ragusa, debbano cessare le estrazioni al termine della durata di concessione. Sul Sole 24 Ore del 22 febbraio scorso si suggerisce che gli altri sono troppo vecchi e quasi completamente esauriti per essere interessanti o non rientrano nello spettro delle dodici miglia dalla costa: oppure no?
Ora possiamo leggere dal suddetto articolo di legge (quello toccato dal referendum) che ogni attività di ricerca, di prospezione nonché di coltivazione 3 di idrocarburi non siano comunque consentite entro le 12 miglia marine, ma prevede anche però per le concessioni già esistenti la prosecuzione delle suddette attività per tutta la loro durata temporale. La vecchia disciplina italiana (normata dalla legge n. 9 del 1991 e n. 152 del 2006) prevedeva concessioni della durata trentennale, prorogabili per tre volte: la prima proroga sarebbe stata di dieci anni le altre due di cinque. Scaduti i 50 anni complessivi, le aziende avevano la possibilità di proseguire le trivellazioni, previa richiesta, fino all’esaurimento del giacimento senza però svolgere altre ricerche. Con la modifica imposta nella Legge di Stabilità del 2015 si è voluto estendere tutta la durata delle concessioni fino all’esaurimento dei giacimenti ma, siccome il diavolo è spesso nei dettagli, questo garantisce anche la possibilità di fare nuove ricerche, prospezioni e estrarre da nuovi pozzi accanto a quelli già esauriti con la stessa concessione!
Di fatto la situazione legislativa attuale tornerebbe ad ad essere quella prevista dalle leggi del 1991 e 2006; basta. Torneranno a non essere possibili nuove ricerche, prospezioni ed estrazioni entro le dodici miglia marine per coloro che attualmente detengono una concessione entro questo limite da sfruttare, che invece in caso di vittoria del fronte del NO o di non raggiungimento del quorum sarebbero trasformate de facto in concessioni a tempo quasi indeterminato col diritto di ricerca e sfruttamento in perpetuo.

Un’argomento che ricorre spesso – a sproposito secondo me – al fronte del NO è che così in caso di vittoria del SI l’Italia rinuncerebbe a 126 milioni di tonnellate equivalenti di petrolio accertate a fronte di 58 milioni di tonnellate equivalenti di consumo complessivo. Questo equivarrebbe al fabbisogno energetico di appena due anni (25 mesi appena!). Attualmente però solo il 7% del fabbisogno energetico italiano di origine fossile viene estratto nel territorio italiano. Solo appena qualche mese fa (12 dicembre 2015) e solo pochi giorni prima della pessima trovata nella Legge di Stabilità (28 dicembre) il governo italiano aveva firmato l’Accordo Internazionale sul Clima (Conferenza di Parigi) COP 21; in più, accordi interni all’Unione Europea (Accordo Europeo 2020) impegnano il nostro Paese a ridurre le emissioni di gas serra del 20% rispetto al 1990, a raggiungere entro tale scadenza il 20% (almeno) del fabbisogno energetico nazionale da fonti rinnovabili (e non coi trucchetti delle equiparate del CIP 6 che consentono di bruciare le peggio schifezze dei residuati petroliferi e la spazzatura!) e un aumento sempre del 20% almeno dell’efficienza energetica. Invece con la vittoria del NO o con il mancato raggiungimento del quorum si sta perseguendo una strada pericolosa e in netta controtendenza con le raccomandazioni e gli impegni presi dall’Italia in sede internazionale.
Molte altre sciocchezze poi sono state dette dal fronte del NO che non sto a ricordarle e ribatterle tutte; già ora ho scritto tantissimo e ho molte altre cose da dire (o sassolini da togliermi dalla scarpa).

Il bastian contrario

La strategia europea 2020 prevede che entro il 2020 si aumenti almeno del 20% l'efficienza energetica rispetto al 1990. Da come è illluminata la Penisola Italiana vista di notte dallo spazio direi che in realtà c'è ancora molto da lavorare sul fronte dell'effficientamento.

La strategia europea 2020 prevede che entro il 2020 si aumenti almeno del 20% l’efficienza energetica rispetto al 1990. Da come è illuminata la Penisola Italiana vista di notte dallo spazio direi che in realtà c’è ancora molto da lavorare sul fronte dell’efficientamento.

Nei giorni scorsi il direttore di una nota rivista scientifica accomunava i NO a tutto, NO-NUKE, NO-TRIV (i SI al prossimo referendum), NO-EOLICO, NO-OGM e così  via agli antivaccinisti, agli anti pesticidi e così via cantando, salvo poi giustificare poche ore dopo il suo strambo ragionamento affermando che “non esiste un pasto gratis“. È vero non esistono pasti gratis, soprattutto quando dovremmo cercare di preservare senza stravolgere inquinare e distruggere quello che abbiamo e che dovremmo preservare per le generazioni future.
Io trovo che sia demenziale distruggere un bosco, un campo o un prato per piazzarci supra centinaia di metri quadrati di pannelli solari, quando gli stessi potrebbero essere integrati ben più produttivamente sui tetti delle case e dei fabbricati industriali e rivedere in concreto il paradigma della produzione centralizzata di energia.
Trovo demenziale devastare i fianchi delle montagne per le centrali geotermiche (vedi il caso Amiata) a grande entalpia quando sarebbe ben più produttivo, ecologico e sicuro (anche come impatto ambientale e paesaggistico) costruire le nuove strutture, e adattare quelle più vecchie, allo sfruttamento del geotermico a bassa entalpia che si può usare anche in zone non geotermicamente sensibili (a Follonica (GR) esiste dal 2011 un quartiere dove le abitazioni sono virtualmente a costo zero per l’energia consumata).
Trovo addirittura idiota rendere l’intera penisola uno spazioporto per gli  assai improbabili alieni con tutta quella luce improduttiva rivolta contro il cielo; da astrofilo e uomo di scienza la trovo un insulto all’intelligenza e da italiano come un furto alle mie tasche.
Invece di volere sventrare montagne come in Val di Susa, di voler costruire improbabili centrali elettronucleari che richiedono molta acqua per funzionare (le facciamo sul PO, l’Arno o il Tevere?) e la cui produzione di energia non è né semplice – tutte le riserve mondiali di uranio e torio coprono appena un arco temporale di 50-100 anni e sono tutte in mano straniera –  e né facile da modulare (quella notturna i cari cugini d’oltralpe sono costretti a svenderla quasi sottocosto, altro che pasto gratis!), distruggere la fauna ittica (e così anche la nostra industria ittica e tutto il suo indotto di centinaia di migliaia di famiglie 4 ) entro le nostre 12 miglia per qualche bicchiere di maleodorante bitume o una sniffata di metano (come gas serra il metano è ben più pericoloso – 23 volte – dell’anidride carbonica tanto che gli allevatori neozelandesi pagano 60 centesimi l’anno per ogni bovino e ben 8 euro per ogni pecora), non crede caro direttore che sia giunta l’ora di mettersi a investire sul serio (di buzzo bono come diciamo a Siena) su soluzioni concrete al problema energetico italiano con un piano di riconversione serio che escluda – per principio – l’uso di energia fossile se non come soluzione temporanea d’emergenza?
Altri paesi si stanno ingegnando per raggiungere la piena autosufficienza energetica puntando tutto sulle risorse rinnovabili; perché non dovremmo fare altrettanto noi? La porta di questo blog sarà sempre aperta ad una sua risposta.

ps. Io, mia moglie e i miei due figli siamo tutti vaccinati, mangiamo pasta di frumento Creso e sfruttiamo l’energia solare termodinamica per lavarci tutto l’anno.
pps. Io possiedo e uso un’ottima auto ibrida …


Note:

Perché usiamo consumare agnello e uova per Pasqua?

pulcinoTantissime festività ora cristiane in origine erano pagane.
Il 25 dicembre che noi festeggiamo come la Natività di Gesù, ben prima era una delle tante altre feste pagane che il primo cristianesimo ha fatto sue, come  prima i Romani avevano assimilato le altre divinità etrusche e in seguito quelle greche, egiziane e persiane, adottandone sia il pantheon che edificando nuovi templi sui precedenti luoghi di culto. La notte tra il 24 e 25 dicembre i Romani la dedicavano al Sole Invictus (Sole invincibile) romano, una festività che probabilmente in origine era nata come festa pagana legata alla rinascita della luce contro l’oscurità (intorno quella data si è appena compiuto il solstizio d’inverno) in Siria e in Egitto.

E il primo mese, il quattordicesimo giorno del mese, sarà la Pasqua del Signore (…)ma offrirete, come sacrifizio mediante il fuoco, un olocausto al Signore: due giovenchi, un montone e sette agnelli dell’anno che siano senza difetti e come oblazione, del fior di farina intrisa con olio (…) per fare l’espiazione per voi.
(Numeri 28;16)
E dovete osservare la festa dei pani non lievitati (Matzot) (…) Per sette giorni (…) dovete mangiare pani non fermentati.
(Esodo 12:17-20)

La Pasqua per i Cattolici e molte altre confessioni cristiane è legata al computo della data stabilito dal Concilio di Nicea nel 325 d.C. voluto da Costantino I che fissò la ricorrenza della festività la prima domenica successiva alla prima luna piena di primavera (quest’anno il 20 marzo era l’equinozio di primavera, il 23 marzo ci sarà la luna piena, quindi il 27 marzo sara là Domenica di Pasqua). La Pasqua cristiana è solo in parte legata al computo ebraico dell’analoga festività chiamata Pesach (Il Passaggio) che  ricorda la fuga dall’Egitto di Mosè. Nella tradizione liturgica ebraica la Pesach dura ben otto giorni perché include anche la festa dei Pani Azzimi; infatti la Pesach è chiamata anche Chag Ha’Aviv (festa della primavera),  dove si celebrano i riti legati al raccolto delle prime spighe d’orzo (che avviene in primavera) e il loro utilizzo per preparare focacce senza il normale processo di lievitazione. Il legame cronologico tra la Pasqua cristiana e la Pesach ebraica ha origine nelle testimonianze di S. Giovanni Apostolo e di S. Paolo di Tarso che indicano che la celebrazione dell’Ultima Cena del Cristo (il Giovedì Santo nella tradizione cristiana) avvenne il quattordicesimo giorno del settimo mese (14 Nisan, il primo giorno della Pesach) ebraico.
È nella tradizione ebraica quindi (vedi riquadro qui sopra) che ha origine l’abitudine di consumare l’agnello sacrificale il giorno di Pasqua.

La divinità persiana della fertilità: Ishtar, la quale non ha niente a che fare con le tradizioni cristiane ed ebree Credit: British Museum

La divinità persiana della fertilità: Ishtar, la quale non ha niente a che fare con le tradizioni cristiane ed ebree. Credit: British Museum

In passato 1  fu suggerito che la Pesach fosse probabilmente legata a una ancora più antica celebrazione: quella dedicata alla dea della fertilità persiana Ishtar descritta nell’Epopea di Gilgamesh e venerata anche nell’Antico Egitto col nome di Iside. In questo caso si potrebbe supporre che durante il periodo ebraico in Egitto sia avvenuta una contaminazione culturale o che questa derivasse direttamente dalle ascendenze abramitiche stesse (Abramo proveniva dalla Mesopotamia) come ricordano alcuni frammenti dell’Antico Testamento. Però è opportuno anche ricordare che il culto di Ishtar era ben noto agli Ebrei che vi si opponevano fermamente – Isthar nelle scritture ebraiche è chiamata Ashtoreth, un diavolo – anche se esistono alcune similitudini mitologiche minori tra la figura biblica di Ester e la divinità mesopotamica.
Tutta questa confusione in realtà si è scatenata per le evidenti similitudini fonetiche tra Isthar e Easter (Pasqua nelle lingue anglofone). Ma la somiglianza finisce qui, probabilmente non esistono legami tra il culto alla dea Ishtar e la Pesach ebraica se non che cadono all’incirca nello stesso periodo dell’anno nel quale si ricorda il simbolo della fertilità associato alla primavera. È ben più probabile che in realtà la parola inglese Easter derivi dalla divinità germanica Eostre, forse la stessa che nella mitologia slava è conosciuta come Siwa. Eostre era la dea della fertilità e della nascita, alla sua figura era associato un animale sacro, la lepre, simbolo di fertilità e che i Britanni  scorgevano nei contorni dei mari lunari al momento della luna piena. Il nome di Eostre era legato al punto cardinale Est in quanto luogo da cui sorge il Sole al momento dell’equinozio. Da qui appunto il nome della divinità che ha la medesima radice del termine usato dai celti per indicare appunto l’equinozio di primavera, Eostur-Monath o Ostara o Eostar. È qui che la parola Eostre diventa Oster (Pasqua in tedesco) e Easter in anglosassone e che nascono le tradizioni del coniglio pasquale e delle uova colorate. Le uova, prima di serpente e poi di gallina venivano decorate e poi regalate come simbolo e augurio di fertilità. Quindi fu l’assorbimento culturale della  festività germanica durante la cristianizzazione del Nord Europa che vennero importate le sue tradizioni.
L’atto di colorare le uova è legata all’idea di rinascita: il legame tra la vita e le uova è stato da sempre indicato dai colori rosso oppure viola. Nella tradizione cristiana il rosso simboleggia il sangue di Gesù. Tra i macedoni è tradizione portare un uovo rosso in Chiesa e mangiarlo quando il sacerdote proclama la resurrezione di Cristo durante la veglia pasquale che pone fine al liturgico digiuno quaresimale.

Ecco come sono nate le tradizioni dell’Agnello, del Coniglio e delle Uova di Pasqua. Happy Easter!

Barn door tracker o derotatore equatoriale?

Sono ormai molti giorni che non aggiorno queste pagine. Ho anche trascurato in parte anche la stesura del mio libro, anche se ogni giorno mi riprometto di scrivere qualcosa. Il fatto è che ultimamente mi sono dedicato – forse troppo – alla realizzazione di quell’astroinseguitore di cui ho tanto parlato. Eccovi gli ultimi aggiornamenti.

NGC 869 e NGC 884 Ammasso doppio di Perseo

NGC 869 e NGC 884 Ammasso doppio di Perseo Somma di 5 fotogrammi ripresi con una focale di 200 mm e 3 secondi di esposizione. senza alcuna montatura di inseguimento (dicembre 2013). Credit: Il Poliedrico.

L’idea originale era quella di riuscire a fotografare le stelle prevedendo il loro moto apparente per evitare il famoso effetto scia. Le strade per fare questo sono diverse ma con troppe limitazioni, soprattutto a grandi focali. Un metodo piuttosto economico ma molto difficile da mettere in pratica con buoni risultati è quello dell’esposizione multipla: si fanno più (molte) esposizioni del singolo oggetto o scena, cercando di rimanere entro la benedetta regola del 500 (vedi riquadro sotto) per evitare il mosso e poi si sommano i singoli fotogrammi usando software di elaborazione come il buon Deep Sky Stacker (che per giunta è anche gratuito).
Una grave limitazione di questo sistema è la rotazione di campo ai bordi delle immagini a largo campo: mentre presso il polo celeste, quindi a basse declinazioni, è possibile spingere anche di molto sui tempi di esposizione, nei pressi dell’equatore celeste la rotazione si fa sentire, eccome!
Come potete osservare dallo stesso riquadro, nei pressi dell’equatore galattico si può tralasciare di calcolare il coseno della declinazione (\(cos(0) =1\)) e così rendere giustizia alla ben nota formula empirica semplificata \(k/f\) dove appunto \(k\) è 500 e \(f\)  è la focale usata, tanto usata dai fotografi del cielo stellato. Volendo osare, si possono usare tempi di esposizione molto più lunghi avvicinandosi ai poli celesti,  sempre a patto che  si stia entro l’esposizione prevista per le declinazioni più basse visibili nel campo inquadrato. Il grave aspetto negativo di questo metodo è che se usiamo sommare troppe immagini di uno stesso campo riprese in un periodo troppo lungo, la rotazione di campo risultante sarà comunque troppo ampia per essere corretta via software, col risultato che solo una piccola porzione dell’immagine finale sarà abbastanza  buona  essere conservata.
La soluzione a tutti questi problemi è quella di usare un sistema meccanico che  potesse compensare il moto apparente della volta celeste facendo ruotare la fotocamera in asse con l’asse terrestre ma in direzione opposta.
12651064_1163021377043095_6710097951710270984_nUna montatura equatoriale è l’ideale per questo scopo. Concettualmente è anche la soluzione più economica, peccato però che le montature equatoriali in commercio siano pensate per essere usate con i telescopi, dove le esigenze meccaniche (in termini di peso supportato) e di precisione di puntamento siano molto al di sopra delle più blande esigenze richieste nell’astrofotografia a largo campo (\(f.\) fino a 200 -300 mm). Una soluzione piuttosto semplice ed economica poteva essere la costruzione di una tavoletta equatoriale (vedi post precedenti sull’argomento), ma le tolleranze di costruzione e gli errori di tangente indotti da una vite che amplia una corda d’arco che segue l’opposto della rotazione terrestre ne limitano l’uso tra pochi minuti fino a qualche decina nel caso di un sistema a quattro bracci prima che vengano in bella evidenza i limiti costruttivi.  Ci sono casi di tavolette equatoriali mosse a mano seguendo a mano i secondi di un quadrante d’orologio, di quelle azionate col meccanismo dei girarrosto a molla, perfino. Ci sono anche tavolette costruite con leghe di alluminio aeronautico e controllate da un PC che si occupa di correggere gli errori tangenziali. La fantasia degli astrofotografi è infinita.
All’inizio l’idea di costruire anch’io una tavoletta equatoriale mi aveva allettato assai: un sistema a quattro bracci per minimizzare gli errori di tangente, costruita in alluminio e pilotata da un Arduino Mega 2650; avevo buttato giù anche una buona parte del codice per il microcontrollore [cite]https://github.com/UmbyWanKenobi/Astroinseguitore[/cite].

credit: Il Poliedrico

La regola del 500 completa per un uso esclusivamente astrofotografico.Credit: Il Poliedrico

Ma si sa, l’appetito vien mangiando. Secondo le mie intenzioni Arduino avrebbe dovuto anche occuparsi dello scatto remoto della fotocamera inserendo il tempo di esposizione previsto nelle impostazioni di avvio; avrebbe avuto un sistema di ausilio alla calibrazione e puntamento verso il Nord per un più facile stazionamento tramite una bussola elettronica, e una compensazione degli errori di tangente attraverso la modulazione della velocità del motore  passo-passo. Erano previsti perfino un led rosso ad alta luminosità per illuminare il terreno intorno alla stazione e un cicalino sonoro al termine della sessione di ripresa!
Però fatti due conti sulle difficoltà costruttive (ho il raro dono di avere le dita a prosciutto!) a fronte di una manciata di minuti buoni per l’inseguimento,  ho deciso di passare ad un approccio molto più semplice, compatto e forse perfino meno costoso, un semplice derotatore di campo equatoriale.
Oggi la tecnologia di lavorazione dei materiali permette di avere un motore passo-passo demoltiplicato fino a 0,018° (o 64.8” d’arco se preferite) per step, equivalenti a 20 000 step per un singolo giro ad un costo veramente basso. questo si traduce in uno step ogni 4,308 secondi: $$Tempo_{Siderale} /\left(\frac{Step}{Giro}\right) = 86164.0419 / 20000 = 4.308$$
Sfruttando poi le peculiarità di alcuni circuiti pilota per i motori passo-passo come i Pololu DRV8825 che permettono di suddividere i singoli passi in micropassi più piccoli (il DRV8825 consente fino a 32 micropassi per step!) si ottengono veramente dei risultati incredibili: fino alla risoluzione teorica di inseguimento di ben 2 secondi d’arco 1 !
Un sistema siffatto basta che abbia l’asse di rotazione correttamente allineato col Polo Celeste, esattamente come si impone a qualsiasi altro sistema di inseguimento equatoriale, mentre ogni sbilanciamento di peso può essere compensato con un peso equivalente opposto come si usa nelle analoghe montature. In pratica è lo stesso identico schema di una qualsiasi montatura equatoriale, dove si richiede di compensare il moto terrestre con una rotazione opposta, solo che qui non sono necessarie le stesse doti di precisione e stabilità previste per le montature equatoriali professionali che sono sottoposte a carichi maggiori .
Tutto questo si traduce in una minore complessità geometrica, un notevole risparmio nella potenza di calcolo e di conseguenza una maggiore disponibilità di questo per altre operazioni, come la registrazione dei dati meteo e dei dati di scatto per scopi scientifici e così via.
Anche impostare tempi diversi come il tempo sinodico lunare, il tempo solare e così via è molto più facile ed immediato rispetto alle tavolette equatoriali che sono espressamente progettate in funzione di un’unico tempo, in genere quello siderale. In queste modificare la velocità di inseguimento può introdurre errori agli errori già sottolineati in precedenza.
Questo mio nuovo approccio 2 aumenta la flessibilità di inseguimento, come ad esempio quella richiesta per le eclissi, i transiti 3 e così via.

Insomma: se continua così, ce sarà pure da divertisse (come usiamo dire noi romani)!
Cieli sereni.


Note:

Osservate per la prima volta le onde gravitazionali con LIGO

A_long_time_ago

… c’era una coppia di buchi neri, uno di circa 36 volte la massa del Sole mentre l’altro era un po’ più piccolo, di sole 29 masse solari. Questi due pesantissimi oggetti, attratti l’uno dall’altro in una mortale danza a spirale hanno finito per fondersi insieme, come una coppia di ballerini sul ghiaccio che si abbraccia in un vorticoso balletto. Il risultato però è un po’ diverso: qui ne è uscito un oggetto un po’ più piccolo della semplice somma algebrica delle masse: 62 masse solari soltanto.
Il resto è energia dispersa, non molta per la verità date le masse in gioco, pressappoco come quanta energia potrebbe emettere il Sole nell’arco di tutta la sua esistenza. Solo che questa è stata rilasciata in un singolo istante come “onde gravitazionali“.

Ma cos’è un’onda gravitazionale?

spacetime-02La visione dello spazio che da sempre conosciamo è composta da tre uniche dimensioni, larghezza, altezza e profondità; o \(x\), \(y\) e \(z\), se preferite. Il tempo, un fenomeno comunque misterioso, fino agli inizi del XX secolo era considerato a sé. Una visione – poi confermata dagli esperimenti di ogni tipo – fornitaci dalla Relatività Generale è che il tempo è in realtà una  dimensione anch’essa del tessuto dello spazio; una quarta dimensione. insieme alle altre tre 1. Fino alla Relatività Generale di Einstein si era convinti che una medesima forza, la gravità, fosse responsabile sia della caduta della celebre mela apocrifa di Newton, che quella di costringere la Luna nella sua orbita attorno alla Terra e i pianeti nelle loro orbite attorno al Sole. Nella nuova interpretazione relativistica questa forza è invece vista come una manifestazione della deformazione di  uno spazio a quattro dimensioni, lo spazio-tempo, causata dalla massa degli oggetti. Così quando la mela cade, nella Meccanica Classica (essa è comunque ancora valida, cambia solo l’interpretazione dei fenomeni) la gravità esercitata dalla Terra attrae la mela verso di essa mentre allo stesso modo – e praticamente impercettibile – la Terra si muove verso la mela, nella Meccanica Relativistica è la mela che cade verso il centro di massa del pianeta esattamente come una bilia che rotola lungo un pendio e la Terra cade verso il centro di massa della mela nella stessa misura prevista dai calcoli newtoniani.
La conseguenza più diretta di questa nuova visione dello spazio-tempo unificato, è che esso è, per usare una metafora comune alla nostra esperienza, elastico; ossia si può deformare, stirare e comprimere. E un qualsiasi oggetto dotato di massa, se accelerato, può increspare lo spazio-tempo. Una piccola difficoltà: queste increspature dello spazio-tempo, o onde gravitazionali, sono molto piccole e deboli – la gravità è di gran lunga la più debole tra le forze fondamentali della natura –  tant’è che finora la sensibilità strumentale era troppo bassa per rivelarle. Se volessimo cercare un’analogia con l’esperienza comune, potremmo immaginare lo spazio quadrimensionale come la superficie di un laghetto a due dimensioni, mentre la quarta dimensione, il tempo, è dato dall’altezza in cui si muovono le increspature dell’acqua. Qualora buttassimo un sassolino l’altezza della increspatura sarebbe piccola, ma man mano se scagliassimo pietre con maggior forza e sempre più grosse, le creste sarebbero sempre più alte. Però vedremmo anche che a distanze sempre più crescenti dall’impatto, queste onde scemerebbero di altezza e di energia, disperse dall’inerzia delle molecole d’acqua 2; alcune potrebbero perdersi nel giro di pochi centimetri dall’evento che le ha  provocate, altre qualche metro e così via. Alcune, poche,  potrebbero giungere alla riva ed essere viste come una variazione di ampiezza nell’altezza del livello dell’acqua del laghetto e sarebbero quelle generate dagli eventi più potenti che avevamo prodotto in precedenza. Queste nello spazio quadrimensionale sono le onde gravitazionali e esse, siccome non coinvolgono mezzi dotati di una massa propria per trasmettersi come ad esempio il suono che è solo un movimento meccanico di onde trasmesse attraverso un mezzo materiale,  possono muoversi alla velocità più alta consentita dalla fisica relativistica:\(c\), detta anche velocità della luce nel vuoto.

Il grande protagonista: LIGO

E’ stato LIGO-Laser Interferometer Gravitational-Wave Observatory (in italiano, Osservatorio Interferometro laser per onde gravitazionali) il protagonista di questa straordinaria scoperta: uno strumento formato da due strumenti gemelli, uno a Livingston (Louisiana) e l’altro a Hanford (Washington), a 3000 chilometri di distanza dal primo. Sono due gli interferometri, perché i dati possono venir confrontati e confermati: se entrambi gli strumenti rilevano lo stesso disturbo, allora è improbabile che sia legato ad un terremoto oppure a dei rumori di attività umana. Il primo segnale che conferma l’esistenza delle onde gravitazionali è stato rilevato dallo strumento americano Ligo il 14 settembre 2015 alle 10, 50 minuti 45 secondi (ora italiana), all’interno di una finestra di appena 10 millisecondi.

 David Reitze del progetto LIGO ha annunciato al mondo la scoperta delle onde gravitazionali: “We have detected gravitational waves. We did it!”. Crediti: LIGO

David Reitze del progetto LIGO ha annunciato al mondo la scoperta delle onde gravitazionali: “We have detected gravitational waves. We did it!”.
Crediti: LIGO

Ed eccole qui, in questo diagramma: l’onda azzurra, captata da LIGO di Livingston e l’onda arancio, captata da LIGO di Hanford. Sono sovrapponibili, il che ci dice che sono la stessa onda captata dai due strumenti gemelli. E’ la firma della fusione dei due buchi neri supermassicci con la conseguente produzione di onde gravitazionali. In altre parole, questa è la firma del nuovo buco nero che si è formato dai due precedenti e, come è accennato anche più sopra, le tre masse solari che mancano dalla somma delle due masse che si sono fuse assieme dando vita al nuovo buco nero di 62 masse solari si sono convertite in onde gravitazionali.
Volete udire il suono di un’onda gravitazionale? Sì, certo che è possibile…. E’ straordinario pensare che queste onde rappresentano la fusione di due buchi neri in uno nuovo e proviene da distanze incredibilmente grandi, in un’epoca altrettanto remota: un miliardo e mezzo di anni  fa.

Le prove indirette

Il decadimento orbitale delle due stelle di neutroni PSR J0737-3039 (qui evidenziato dalle croci rosse) corrisponde esattamente con la previsione matematica sulla produzione di onde gravitazionali.

Il decadimento orbitale delle due stelle di neutroni PSR J0737-3039 (qui evidenziato dalle croci rosse) corrisponde esattamente con la previsione matematica sulla produzione di onde gravitazionali.

La prima prova indiretta dell’esistenza delle onde gravitazionali si ebbe però nel 1974. In quell’estate, usando il radio telescopio di Arecibo, Portorico, Russel Hulse e Joseph Taylor scoprirono una pulsar che generava un segnale periodico di 59 ms, denominata PSR 1913+16. In realtà, la periodicità non era stabile e il sistema manifestava cambiamenti 3 dell’ordine di 80 microsecondi al giorno, a volte dell’ordine di 8 microsecondi in 5 minuti.
Questi cambiamenti furono interpretati come dovuti al moto orbitale della pulsar  4 attorno ad una stella compagna, come previsto dalla Teoria della Relatività Generale. Di conseguenza, due pulsar, in rotazione reciproca una attorno all’altra, emettono onde gravitazionali, in perfetta linea con la Relatività Generale. Per questi calcoli e considerazioni, Hulse e Taylor ricevettero nel 1993 il Premio Nobel per la fisica.

La presenza di una qualsivoglia stella compagna introduce delle variazioni periodiche facilmente rivelabili nel segnale pulsato della stella che i radioastronomi sono in grado di misurare con precisione inferiore ai 100 microsecondi. Giusto per farsi un’idea, immaginiamo di prendere il Sole e di farlo diventare una pulsar. Dal suo segnale pulsato, gli astronomi sarebbero in grado di rilevare la presenza di tutti i pianeti che orbitano attorno a questo Sole-pulsar, grazie al fatto che ogni pianeta causa uno spostamento del centro di massa del Sole di un certo valore espresso in microsecondi. La Terra per esempio, che si muove lungo la sua orbita ellittica, produce uno spostamento del centro di massa del Sole di ben 1500 microsecondi! 5


Per saperne di più:

La prima pulsar doppia” articolo di Andrea Possenti dell’INAF-Osservatorio Astronomico di Cagliari, pubblicato sul numero di Le Stelle, marzo 2004.

La notizia, pubblicata sul Physical Review Letters, porta i nomi di B. P. Abbott e della collaborazione scientifica di LIGO e VIRGO[cite]http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.116.061102[/cite].

 


Note:

A spasso nel cielo

[virtual_slide_box id=8]

Ed eccoci qua con uno dei primi appuntamenti più visibili di quest’anno. Per tutto il mese di febbraio infatti saranno visibili nel cielo subito prima dell’alba tutti e cinque pianeti noti fin dall’antichità: Mercurio e Venere, i due pianeti più vicini al Sole di noi, e Saturno, Marte e Giove in ordine di distanza apparente dal Sole sul piano dell’eclittica; come è evidente dalla foto qui sopra. Qui in effetti Mercurio sta sorgendo dietro ai cipressi (qui siamo in Toscana, il cipresso è un po’ l’albero tipico di questa regione) poco sotto la Luna e non è ancora visibile, mentre Venere – che è appena sorto – fa capolino proprio nel momento dello scatto.
Questa immagine è in realtà un mosaico ben sette fotogrammi (su otto) uniti in un unico puzzle; non è stato facile unire così tante immagini in una ma con un po’ di pazienza e un potente software libero (HUGIN) sono riuscito ad unirli là dove software ben più blasonati avevano miseramente fallito.

E ora vi offro un’altra immagine da me ripresa sempre il 6 mattina inseme a tanto freddo (-2° C.):

Mercury, Venus and Moon in Tuscany

Qui invece è visibile la bella congiunzione Luna – Venere – Mercurio, dove il Pianeta Messaggero degli Dei è appena spuntato sopra i tipici cipressi toscani e disegna un magnifico triangolo con gli altri due corpi celesti.

Spesso la gente crede che la scienza, e l’astrofisica in questo caso, uccide la poesia del mistero del Creato; a me invece sapere dare un nome a quei puntini sospesi nel cielo, saper distinguere i diversi pianeti, alcune (non tutte) costellazioni, dare un nome a qualche stella e sapere cosa le fa brillare così tanto da anni luce di distanza tanto da permettermi di scorgerle ad occhio nudo o in qualche foto, mi emoziona allo stesso modo, e probabilmente,  ancor di più.

Cieli sereni.

Come hanno avuto origine gli elementi?

Nucleosynthesis_Cmglee_1080Sorgente: APOD: 25 gennaio 2016 – Where Your Elements Came From

Molto tempo fa ho narrato delle abbondanze chimiche nella nostra galassia e come le analisi delle varie proporzioni degli elementi del Sistema Solare ci aiutano a capire quali fossero i loro progenitori. Oggi Astronomy Picture of the Day (APOD) pubblica una divertente Tavola Periodica con suindicate le origini di ogni singolo elemento; un modo per ricordarci che l’origine dei diversi elementi che ci compongono non è sempre la stessa e che siamo in definitiva il risultato di un lungo intreccio di eventi passati molto diversi e distanti fra loro, sia nel tempo che nello spazio.

La percentuale d'acqua presente nel corpo umano varia con l'età ma dalla metà fino ai 2/3 della massa corporea è comunque acqua.

La percentuale d’acqua presente nel corpo umano varia con l’età ma si può tranquillamente sostenere che dalla metà fino ai 2/3 della massa corporea è comunque acqua.

Due atomi di idrogeno (simbolo \(H\), in alto a sinistra nella tabella) insieme a un atomo di ossigeno (simbolo \(O\), nella seconda riga in alto a destra) compongono l’acqua, da quella degli oceani alle nubi cariche di pioggia e anche quella che è presente nel corpo umano. Gli atomi di  idrogeno si formarono ben 13,8 miliardi di anni fa subito dopo il Big Bang, non ci sono state da allora altre fonti di questo elemento, che oltre ad essere il mattone elementare con cui sono stati poi costruiti nelle fucine stellari tutti gli altri elementi sparsi nell’universo, è anche quello più antico.
Il carbonio del nostro corpo, il calcio delle nostre ossa e il fluoro nello smalto dei nostri denti sono il risultato della fusione dell’idrogeno nelle stelle. Il ferro contenuto nell’emoglobina del sangue e anche quello che quotidianamente conosciamo con altre forme e con altri nomi, come ad esempio l’acciaio delle posate da cucina e quello delle automobili, nasce un attimo prima che una stella grande almeno una decina di volte il nostro Sole esploda in supernova.  Il metallo che più di tutti consideriamo da sempre il più prezioso e usato anche come controvalore negli scambi commerciali, l’oro, è il risultato di una fusione tra due stelle di neutroni [cite]http://wwwmpa.mpa-garching.mpg.de/mpa/institute/news_archives/news1109_janka/news1109_janka-en.html[/cite], uno degli eventi cosmici più potenti in assoluto e quasi sicuramente l’unico responsabile dei Gamma Ray Burst (GRB). Anche il piombo, metallo assai povero, piuttosto tossico se inalato o ingerito e conosciuto fin dall’antichità per le sue notevoli proprietà metallurgiche, è prodotto dal decadimento dell’uranio 238 (simbolo \(U\), ultima riga della tavola), che anche lui trae origine nelle collisioni di stelle di neutroni. Quando sentirete di un avvistamento di un nuovo avvistamento di un lampo di raggi gamma pensate che lì si è formato dell’oro e dell’uranio.
Solo gli ultimi, dall’americio (simbolo \(Am\) al laurenzio (simbolo \(Lr\), senza contare anche altri elementi chimici di sintesi che qui non sono riportati, sono opera dell’uomo.
Come vedete, noi e tutto quello che ci circonda nell’Universo è in definitiva Figlio delle Stelle.


 

Pianeta X, Pianeta 9, o …

 La supposta esistenza di un nono grande pianeta nel Sistema Solare checché se ne dica non coglie del tutto di sorpresa gli astronomi. Spesso la matematica è riuscita ad anticipare importanti scoperte astronomiche. L’universo là fuori è una infinita fonte di meraviglie e di fantastiche scoperte, e di questo gli scienziati ne sono ben consapevoli. Ma questa pistola fumante, come dicono gli americani, non ha niente a che fare con la sonora bischerata di Nibiru e le stupide teorie catastrofiste che l’accompagnano. Chi ha visto in questa ipotesi una conferma delle teorie di Sitchin ha sbagliato anche stavolta 😛

Rappresentazione artistica del Pianeta Nove. Si suppone che il pianeta sia piuttosto simile ad Urano e Nettuno. Una ipotetica tempesta di fulmini illumina il lato notturno. Credit: Caltech / R. Hurt (IPAC)

Rappresentazione artistica del Pianeta Nove. Si suppone che il pianeta sia piuttosto simile ad Urano e Nettuno. Una ipotetica tempesta di fulmini illumina il lato notturno.
Credit: Caltech / R. Hurt (IPAC)

Il metodo è ormai antico e collaudato. Già nel  1846 l’astronomo tedesco Johann Gottfried Galle e al suo allievo Heinrich Louis d’Arrest scoprirono l’ottavo pianeta del Sistema Solare Nettuno 1. Questo fu il primo pianeta ad essere stato trovato tramite calcoli matematici piuttosto che attraverso regolari osservazioni: fu il trionfo della Meccanica Celeste che da Niccolò Copernico fino a Isaac Newton aveva matematicamente rivoluzionato l’universo fino ad allora conosciuto. La posizione del pianeta era stata infatti prevista dai calcoli dell’astronomo francese Urbain Le Verrier dell’Osservatorio di Parigi che era partito dall’osservazione dello strano comportamento dell’orbita di Urano che non rispecchiava esattamente il percorso in cielo previsto. A meno di grossolani errori nelle osservazioni e nei calcoli, l’unica spiegazione era che là fuori vi fosse qualcos’altro all’esterno che ne perturbava l’orbita. E infatti Nettuno fu scoperto entro appena un grado dal punto previsto.
Ma se pensate che la storia finisca qui siete in errore: infatti Nettuno non ha sufficiente massa (anche se è il terzo pianeta più massiccio del Sistema Solare) per giustificare le perturbazioni orbitali di Urano e quasi fin da subito dopo la sua scoperta divenne evidente che c’era ancora qualcosa che disturbava le orbite di entrambi i pianeti Urano e Nettuno. Partendo da quelle anomalie orbitali, agli inizi dello scorso secolo William Henry Pickering e Percival Lowell provarono a calcolare la posizione di questo misterioso Pianeta X che ancora non era stato scoperto. E anche quella volta, nel 1930, un pianeta fu scoperto quasi nello stesso posto previsto dai calcoli: Plutone, ad opera dell’astronomo dilettante (quello che oggi considereremmo un astrofilo) Clyde Tombaugh che si laureò in astronomia solo nel 1936.
Eppure, anche stavolta la massa di Plutone, che poi fu declassato a pianeta nano dall’Unione Astronomica Internazionale a pianeta nano, non era ancora sufficiente a giustificare il caos nelle orbite dei pianeti ai confini del Sistema Solare.

[youtube https://www.youtube.com/watch?v=V_Pmy331Sic&w=320]

La soluzione arrivò nel 1989, quando furono finalmente disponibili misure più accurate della massa di Nettuno e quelle della massa di Urano del sorvolo di tre anni prima della Voyager 2. Poche frazioni percentuali, ma con le nuove misurazioni dirette tutte le anomalie orbitali si risolsero [cite]http://dx.doi.org/10.1086/116575[/cite] e anche la questione di un altro pianeta molto massiccio al di là di Nettuno scomparve.

E ora veniamo al più che recente dibattito, scatenato dalla notizia apparsa sul sito del Caltech (California Institute of Tecnology) sulle prove dell’esistenza di un altro pianeta orbitante al di là di Nettuno [cite]http://www.caltech.edu/news/caltech-researchers-find-evidence-real-ninth-planet-49523[/cite].  Due ricercatori, Konstantin Batygin e Mike Brown (uno degli scopritori di Sedna) 2, hanno cercato di trovare una spiegazione sulle strane orbite possedute da alcuni corpi minori trans-nettuniani (cioè quei corpi la cui orbita si trova interamente o per la maggior parte oltre a quella di Nettuno, detti anche KBO da Kuiper Belt Object, oggetti della Fascia di Kuiper) che mostrano caratteristiche piuttosto simili [cite]http://iopscience.iop.org/article/10.3847/0004-6256/151/2/22[/cite]. L’idea in sé non è poi tanto originale, Chad Trujillo (che aveva fatto il post dottorato con Mike Brown e anche lui tra gli scopritori di Sedna)  e Scott Sheppard  astronomo presso la Carnegie Institution for Science di Washington) nel 2012 scoprirono un corpo minore, 2012 VP113, ne estrapolarono l’orbita e videro che il suo perielio era piuttosto simile a quello di un altro corpo simile, Sedna, scoperto nove anni prima. L’articolo della scoperta apparve nel 2014 su Nature [cite]http://www.nature.com/news/dwarf-planet-stretches-solar-system-s-edge-1.14921[/cite], ma non riscosse molto credito.

Le orbite di sei oggetti transnettuniani (KBO), e la possibile orbita del presunto pianeta. Tutti hanno il perielio allineato verso un punto. Credit: California Institute of Technology

Batygin e Brown invece hanno esteso quella ricerca includendo le orbite di altri corpi minori trans-nettuniani (in tutto sono 13) e si sono accorti che i sospetti originali di Trujillo e Sheppard erano più che fondati: come se ci fosse qualcosa che spingesse i corpi minori presi in esame ad avere i loro perieli tutti orientati verso un’unica direzione.
Dal punto di vista meramente statistico è assai improbabile che queste orbite si presentino così simili in modo puramente casuale. È assai più probabile che siano il prodotto di qualche evento comune (la butto là, un unico corpo di origine) oppure –  ed è la spiegazione più probabile – la presenza di un unico corpo molto più massiccio, un pianeta, che attraverso ripetuti incontri ravvicinati con i corpi minori abbia spinto questi ad avere caratteristiche orbitali al perielio molto simili. Partendo da questa conclusione, Batygin e Brown hanno provato a simulare (ripeto: simulare) le caratteristiche del pianeta che potrebbe aver allineato le orbite di quei KBO: un corpo con una massa di circa 10 volte quelle della Terra (in confronto Nettuno è circa 17 volte il nostro pianeta) e un perielio di ben 200 U.A. (circa 30 miliardi di chilometri) e un afelio compreso tra 500 e i 1200 U.A (75 e 180 miliardi di chilometri).

I sei oggetti più distanti del sistema solare conosciuti che hanno orbite esclusivamente oltre Nettuno (magenta), tra cui Sedna (magenta scuro), tutti misteriosamente si allineano in una sola direzione. Inoltre, se visto tridimensionalmente,le loro orbite inclinano verso un quasi identico punto del sistema solare. Un'altra frazione di oggetti della fascia di Kuiper (ciano) sono costretti in orbite che sono perpendicolari al piano del sistema solare e con un altro curioso orientamento. Batygin e Brown pensano che un pianeta con 10 volte la massa della Terra in una lontana orbita eccentrica (arancione) e anti-allineato con le orbite magenta e perpendicolari alle orbite ciano possa spiegare questa configurazione. Caltech / R. Hurt (IPAC)

I sei oggetti più distanti del sistema solare conosciuti che hanno orbite esclusivamente oltre Nettuno (magenta), tra cui Sedna (magenta scuro); tutti misteriosamente si allineano in una sola direzione. Inoltre, se visto tridimensionalmente, le loro orbite inclinano verso un quasi identico punto del sistema solare. Un’altra frazione di oggetti della fascia di Kuiper (in ciano) sono costretti in orbite che sono perpendicolari al piano del sistema solare e con un altro curioso orientamento. Batygin e Brown pensano che un pianeta con 10 volte la massa della Terra in una lontana orbita eccentrica (arancione) e anti-allineato con le orbite magenta e perpendicolari alle orbite ciano possa spiegare questa configurazione.
Credit: Caltech / R. Hurt (IPAC)

In più ogni teoria che si rispetti deve essere in grado non solo di spiegare come sono avvenute certe cose, ma fornire anche alcune previsioni; e in questo caso alcune di esse possono essere addirittura già verificabili, come quella di un secondo gruppo di oggetti KBO che posseggono orbite  perpendicolari rispetto all’eclittica e che finora non era stato possibile spiegare.
Il supposto Pianeta 9 molto probabilmente non è un pianeta errante poi catturato dal Sole, ma piuttosto un quinto corpo celeste formatosi insieme agli altri giganti gassosi  del Sistema Solare e poi espulso nella sua posizione attuale da Giove e Saturno ben prima che le attuali orbite si stabilizzassero.

Ora non resta che scoprirlo, anche se la scorsa campagna WISE del 2011, dopo un campionatura del 99% della volta celeste nell’infrarosso, aveva escluso la possibile esistenza di pianeti di massa come Nettuno in un raggio di ben 700 U.A. e di Giove fino a ben 26000 U.A. Il problema è che l’eventuale Pianeta 9 sarebbe ben più piccolo di Nettuno (meno di 2/3) e quindi al limite, se non al di sotto, della capacità osservativa del telescopio spaziale anche se fosse transitato in quel momento al perielio [cite]www.jpl.nasa.gov/news/news.php?release=2014-075[/cite].
Na non tutto è comunque perduto: saranno necessari i grandi telescopi come il telescopio gemello da 10 metri dell’Osservatorio Keck o il telescopio Subaru sul Mauna Kea per vederlo. Ma solo una massiccia campagna osservativa potrà confermare l’esistenza del Pianeta 9.


Note:

Astroinseguitore: prove tecniche di programmazione di Arduino

Il mio amore per la scienza – e l’astronomia in particolare – mi è stato di stimolo per apprendere – e anche sperimentare – un’infinità di cose tra loro molto diverse. In gioventù toccò alla elettronica applicata alle onde radio 1 che mi avvicinò anche al mondo radioamatoriale. Poi fu la volta dei computer e della loro capacità di elaborazione (fondamentale in astronomia) ad attirare la mia attenzione. E se è vero che la vecchiaia è una seconda gioventù, alla soglia dei cinquanta non devo farmi cogliere impreparato.

Lo schema da me usato per il circuito di test. Credit: Il Poliedrico.

Lo schema da me usato per il circuito di test.
Credit: Il Poliedrico.

Progettare un astroinseguitore (o tavoletta equatoriale) pone dei limiti progettuali piuttosto importanti, di cui il principale è senz’altro l’errore tangenziale nella velocità di guida che rischia di vanificare la bontà di qualsiasi buon lavoro di costruzione.
Per questo ho scelto di pilotare il motore con un sistema che fosse programmabile. Così posso decidere se, quando e quanto variare la velocità del braccio pilota. Ma essendo io quasi a digiuno di elettronica, di controllori programmabili e di robotica, da buon sperimentatore ho deciso di addentrarmi anche in questo campo, armato del buon spirito da autodidatta che da sempre mi si confà 2
Poter programmare una scheda come in questo caso un Arduino UNO R3 (clone) non è difficile; i programmi sono piuttosto semplici da leggere per chi sa programmare in C, anche a livello elementare.
Qui in fondo troverete lo sketch (si chiamano proprio così i programmi scritti per Arduino) infarcito ben bene di commenti 3 per rendere meglio l’idea su come esso funzioni. In pratica il programma istruisce Arduino a leggere lo stato di alcune porte per vedere se viene premuto un qualsiasi tasto e in tal caso accendere o spegnere il LED corrispondente, pilotato questo dalla commutazione di un’altra porta digitale della scheda.
Può apparire, ed in effetti lo è, un’operazione piuttosto banale ma comprendere come cambiare stato logico ad una porta digitale, poterne pilotare gli effetti (in questo caso accendere un LED) e come funziona tutta la circuiteria elettronica di contorno, non è poi così ovvio. Al posto dei LED potremmo scegliere di fare un’altra cosa, come azionare un motorino elettrico, controllarne la direzione e la velocità di rotazione. Oppure accendere una luce di casa, controllare una tapparella o ruotare una cupola di un osservatorio astronomico. Le possibilità sono infinite.

I materiali usati per il circuito descritto in questo articolo:

  • una bread board (basetta sperimentale senza saldature) da 400 reofori.
  • 4 resistenze da 1 kΩ 1/2 W.
  • 4 pulsanti n.a. (normalmente aperti) del tipo SMD/SMT a 4 pin.
  • 4 diodi LED di recupero.

Questi sono materiali poveri, incluso il costo di una scheda clone di Arduino UNO R3, che per le prove va più che bene, in totale sono appena 10 euro, tutto sommato una cifra davvero ridicola.
Spero così di stuzzicare la vostra curiosità così come è stata solleticata la mia, cieli sereni.

[code language=”arduino”]
#define LED1 9 // Led 1 collegato alla porta digitale 9
#define LED2 10 // Led 2 collegato alla porta digitale 10
#define LED3 11 // Led 3 collegato alla porta digitale 11
#define LED4 12 // Led 4 collegato alla porta digitale 12
#define PULSANTE1 1 // Pulsante 1 collegato alla porta digitale 1
#define PULSANTE2 2 // Pulsante 2 collegato alla porta digitale 2
#define PULSANTE3 3 // Pulsante 3 collegato alla porta digitale 3
#define PULSANTE4 4 // Pulsante 4 collegato alla porta digitale 4

int porta1 = 0; // Azzera la variabile per la porta digitale 1
int porta2 = 0; // Azzera la variabile per la porta digitale 2
int porta3 = 0; // Azzera la variabile per la porta digitale 3
int porta4 = 0; // Azzera la variabile per la porta digitale 4

void setup() { // Inizializza il programma
pinMode(LED1, OUTPUT); // Attribuisce lo stato di scrittura alla porta digitale 9
pinMode(LED2, OUTPUT); // Attribuisce lo stato di scrittura alla porta digitale 10
pinMode(LED3, OUTPUT); // Attribuisce lo stato di scrittura alla porta digitale 11
pinMode(LED4, OUTPUT); // Attribuisce lo stato di scrittura alla porta digitale 12
pinMode(PULSANTE1, INPUT); // Attribuisce lo stato di lettura alla porta digitale 1
pinMode(PULSANTE2, INPUT); // Attribuisce lo stato di lettura alla porta digitale 2
pinMode(PULSANTE3, INPUT); // Attribuisce lo stato di lettura alla porta digitale 3
pinMode(PULSANTE4, INPUT); // Attribuisce lo stato di lettura alla porta digitale 4
}

void loop() { // Avvia il ciclo principale
porta1 = digitalRead(PULSANTE1); // Legge lo stato del pulsante 1 e lo assegna alla variabile porta1
porta2 = digitalRead(PULSANTE2); // Legge lo stato del pulsante 2 e lo assegna alla variabile porta2
porta3 = digitalRead(PULSANTE3); // Legge lo stato del pulsante 3 e lo assegna alla variabile porta3
porta4 = digitalRead(PULSANTE4); // Legge lo stato del pulsante 4 e lo assegna alla variabile porta4

if (porta1 == HIGH) { // Se lo stato letto prima è ALTO allora
digitalWrite(LED1, HIGH); // accendi il led 1
} else { // altrimenti
digitalWrite(LED1, LOW); // spegni il led
}
if (porta2 == HIGH) { // Se lo stato letto prima è ALTO allora
digitalWrite(LED2, HIGH); // accendi il led 2
} else { // altrimenti
digitalWrite(LED2, LOW); // spegni il led
}
if (porta3 == HIGH) { // Se lo stato letto prima è ALTO allora
digitalWrite(LED3, HIGH); // accendi il led 3
} else { // altrimenti
digitalWrite(LED3, LOW); // spegni il led
}

if (porta4 == HIGH) { // Se lo stato letto prima è ALTO allora
digitalWrite(LED4, HIGH); // accendi il led 4
} else { // altrimenti
digitalWrite(LED4, LOW); // spegni il led
}
}
[/code]


Note:

Costruire un astroinseguitore: le scelte

Era da molto che mi ero riproposto di prendere in mano un vecchio argomento, la costruzione di un astroinseguitore, o tavoletta equatoriale, se preferite.
Lo dico, ho una manualità da far schifo ma tanti buoni propositi e tante idee. Forse ne uscirà qualcosa di buono.

RISO.II = distanza tra il fulcro del braccio pilota (rosso) e la vite motrice (giallo) lungo la base portante (grigio). B = distanza tra punto di contatto del braccio pilota con il braccio della fotocamera (blu) e il suo fulcro. C = distanza tra i fulcri dei due bracci lungo la base portante.

RISO.II = distanza tra il fulcro del braccio pilota (rosso) e la vite motrice (giallo) lungo la base portante (grigio).
B = distanza tra punto di contatto del braccio pilota con il braccio della fotocamera (blu) e il suo fulcro.
C = distanza tra i fulcri dei due bracci lungo la base portante.

Ho deciso di passare ai fatti. Per il progetto di un astroinseguitore ho scelto quella che senz’altro dal punto di vista tecnico presenta più difficoltà, la soluzione a doppio braccio per annullare gli errori di tangente presenti – o in agguato – nelle soluzioni a braccio singolo. In pratica si tratta di un braccio di alzata motorizzato su cui semplicemente appoggia un secondo braccio che si muove sotto la spinta del primo.
Ma prima di passare alla costruzione della complessa struttura mi sono messo a studiare cosa occorre per muovere tutto e rendere il più automatico possibile i diversi processi, dal movimento equatoriale motorizzato alla gestione da remoto delle immagini. Qui serve un sistema che consenta di scattare più fotogrammi da diversi secondi fino ad alcuni minuti consecutivamente mentre il braccio dinamico guida la fotocamera nel percorso apparente del cielo senza sbavature. Potrebbe in questo caso bastare un banalissimo telecomando remoto magari in radiofrequenza, ce ne sono di molto validi e abbastanza economici in commercio – come l’ottimo Pixel TW-282TX, io stesso ne ho uno – ma perché non gestire tutto con un unico sistema?
Per automatizzare il movimento 1 ho pensato – come già avevo anticipato nei precedenti articoli – ho pensato ad un motore passo-passo, ideale per tutte quelle applicazioni che richiedono precisione nello spostamento angolare e nella velocità di rotazione; infatti vantano un ampio arco di impieghi, dalla robotica fino alle montature dei telescopi.
Per pilotare un motore passo passo occorrono diversi impulsi consecutivi in corrente continua, non è quindi possibile farli girare applicandovi una semplice tensione. Però con un circuito digitale che invia impulsi con una specifica frequenza è possibile guidarne il funzionamento e anche la velocità senza ricorrere a complicati meccanismi di demoltiplica. Una struttura hardware del genere che non richiede eccessive conoscenze ingegneristiche esiste già e si chiama Arduino.

Una scheda Arduino sormontata da un display LCD 1602 (16 caratteri per 2 righe) Credit: Il Poliedrico

Una scheda Arduino sormontata da un display LCD 1602 (16 caratteri per 2 righe)
Credit: Il Poliedrico

Arduino è una piattaforma hardware nata nel 2005 a Ivrea, Italia, come progetto open-source  a basso costo per gli studenti della facoltà di Interaction Design Institute Ivrea [cite]https://goo.gl/ZSyuLR[/cite]. Nonostante che l’istituto in sé non esista più, negli anni il progetto si è sviluppato e, grazie all’idea iniziale Open Source, è stato possibile progettare e creare una miriade di dispositivi hardware aggiuntivi e schede logiche a costi irrisori. Di conseguenza anche la comunità intorno a quest’idea è cresciuta allo stesso modo. Oggi si possono trovare progetti che con una singola scheda Arduino e pochi altri componenti di contorno fanno di tutto: dall’automazione degli irrigatori da giardino a stazioni meteorologiche complesse gestibili da remoto, dall’automazione casalinga alla robotica industriale e alla prototipizzazione di sistemi complessi. Di suo la scheda non fa poi molto, se non quello di mettere a disposizione alcune porte digitali e analogiche in ingresso e uscita. Ma la sua incredibile potenza deriva dalla straordinaria capacità di essere interamente programmabile con un linguaggio che deriva direttamente dal celebre C, addirittura. È questo che la rende un eccellente strumento, può addirittura eseguire dei calcoli matematici.
Di fronte a cotanta flessibilità la mia scelta di affidarmi ad Arduino per questo progetto mi è apparsa naturale. Ora non mi resta che sperimentare (ahi! il metodo galileiano anche qui) le varie soluzioni e vedere cosa ne esce. Spero che siano rose!
Cieli sereni.

(continua)


Note: