Salta al contenuto principale


A rischio il cielo del Paranal Observatory


31261913
Il problema dell’inquinamento luminoso – light pollution, in inglese – è una spina nel fianco di astronomi e astrofili. Di fatto, lampione dopo lampione, il cielo notturno è stato progressivamente cancellato, sprecando preziosa energia e interferendo con i ritmi biologici di flora e fauna. La gran parte del cielo italiano è irrimediabilmente “cancellato”, così come quello dell’intera Europa, anche se in misura minore rispetto all’Italia. Non va meglio negli Stati Uniti, India o Cina. Per rendersi conto dello stato attuale dell’inquinamento luminoso nel mondo si può consultare l’atlante mondiale della luminosità artificiale del cielo, da cui si potrà vedere che restano buie solo ampie zone dell’Africa e dell’Asia, il deserto australiano, buona parte del Canada, l’Amazzonia, la Patagonia, oltre alle due regioni polari.

Per quanto si sia cercato di costruire osservatori astronomici in luoghi sempre più remoti, l’avanzamento della light pollution ha iniziato a intaccare il cielo anche dei grandi osservatori, quelli che possiedono telescopi aventi un diametro superiore ai 3 metri. In effetti l’inquinamento luminoso negli osservatori astronomici è uno dei principali fattori da tenere in considerazione per preservare la loro produttività scientifica e la loro vita utile. I risultati di un recente studio mostrano che nei due terzi di queste strutture la radianza del cielo allo zenit ha già superato l’aumento critico del 10 per cento rispetto ai livelli naturali.

31261917
Immagine che mostra il cielo buio di cui si può godere dal Paranal. In piedi in cima a una piattaforma del Vlt, l’ambasciatore fotografico dell’Eso Petr Horálek allunga la mano verso il pianeta Giove. Crediti Petr Horálek/Eso.

A oggi, l’osservatorio con il cielo più buio è il Paranal Observatory, situato sul Cerro Paranal a 2600 metri sul livello del mare, nell’arido deserto di Atacama, realizzato e gestito dall’Eso, l’Osservatorio Australe Europeo. Al Paranal, il maggiore telescopio presente è il Very Large Telescope (Vlt), composto da quattro distinti telescopi, ciascuno di 8,2 metri di diametro, che possono funzionare sia in modo combinato che indipendente. Fin dalla sua inaugurazione avvenuta nel 1999, il Paranal ha portato a importanti scoperte astronomiche, come la prima immagine di un esopianeta (2M1207b, ripreso nel 2004) e la conferma dell’espansione accelerata dell’universo.

Il premio Nobel per la fisica nel 2020 è stato in parte assegnato “per la scoperta di un oggetto compatto super-massiccio al centro della nostra galassia”, ricerca fatta con gli strumenti del Paranal. L’osservatorio, considerata la strumentazione all’avanguardia e il cielo buio di cui dispone, è una risorsa fondamentale per gli astronomi di tutto il mondo, compresi quelli cileni, che ha visto la sua comunità astronomica crescere notevolmente negli ultimi decenni. Inoltre, il vicino Cerro Armazones ospita la costruzione dello Extremely Large Telescope (Elt), che con i suoi 39 metri di diametro sarà il più grande telescopio al mondo, uno strumento che cambierà radicalmente ciò che sappiamo del nostro universo.

Purtroppo però, una minaccia sembra incombere sul limpido cielo del Paranal. Il 24 dicembre 2024, Aes Andes, una sussidiaria della società elettrica statunitense Aes Corporation, ha presentato una valutazione di impatto ambientale alle autorità cilene riguardante un progetto per la produzione di idrogeno verde su scala industriale che dovrebbe essere situato a soli 5-11 chilometri dai telescopi del Paranal. Il progetto, che è in fase di sviluppo iniziale, potrebbe includere una varietà di soluzioni, tra cui idrogeno verde per l’esportazione o il consumo interno, in linea con la National Green Hydrogen Strategy del Cile, oltre all’implementazione di sistemi di accumulo solari ed eolici per supportare il fabbisogno elettrico del Paese.

«La vicinanza del megaprogetto industriale Aes Andes al Paranal rappresenta un rischio critico per i cieli notturni più incontaminati del pianeta», sottolinea il direttore generale dell’Eso, Xavier Barcons. «Le emissioni di polvere durante la costruzione, l’aumento della turbolenza atmosferica e soprattutto l’inquinamento luminoso avranno un impatto irreparabile sulle capacità di osservazione astronomica, che finora hanno attratto investimenti multimiliardari da parte dei governi degli Stati membri dell’Eso».

«Il Cile, e in particolare il Paranal, è un luogo davvero speciale per l’astronomia: i suoi cieli bui sono un patrimonio naturale che trascende i confini e va a beneficio di tutta l’umanità», ha dichiarato Itziar de Gregorio, rappresentante dell’Eso in Cile. «È fondamentale prendere in considerazione luoghi alternativi per questo megaprogetto che non mettano in pericolo uno dei più importanti tesori astronomici del mondo».

La delocalizzazione di questo progetto rimane l’unico modo efficace per evitare danni irreversibili al cielo unico del Paranal. Questa misura non solo salvaguarderà il futuro dell’astronomia, ma preserverà anche uno degli ultimi cieli bui veramente incontaminati della Terra.

Per saperne di più:



Plutone e la cattura di Caronte


31191146
31191148
Immagine composita di Plutone (in basso a destra) e Caronte (in alto a sinistra), ripresa dalla sonda New Horizons della Nasa durante il suo passaggio nel sistema di Plutone il 14 luglio 2015. Crediti: Nasa/Jhuapl/SwRI

Miliardi di anni fa, nelle gelide regioni esterne del Sistema solare, due mondi ghiacciati si scontrarono. Invece di distruggersi l’un l’altro in una catastrofe cosmica, ruotarono insieme come un pupazzo di neve celeste, separandosi infine ma rimanendo per sempre legati dalla gravità. È così che hanno avuto origine Plutone e la sua luna più grande, Caronte, secondo un nuovo studio dell’Università dell’Arizona che sfida decenni di ipotesi scientifiche.

Lo studio in questione – guidato da Adeene Denton della Nasa, che ha condotto la ricerca presso il Lunar and Planetary Laboratory – ha rivelato questo inaspettato meccanismo di “bacio e cattura”, che potrebbe aiutare gli scienziati a capire meglio come si formano ed evolvono i corpi planetari.

Considerando un aspetto che gli scienziati planetari avevano trascurato per decenni – la forza strutturale dei mondi freddi e ghiacciati – i ricercatori hanno scoperto un tipo di collisione cosmica completamente nuovo. I risultati dello studio sono stati pubblicati sulla rivista Nature Geoscience.

Per decenni, gli scienziati hanno teorizzato che la luna insolitamente grande di Plutone, Caronte, si fosse formata attraverso un processo simile a quello terrestre: una collisione massiccia seguita dallo stiramento e dalla deformazione di corpi assimilabili a fluidi. Questo modello ha funzionato bene per il sistema Terra-Luna, dove l’intenso calore e le maggiori masse coinvolte hanno fatto sì che i corpi in collisione si comportassero più come fluidi. Tuttavia, quando è stato applicato al sistema Plutone-Caronte, più piccolo e più freddo, questo approccio ha trascurato un fattore cruciale: l’integrità strutturale della roccia e del ghiaccio. «Plutone e Caronte sono diversi: sono più piccoli, più freddi e fatti principalmente di roccia e ghiaccio. Quando abbiamo tenuto conto della forza effettiva di questi materiali, abbiamo scoperto qualcosa di completamente inaspettato», riferisce Denton.

Utilizzando simulazioni d’impatto avanzate su un cluster di calcolo ad alte prestazioni, il team di ricerca ha scoperto che, invece di allungarsi come mastice durante la collisione, Plutone e il proto-Caronte sono rimasti temporaneamente incollati, ruotando come un oggetto a forma di pupazzo di neve prima di separarsi nel sistema binario che osserviamo oggi. Sì, perché di sistema binario si tratta: come due pattinatori che ruotano tenendosi per mano, questi due corpi celesti orbitano attorno a un centro di massa comune.

«La maggior parte degli scenari di collisione planetaria sono classificati come hit and run (colpisci e scappa) o graze and merge (sfiora e fondi). Quello che abbiamo scoperto è qualcosa di completamente diverso: uno scenario kiss and capture (bacio e cattura), in cui i corpi si scontrano, rimangono brevemente uniti e poi si separano rimanendo legati gravitazionalmente», spiega Denton.

«L’aspetto interessante di questo studio è che i parametri del modello che funzionano per catturare Caronte finiscono per metterlo nell’orbita giusta. Si ottengono due cose giuste al prezzo di una», riporta Erik Asphaug, professore del Lunar and Planetary Laboratory e co-autore dello studio.

Lo studio suggerisce inoltre che sia Plutone che Caronte sono rimasti pressoché intatti durante la collisione, conservando gran parte della loro composizione originale. Questo sfida i modelli precedenti che suggerivano un’ampia deformazione e miscelazione durante l’impatto. Inoltre, il processo di collisione, compreso l’attrito mareale durante la separazione dei corpi, ha alimentato un notevole calore interno in entrambi i corpi, che potrebbe fornire un meccanismo in grado di sviluppare su Plutone un oceano sotto-superficiale senza richiederne la formazione nel Sistema solare primordiale, più radioattivo – un vincolo temporale che ha sempre messo in difficoltà gli scienziati planetari.

Il team di ricerca sta già pianificando studi di follow-up per esplorare diverse aree fondamentali. In particolare, vuole studiare come le forze di marea abbiano influenzato la prima evoluzione di Plutone e Caronte quando erano molto più vicini, analizzare come questo scenario di formazione si allinei con le attuali caratteristiche geologiche di Plutone ed esaminare se processi simili possano spiegare la formazione di altri sistemi binari.

«Siamo particolarmente interessati a capire come questa configurazione iniziale influisca sull’evoluzione geologica di Plutone», conclude Denton. «Il calore dell’impatto e le successive forze di marea potrebbero aver giocato un ruolo cruciale nel modellare le caratteristiche che vediamo oggi sulla superficie di Plutone».

Per saperne di più:




Sincrotrone da onde d’urto nell’eliosfera


media.inaf.it/2025/01/08/sincr…
Nel cosmo esistono diversi ambienti caratterizzati da onde d’urto capaci di convertire l’energia cinetica di gas e flussi di particelle in calore, turbolenze, energia magnetica e, infine, di accelerare particelle fino a energie relativistiche, producendo raggi cosmici. Le dimensioni di tali sistemi possono variare di molti ordini di grandezza, dalle dimensioni tipiche dell’ambiente interplanetario fino agli enormi ammassi di galassie. Questi meccanismi vengono studiati principalmente attraverso l’emissione di radiazione elettromagnetica da parte delle particelle ad altissima energia, in particolare la radiazione di sincrotrone emessa da elettroni relativistici in moto attorno alle linee di campo magnetico nelle onde d’urto.

31087961
Configurazione schematica della sonda Parker Solar Probe, l’emissione di sincrotrone e la geometria delle onde d’urto e del campo magnetico nei due giorni di osservazione. Crediti: I. C. Jebaraj et al. ApJL, 2024

La fisica dell’emissione di sincrotrone e il legame tra le proprietà spettrali di questa radiazione con le caratteristiche fisiche del sistema responsabile dell’accelerazione sono da tempo oggetto di studio. Inoltre, l’invarianza di scala che caratterizza questi processi (ossia la conservazione delle proprietà e delle leggi fisiche al variare delle dimensioni del sistema) permette di sfruttare lo studio delle onde d’urto prodotte nell’eliosfera e nell’ambiente interplanetario per comprendere meglio ciò che avviene in sistemi più grandi e distanti, come i resti di supernova, che sono responsabili dell’accelerazione di molti dei raggi cosmici di origine galattica.

Misure locali nell’eliosfera di campi magnetici ed emissione di sincrotrone sono oggi possibili grazie alla sonda della Nasa Parker Solar Probe, progettata per effettuare passaggi ravvicinati al Sole. Il 24 dicembre 2024 la sonda ha raggiunto una distanza di 6.1 milioni di km, muovendosi a un’incredibile velocità di circa 200 km/s. Un team di ricercatori guidato dall’astrofisico Immanuel Christopher Jebaraj dell’Università di Turku (Finlandia) ha analizzato i dati ottenuti dalla Parker Solar Probe il 5 settembre 2022 e il 13 marzo 2023. In quesi due giorni, la Parker Solar Probe aveva osservato emissioni di sincrotrone prodotte da particelle accelerate in onde d’urto caratterizzate da un diverso orientamento tra la direzione del campo magnetico e quella di propagazione dell’onda d’urto: una configurazione “quasi parallela” il primo giorno e “quasi perpendicolare” il secondo giorno.

Lo studio dimostra come la diversa geometria delle onde d’urto si rifletta in differenti caratteristiche dell’emissione di sincrotrone, come la sua polarizzazione, e in una diversa efficienza nell’accelerazione delle particelle, che risulta essere maggiore in una geometria “quasi parallela”. Questo conferma i risultati di studi precedenti sull’accelerazione di raggi cosmici nel resto di supernova Sn 1006 attraverso osservazioni ai raggi X. I dati della Parker Solar Probe si confermano quindi estremamente importanti sia per la comprensione dei processi fisici che caratterizzano l’eliosfera e l’ambiente interplanetario, sia per quelli che avvengono in ambienti più estesi e lontani, come i resti di supernova.

«Questo studio presenta la prima osservazione di radiazione di sincrotrone da onde d’urto che si propagano nell’eliosfera», sottolinea Marco Miceli dell’Università di Palermo, fra i coautori dell’articolo che riporta il risultato su The Astrophysical Journal Letters. «La possibilità di osservare in situ il processo di accelerazione degli elettroni e l’emissione elettromagnetica che ne deriva ci ha permesso di utilizzare l’eliosfera come una sorta di laboratorio per riprodurre in scala ciò che avviene nei ben più potenti shock associati alle esplosioni stellari. Grazie ai dati della Parker Solar Probe – e alla complicità del Sole – siamo riusciti a osservare due eventi in condizioni molto diverse fra loro, con diverse orientazioni del campo magnetico rispetto al fronte di shock. Abbiamo così potuto provare la maggiore efficacia del processo di accelerazione negli shock quasi-paralleli».

Per saperne di più:

  • Leggi su The Astrophysical Journal Letters l’articolo “Direct Measurements of Synchrotron-Emitting Electrons at Near-Sun Shocks”, di I. C. Jebaraj, O. V. Agapitov, M. Gedalin, L. Vuorinen, M. Miceli, R. Vainio, C. M. S. Cohen, A. Voshchepynets, A. Kouloumvakos, N. Dresing, A. Marmyleva, V. Krasnoselskikh, M. Balikhin, J. G. Mitchell, A. W. Labrador, N. Wijsen, E. Palmerio, L. Colomban, J. Pomoell, E. K. J. Kilpua, M. Pulupa, F. S. Mozer, N. E. Raouafi, D. J. McComas e S. D. Bale


Ultimo flyby di Mercurio per BepiColombo


31062419
Questa mattina, esattamente alle 06:58:52, BepiColomboha sorvolato Mercurio arrivando a soli 295 chilometri dalla sua superficie. Ha sfruttato questa opportunità per fotografare il pianeta, effettuare misurazioni uniche dell’ambiente che lo circonda e mettere a punto le operazioni degli strumenti scientifici prima dell’inizio della missione principale. Questo sesto e ultimo flyby ridurrà la velocità della sonda e ne cambierà la direzione, preparandola a entrare in orbita alla fine del 2026.

«Abbiamo ricevuto le prime immagini poco fa e siamo tutti molto felici ed eccitati perché le nostre simulazioni hanno funzionato: hanno predetto le zone giuste e abbiamo visto quello che ci aspettavamo. In queste situazioni c’è sempre un po’ di nervosismo perché quello che simuliamo deve essere poi verificato con le immagini vere», commenta Valentina Galluzzi di Inaf, ora nella control room dello European Space Operations Centre (Esoc) a Darmstadt, in Germania. «Le immagini verranno rilasciate domani sui canali ufficiali dell’Agenzia spaziale europea (Esa). Per ora posso dire che sono belle immagini, soprattutto abbiamo occasione di vedere il polo nord che è una regione molto interessante da studiare. Anche se sono state riprese da camere non scientifiche, avere queste immagini dopo 10 anni da Messenger è comunque un’emozione».

Images and other scientific data from this morning’s close approach to Mercury by #bepicolombo are safely on the ground! We’ll be sharing images from the closest approach tomorrow. pic.twitter.com/l2Q9bHGtC5

— BepiColombo (@BepiColombo) January 8, 2025

Lanciata il 20 ottobre 2018, BepiColombo è una missione congiunta tra Esa e Japan Aerospace Exploration Agency (Jaxa), nonché la prima missione europea dedicata a Mercurio. Fanno parte della missione i due orbiter Mercury Planetary Orbiter (Mpo) dell’Esa e Mercury Magnetospheric Orbiter (Mio) della Jaxa. Il modulo europeo di trasferimento su Mercurio (Mtm) trasporta gli orbiter verso Mercurio, fornendo loro energia elettrica grazie a due pannelli solari lunghi 14 metri. Su questo modulo sono montate le selfie-cameras M-Cam, che forniscono immagini per il pubblico a risoluzione modesta, in attesa di quelle riprese dagli strumenti scientifici.

31062421
Infografica che illustra il sesto flyby di Mercurio di BepiColombo. Al centro si vede la sonda che passa davanti al pianeta. A sinistra si vede il Sistema solare interno in prospettiva, con indicate le posizioni di Mercurio, Venere e Terra. A destra vediamo quali strumenti di BepiColombo sono stati attivati durante il flyby. Crediti: Esa

Attualmente BepiColombo è a più di sei anni dall’inizio del suo viaggio di otto anni verso Mercurio. In totale, ha utilizzando nove flyby planetari per dirigersi verso l’orbita del piccolo pianeta roccioso: uno della Terra, due di Venere e sei di Mercurio. Su Media Inaf abbiamo seguito tutti i flyby, in particolare quelli di Mercurio, dal primo – del 5 ottobre 2021, quando è passato a soli 199 chilometri dalla superficie – all’ultimo, quello di questa mattina.

BepiColombo si è avvicinato al pianeta dal suo lato notturno, scorgendo quello illuminato dal Sole a partire dalle 7:06 circa, sette minuti dopo aver raggiunto il punto più vicino alla superficie. Non ha ricevuto luce solare diretta per più di 23 minuti e ha dovuto fare affidamento solo sulle sue batterie. Si tratta della prima volta che è rimasto così a lungo all’ombra di Mercurio. Ricordiamo che, anche se è il pianeta più vicino al Sole, di notte la sua temperatura scende fino a -180 gradi (a differenza di Venere che, sebbene sia più lontano dal Sole, ha una temperatura di circa 450 gradi per via del tremendo effetto serra che lo caratterizza). Per superare questo momento critico gli operatori della missione si sono preparati riscaldando il veicolo spaziale già dal giorno prima e interrompendo il riscaldamento solo pochi minuti prima che BepiColombo entrasse nella “zona notte” del pianeta.

L’accelerometro Isa (Italian Spring Accelerometer) – uno degli strumenti di Mpo, fornito dall’Inaf di Roma – ha registrato le accelerazioni percepite dalla navicella spaziale mentre subiva non solo l’attrazione gravitazionale del pianeta, ma anche la variazione della radiazione solare e della temperatura quando è entrata e uscita dall’ombra di Mercurio, oltre a tutti i movimenti e le vibrazioni della sonda causati, ad esempio, dal movimento dei pannelli solari.

La rotta di BepiColombo l’ha portato a transitare proprio sopra il polo nord di Mercurio. Questo ha permesso alla sonda di osservare crateri il cui interno non viene mai toccato dal Sole. Nonostante le temperature raggiungano i 450 °C sulla superficie illuminata dal Sole, le “regioni d’ombra permanente” polari sono letteralmente ghiacciate. I dati raccolti dagli strumenti della sonda Messenger della Nasa tra il 2011 e il 2015, oltre alle osservazioni radar dalla Terra, hanno fornito una forte evidenza della presenza di ghiaccio d’acqua in alcuni di questi crateri. Se ci sia davvero ghiaccio d’acqua su Mercurio è uno dei cinque misteri che BepiColombo si è proposto di risolvere.

In calce all’articolo è riportata una simulazione di ciò che la M-Cam 1 ha visto durante il flyby, effettuata utilizzando un modello di topografia digitale preparato dal team della missione Messenger. In questo modello c’è una lacuna intorno ai poli: le prossime viste del flyby di BepiColombo e le orbite polari della missione intorno a Mercurio a partire dal 2026 miglioreranno notevolmente la copertura di queste regioni.

Durante il flyby, BepiColombo ha attraversato regioni che non sono mai state campionate prima d’ora, alcune delle quali non saranno visitate successivamente. Nell’oscurità, la sonda è passata attraverso regioni in cui le particelle cariche possono fluire dalla coda magnetica del pianeta verso la sua superficie. Ai poli, in regioni chiamate cuspidi, le linee del campo magnetico planetario incanalano anche le particelle provenienti dal Sole verso la superficie di Mercurio. In particolare, la sonda è passata attraverso la cuspide settentrionale.

31062423
Il campo magnetico di Mercurio interagisce con le particelle del vento solare, creando la magnetosfera del pianeta, una bolla nello spazio che ha la forma di una coperta di vento che si estende lontano dal Sole. Questa bolla cambia costantemente in risposta al vento solare. Qui vedete il risultato di una simulazione che illustra un possibile ambiente magnetico di Mercurio in condizioni tipiche di vento solare. L’immagine di sinistra mostra una “vista laterale” in cui il Sole è fuori dal campo a sinistra; l’immagine di destra mostra una “vista frontale” come se stessimo guardando Mercurio dalla direzione del Sole. La simulazione si basa su un modello, non mostra osservazioni reali. I colori indicano la densità delle particelle cariche intorno a Mercurio, con la densità più alta in giallo e quella più bassa in viola/nero. Le linee bianche sono linee di campo magnetico (le linee quasi verticali che si estendono dai poli del pianeta sono artefatti numerici e vanno ignorate). Il vento solare indisturbato appare di colore arancione scuro. Quando il vento solare incontra il campo magnetico di Mercurio, viene riscaldato e deviato, creando una regione più densa di particelle di vento solare, indicata in giallo. All’interno di questo strato denso, vediamo che il numero di particelle di vento solare scende molto rapidamente fino a quasi zero, a eccezione di un flusso che si estende dall’equatore. Crediti: Willi Exner – Esa & Tu Braunschweig

Due analizzatori di particelle (Serena e Mppe) studiano le particelle in queste affascinanti regioni, mentre i due magnetometri (Mpo-Mag e Mmo-Mgf) rilevano il campo magnetico di Mercurio e lo strumento Mercury Dust Monitor (Mdm) misura le particelle di polvere più grandi.

Dopo l’arrivo su Mercurio, alla fine del 2026, le sonde si separeranno e si dirigeranno verso le loro orbite polari intorno al pianeta. Inizieranno le operazioni scientifiche all’inizio del 2027, raccogliendo dati per un anno, durante la loro missione nominale, con una possibile estensione di un anno.

Tutte le immagini riprese dalle M-Cam saranno rese pubbliche nell’Archivio di Scienze Planetarie.

Guarda il video sul canale Esa Space Science Hub:

youtube.com/embed/sNqPPRnhFJQ?…



Hera in realtà aumentata, nel vostro salotto


media.inaf.it/2025/01/07/hera-…
Immaginate di rientrare in casa e di vedere, sopra il tavolo del soggiorno, una copia della sonda Hera dell’Esa – attualmente in viaggio verso l’asteroide Dimorphos – in tutta la sua interezza e complessità. Potete girarci attorno, smontarla e rimontarla senza il rischio di danneggiarla, e toccarla con mano. Una mano virtuale, per la verità, quella garantita dal vostro Apple Vision Pro o da un paio di cuffie Meta Quest 3 o 3S Vr. Come fare? Vi basterà scaricare un’applicazione gratuita per iOs lanciata lo scorso 20 dicembre sull’App Store, “Guardians of Earth”, sviluppata dalla startup italiana Dive in collaborazione con il team della missione Hera dell’Esa.

«La collaborazione con l’Esa è un viaggio che ci sta molto a cuore, come gli astronauti che si avventurano verso l’ignoto» dice Michelangelo Mochi, Ceo di Dive. «Siamo orgogliosi di lavorare al fianco di un’organizzazione che condivide la nostra visione e il nostro impegno per l’esplorazione».

30983493
Ricostruzione in realtà aumentata della sonda Hera come si potrebbe vedere utilizzando la nuova App “guardian of Earth”, sviluppata dalla startup italiana Dive in collaborazione con l’Agenzia spaziale europea. Crediti: Esa/Terra Mater

Un’anteprima di quello che potreste vedere la trovate nell’immagine qui sopra. Lanciata lo scorso 7 ottobre 2024, Hera è la prima missione di difesa planetaria dell’Esa, in viaggio per visitare il primo asteroide la cui orbita è stata modificata dall’azione umana. Raccoglierà dati avvicinandosi al sistema binario 65803 Didymos (di cui Dimorphos è, appunto, il membro più piccolo), colpito dalla sonda Dart della Nasa nel 2022, per scoprire quali conseguenze ha avuto su di esso la tecnica di deviazione sperimentata dalla Nasa, con l’idea di renderla ripetibile in caso di minaccia reale per la Terra. La prossima tappa di Hera sarà uno “swingby” di Marte la prossima primavera che la porterà sulla rotta verso Dimorphos. Una manovra che, grazie alla realtà aumentata sviluppata dall’italiana Dive, potrete seguire come foste in volo accanto alla sonda. Non solo, potrete sbirciare all’interno di una navicella virtuale, assemblarne gli elementi pezzo per pezzo, scoprire la sua strumentazione avanzata, sperimentare le principali tecnologie di viaggio nello spazio e seguirne il viaggio nello spazio fino all’asteroide di destinazione.

Grazie al coinvolgimento nel progetto dello studio di videogiochi 34BigThings, infatti, l’app offre un’esperienza immersiva a 360 gradi, proiettando gli utenti nel cosmo con Hera e portandoli faccia a faccia con i corpi celesti incontrati lungo il percorso. E se ci fosse qualche curiosità che proprio non trova soddisfazione, potreste provate a chiedere direttamente alla missione, attraverso Hera Space Companion, un assistente interattivo dotato di intelligenza artificiale che fornisce informazioni sulla missione e dati in tempo reale dallo spazio. È stato sviluppato da Terra Mater Studios, Impact AI e Microsoft Austria in collaborazione con l’Esa.

«Le tecnologie della realtà virtuale (Vr) e della realtà aumentata (Ar) stanno rivoluzionando il modo in cui i ricercatori affrontano lo studio dell’astrofisica», dice a Media Inaf Laura Leonardi dell’Inaf di Palermo, che si occupa dello studio e dello sviluppo di prodotti multimediali con applicazioni in realtà virtuale, realtà aumentata e computer grafica per la diffusione della cultura scientifica. «Queste soluzioni immersive, infatti, permettono di esplorare dinamiche e strutture dell’universo con un livello di dettaglio che supera significativamente le capacità dei metodi tradizionali, aprendo nuove prospettive per la ricerca scientifica. Nello specifico, la Vr consente agli scienziati di immergersi in ambienti simulati e di osservare complesse strutture cosmiche, altrimenti difficili da individuare e osservare. L’Ar, d’altra parte, “aumenta” il proprio spazio fisico, aggiungendo informazioni alla nostra realtà. Sono due tecnologie complementari, spesso confuse tra loro».

Nel caso dell’app “Guardians of Earth” e della missione Hera, l’utilizzo di visori Quest 3 permette di integrare Vr e Ar in quella che viene definita mixed reality. Per rendere ancora più coinvolgente l’esperienza dell’applicazione, la narrazione è affidata al leggendario chitarrista, cantautore e compositore britannico dell’iconica band Queen, Brian May. Inoltre, la colonna sonora è stata composta da Matteo Ruperto, con la partecipazione di musicisti dell’orchestra di Ennio Morricone, che fonde la qualità cinematografica con un senso di stupore e meraviglia.

«È interessante notare come sempre più enti di ricerca investano e si affidino a queste tecnologie per le proprie analisi scientifiche e non solo poiché sono strumenti che hanno un impatto enorme anche nella comunicazione scientifica», continua Leonardi. «Permettono di avvicinare il grande pubblico e le nuove generazioni a concetti scientifici complessi, offrendo esperienze dirette come il viaggio attraverso l’esplosione di una stella, offerta ad esempio dall’app Inaf Starblast, o la costruzione di un telescopio, come l’esperienza che è possibile fare utilizzando l’app in realtà virtuale dedicata al Cherenkov Telescope Array Observatory (Ctao), sempre dell’Inaf e di prossima pubblicazione».



L’Osservatorio Cta diventa un Eric


Immagine/foto
Oggi, martedì 7 gennaio 2025, la Commissione europea ha istituito il Cherenkov Telescope Array Observatory (Ctao) come Consorzio europeo di infrastrutture di ricerca (Eric), rafforzando così la sua missione di diventare l’osservatorio per l’astronomia dei raggi gamma più grande e potente al mondo. La creazione del Ctao Eric accelererà la costruzione dell’Osservatorio e fornirà un quadro di riferimento per la distribuzione globale dei dati, accelerandone significativamente il progresso verso nuove scoperte scientifiche.

«L’Eric snellirà la costruzione e la gestione dell’Osservatorio in un modo che, senza dubbio, aiuterà il Ctao ad attrarre nuovi talenti e investimenti mentre continua a crescere», ha dichiarato Aldo Covello, presidente del Consiglio dei rappresentanti governativi. «Lo status di Eric fornisce al Ctao la stabilità legale e i vantaggi amministrativi necessari per essere sostenibile nelle proprie operazioni e nell’impatto a livello globale».

30965546
Un rendering dei telescopi dell’Osservatorio Cta (Ctao) Nord e Sud. Crediti: Ctao

Il Ctao Eric è stato istituto con il supporto internazionale di 11 paesi e un’organizzazione intergovernativa che contribuiscono allo sviluppo tecnologico, alla costruzione e alle operazioni dell’Osservatorio. Il Consiglio dei rappresentanti governativi rappresenta questo gruppo ed è stato responsabile della preparazione dell’Eric.

«Siamo grati ai nostri membri fondatori per il loro supporto e alla Commissione europea per aver riaffermato la propria fiducia nel Ctao come infrastruttura di ricerca di classe mondiale», ha dichiarato Stuart McMuldroch, direttore generale del Ctao. «Questo traguardo rappresenta il culmine di anni di pianificazione da parte dei vari gruppi che hanno contribuito al successo dell’Osservatorio. Con il Ctao Eric, ora abbiamo uno strumento potente per consolidare i nostri sforzi e progredire nel progetto».

L’Eric non solo fornisce all’organizzazione centrale un quadro formale per accettare e gestire gli attuali prototipi dei telescopi, ma consente anche l’avvio immediato della costruzione dell’intera schiera di oltre 60 telescopi distribuiti nei due siti, in Spagna e in Cile. A Ctao-Nord, dove il prototipo dei telescopi grandi, cosiddetti Large-Sized Telescope o Lst, è in fase di collaudo, si prevede che nei prossimi 1-2 anni saranno costruiti altri tre LSt e un Medium-Sized Telescope (Mst), telescopio di media dimensione. Nel frattempo, a Ctao-Sud, si prevede che i primi cinque telescopi piccoli, denominati Small-Sized Telescopes (Sst), e due Mst saranno consegnati all’inizio del 2026. Così, grazie all’Eric, l’Osservatorio potrà gestire configurazioni intermedie di telescopi già a partire dal 2026.

L’impatto dell’Eric non li limiterà al solo hardware, ma influenzerà altre aree chiave. Nei prossimi mesi, l’Osservatorio si preparerà a integrare e operare software avanzato progettato per controllare i telescopi e i relativi dispositivi di supporto, nonché per gestire l’elaborazione dei dati. Inoltre, proseguirà la campagna di reclutamento per tutte le strutture del Ctao, tra cui il Quartier generale in Italia e il Centro di gestione dei dati scientifici in Germania, garantendo un forte supporto per questi sviluppi.

Il Ctao è stato riconosciuto come “Punto di riferimento” nella Roadmap 2018 del Forum europeo strategico sulle infrastrutture di ricerca (Esfri) ed è stato classificato come la principale priorità tra le nuove infrastrutture da terra nella Roadmap 2022-2035 di Astronet. Ora, dopo anni di intenso lavoro preparatorio e con l’entità giuridica finale in funzione, il Ctao consolida la propria posizione nella comunità scientifica globale, facilitando sinergie con altre organizzazioni e osservatori internazionali.

«Lo status di Eric rafforza la presenza del Ctao in Europa e il suo ruolo come attore chiave nello spazio europeo della ricerca, ma il supporto ricevuto e l’ambito di influenza del Ctao Eric vanno ben oltre i confini europei», ha spiegato Federico Ferrini, co-direttore generale. «Per costruire e gestire il più grande osservatorio di raggi gamma al mondo, che soddisfi le ambiziose esigenze della comunità scientifica globale, contiamo su un numero crescente di partner da tutto il mondo».

«Con questa importante tappa», ha commentato Roberto Ragazzoni, presidente dell’Istituto nazionale di astrofisica (Inaf), «continuiamo a lavorare alla costruzione di un nuovo osservatorio per la comprensione dei fenomeni dell’universo che coinvolgono quantità di energia inimmaginabili in laboratorio o nei dintorni del nostro Sistema solare: dai raggi cosmici più potenti ai buchi neri, passando per la natura della materia oscura».

I membri del Ctao Eric sono Austria, Francia, Germania, Italia, Osservatorio europeo australe (Eso), Polonia, Repubblica Ceca, Slovenia e Spagna. Inoltre, la Svizzera è Osservatore, il Giappone è partner strategico mentre l’Australia, gli Stati Uniti e il Brasile parteciperanno come terze parti.

Per saperne di più:

Guarda il video (in inglese) sul canale YouTube di Ctao:

youtube.com/embed/T1O3M-N5BeI?…



Galassie d’ogni sorta nella Macchina pneumatica


30923358
L’immagine che vediamo qui di seguito è stata acquisita dalla Dark Energy Camera (DeCam), una fotocamera da 570 megapixel montata sul telescopio Víctor M. Blanco, in Cile. Mostra in grande dettaglio l’ammasso della Macchina pneumatica (noto anche come Antlia cluster, o Abell S636), situato in direzione dell’omonima costellazione, a circa 130 milioni di anni luce da noi – da non confondere con la galassia nana che ha lo stesso nome.

30923360
L’ammasso di galassie Abell S636 ripreso con la DeCam del telescopio Víctor M. Blanco. Crediti: Dark Energy Survey/Doe/Fnal/Decam/Ctio/Noirlab/Nsf/Aura. Image processing: R. Colombari & M. Zamani (Nsf NoirLab)

Il nome ‘macchina pneumatica’, si legge su Wikipedia, è un omaggio al dispositivo inventato da Denis Papin per ricreare il vuoto in laboratorio. Tutt’altro che vuota è però la regione d’universo che denota: l’ammasso è infatti formato da almeno 230 galassie d’ogni sorta.

Le principali sono le due massicce galassie ellittiche – Ngc 3268 e Ngc 3258 – che troviamo, rispettivamente, al centro dell’immagine e in basso a destra. Gli astronomi sospettano che queste due galassie siano in procinto di fondersi: ipotesi suffragata da osservazioni a raggi X che mostrano la presenza, fra le due, di una sorta di “corda” formata da ammassi globulari. Se l’interpretazione è corretta, è probabile che lo stesso ammasso possa essere, a sua volta, il risultato della combinazione di due ammassi più piccoli.

30923362
Una piccola porzione della miriade di pittoresche galassie che si trovano all’interno dell’Ammasso della Macchina pneumatica, un gruppo di almeno 230 galassie situate a circa 130 milioni di anni luce da noi. Questa immagine è stata scattata con la Dark Energy Camera (DeCam) da 570 megapixel montata sul telescopio di 4 metri Víctor M. Blanco della National Science Foundation (Nsf) statunitense, situato all’Osservatorio interamericano di Cerro Tololo, in Cile. La vista ultra-profonda di DeCam mostra la varietà di galassie all’interno e all’esterno dell’ammasso in modo incredibilmente dettagliato. Crediti: Dark Energy Survey/Doe/Fnal/Decam/Ctio/Noirlab/Nsf/Aura. Image processing: R. Colombari & M. Zamani (Nsf NoirLab)

Si possono poi notare numerose galassie lenticolari (galassie a disco povere di materia interstellare, dunque con attività di formazione stellare molto ridotta), alcune galassie irregolari e una pletora di rare galassie nane a bassa luminosità, fra le quali alcune nane ultracompatte, ellittiche compatte e nane compatte blu. L’ammasso sembrerebbe poi contenere anche galassie nane sferoidali e galassie ultra-diffuse, ma per confermarne la presenza saranno necessarie ulteriori osservazioni.

Guarda il video (in inglese) sul canale YouTube del NoirLab:

youtube.com/embed/Zs-yzyCFfxQ?…



Individuata l’origine di un lampo radio veloce


30481725
I lampi radio veloci – in inglese fast radio burst (Frb) – sono brevi e brillanti esplosioni di onde radio emesse da oggetti estremamente compatti, come stelle di neutroni e forse buchi neri. Questi fugaci fuochi d’artificio durano appena un millesimo di secondo e possono trasportare un’enorme quantità di energia, sufficiente a sovrastare la luminosità di intere galassie. Da quando è stato scoperto il primo fast radio burst nel 2007, gli astronomi ne hanno rilevati migliaia, la cui posizione varia dall’interno della Galassia fino a 8 miliardi di anni luce di distanza. Nonostante ne siano stati scoperti così tanti, il modo in cui avvengono è ancora oggetto di diatribe.

Ora, gli astronomi del Massachusetts Institute of Technology (Mit) hanno individuato le origini di almeno un fast radio burst utilizzando una tecnica innovativa che potrebbe risultare promettente anche per altri Frb. Nel nuovo studio, pubblicato il primo gennaio sulla rivista Nature, il team si è concentrato su Frb 20221022A, un fast radio burst già conosciuto e rilevato in una galassia distante circa 200 milioni di anni luce.

30481729
Il Canadian Hydrogen Intensity Mapping Experiment (Chime), un radiotelescopio interferometrico situato presso il Dominion Radio Astrophysical Observatory nella Columbia Britannica, in Canada. Crediti: Chime

In particolare, il team si è focalizzato sulla determinazione della posizione precisa del segnale radio analizzando la sua scintillazione, un fenomeno simile a quello per cui le stelle sembrano sfavillare nel cielo notturno. Gli scienziati hanno studiato le variazioni di luminosità dell’Frb e hanno stabilito che il burst deve aver avuto origine nelle immediate vicinanze della sorgente, piuttosto che molto più lontano, come previsto da alcuni modelli.

Il team stima che Frb 20221022A sia esploso da una regione estremamente vicina a una stella di neutroni rotante, a una distanza massima di 10mila chilometri, meno della distanza tra New York e Singapore. A distanza così ravvicinata, l’esplosione è probabilmente emersa dalla magnetosfera della stella di neutroni, una regione altamente magnetica che circonda la stella ultracompatta. «In questi ambienti delle stelle di neutroni, i campi magnetici sono davvero ai limiti di ciò che l’universo può produrre», spiega Kenzie Nimmo del Kavli Institute for Astrophysics and Space Research, primo autore dello studio. «Si è molto discusso sul fatto che questa emissione radio luminosa possa anche solo sfuggire da quel plasma estremo».

«Intorno a queste stelle di neutroni altamente magnetiche, note anche come magnetar, gli atomi non possono esistere: verrebbero semplicemente fatti a pezzi dai campi magnetici», spiega Kiyoshi Masui, professore associato di fisica al Mit. «La cosa eccitante è che abbiamo scoperto che l’energia immagazzinata in quei campi magnetici, vicino alla sorgente, si sta torcendo e riconfigurando in modo tale da poter essere rilasciata sotto forma di onde radio che possiamo vedere attraverso l’universo».

I rilevamenti di lampi radio veloci sono aumentati negli ultimi anni grazie al Canadian Hydrogen Intensity Mapping Experiment (Chime). L’array di radiotelescopi comprende quattro grandi semi-cilindri di 100 x 20 metri su cui sono installati 1024 ricevitori radio a doppia polarizzazione sensibili alle frequenze tra 400-800 MHz. Dal 2020, Chime ha rilevato migliaia di Frb provenienti da tutto l’universo.

Sebbene gli scienziati siano generalmente d’accordo sul fatto che i burst provengano da oggetti estremamente compatti, la fisica esatta che guida gli Frb non è chiara. Alcuni modelli prevedono che i fast radio burst provengano dalla magnetosfera turbolenta che circonda un oggetto compatto, mentre altri prevedono che i burst abbiano origine molto più lontano, come parte di un’onda d’urto che si propaga lontano dall’oggetto centrale.

Per distinguere i due scenari e determinare dove nascono i fast radio burst, il team ha preso in considerazione la scintillazione, ovvero l’effetto che si verifica quando la luce di una sorgente puntiforme, come una stella, passa attraverso un mezzo, come il gas di una galassia, e viene deflessa in modo da apparire, a un osservatore distante, come se la stella stesse scintillando. Più un oggetto è piccolo o lontano, più scintilla. La luce di oggetti più grandi o più vicini, come i pianeti del Sistema solare, subisce una deflessione minore e quindi non sembra scintillare.

Il team ha pensato che se si potesse stimare il grado di scintillazione di un Frb, si potrebbe determinare la dimensione relativa della regione da cui il lampo ha avuto origine. Più piccola è la regione, più il burst è vicino alla sua sorgente e più è probabile che provenga da un ambiente magneticamente turbolento. Più grande è la regione, più lontano sarebbe il burst, a sostegno dello scenario secondo il quale gli Frb derivano da onde d’urto lontane.

Ed ecco che entra in gioco Frb 20221022A, il veloce burst radio rilevato da Chime nel 2022. Il segnale dura circa due millisecondi ed è un Frb relativamente comune, in termini di luminosità. Tuttavia, un gruppo di collaboratori della McGill University ha scoperto che Frb 20221022A presentava una proprietà particolare: la luce del burst era altamente polarizzata, con l’angolo di polarizzazione che tracciava una curva regolare a forma di S. Questo fatto è stato interpretato come la prova che il burst è altamente polarizzato e che il sito di emissione dell’Frb sta ruotando, una caratteristica precedentemente osservata nelle pulsar, stelle di neutroni altamente magnetizzate e in rotazione.

La presenza di una polarizzazione simile nei fast radio burst è una novità assoluta, che suggerisce che il segnale possa provenire da regioni molto vicine alla stella di neutroni. I risultati del team della McGill sono riportati in un articolo di accompagnamento pubblicato su Nature.

30481732
Rappresentazione artistica di una magnetar in un antico ammasso globulare (in rosso) vicino alla galassia a spirale Messier 81 (M81). Il misterioso ed estremamente rapido lampo radio veloce proverrebbe da questa regione. Crediti: Daniëlle Futselaar, artsource.nl

A questo punto, il team del Mit ha intuito che, attraverso l’eventuale rilevamento di una scintillazione, sarebbe stato possibile verificare se l’Frb 20221022A avesse avuto origine nelle vicinanze di una stella di neutroni. E così è stato: nel loro nuovo studio, Nimmo e i suoi colleghi hanno individuato nei dati di Chime forti variazioni di luminosità indicative di una scintillazione. Hanno confermato la presenza di gas tra il telescopio e l’Frb, capace di deviare e filtrare le onde radio. Analizzando la posizione di questo gas, il team ha stabilito che parte della scintillazione osservata era attribuibile al gas presente nella galassia ospite dell’Frb. Questo gas, agendo come una lente naturale, ha permesso ai ricercatori di “ingrandire” il sito di origine dell’Frb e di determinare che il burst proveniva da una regione estremamente piccola, con un diametro di circa 10mila chilometri. «È molto vicino», afferma Nimmo. «Per fare un paragone, se il segnale provenisse da un’onda d’urto, ci aspetteremmo di trovarci a oltre decine di milioni di chilometri di distanza e non vedremmo alcuna scintillazione».

«Fare uno zoom su una regione di 10mila chilometri, da una distanza di 200 milioni di anni luce, è come poter misurare la larghezza di un’elica di Dna, che è larga circa 2 nanometri, sulla superficie della Luna», aggiunge Masui.

Questi risultati, combinati con quelli del team McGill, escludono la possibilità che Frb 20221022A sia emerso dalle zone più periferiche di un oggetto compatto. Al contrario, gli studi dimostrano per la prima volta che i fast radio burst possono avere origine molto vicino a una stella di neutroni, in ambienti magnetici altamente caotici.

«Il modello tracciato dall’angolo di polarizzazione era così sorprendentemente simile a quello osservato dalle pulsar nella nostra galassia, la Via Lattea, che inizialmente abbiamo temuto che la sorgente non fosse in realtà un Frb ma una pulsar classificata in modo errato», afferma Ryan Mckinven, coautore dello studio della McGill University. «Fortunatamente, queste preoccupazioni sono state messe a tacere con l’aiuto dei dati raccolti da un telescopio ottico che ha confermato che l’Frb ha avuto origine in una galassia distante milioni di anni luce».

«La polarimetria è uno dei pochi strumenti che abbiamo per sondare queste sorgenti lontane», conclude Mckinven. «Questo risultato probabilmente ispirerà studi successivi su un comportamento simile in altri Frb e stimolerà gli sforzi teorici per riconciliare le differenze nei loro segnali polarizzati».

Per saperne di più:

  • Leggi su Nature l’articolo “Magnetospheric origin of a fast radio burst constrained using scintillation” di Kenzie Nimmo, Ziggy Pleunis, Paz Beniamini, Pawan Kumar, Adam E. Lanman, D. Z. Li, Robert Main, Mawson W. Sammons, Shion Andrew, Mohit Bhardwaj, Shami Chatterjee, Alice P. Curtin, Emmanuel Fonseca, B. M. Gaensler, Ronniy C. Joseph, Zarif Kader, Victoria M. Kaspi, Mattias Lazda, Calvin Leung, Kiyoshi W. Masui, Ryan Mckinven, Daniele Michilli, Ayush Pandhi, Aaron B. Pearlman, Masoud Rafiei-Ravandi, Ketan R. Sand, Kaitlyn Shin, Kendrick Smith e Ingrid H. Stairs


Swelto e la tempesta geomagnetica di Capodanno


30477920
30477922
Dati registrati dal nuovo magnetometro del progetto Swelto in occasione della tempesta geomagnetica di inizio 2025 (cliccare per ingrandire). Crediti: Swelto/Inaf Torino

Uno degli obiettivi del progetto Swelto (Space Weather Laboratory in Turin Observatory) è predisporre presso l’Inaf di Torino nuovi sensori che forniscano misure dei disturbi nello spazio circumterrestre collegati all’attività solare. Già alcuni anni fa un sensore utilizzato nell’ambito del progetto Swelto aveva rilevato un cosiddetto “evento Sid” (Sudden Ionospheric Disturbance) associato al primo brillamento di classe X del ciclo solare 25esimo attualmente in corso. Si tratta di misure relativamente semplici, che sfruttano un’antenna radio passiva che misura l’intensità di segnali radio proveniente da trasmettitori a bassa frequenza utilizzati per le comunicazioni sub-ionosferiche: segnali che sono quindi disturbati quando la densità di elettroni liberi in ionosfera è modificata improvvisamente dal flash nell‘estremo ultravioletto (Euv) associato a un brillamento solare.

Altrettanto interessanti nell’ambito della meteorologia spaziale sono le misure dei disturbi del campo magnetico terrestre (il campo geomagnetico) che possono generalmente essere dovute a correnti addizionali indotte in ionosfera oppure in magnetosfera durante una tempesta geomagnetica. A livello nazionale, questo tipo di misure vengono acquisite attualmente dalle stazioni gestite dall’Ingv (Istituto nazionale di geofisica e vulcanologia) e situate a Castello Tesino (TN), L’Aquila (AQ), Duronia (CB) e Lampedusa (AG), che gestisce anche degli osservatori geomagnetici in Antartide. Questi dati sono anche standardizzati e utilizzati per contribuire alla rete globale di osservatori geomagnetici denominata InterMagnet (International Real-time Magnetic Observatory Network).

Considerando le basse latitudini cui si trovano gli osservatori nazionali che forniscono le misure rispetto all’equatore magnetico, questi disturbi sono generalmente associati all’intensificazione delle cosiddette correnti magnetosferiche ad anello, che scorrono nella parte più interna della magnetosfera terrestre in senso opposto alla rotazione del pianeta e in prossimità dell’equatore magnetico. Queste correnti, presenti anche in assenza di un disturbo, sono particolarmente intensificate durante una tempesta geomagnetica, producendo una componente addizionale del campo magnetico diretta verso sud che viene tipicamente quantificata in termini del cosiddetto “indice-Dst”. La misura dell’indice-Dst fornisce una stima indiretta dell’intensità di queste correnti e quindi della tempesta geomagnetica, e a livello mondiale l’istituto di riferimento per questo tipo di misure è il World Data Center for Geomagnetism di Kyoto, in Giappone.

A fine novembre 2024, è stato installato presso l’Inaf di Torino un nuovo sensore, ossia un magnetometro di tipo FluxGate con lo scopo di misurare in tempo reale i disturbi del campo geomagnetico associati all’attività solare. Il dispositivo è stato installato in prossimità della cupola Marcon (coordinate Gps: 45° 02 ‘27.18” N, 7° 45’50.58” E, altitudine 665 m s.l.m.) all’interno di un pozzetto in pvc, a circa un metro di profondità per ridurre al minimo le perturbazioni esterne sulla misura (vibrazioni, effetti termici, eccetera). La stazione geomagnetica è stata progettata per poter misurare variazioni di campo magnetico con un’accuratezza di circa 0.5 nT.

30477931
Il nuovo magnetometro di tipo FluxGate installato all’Inaf di Torino (la porzione di paesaggio a dx della torre è stata generata artificialmente con Adobe Photoshop AI). Crediti: Swelto/Inaf Torino

Le prime misure che sono state acquisite da fine novembre hanno permesso di ricavare una curva preliminare di riferimento locale in condizioni non disturbate, curva che è stata quindi utilizzata per misurare il disturbo indotto giornalmente nel campo geomagnetico locale, seguendo una procedura simile a quella descritta da Sugiura e Kamei nel 1991. Gli eventi solari che si sono verificati all’inizio del 2025 hanno generato una tempesta geomagnetica inaspettatamente intensa di classe G4 proprio il primo dell’anno, portando alla formazione di intense aurore osservate anche dall’Italia nella notte tra l’1 e il 2 gennaio. Questo evento ha rappresentato un’occasione unica per verificare il corretto funzionamento del nuovo magnetometro dell’Inaf di Torino acquisito nell’ambito del progetto Swelto.

I dati ottenuti dal magnetometro Swelto (vedi immagine di apertura) mostrano chiaramente la rilevazione locale del disturbo geomagnetico, con un valore minimo dell’indice-Dst locale pari a – 277 nT alle ore 17:25 Ut del primo gennaio, in ottimo accordo con il valore ufficiale pari a – 215 nT alle ore 17 Ut dello stesso giorno. La curva ottenuta dal sensore Inaf mostra inoltre correttamente tutte le fasi della tempesta geomagnetica, sia la fase di rapida diminuzione dell’indice-Dst (denominata “main phase”) che la successiva fase di recupero del valore iniziale del campo geomagnetico (denominata “recovery phase”) attualmente ancora in corso.

Il magnetometro Swelto dell’Inaf è quindi già in grado di rilevare localmente in tempo reale il verificarsi di tempeste geomagnetiche. Nel prossimo futuro prevediamo di pubblicare le misure in quasi tempo reale sul portale dedicato del progetto Swelto, dove già vengono mostrati gli ultimi dati acquisiti in situ dalla sonda Ace nel punto lagrangiano L1 e le ultime misure dell’indice-Dst fornite da Kyoto. Maggiori dettagli sulla strumentazione saranno forniti a breve in una nota tecnica in fase di preparazione e sul portale del progetto Swelto.



Filippina Caputo ci ha lasciato


media.inaf.it/2025/01/03/filip…
30444060
Filippina Caputo

In ricordo di Filippina

Giuseppe Bono

Abbiamo appreso pochi giorni fa che la collega Filippina Caputo è passata a miglior vita. È una notizia particolarmente dolorosa per me, avendo avuto la fortuna di essere stato suo collaboratore per molti anni. Filippina lascia un vuoto non solo dal punto di vista accademico ma anche di guida per le diverse generazioni di astrofisiche, astrofisici e di amministrativi che hanno avuto il privilegio di interagire con lei. Accademicamente Filippina si è laureata in fisica nella seconda metà degli anni Sessanta sotto la guida di Livio Gratton all’Università Sapienza di Roma e ha iniziato a collaborare con gli astrofisici dell’Istituto di astrofisica spaziale di Frascati, dove è diventata ricercatrice nel 1970. Quell’istituto è stato un centro nevralgico dell’astrofisica italiana ed è lì che la conobbi sul finire degli anni ‘80, avendo da poco iniziato a collaborare con Vittorio Castellani e con gli altri ricercatori del gruppo. L’empatia con lei fu immediata e tale è rimasta negli anni a seguire.

Da quegli incontri emerse un programma di ricerca incentrato sulle proprietà evolutive e pulsazionali delle stelle variabili che venivano utilizzate come indicatori di distanza e come traccianti di popolazioni stellari. L’idea era quella di costruire uno scenario teorico che fornisse predizioni solide sugli osservabili stellari e pulsazionali al variare della composizione chimica delle stelle. Filippina ha avuto un ruolo determinante nello sviluppo di questo progetto che toccava le proprietà intrinseche degli ammassi globulari e delle galassie nane del gruppo locale. Tra questi mi piace ricordare la dicotomia di Oosterhoff, un problema astrofisico rimasto aperto per diversi decenni, su cui lei ha dato contributi fondamentali.

I risultati più importanti dal punto di vista astrofisico che Filippina ha lasciato sono quelli inerenti la topologia della striscia di instabilità delle Cefeidi e dei diagnostici che vengono utilizzati per la determinazione delle distanze e delle età delle stelle variabili. In una serie di articoli venne messa in discussione l’universalità della relazione tra periodo e luminosità delle Cefeidi classiche di Henrietta Leavitt, attualmente al centro della tensione sulla misura della costante di Hubble. In questi articoli sono anche state aperte nuove strade per l’uso delle variabili (RR Lyrae, Cefeidi) per vincolare i gradienti di metallicità nelle galassie vicine e l’abbondanza di elio primordiale. Nel frattempo gli interessi dei gruppi di variabilisti di Capodimonte e di Roma si sono ampliati anche dal punto di vista sperimentale: fotometria prima e spettroscopia dopo per le variabili di ammasso e di campo. Questi risultati hanno contribuito alla visibilità Internazionale dell’astrofisica stellare italiana e hanno dato vita a numerose collaborazioni nazionali e internazionali che hanno visto Filippina come protagonista.

Uno degli aspetti dell’attività di ricerca di Filippina importante da ricordare è che insieme a Vittorio ha avviato alla ricerca almeno tre generazioni di astrofisiche e astrofisici. Era lei che spronava a fare nuove esperienze e che riusciva a mantenere i contatti anche quando i suoi collaboratori trascorrevano lunghi periodi all’estero. Filippina aveva ben chiaro quali fossero le priorità professionali e personali, e in particolare, capire quando gli impegni accademici dovevano cedere il passo a quelli familiari.

Anche dal punto di vista istituzionale la carriera di Filippina è stata brillante e intensa. È diventata astronoma ordinaria dell’Osservatorio astronomico di Capodimonte (1996-1999), dove negli stessi anni ha ricoperto il ruolo di vice direttrice. Si è trasferita all’Osservatorio astronomico di Roma nel 1999, e dal 2000 al 2003 è diventata membro del Consiglio direttivo del nascente Istituto nazionale di astrofisica (Inaf), unica donna a essere eletta come rappresentante del personale di ricerca degli osservatori astronomici italiani. È stata anche membro del Consiglio direttivo di diversi osservatori astronomici (Capodimonte, Catania, Roma) e della Società astronomica italiana (Sait). Da sempre sensibile al ruolo femminile nel campo della ricerca astronomica, ha sostenuto e partecipato al Comitato per le pari opportunità nell’Inaf e curato la rubrica “A come astronomA” sul Giornale di astronomia della Sait. Filippina lascia un grande vuoto sia umano che accademico, ma rimarrà per sempre una fonte di ispirazione per le attuali e future generazioni.


Addio alla nostra “Miss Leavitt”

Marcella Marconi, Ilaria Musella, Vincenzo Ripepi e Massimo Dall’Ora

Il gruppo di stelle variabili e popolazioni stellari dell’Inaf di Napoli, addolorato per la scomparsa di Filippina Caputo, ne ricorda con immensa riconoscenza il contributo scientifico e umano. Nel 1996 Filippina è divenuta astronoma ordinaria del nostro Osservatorio e ha iniziato subito con impegno la costruzione di un nuovo gruppo impegnato nel campo della variabilità stellare e della scala delle distanze. Ha organizzato congressi e scuole di dottorato, creato nuove collaborazioni, e si è dedicata al tutoraggio di studenti di laurea e dottorato.

È anche entrata a far parte del Consiglio direttivo dell’Osservatorio con il ruolo di vice-direttrice, impegnandosi con zelo alla creazione di nuove opportunità per i giovani del suo gruppo e non solo. Fino al 1999, anno in cui otterrà il trasferimento all’Osservatorio astronomico di Roma, ha partecipato a tutte le attività di Capodimonte, interagendo con il personale di ricerca, tecnico e amministrativo con spirito di collaborazione e sensibilità all’ascolto delle esigenze e delle problematiche di tutti.

«Grazie a Filippina ho iniziato ad interessarmi delle variabili Cefeidi e alla scala delle distanze extragalattiche, filone di ricerca tuttora molto importante e che occupa ancora gran parte della mia attività scientifica», afferma Vincenzo Ripepi, primo collaboratore e ricercatore staff del gruppo guidato da Filippina a Capodimonte. In quegli anni, grazie a Filippina, Capodimonte è diventato anche un polo di sviluppi teorici nel campo della pulsazione stellare applicata al problema della scala delle distanze extragalattiche con particolare attenzione alla dipendenza delle proprietà delle Cefeidi Classiche dalla metallicità. «Quando Filippina ci convocava nel suo ufficio era sempre per renderci partecipi delle sue intuizioni, dei suoi risultati e delle sfide che aprivano, trasmettendoci passione, entusiasmo e desiderio di conoscenza», ricordano Marcella Marconi e Ilaria Musella.

«Era molto attenta ai rapidi cambiamenti dell’astronomia da Terra», ricorda Massimo Dall’Ora. «Proprio in quegli anni iniziavano ad apparire i primi strumenti per immagini a grande campo, come il Wide Field Imager. La Prof ne intuì subito il grande potenziale, e fu capofila dei primi progetti osservativi focalizzati sulle galassie satelliti della Via Lattea. Un’intuizione che ha caratterizzato ormai un quarto di secolo della ricerca di pulsazione stellare e della Near-Field Cosmology di Capodimonte, e che continua ancora oggi con i più giovani».

Di Filippina non possiamo non ricordare l’empatia. Filippina sapeva comprendere i pensieri che affollavano le menti dei giovani e delle giovani che si avvicinavano al mondo della ricerca, le incertezze, le paure e le difficoltà. Sosteneva le giovani ricercatrici incoraggiandole a mantenere il giusto equilibrio tra attività scientifiche e impegni familiari e si batteva per il superamento di ogni forma di discriminazione o di svantaggio.


Ciao, Prof

Giuliana Fiorentino

Ci tengo a condividere il mio ricordo di Filippina Caputo, la Prof, come l’ho sempre chiamata. Non sono qui a ricordarne il merito scientifico, che senza dubbio è riconosciuto da tanti, ma sono qui a ringraziarla per il ruolo decisivo che ha avuto nel nostro essere qui oggi.

È stata la mia supervisor della tesi di dottorato, nello stesso Osservatorio dove oggi lavoro. Al tempo, ne avevo un po’ di timore per la sua indubbia autorevolezza. Delle volte restavo senza fiato quando mi piombava in ufficio a chiedermi i risultati di qualche esperimento che mi aveva indicato. L’ho vista discutere le sue tesi alle conferenze di settore, sbandierare articoli e difendere i nostri risultati con una tenacia che a quei tempi mi sembrava impossibile da raggiungere.

Mi ha indicato la strada tante volte, come mentore e come donna di scienza. Non ha mai celato le sue idee, anzi le ha sempre difese e promosse agli occhi dei suoi colleghi e di noi giovani studenti. Ha difeso i diritti di tutti ed in particolare delle donne, il diritto a costruirsi una famiglia e ad avere una vita privata oltre la scienza e il lavoro. Trent’anni fa sembrava quasi un’eresia, mentre oggi è un diritto che difendiamo tutte e tutti. Ha sempre avuto fiducia nelle nuove generazioni, pronta al confronto e all’ascolto. Persone come lei hanno permesso a noi studenti di crescere in un ambiente sano, dove la parità di genere non era un’illusione ma la realtà, ho scoperto solo dopo anni quanto quella fosse un’isola felice, l’ho capita e apprezzata dopo molto tempo.

Mi sono sentita smarrita quando alla pensione ha deciso di fare la nonna. Anni dopo ci siamo incontrate a una conferenza e, con una delle sue frasi che restano scritte nella memoria, mi ha incoraggiata, dicendomi che non aveva dubbi che ce l’avrei fatta ad entrare nel mondo della ricerca: “hai le spalle larghe”, mi disse senza esitazione. Da allora credo sia stato così. Oggi la ringrazio per aver scelto di fare la nonna, perché l’esempio si dà con le proprie azioni e non con le parole.

Grazie Filippina, sei nei nostri cuori e nelle nostre azioni.



Jwst ha studiato Trappist-1 b: ecco le novità


30369146
Trappist-1 b è uno dei sette pianeti rocciosi che orbitano attorno alla stella Trappist-1, a soli 40 anni luce di distanza da noi, nella costellazione dell’Aquario. Questo sistema planetario è affascinante e unico perché permette agli astronomi di studiare ben sette pianeti simili alla Terra da una distanza relativamente contenuta, di cui tre si trovano nella cosiddetta zona abitabile. A oggi, dieci programmi di ricerca hanno puntato lo sguardo del James Webb Space Telescope (Jwst) verso questo sistema per un totale di 290 ore di osservazione.

30369150
Impressione artistica del pianeta Trappist-1 b poco prima che transiti dietro la stella nana rossa e fredda Trappist-1. Queste stelle sono note per la loro attività, con grandi macchie stellari ed eruzioni. Trappist-1 b potrebbe sperimentare un intenso vulcanismo. Crediti: Thomas Müller (HdA/Mpia)

Lo studio in questione – guidato dalla ricercatrice francese Elsa Ducrot del Commissariat aux Énergies Atomiques (Cea) di Parigi – utilizza le misurazioni della radiazione infrarossa (essenzialmente radiazione termica) del pianeta Trappist-1 b effettuate con lo strumento Miri (Mid-Infrared Imager) del Jwst ed è stato pubblicato sulla rivista Nature Astronomy.

La pubblicazione riporta anche i risultati dello scorso anno, sui quali si basava la precedente conclusione secondo la quale Trappist-1 b fosse un pianeta roccioso privo di atmosfera. «Tuttavia, l’idea di un pianeta roccioso con una superficie fortemente degradata da agenti atmosferici e priva di atmosfera non è coerente con le misurazioni attuali», dice l’astronomo Jeroen Bouwman, del Max Planck Institute for Astronomy (Mpia) di Heidelberg.

Di solito, la superficie dei pianeti viene erosa dalle radiazioni emesse dalla stella e dagli impatti dei meteoriti. Tuttavia, i risultati suggeriscono che la roccia sulla superficie ha al massimo mille anni, un’età significativamente inferiore a quella del pianeta stesso, che si stima risalga a diversi miliardi di anni fa. Ciò potrebbe indicare che la crosta del pianeta è soggetta a drastici cambiamenti, che potrebbero essere riconducibili a un vulcanismo estremo o alla tettonica a placche. Anche se questo scenario è ancora ipotetico, risulta plausibile. Il pianeta è abbastanza grande e il suo interno potrebbe aver conservato il calore residuo della sua formazione, come nel caso della Terra. L’effetto mareale della stella e degli altri pianeti potrebbe deformare Trappist-1 b in modo tale che l’attrito interno risultante generi calore – come accade su Io, la luna di Giove. Inoltre, è ipotizzabile anche un riscaldamento induttivo da parte del campo magnetico della stella vicina.

Ma c’è di più. «I dati consentono anche una soluzione completamente diversa», spiega Thomas Henning, direttore emerito dell’Mpia, uno dei principali progettisti dello strumento Miri. «Contrariamente alle idee precedenti, esistono condizioni in cui il pianeta potrebbe avere un’atmosfera spessa e ricca di anidride carbonica (CO2)». In questo scenario un ruolo chiave è rappresentato dalla foschia dovuta a composti di idrocarburi – lo smog – presente nell’alta atmosfera.

30369156
Rappresentazione della luminosità infrarossa emessa da Trappist-1 b a 12,8 e 15 micrometri per diversi scenari superficiali, con e senza atmosfera. I quattro casi indicano quali concordano con i dati attuali e quali no. (a) La roccia nuda e scura produce una luminosità infrarossa superiore a quella osservata. (b) La luminosità infrarossa osservata è ben compatibile con una superficie di roccia magmatica solo leggermente o per nulla esposta agli agenti atmosferici. (c) Anche un’atmosfera di anidride carbonica e un alto velo di foschia potrebbero spiegare i dati osservati, in quanto gran parte della radiazione infrarossa proviene dagli strati atmosferici superiori. (d) Le atmosfere simili alla Terra assorbono parte della radiazione infrarossa generata dalla superficie, il che porterebbe a intensità non osservate in Trappist-1 b. Credit: Elsa Ducrot (Cea) / Mpia

I due programmi osservativi (Jwst 1177 e 1279), che si completano a vicenda, sono stati progettati per misurare la luminosità di Trappist-1 b a diverse lunghezze d’onda nell’intervallo spettrale dell’infrarosso termico (12,8 e 15 micrometri). La prima osservazione (a 15 micrometri) era sensibile all’assorbimento della radiazione infrarossa del pianeta da parte di uno strato di CO2. Ma poiché non era stato misurato alcun oscuramento, i ricercatori avevano concluso che il pianeta fosse privo di atmosfera.

Tuttavia, ora hanno dimostrato che la foschia può invertire la stratificazione della temperatura di un’atmosfera ricca di CO2. In genere, gli strati inferiori (a livello del suolo), sono più caldi di quelli superiori a causa della pressione più elevata. Ma la foschia, assorbendo la luce delle stelle e riscaldandosi, riscalda gli strati atmosferici superiori, sostenendo un effetto serra. Di conseguenza, anche l’anidride carbonica emette radiazioni infrarosse. Su Titano, la luna di Saturno, lo strato di foschia si forma molto probabilmente sotto l’influenza delle radiazioni ultraviolette del Sole e dei gas ricchi di carbonio presenti nell’atmosfera. Un processo simile potrebbe verificarsi su Trappist-1 b a causa della forte emissione di radiazioni ultraviolette della sua stella.

Anche se i dati sembrano adattarsi a questo scenario, gli astronomi lo considerano comunque il meno probabile. Da un lato è più difficile, anche se non impossibile, produrre composti idrocarburici che formano una foschia a partire da un’atmosfera ricca di CO2. L’atmosfera di Titano, invece, è costituita principalmente da metano. D’altra parte, rimane il problema che le stelle nane rosse attive, tra cui Trappist-1, producono radiazioni e venti che possono facilmente erodere le atmosfere dei pianeti vicini nel corso di miliardi di anni.

Trappist-1 b è un chiaro esempio di quanto sia difficile rilevare e determinare le atmosfere dei pianeti rocciosi, anche per Jwst. Rispetto a quelle dei pianeti gassosi, sono sottili e producono solo deboli firme misurabili. Le due osservazioni per studiare Trappist-1 b, che hanno fornito valori di luminosità a due lunghezze d’onda, sono durate quasi 48 ore, un tempo insufficiente per determinare con certezza se il pianeta ha un’atmosfera.

30369158
Questa illustrazione mostra l’osservazione di Trappist-1 b durante un transito. Lungo la sua orbita vengono rivelate diverse regioni della sua superficie. Il lato rivolto verso la stella è molto più caldo ed emette luce termica infrarossa. Il segnale complessivo (stella e pianeta) viene catturato appena prima e dopo l’occultazione del pianeta, mentre durante l’evento viene registrata solo la luminosità della stella. Nel pannello inferiore, il grafico mostra le misure di luminosità della stella da sola e in combinazione con il lato giorno del pianeta, sottolineando i cambiamenti di luminosità nel tempo. Crediti: Elsa Ducrot (Cea) / Mpia

Le osservazioni hanno sfruttato la leggera inclinazione del piano orbitale dei pianeti rispetto alla nostra linea di vista su Trappist-1. Questo orientamento fa sì che i sette pianeti passino davanti alla stella e la oscurino leggermente durante ogni orbita. Di conseguenza, è possibile conoscere la natura e l’atmosfera dei pianeti in diversi modi, tra i quali la cosiddetta spettroscopia di transito si è dimostrata un metodo affidabile. Si tratta di misurare l’oscuramento di una stella da parte del suo pianeta, alle varie lunghezza d’onda. Oltre all’occultazione da parte del corpo planetario opaco, da cui gli astronomi determinano le dimensioni del pianeta, i gas atmosferici assorbono la luce stellare a lunghezze d’onda specifiche. Da ciò si può dedurre se un pianeta abbia o meno un’atmosfera e, nel caso, da cosa sia composta. Sfortunatamente, questo metodo presenta degli svantaggi, soprattutto per i sistemi planetari come Trappist-1: le stelle nane rosse e fredde presentano spesso grandi macchie stellari e forti eruzioni, che influenzano in modo significativo la misurazione.

Questo problema può essere aggirato osservando il lato dell’esopianeta riscaldato dalla stella nell’infrarosso. Il lato illuminato è particolarmente facile da vedere appena prima e appena dopo la scomparsa del pianeta dietro la stella. La radiazione infrarossa rilasciata dal pianeta contiene informazioni sulla sua superficie e sulla sua atmosfera. Tuttavia, queste osservazioni richiedono più tempo rispetto alla spettroscopia del transito.

Dato il potenziale di queste osservazioni delle cosiddette eclissi secondarie, la Nasa ha recentemente approvato un vasto programma di osservazione per studiare le atmosfere dei pianeti rocciosi intorno a stelle vicine e di bassa massa. Questo programma, chiamato “Mondi rocciosi”, prevede 500 ore di osservazione con il Jwst. I ricercatori si aspettano così di poter avere una conferma definitiva utilizzando un’altra variante di osservazione: registrando l’intera orbita del pianeta intorno alla stella, comprese tutte le fasi di illuminazione, dal lato buio della notte quando passa davanti alla stella al lato luminoso del giorno poco prima e dopo essere stato coperto dalla stella. Questo approccio consentirà di creare una curva di fase, che indica la variazione di luminosità del pianeta lungo la sua orbita, e sarà possibile dedurre la distribuzione della temperatura superficiale del pianeta. Tale misurazione è già stata effettuata con Trappist-1 b e, analizzando la distribuzione del calore sul pianeta, si può dedurre la presenza di un’atmosfera. Questo perché un’atmosfera aiuta a trasportare il calore dal lato del giorno a quello della notte. Se la temperatura cambiasse bruscamente al passaggio tra i due lati, non dovrebbe esserci alcuna atmosfera.

Per saperne di più:

  • Leggi su Nature Astronomy l’articolo “Combined analysis of the 12.8 and 15 μm JWST/MIRI eclipse observations of TRAPPIST-1 b” di Elsa Ducrot, Pierre-Olivier Lagage, Michiel Min, Michaël Gillon, Taylor J. Bell, Pascal Tremblin, Thomas Greene, Achrène Dyrek, Jeroen Bouwman, Rens Waters, Manuel Güdel, Thomas Henning, Bart Vandenbussche, Olivier Absil, David Barrado, Anthony Boccaletti, Alain Coulais, Leen Decin, Billy Edwards, René Gastaud, Alistair Glasse, Sarah Kendrew, Goran Olofsson, Polychronis Patapis, John Pye, Daniel Rouan, Niall Whiteford, Ioannis Argyriou, Christophe Cossou, Adrian M. Glauser, Oliver Krause, Fred Lahuis, Pierre Royer, Silvia Scheithauer, Luis Colina, Ewine F. van Dishoeck, Göran Ostlin, Tom P. Ray e Gillian Wright


Quando Fontana vide la Luna mangiarsi Saturno


30342160
30342167
Occultazione di Saturno del 4 gennaio 2025: tempi, in ora locale, di inizio e fine occultazione nelle città italiane con sedi Inaf

Il nuovo anno inizia con un evento astronomico molto interessante. Come ha già scritto Fabrizio Villa nella rassegna astronomica di questo mese, la sera di sabato 4 gennaio ci sarà l’occultazione di Saturno a opera della Luna, visibile da quasi tutto il territorio italiano a esclusione della parte est della Sicilia e della punta della Calabria. Il 4 di gennaio la Luna sarà una falce crescente e Saturno scomparirà dietro la parte oscura verso le ore 18:30, per ricomparire poco più di un’ora dopo, verso le 19:37, da dietro la parte illuminata. La tempistica esatta dipende naturalmente dal posto di osservazione. La Luna e Saturno saranno vicinissimi e facili da osservare, appena dopo il tramonto del Sole, a una trentina di gradi sopra l’orizzonte in direzione sud-ovest. Saturno ora mostra gli anelli di taglio e il 23 di marzo del 2025 raggiungeranno il minimo, quando gli anelli scompariranno completamente senza nemmeno mostrare l’ombra, perché il Sole si troverà alle nostre spalle.

Sotto la Luna ci sarà, molto più brillante, anche Venere, che sarà vicinissima alla Luna venerdì 3 gennaio, a completare una spettacolare congiunzione. Chi osserverà l’occultazione con un telescopio potrà provare a osservare anche l’occultazione di Titano, la luna maggiore di Saturno, che ha una magnitudine V=8.7, che seguirà di poco l’occultazione del pianeta. È anche sperabile che l’occultazione avvenga in presenza di una forte luce secondaria, dovuta – come ha spiegato Galileo Galilei, e prima di lui indipendentemente Leonardo da Vinci – alla luce solare riflessa dalla Terra sulla superfice lunare.

30342170
Francesco Fontana (Napoli, 1589-90 – Napoli, 1656). Autore ignoto

Occultazione di Saturno del 19 giugno 1630

La Luna si muove in un’orbita che è inclinata poco più di 5 gradi rispetto all’eclittica e in una fascia di circa 10 gradi. Questo determina che le occultazioni dei pianeti siano un fenomeno abbastanza raro, perché le orbite del pianeta, della Luna e della Terra devono essere complanari. Un’occultazione di Saturno da parte della Luna di particolare interesse per la storia dell’astronomia, e forse la prima a essere accuratamente documentata, è quella fatta da Francesco Fontana nel giugno del 1630.

Francesco Fontana (Napoli, 1589-90 – Napoli, 1656) è stato un astronomo napoletano particolarmente versato nella costruzione di strumenti ottici e probabilmente il primo a realizzare un telescopio con due lenti convesse (quello di Galileo era formato da una lente obiettivo convessa e una lente oculare concava). Fontana incomincia a documentare le sue osservazioni della Luna nel 1629 e nel 1630, di cui una riguardante l’occultazione di Saturno, che poi raccoglierà insieme a molte altre fatte successivamente nel suo unico libro Novae Coelestium, Terrestriumque rerum observationes, et fortasse hactenus non vulgate a Francisco Fontana specillis a se inventis, et ad summam perfectionem perductis, editae, (Nuove osservazioni di cose celesti e terrestri, finora poco conosciute, fatte da Francisco Fontana con uno strumento da lui inventato e portato alla massima perfezione), pubblicato nel 1646, di fatto il primo libro astronomico illustrato. Fontana era un costruttore di telescopi e usava queste incisioni lunari per dimostrare le qualità dei suoi strumenti, che poi vendeva nelle corti di tutta Europa.

L’osservazione del 20 giugno 1630 (vedi incisione qui a lato) registra una rara occultazione di Saturno da parte della Luna, fatta con tutta probabilità dal tetto della sua casa nel centro di Napoli nel Basso Decumano (Spaccanapoli), vicino alla chiesa di San Gennaro all’Olmo. Da notare come Saturno, indicato con la lettera B, sia rappresentato come una stella tripla, come descritta da Galileo. Da notare inoltre come la Luna sia capovolta, esattamente come vista da un telescopio fatto da due lenti convesse. Fontana è il primo a disegnare la vera forma sia dei mari che dei principali crateri lunari con la loro struttura a raggiera e a osservare i movimenti lunari.

30342173
Occultazione di Saturno da parte della Luna del 19 giugno 1630 fatta da Fontana dal tetto della sua casa nel centro di Napoli. Saturno è indicato dall la lettera ‘B’ e rappresentato galileianamente come una stella tripla. Da notare, inoltre, come la Luna sia capovolta, esattamente come vista da un telescopio fatto da due lenti convesse. il cratere Tycho è da lui battezzato giocando con il proprio nome come Fons Major, cioè ‘Fontana Maggiore’. Fonte: Francesco Fontana, Novae coelestium, terrestriumque rerum observationes, 1646

La descrizione di Fontana però contiene diverse apparenti inesattezze che sono state spesso usate come dimostrazioni dell’inaffidabilità delle sue affermazioni, e in particolare in riferimento a quella di aver inventato il telescopio a due lenti convesse. Fontana scrive infatti che l’occultazione ebbe luogo il 20 giugno 1630, iniziò circa 3 ore dopo il tramonto e durò meno di due ore. Oggi sappiamo invece che l’occultazione ebbe luogo il 19 giugno, iniziò alle 22:10 e durò circa 49 minuti.

30342182
Osservazione del 19 giugno 1630 (al centro) che riporta l’occultazione di Saturno da parte della Luna. Ai lati la simulazione dell’evento con SkyGazer come visto da Napoli nel 1630 fatta da Simone Zaggia dell‘Inaf di Padova. Come si può vedere, la simulazione – che è stata capovolta, per riprodurre l’osservazione con il telescopio di Fontana – riproduce in modo assolutamente fedele anche la posizione di ingresso e uscita di Saturno da dietro la Luna

In realtà, queste possono essere spiegate semplicemente considerando che Fontana prende il tramonto come l’inizio della giornata e usa le ore romane. La terza ora dopo il tramonto del 20 giugno corrispondeva quindi alla sera del 19 giugno, e dato che siamo vicino al solstizio d’estate le ore notturne sono di circa 28 minuti e in questo modo anche l’inizio e la durata dell’occultazione tornano in accordo con la descrizione di Fontana. Finalmente si è fatta giustizia per un grande scienziato italiano che ha osservato i crateri principali della Luna, la loro struttura a raggiera e il cambiamento delle loro posizioni a causa del moto lunare. Ha osservato le fasi di Mercurio, quelle parziali di Marte e scoperto le bande di Giove. Dalle osservazioni ha dedotto la rotazione di Marte, Venere, Giove e Saturno, e osservato come questa fosse incompatibile con la visione tolemaico-aristotelica. Fu vicinissimo a rivelare la struttura degli anelli di Saturno, risolta pochi anni dopo da Huygens grazie anche alle sue osservazioni. Ha suggerito la presenza di ulteriori lune intorno a Venere e Saturno, iniziando un dibattito durato più di cento anni. Fontana ha anche costruito uno dei primi microscopi e contribuito alle prime osservazioni con questo strumento. Non a caso a riconoscimento delle sue scoperte a lui sono dedicati due crateri, uno sulla Luna e uno su Marte.



Se Marte si oppone, Saturno si occulta


30067963
Nella prima parte della notte, il cielo di gennaio è abbellito dalle costellazioni del Toro, di Orione, dell’Auriga e di Perseo. Andromeda e Pegaso, al tramonto verso ovest, lentamente stanno abbandonando il cielo notturno. La stella Sirio, la più luminosa del cielo, è ben visibile prolungando verso il basso le tre stelle della cintura di Orione. Con lo scorrere delle ore, l’Orsa Maggiore si alzerà sempre più in cielo e sarà ben visibile nella seconda parte della notte. Verso mezzanotte troveremo le costellazioni dei Gemelli e del Cancro. ben alte quasi allo zenit, e nella seconda parte della notte, guardando verso est, quella del Boote con la luminosa stella Arturo.

30067970
Marte in opposizione il giorno 16 gennaio 2025 ben visibile per tutta la notte tra la costellazione del Cancro e quella dei Gemelli

Venere sarà ben visibile verso ovest dopo il tramonto del Sole. Brillerà di magnitudine -4 guadagnandosi l’attributo di pianeta del tramonto. Anche Saturno, molto meno luminoso di Venere, sarà visibile per qualche ora sull’orizzonte sud-ovest, anch’esso appena dopo il tramonto del Sole. Raggiunta l’opposizione il mese scorso, Giove sarà ancora ben visibile per tutta la notte, tramontando a fine mese poco dopo le 3 del mattino. Marte sarà anch’esso visibile per tutto il mese e per tutto l’arco della notte. Raggiungerà l’opposizione il 16 gennaio, quando sarà visibile dal tramonto all’alba, e raggiungerà la massima altezza verso mezzanotte e mezza circa.

Da non perdere, questo mese, l’osservazione dello sciame delle Quadrantidi. Sono meteore particolari con scie corte che producono bellissime palle di fuoco in cielo. Il picco è aspettato durante la sera del 3 gennaio. In questa notte la Luna non disturberà le osservazioni, soprattutto dopo il suo tramonto e, nei casi più fortunati e in cieli bui, è possibile osservare fino a oltre cento meteore all’ora. Normalmente possiamo accontentarci di un tasso di venticinque meteore all’ora. Le Quadrantidi, durante le ore del massimo, si mostrano mediamente brillanti e non di rado appaiono dei bolidi colorati. Questo sciame meteorico prende il nome da un’antica costellazione, ora in disuso, chiamata Quadrans Muralis. Fu definita dall’astronomo francese Jerome Lalande nel 1795. Insieme a poche altre costellazioni, la Quadrans Muralis fu rimossa dalla lista delle costellazioni moderne nel 1922. Gran parte delle stelle che componevano la Quadrans Muralis confluì nella costellazione di Boote, ma nonostante questo cambiamento le Quadrantidi hanno conservato il loro nome originale.

30067982
Occultazione di Saturno del 4 gennaio 2025: tempi, in ora locale, di inizio e fine occultazione nelle città ialiane con sedi Inaf.

L’evento di questo mese è sicuramente l’occultazione di Saturno ad opera della Luna. Sarà visibile la sera del 4 gennaio in quasi tutto il territorio italiano, ad esclusione delle zone più a sud-ovest della Sicilia e della punta della Calabria. Tuttavia in queste zone si potrà osservare ugualmente lo spettacolo di una congiunzione radente molto stretta, con Saturno che si troverà nel lembo della Luna non illuminato dal Sole. In questa serata la Luna mostrerà una bellissima falce e l’ora dell’occultazione è particolarmente comoda, iniziando nel territorio italiano alle 18:30 ora locale e terminando alle 19:37. I due astri saranno facilissimi da osservare già visibili appena dopo il tramonto del Sole e a una trentina di gradi dall’orizzonte sud-ovest. Poco sotto il nostro satellite, Venere completerà la bellissima vista del cielo serale. Per chi ha un telescopio sarà emozionante osservare il pianeta mentre viene occultato dal lembo oscuro della Luna e vederlo riapparire da quello luminoso. Con un binocolo, o solo a occhio nudo, l’occultazione sarà ugualmente interessate da osservare. Occorre prepararsi all’osservazione con largo anticipo per vedere i due astri avvicinarsi prospetticamente sempre più e per essere preparati nell’istante di inizio e fine occultazione vera e propria.

Guarda su MediaInaf Tv la videoguida al cielo del mese a cura di Fabrizio Villa:

youtube.com/embed/PEqJrezvf00?…



Vita, morte e miracoli (delle stelle, s’intende)


30031465
30031469
Francesco R. Ferraro. Figli delle Stelle. Bietti, 2024. 217 pagine, 18 euro

Erano i primi anni Settanta, tra le luci psichedeliche, la disco music e gli echi della controcultura, quando l’astronomo statunitense Carl Sagan scrisse che “siamo fatti della stessa materia delle stelle”, riassumendo le principali ricerche dell’epoca sull’origine dei vari elementi chimici che compongono il nostro pianeta e pure i nostri corpi. Un’immagine ammaliante, formidabile, che ci lega indissolubilmente a quel cosmo distante ed etereo di cui nostro malgrado siamo parte. A renderla ancor più memorabile, quanto meno sulle piste da ballo del Belpaese, sarebbe stato qualche anno più tardi Alan Sorrenti, cantando – forse inconsapevolmente – che siamo non solo “figli delle stelle” ma anche “della notte che ci gira intorno”. Dell’universo, per capirci.

Proprio di questo concetto tratta il saggio Figli delle stelle. Un viaggio tra spazio e tempo, alla scoperta delle nostre origini e del nostro futuro di Francesco R. Ferraro, professore ordinario di astrofisica all’Università di Bologna, edito dai tipi di Bietti. All’intramontabile hit della disco italiana prende in prestito il titolo e l’immaginario pop, che affiora di tanto in tanto tra le approfondite descrizioni scientifiche per ricordare a chi legge la dimensione cosmica della nostra ordinaria quotidianità. Già, perché tutto ciò che siamo, che abbiamo mai incontrato e che mai potremo mettere in atto su questo effimero pianeta roccioso attorno a una stella periferica di una sperduta galassia non potrebbe esistere se non fosse per la storia di miliardi d’anni che ne ha plasmato ogni singola componente.

Il libro si struttura in cinque capitoli, tracciando in dettaglio tutte le varie fasi dell’evoluzione delle stelle e, su scala più grande, dell’intero universo. Il primo capitolo, una summa della conoscenza astronomica odierna, fornisce alcune idee fondamentali che accompagneranno lettrici e lettori nel corso delle pagine successive, dalla gravità alle enormi distanze cosmiche, a cui corrispondono scale temporali estremamente più estese rispetto alle fuggevoli ore umane. Presenta anche i “postini cosmici”, ovvero i fotoni, le particelle di luce – non solo quella visibile ma su tutto lo spettro elettromagnetico: messaggeri indefessi su cui tutta questa conoscenza si basa, chiamati in causa anche nei capitoli a seguire.

Dopo questa introduzione, si entra subito nel vivo della questione, per scoprire le reazioni di fusione termonucleare che nelle fucine stellari forgiano molti degli elementi chimici della tavola periodica: dall’idrogeno, che produce elio durante tanta parte della vita delle stelle, ai (più rapidi) passi seguenti, che a partire dall’elio confezionano carbonio, ossigeno, silicio, neon, magnesio e molto altro, fino al ferro. Il tutto senza trascurare la fisica delle particelle che sottende queste reazioni, la termodinamica che governa gli interni stellari e il “codice genetico” che determina il destino di una stella: la sua massa. Dalla nascita, attraverso il collasso gravitazionale di una nebulosa, fino alle ultime fasi, caratterizzate anch’esse dal collasso gravitazionale, il testo esplora i diversi scenari con cui le stelle terminano il loro ciclo di vita, dando luogo a timidi “fiori cosmici” – le splendide nebulose planetarie – o fragorose esplosioni di supernova che arricchiscono di elementi sempre più pesanti il mezzo interstellare, materia prima per le nuove generazioni di astri.

Seguendo il canto del cigno delle stelle, l’autore ripercorre i meccanismi che portano alla formazione di tutti gli elementi, passando per i resti compatti dell’evoluzione stellare – buchi neri, stelle di neutroni e nane bianche – e i loro possibili processi di “ringiovanimento”. L’ultimo capitolo, con uno sguardo cosmologico, estende il lasso di tempo coperto dal volume fino al Big Bang, sottolineando l’importanza di quei primi tre minuti in cui l’universo era estremamente caldo e denso: è infatti in quei fatidici frangenti che presero forma l’idrogeno e la maggior parte dell’elio che osserviamo oggi e che, centinaia di milioni di anni più tardi, diedero vita alle prime stelle del cosmo. Ogni capitolo è corredato da un pratico sommario, una paginetta al massimo, che riassume agilmente i concetti chiave sciorinati in precedenza, per chi avesse smarrito il filo tra diagrammi, equazioni (poche, in verità) e aneddoti storici. Al termine del volume, tre appendici presentano ulteriori informazioni su alcune reazioni e calcoli accennati nel testo, per chi desiderasse invece una trattazione più approfondita.

Un libro per chi ha voglia di tuffarsi a capofitto nella nostra storia, la Storia con la “esse” maiuscola, quella del cosmo, che da una manciata di particelle ha dato vita alla pluralità di pianeti, stelle e galassie che osservano i moderni telescopi. Un viaggio spazio-temporale sulle tracce lasciate dalle stelle, quelle che ancora brillano nel cielo e quelle che non ci sono più, i cui resti (im)mortali hanno fatto emergere la vita sulla Terra e, chissà, forse anche su molteplici altri mondi. Per scoprire “vita, morte e miracoli” delle stelle, insomma. Senza troppi miracoli, chiaramente, perché quei prodigi che hanno dato origine a tutti gli elementi della tavola periodica sono stati compresi con gli strumenti della scienza, e vengono presentati nel volume con tutta la dovizia di dettagli che vi si addice. E pure qualche sorpresa: per esempio, quale tipo di supernove – e dunque di stelle – ha contribuito maggiormente a sintetizzare il ferro con cui abbiamo costruito le nostre città e che permette all’emoglobina di trasportare l’ossigeno nel nostro sangue (spoiler alert: non sono quelle che ci si aspetterebbe).



Per cercare la vita, bisogna cambiare prospettiva


29888577
29888580
Nathalie A. Cabrol, “L’alba di nuovi orizzonti. Alla ricerca della vita nell’universo”, Castelvecchi, 2024, 352 pagine, 20 euro

L’alba di nuovi orizzonti di Nathalie A. Cabrol (Castelvecchi Editore, 2024) è un affascinante viaggio tra scienza, filosofia e speranza, incentrato sulle sfide e sulle opportunità che l’umanità si trova ad affrontare nel contesto di un futuro incerto, dominato dai cambiamenti climatici e dalle crisi ambientali.

Con una narrazione che mescola esperienze personali e riflessioni scientifiche, l’autrice ci guida verso un orizzonte nuovo, in cui l’esplorazione spaziale e la ricerca della vita si intrecciano con le urgenti questioni terrestri. Nathalie Cabrol è una scienziata planetaria e astrobiologa di origini francesi, nota per il suo lavoro pionieristico nella ricerca di vita extraterrestre, direttrice del Carl Sagan Center for Research presso il Seti Institute (Search for Extraterrestrial Intelligence), negli Stati Uniti, dove coordina ricerche interdisciplinari sullo studio della vita nell’universo. «Ho fatto dell’astrobiologia, la ricerca della vita nell’universo, lo scopo della mia vita, tenendo gli occhi puntati sulle stelle mentre esploravo paesaggi planetari già familiari».

Nel libro si esplorano vari sistemi planetari dove in qualche modo la vita potrebbe aver lasciato una traccia. «Ancora oggi non sappiamo esattamente quali fossero le condizioni ambientali che hanno portato alla comparsa della vita, ma una cosa è certa: i suoi mattoni sono ovunque… la chimica prebiotica sembra possibile in più di uno scenario. I mattoni della vita si formano con facilità e possono agglomerarsi in una moltitudine di ambienti estremamente diversi».

La sua esperienza in ambienti estremi, come deserti e ghiacciai, fornisce una base solida per discutere di come la vita possa sopravvivere in condizioni dure. Infatti Cabrol è particolarmente conosciuta per i suoi studi sugli analoghi terrestri di Marte, come gli altipiani del deserto dell’Atacama, in Cile, e i laghi ipersalini delle Ande. Questi ambienti estremi ricordano le condizioni che potevano esistere su Marte miliardi di anni fa e offrono preziose informazioni sull’evoluzione della vita e sulla possibilità che essa possa esistere al di fuori della Terra. Ma non c’è solo Marte: le possibilità planetarie sono infinite, dalle più “vicine” lune di Giove, a sistemi più complessi come Trappist-1.

L’autrice esplora in maniera affascinante la possibilità di trasferire la nostra esistenza su altri mondi, ma anche di riflettere sul nostro comportamento nei confronti della Terra, il nostro unico pianeta abitabile. Cabrol ci invita dunque a considerare l’esplorazione spaziale non come una via di fuga dalle difficoltà terrestri, ma come un’opportunità per evolverci come specie, migliorando la nostra comprensione dell’universo, cercando di cambiare prospettiva.

«Il principio è semplice: quando analizziamo dei campioni, riconosciamo ciò che è familiare. Ma supponiamo che la vita sia apparsa più di una volta sulla Terra attraverso diversi processi biochimici. In questo caso, i microrganismi non standard potrebbero non apparire mai nei risultati dei nostri test perché questi ultimi sono concepiti unicamente per la biologia quale la conosciamo». Uno degli aspetti più potenti del libro, infatti, è la capacità di far pensare fuori dagli schemi, unico modo di decifrare la genetica della vita.«Questi approcci hanno il potere di cambiare il paradigma attuale e potrebbero rivoluzionare completamente la nostra visione dell’origine della vita in un futuro prossimo».

In conclusione, All’alba dei nuovi orizzonti è una lettura stimolante e accessibile a tutti, agli appassionati di scienza, di astrobiologia, o anche solo a chi ha voglia di guardare alla vita da un punto di vista diverso.



Alla scoperta dell’universo con Jwst


29874981
29874983
Maggie Aderin-Pocock, “La scoperta dell’universo.
Il telescopio spaziale James Webb e la nostra storia cosmica”, Apogeo, 2024, 224 pagine, 35 euro

La prima, e unica, visione del James Webb Space Telescope dopo il lancio, nel giorno di Natale 2021, ci ha mostrato una compatta struttura scintillante che conteneva tutti i sottosistemi del telescopio spaziale ripiegati con cura per entrare nell’ogiva del lanciatore Ariane 5.

Poi lo strumento ha iniziato il viaggio per raggiungere il suo punto di osservazione a 1,5 milioni di km dalla Terra. Nel corso del tragitto, durato un mese, il telescopio si è aperto con una sequenza di oltre 300 manovre. Appena terminata la complessa procedura sono iniziati i test per verificare le capacità del nuovo osservatorio sul quale si concentravano le attese di tutta la comunità astronomica mondiale.

Con il suo specchio segmentato di 6,5 m di diametro, tenuto sempre in ombra da un gigantesco parasole, e un piano focale a temperature bassissime, Jwst è stato progettato per osservare nell’infrarosso vicino e lontano permettendoci di vedere i primi oggetti che si sono formati nell’universo. Conquistare l’infrarosso è una dura battaglia ma è un passo fondamentale perché l’espansione dell’universo, oltre ad “allargare” lo spazio, aumenta la lunghezza d’onda della radiazione prodotta dalle stelle e dalle galassie facendola scivolare dal visibile, dove naturalmente emettono le stelle, nell’infrarosso. Si tratta di una lunghezza d’onda più lunga del rosso alla quale né i nostri occhi né i telescopi ottici sono sensibili. Il processo di arrossamento, che gli astronomi chiamano redshift, è tanto maggiore quando più guardiamo indietro nel tempo, quando l’universo aveva dimensioni molto più piccole di quelle attuali.

Ma, per cogliere le potenzialità di Jwst, non è necessario andare così lontano. Dal momento che la polvere, nemica dell’astronomia ottica, è brillante in infrarosso, Jwst ci offre una finestra per studiare tutti gli oggetti polverosi del nostro universo. Si comincia dai pianeti del nostro Sistema solare, si passa agli esopianeti in orbita attorno ad altre stelle, si arriva alle nubi dove nascono le stelle e alle nebulose prodotte dalle stelle morenti per finire nello studio della struttura delle galassie.

Un menù vastissimo che coniuga la valenza scientifica con quella estetica. In effetti, ben prima che il James Webb Space Telescope fosse pronto al lancio, la Nasa si era posta il problema di come veicolare al pubblico le straordinarie capacità del suo nuovo grandioso e costosissimo osservatorio. Occorreva scegliere con cura gli oggetti celesti da osservare. Dovevano permettere agli scienziati di apprezzare la profondità della visione offerta dal nuovo telescopio ma dovevano anche risultare affascinanti per il pubblico che troppo volte aveva sentito parlare dei ritardi del progetto conditi da inevitabili sforamenti del budget.

Per non deludere le aspettative del pubblico, le immagini raccolte alle lunghezza d’onda infrarosse, intrinsecamente senza colori, sarebbero state colorate dagli esperti di grafica dello Space Telescope Science Institute a Baltimore (dove vengono gestiti sia Jwst, sia il veterano Hst) che, grazie ad anni di esperienza con Hst, sanno combinare i filtri dando alle immagini colori straordinari.

La agenzie spaziali avevano deciso che le prime immagini sarebbero state presentate il 12 luglio 2022. Si trattava di due nebulose della nostra galassia, di un famoso quintetto di galassie nel nostro vicinato cosmico e di un ammasso di galassie piuttosto lontano. Poi, per dimostrare le capacità spettroscopiche, ci sarebbe stato lo spettro di un esopianeta colto mentre passava davanti alla sua stella. Ma all’ultimo minuto, con un colpo di scena, il presidente Biden, vecchio amico dell’amministratore della Nasa Bill Nelson, ha deciso di fare da testimonial alla presentazione in anteprima dell’immagine di Smacs 0723, un ammasso di galassie che amplifica, moltiplica e distorce gli oggetti più lontani la cui luce deve attraversarlo. È un effetto ben noto chiamato lente gravitazionale ma la straordinaria sensibilità di Jwst lo ha portato a livelli mai visti che, per l’occasione, hanno assunto una dimensione politica.

Dopo le celebrazioni, accertato che il telescopio funzionava anche meglio delle più rosee aspettative, sono iniziate le osservazioni che erano state richieste da scienziati di tutto il mondo per studiare tutti i tipi di oggetti celesti. Le riviste scientifiche sono piene dei risultati ed era tempo di portare queste informazioni al grande pubblico. Un compito ambizioso che ha visto protagonista Maggie Aderin-Pocock, scienziata, conduttrice televisiva, educatrice e autrice del libro La scoperta dell’universo, Il telescopio spaziale James Webb e la nostra storia cosmica. Oltre ad avere lavorato nel team che ha costruito uno degli strumenti del telescopio, Maggie Aderin-Pocock conduce sulla Bbc una fortunata trasmissione di divulgazione intitolata The Sky at Night.

Nel libro la scienziata si mescola alla divulgatrice per parlare al pubblico della straordinaria qualità scientifica dei dati raccolti dai vari strumenti del Jwst che hanno già permesso di confermare il valore della costante di espansione dell’universo, oggetto di un’annosa disputa tra astronomi e cosmologi, mentre le immagini dell’universo giovanissimo hanno evidenziato la presenza di numerose galassie di grandi dimensioni che, secondo le teorie comunemente accettate, avrebbero avuto bisogno di molto più tempo per formarsi. Scienza di punta accompagnata da immagini straordinariamente belle dove l’astronomia riesce a colorare l’invisibile.



Nane bianche: più son calde più son gonfie


media.inaf.it/2024/12/27/tempe…
Non saranno estreme quanto le stelle di neutroni – la cui materia è talmente densa che un cucchiaino da tè arriverebbe a pesare, qui sulla Terra, un miliardo di tonnellate – ma anche le “comuni” nane bianche di comune hanno ben poco, almeno rispetto ai nostri standard. Stelle in origine simili al Sole giunte al termine del proprio percorso evolutivo, le nane bianche sono, infatti, comunque dense al punto che un cucchiaino della sostanza di cui sono fatte pesa una tonnellata. Quanto basta per piegare in modo sensibile lo spaziotempo, insomma. Costringendo così la luce che emettono a fare un certo sforzo, per abbandonarle: ecco così che, nel corso della fuga dalla forte gravità della stella, la luce perde energia e si “allunga”, diventando gradualmente più rossa: un fenomeno – previsto dalla teoria della relatività generale di Einstein – che gli astrofisici chiamano redshift gravitazionale.

Ed è sfruttando questo fenomeno che un team d’astrofisici guidato da Nicole Crumpler, della Johns Hopkins University, è riuscito a trovare una conferma osservativa di un effetto previsto da molto tempo ma che non si era mai riusciti a verificare: la dipendenza dalla temperatura della stella della relazione fra massa e raggio delle nane bianche. Maggiore è la massa d’una nana bianca, dice questa relazione, minore sarà il suo raggio – e dunque più una stella è massiccia e più sarà compatta. Ma questa “compattezza” – conferma il nuovo studio, pubblicato questo mese su The Astrophysical Journal – dipende anche dalla temperatura. In particolare, a parità di massa le nane bianche fredde risultano più compatte – e dunque avranno un raggio minore – di quelle calde. Detto altrimenti, a parità di massa le nane bianche più calde sono un po’ più “gonfie”.

29565544
Rappresentazione artistica di due nane bianche con la stessa massa ma con temperature diverse. La stella più calda (a sinistra) è leggermente più gonfia, mentre quella più fredda (a destra) è più compatta. Crediti: Roberto Molar Candanosa/Johns Hopkins University

La conferma è a arrivata combinando le osservazioni di oltre 26mila nane bianche ottenute dalla Sloan Digital Sky Survey, che si avvale di telescopi in Cile e nel Nuovo Messico (Usa), e dalla missione Gaia dell’Agenzia spaziale europea. Per ogni stella sono state misurate la velocità radiale, la temperatura effettiva, la gravità superficiale e il raggio. Da queste misure, raggruppando le sorgenti per raggio e gravità superficiale così da poter eliminare statisticamente la componente di moto casuale delle velocità radiali, gli autori dello studio sono arrivati a isolare il contributo dovuto al redshift gravitazionale, riuscendo così a ottenere una misura diretta della relazione fra massa e raggio delle stelle del campione. E a verificare, appunto, che a parità di raggio – o di gravità superficiale – le nane bianche più calde hanno sistematicamente redshift gravitazionali maggiori rispetto agli oggetti più freddi.

Già nel 2020 lo stesso team di astrofisici, studiando tremila nane bianche, aveva ottenuto la conferma che le stelle si restringono man mano che guadagnano massa a causa della cosiddetta “pressione di degenerazione degli elettroni”, un processo quantistico che – se la massa è inferiore al limite di Chandrasekhar – arresta il collasso gravitazionale di una stella giunta “a fine vita”, consentendo così alle nane bianche di mantenere stabili i propri nuclei ultradensi per miliardi di anni senza la necessità di fusione nucleare. Fino a oggi, però, ricorda Crumpler, non si avevano dati sufficienti per confermare con certezza anche il piccolo ma importante effetto della temperatura sulla relazione massa-dimensioni.

Un risultato, sottolineano gli autori dello studio, che segna un passo avanti nel possibile utilizzo di questi oggetti stellari come laboratori naturali per sondare gli effetti della gravità estrema e per cercare tracce di particelle esotiche di materia oscura.

«Le nane bianche sono fra le stelle meglio caratterizzate che abbiamo a disposizione per verificare le teorie alla base della fisica ordinaria, nella speranza di trovare qualcosa di strano che indichi la strada per una nuova fisica fondamentale», dice Crumpler a questo proposito. «Se vogliamo cercare la materia oscura, la gravità quantistica o altre cose esotiche, ci conviene anzitutto capire la fisica normale. Altrimenti ci potrebbe apparire come nuovo qualcosa che in realtà è soltanto una nuova manifestazione di un effetto che già conosciamo».

Per saperne di più:



Ultime notizie da Chirone


29303547
Si chiama (2060) Chirone ed è un oggetto unico nel Sistema solare. Piccolo corpo celeste la cui orbita irregolare è situata fra quelle dei giganti gassosi Saturno e Urano, è grosso quanto un asteroide – le sue dimensioni sarebbero nell’ordine del centinaio di chilometri – adornato però dalla chioma tipica di una cometa, scoperta verso la fine degli anni ’80. Ce ne sarebbero altri di oggetti ibridi, un po’ asteroidi un po’ comete, i cui giri si svolgono fra l’orbita di Giove e quella di Nettuno, e che sono stati denominati centauri in virtù della loro duplice natura. Ma Chirone sembrerebbe proprio un oggetto speciale.

«È stravagante quando lo confrontiamo alla maggior parte degli altri centauri,» dice l’astronomo Charles Schambeau, della University of Central Florida. «Ha periodi in cui si comporta come una cometa, è circondato da anelli di materiale, e potenzialmente ha anche un’area di detriti di polvere o materiale roccioso che orbita attorno a esso. Perciò sorgono diverse domande riguardo alle proprietà di Chirone che consentono questi comportamenti unici».

29303549
Rappresentazione artistica di un centauro attivo come Chirone. I diversi colori si riferiscono alle diversa composizione di gas, ghiacci e polvere nella chioma. Crediti: William Gonzalez Sierra

In virtù della sua straordinarietà, un gruppo internazionale di astronomi ha deciso di approfondirne la natura puntando su di esso il James Webb Space Telescope. Riuscendo, per la prima volta, a rivelare la composizione chimica della sua superficie. A differenza degli altri membri della sua famiglia, Chirone possiede ghiacci sia di monossido che di diossido di carbonio in superficie e gas di metano e di diossido di carbonio nella sua chioma. La loro scoperta è stata presentata in uno studio uscito su A&A la scorsa settimana.

Noemí Pinilla-Alonso, dell’Università di Oviedo in Spagna e precedentemente alla University of Central Florida, prima autrice dell’articolo, racconta qualcosa in più su Chirone e sulle differenze – questa volta – con gli oggetti transnettuniani (Tno), così denominati perché consumano la maggior parte della loro gelida esistenza oltre l’orbita di Nettuno. Tno sono i membri della fascia di Kuiper e della nube di Oort. Più lontani dei centauri, dunque. Pure sembra che Chirone e colleghi fossero in passato Tno che, sballottati dall’interazione coi giganti gassosi del Sistema solare, sono stati catapultati su orbite più interne. «Ciò che è unico riguardo a Chirone è che possiamo osservare sia la superficie, dove si trova la maggior parte dei ghiacci, che la chioma, dove vediamo i gas che provengono dalla superficie o da poco sotto di essa», spiega la scienziata. «I Tno non hanno questo tipo di attività perché sono troppo distanti e troppo freddi. Gli asteroidi non hanno questo tipo di attività perché non hanno i ghiacci. Al contrario le comete mostrano attività come i centauri, ma sono tipicamente osservate più vicino al Sole, e la loro chioma è così spessa da complicare l’interpretazione delle osservazioni dei ghiacci sulla superficie. Scoprire quali gas sono parte della chioma e le loro relazioni con i ghiacci sulla superficie ci aiuta a imparare le proprietà fisiche e chimiche, come lo spessore e la porosità dello strato di ghiaccio, la sua composizione e come l’irraggiamento lo sta modificando».

Uno studio sui Tno dello stesso gruppo di ricercatori è uscito su Nature Astronomy la scorsa settimana.

29303551
Lo spettro di (2060) Chirone ottenuto con NirSpec che mostra le diverse molecole rinvenute nel centauro. Crediti: William Gonzalez Sierra

Le molecole sulla superficie e nella chioma di Chirone sono state rivelate dallo spettrografo NirSpec. L’utilizzo di Webb è stato fondamentale per studiare il gas della chioma di un oggetto così distante dal Sole. Studiare i centauri fornirebbe delle indicazioni importanti sulle origini del Sistema solare. Alcuni dei ghiacci ritrovati su Chirone come il metano, il diossido di carbonio e l’acqua, potrebbero derivare dalla nebulosa dalla quale si formò il Sistema solare. Altri invece, come l’acetilene, il propano, l’etano e il monossido di carbonio potrebbero essersi formati successivamente sulla sua superficie a causa di processi di riduzione e ossidazione.

«Tutti i piccoli corpi nel Sistema solare ci dicono qualcosa rispetto a com’era in passato, che è un periodo di tempo che non possiamo più osservare», dice Pinilla-Alonso. «Ma i centauri con la loro attività ci dicono molto di più. Essi stanno subendo una trasformazione guidata dal riscaldamento del Sole e forniscono un’opportunità unica per imparare qualcosa sulla loro superficie e sugli strati che si trovano sotto di essa».

Per il futuro gli astronomi programmano di osservare nuovamente Chirone quando sarà un po’ più vicino alla Terra, in modo da studiare più accuratamente i suoi diversi costituenti e capire come variazioni dell’illuminazione da parte del Sole influenzi le riserve di ghiacci di questo interessante oggetto.

Per saperne di più:



Per misurare tutto ciò che esiste basta il secondo


29293226
29293228
George Emanuel Avraam Matsas

Qualunque grandezza fisica misurabile, ovvero qualunque unità di misura vi venga in mente, può essere espressa usando solamente metri, chilogrammi e secondi in una opportuna combinazione. Ma sono davvero necessari tutti e tre? La risposta diplomatica è “dipende”. La risposta fisica invece è “non se si utilizza un opportuno sistema di misura, in gergo chiamato spazio-tempo”. A dare questa risposta, in un articolo pubblicato recentemente su Nature, quattro ricercatori brasiliani. A porsi la domanda, più di vent’anni fa, tre fisici che si trovarono in disaccordo e pubblicarono le loro opinioni divergenti per lasciare ai posteri l’ardua sentenza.

«Questa storia comincia nel 1992», racconta a Media Inaf George Emanuel Avraam Matsas, ricercatore all’istituto di fisica teorica dell’Università di San Paolo, in Brasile, e primo autore dell’articolo uscito su Nature, «quando tre eminenti fisici teorici, Michael Duff, Lev Okun e Gabriele Veneziano, si incontrarono sulla terrazza della famosa caffetteria del Centro europeo per la ricerca nucleare (Cern) e, in una conversazione informale, si resero conto di non essere d’accordo su quale dovesse essere il “numero di costanti fondamentali”. Per “numero di costanti fondamentali” intendevano il “numero minimo di norme” necessarie per esprimere tutti gli osservabili della natura. Dieci anni dopo, i due erano ancora in disaccordo e decisero di scrivere un articolo per spiegare i loro punti di vista».

In che termini si trovavano in disaccordo?

«Okun sosteneva che, per poter esprimere tutte le grandezze della natura, sarebbero stati necessari tre standard fissati da righelli, masse e orologi per definire il metro, il chilogrammo e il secondo. Veneziano, influenzato dalla teoria delle stringhe, sosteneva che tutte le grandezze potevano essere espresse solo in termini di metri e secondi. Infine, Duff sosteneva che, a seconda della grandezza da misurare, si potevano utilizzare standard diversi (ma non si opponeva al metro-chilogrammo-secondo – MKS – come sistema di unità, almeno sufficiente, per esprimere le grandezze fisiche)».

Una questione di opinioni?

«Lungi dall’essere una questione di opinioni, la questione sollevata da Duff, Okun e Veneziano deve avere una risposta univoca, perché sarebbe come conoscere il numero minimo di linee di produzione che una fabbrica di standard cosmici dovrebbe avere. Quindi, in ultima analisi, si tratta anche di un problema economico. Possiamo invocare l’ignoranza su questioni scientifiche ben poste, ma mai “concordare di non essere d’accordo” (come talvolta si sente dire): una volta fissate le premesse e il linguaggio matematico, la risposta a ogni domanda deve convergere verso un consenso; è questo che rende la scienza scienza. Detto questo, visti tutti i successi scientifici che vanno dalla scala microscopica a quella cosmologica, sarebbe strano ammettere la sconfitta di fronte a una domanda che potrebbe essere compresa da un adolescente».

Ed è questo il punto di partenza del vostro lavoro?

«Esatto. Questo “piccolo scandalo” era tra gli argomenti discussi da alcuni fisici (questi brasiliani) in un caffè (per nulla famoso) a 10mila chilometri dal Cern nei primi anni Duemila. Quasi due decenni dopo, abbiamo pubblicato una risposta quasi ovvia, che può essere compresa da qualsiasi giovane studente pre-universitario».

Leggendo il titolo del vostro articolo, sembrerebbe che si potrebbe riscrivere qualunque sistema di misura arrivando a esprimere qualunque grandezza fisica in “secondi”.

«Sì. Abbiamo dimostrato che tutti gli osservabili definiti negli spazi relativistici possono essere espressi in unità di tempo, ad esempio in secondi. In particolare, abbiamo mostrato come convertire esplicitamente le unità del Sistema Internazionale di misura (che sono sufficienti per esprimere tutte le osservabili) in questo sistema (dove tutte le osservabili sono espresse in secondi). Ne consegue che, negli spazi relativistici, la costante di Boltzmann, la costante di Coulomb, la costante gravitazionale e la velocità della luce non sono altro che fattori di conversione».

29293230
Fisici del National Institute of Standards and Technology (Nist) con l’orologio atomico al cesio Nist-F2, che stabilisce il nuovo standard di tempo civile per gli Stati Uniti. Crediti: Nist/Wikimedia Commons

Quindi le “costanti fondamentali della fisica” non servono più?

«Dopo il 2019, ogni unità del Sistema Internazionale è stata definita fissando il valore di una costante. Duff, Okun e Veneziano, sebbene abbiano scritto il loro articolo prima del 2019, avevano ipotizzato proprio questa identificazione tra il numero di unità per esprimere tutto e il numero di costanti “fondamentali”. Ad esempio, un secondo è attualmente definito come il tempo necessario affinché una certa radiazione emessa dal Cesio oscilli 9.192.631.770 volte (il che elegge implicitamente l’intervallo di tempo associato a un’oscillazione di questa radiazione come costante fondamentale). Quali siano le costanti da eleggere come fondamentali è una questione di convenienza, ma il numero di costanti “fondamentali” non lo è perché corrisponderebbe al numero minimo di norme necessarie per esprimere tutti gli osservabili».

Se capisco bene, lei tiene sempre a precisare che si parla di “spazi relativisitici”.

«Con il senno di poi, abbiamo capito che gran parte della confusione derivava dal non aver capito che la risposta alla domanda di Duff, Okun e Veneziano dipende dallo spazio-tempo sottostante su cui sono definite le teorie e le loro grandezze fisiche. Nella scuola secondaria, l’enfasi è posta sulla fisica newtoniana, che è costruita sul presupposto dello spazio-tempo di Galileo Galilei. Lo spazio-tempo di Galileo è quello della nostra intuizione quotidiana, ma dal 1915 sappiamo, grazie ad Albert Einstein, che lo spazio-tempo in cui viviamo è molto meglio modellato dallo spazio-tempo relativistico».

Precisiamo quindi che una delle differenze fondamentali fra i due è che nello spazio-tempo di Galileo (o newtoniano) lo spazio e il tempo sono due entità distinte, mentre nello spazio-tempo relativistico sono interconnessi, e anche la forza di gravità diventa un’accelerazione in un campo gravitazionale. Quest’ultimo, dunque, è il punto di partenza del vostro lavoro.

«Partendo dal sistema MKS ci siamo chiesti, inizialmente, se lo standard di massa dato dal chilogrammo sia necessario per esprimere le grandezze fisiche. Okun sosteneva che lo fosse, ma la risposta è no. La forza di attrazione di un corpo, che Newton chiamava massa M, può essere misurata con righelli e orologi a partire dall’accelerazione a con cui una particella di prova posta a una distanza L cade verso di esso, utilizzando la formula Massa = accelerazione x distanza al quadrato. Quindi, una volta fissata la distanza L, la massa M del corpo sarà tanto maggiore quanto maggiore è l’accelerazione a con cui il corpo attrae la particella di prova. Nel sistema MKS, l’unità di M (la massa), che è m3/s2 (metri al cubo diviso secondi al quadrato, secondo la formula sopra), viene convertita in kg moltiplicando M per un fattore di conversione. Questo fattore di conversione è noto come costante di gravitazione universale ed è indicato con G».

Quanto peserebbe un uomo di 70 chili in secondi, quindi?

«Utilizzando le equazioni riportate nel nostro articolo (la numero 13 e 20), si può calcolare abbastanza facilmente che un uomo di 70 chili pesa 1.7 x 10-34 secondi (ovvero zero virgola, 33 zeri e poi 17 secondi, ndr)».

Totalmente controintuitivo. E la temperatura superficiale del Sole, assumendo che sia circa 5500 K, quanto sarebbe in secondi?

«Usando l’equazione numero 9 del nostro articolo per fare la conversione, sarebbe 2.1 x 10-72 secondi».

Quale sarebbe il vantaggio dell’adozione di un’unica unità di misura per tutto? Non pensa che sarebbe un metodo fuorviante e privo di riferimenti nella vita quotidiana?

«Non dovrebbe essere fuorviante, purché si comprenda che il fatto che due grandezze abbiano la stessa unità di misura non implica che abbiano lo stesso significato concettuale. Ma devo ammettere che sarebbe orribile compilare un modulo medico dicendo che il mio peso è 2 x 10-34 secondi. In effetti, questo potrebbe addirittura diventare un problema di salute pubblica (considerando l’analfabetismo matematico che c’è, almeno da queste parti)».

È qualcosa che deve rimanere confinato agli addetti ai lavori, dunque. Pensa che aiuti a capire meglio il funzionamento dell’universo?

«Penso di sì! Se c’è qualcosa che questo esercizio ci ha insegnato, è che la risoluzione della controversia di Duff, Okun e Veneziano dipende dallo spazio-tempo in cui le quantità sono definite e misurate. Credo sia importante tenerlo a mente quando si pensa alla gravità quantistica; almeno, lo è stato per noi».


Per saperne di più:



Iris2, al via la costellazione di satelliti europea


media.inaf.it/2024/12/24/iris2…
Il programma europeo Iris2 (Infrastructure for Resilience, Interconnectivity and Security by Satellite), pensato per fornire connettività sicura dell’Unione europea, è partito.

La Commissione europea ha affidato la progettazione, realizzazione e gestione della nuova costellazione satellitare a SpaceRise, un consorzio composto da tre operatori satellitari (Eutelsat, Hispasat e Ses) insieme a partner industriali (Airbus, Thales, Telespazio, Ohb, Deutsche Telekom e Orange).

29292425
Crediti: EU Agency for the Space Programme

L’iter era iniziato nel marzo 2023, quando, vista l’importanza strategica della connettività spaziale, la Commissione Europea aveva approvato il programma Iris2 allo scopo di dotare l’Europa di un’infrastruttura di comunicazione sicura, resiliente e autonoma. La costellazione sarà formata da circa trecento satelliti posizionati su orbite basse e medie, una soluzione che permette di fornire servizi di comunicazione a bassa latenza con prestazioni paragonabili a quelle delle reti terrestri utilizzando meno satelliti rispetto alle megacostellazioni, che consistono in molte migliaia di satelliti tutti nello stesso guscio orbitale.

A valle dell’approvazione del programma, nel maggio 2023 la Commissione europea aveva indetto una gara d’appalto per il contratto di sviluppo Iris2 mentre, nell’estate 2023, aveva lanciato un bando di gara per le infrastrutture di terra della costellazione. Nell’aprile di quest’anno è stato deciso che i centri di controllo Iris2 saranno a Tolosa, in Francia, al Fucino, in Italia, e a Bettembourg, in Lussemburgo. L’offerta per l’appalto dello sviluppo è stata presentata a inizio settembre 2024 e, dopo l’annuncio delle decisione a metà novembre, il 16 dicembre sono stati firmati i contratti per la costruzione e le operazioni.

La costellazione fornirà un’infrastruttura di comunicazione sicura per gli enti e le agenzie governative dell’Ue. Questo significa che le comunicazione tra gli utenti, così come i comandi per la gestione dei satelliti e l’infrastruttura di terra saranno protette. Infatti, Iris2 è associato al programma GovSatCom dell’Ue per fornire ai governi comunicazioni sicure.

In parallelo, Iris2fornirà anche servizi commerciali per l’utenza privata.

L’Ue finanzia Iris2con 6 miliardi di euro, con una tranche di 2,4 miliardi nell’ambito del quadro finanziario pluriennale 2021-2027; mentre il resto graverà sul bilancio del periodo 2028-2035. Il finanziamento è integrato dall’Agenzia spaziale europea (Esa) con 500 milioni di euro (sottoscritti nella conferenza ministeriale dell’Esa del novembre 2022) e da investitori privati ​​per 4,1 miliardi.

Il programma fornirà un’ampia gamma di servizi ai governi e ai cittadini europei. Il sistema consentirà la sorveglianza dei confini e delle aree remote, sarà indispensabile per la protezione civile, soprattutto in caso di crisi o catastrofi naturali, migliorerà la fornitura di aiuti umanitari e la gestione delle emergenze marittime, tanto per la ricerca che per il salvataggio. Numerose reti connesse intelligenti, negli ambiti di energia, finanza, sanità, data center, saranno monitorate grazie alla connettività fornita da Iris2, che consentirà inoltre la gestione del traffico aereo, ferroviario e stradale.

È un passo importante che segna l’inizio effettivo dei lavori per l’internet satellitare europeo. Peccato che, almeno per quanto riguarda la clientela privata, il programma sia in catastrofico ritardo rispetto alla concorrenza. La sua operatività è prevista a partire dal 2030, quando sarà in grado di fornire agli utenti non istituzionali gli stessi servizi offerti dalla rete Starlink già operativa in tutta Europa. Da quando si è iniziato a parlare del programma, alla ministeriale Esa del 2022, all’aggiudicazione e firma del contratto sono passati oltre due anni. Un tempo ragionevolmente rapido nell’ambito delle gare europee, ma lunghissimo in un settore in crescita travolgente. Pensiamo che, nel corso del 2024, SpaceX ha lanciato 300 satelliti Starlink modificati per fornire il servizio Direct to Cell, per connettere direttamente i cellulari ai satelliti, un’opzione che sarà disponibile l’anno prossimo. Ed è solo una delle novità nel settore.

Ci auguriamo che Iris2 non nasca già vecchio. Purtroppo lo abbiamo visto succedere con il lanciatore Ariane 6, nuovo. ma obsoleto rispetto alla concorrenza.

Guarda il video di rpesentazione di Iris2 (in inglese):

youtube.com/embed/hfzUMxZAVk4?…



I tre volti dei transnettuniani visti da Webb


media.inaf.it/2024/12/24/tre-g…
Gli oggetti transnettuniani (Tno) sono piccoli corpi celesti che orbitano attorno al Sole oltre l’orbita di Nettuno. Considerati dagli astronomi dei pianeti mancati, questi oggetti celesti conservano informazioni cruciali circa il processo di formazione planetaria e i processi molecolari e di migrazione planetaria che hanno plasmato il Sistema solare primordiale. Studiarli equivale dunque a viaggiare indietro nel tempo di miliardi di anni e guardare all’epoca in cui dalla nebulosa solare si sono formati i semi dei pianeti che oggi popolano il Sistema solare.

Su questa classe di oggetti distanti ha recentemente posato lo sguardo il telescopio spaziale James Webb. Grazie alla sua straordinaria vista nel vicino infrarosso, un team di scienziati guidati dall’Università della Florida Centrale (Ufc) ha potuto studiare la composizione molecolare di oltre cinquanta oggetti transnettuniani, riuscendo a raggruppare i corpi celesti in esame in tre tipologie composizionalmente distinte, corrispondenti a diverse composizioni di superficie. Tre gruppi che, secondo i ricercatori, sarebbero stati modellati all’epoca della formazione del Sistema solare.

29262055
Sullo sfondo, un’illustrazione artistica che mostra la possibile distribuzione degli oggetti trans-nettuniani nel disco planetesimale della nostra stella. In primo piano, gli spettri di luce rappresentativi di ciascun gruppo composizionale che evidenziano le molecole dominanti sulle loro superfici. Crediti: William D. González Sierra per il Florida Space Institute, University of Central Florida

Nello studio in questione, i cui risultati sono stati pubblicati la settimana scorsa sulla rivista Nature Astronomy, i ricercatori hanno analizzato la composizione molecolare di 54 oggetti transettuniani. L’indagine, condotta nell’ambito del progetto “Discovering the Surface Composition of the trans-Neptunian Objects” (Disco-Tno) utilizzando lo spettrografo Nirspec di Jwst, ha permesso di ottenere gli spettri di riflettanza (curve di luce che rivelano il colore e la composizione di un oggetto) di tutti i corpi celesti in esame. La successiva analisi di questi spettri ha consentito ai ricercatori di rivelare la presenza di ghiacci composizionalmente diversi. L’applicazione di tecniche di clustering ha infine consentito di raggruppare i corpi celesti in tre tipologie distinte.

«Per la prima volta abbiamo identificato le specifiche molecole responsabili della notevole diversità di spettri, colori e albedo osservati negli oggetti transnettuniani», dice Noemí Pinilla-Alonso, ricercatrice all’Università della Florida Centrale e prima autrice dello studio. «Queste molecole, come ghiaccio d’acqua, ghiaccio di anidride carbonica e di metanolo, e composti organici complessi, ci forniscono una connessione diretta tra le caratteristiche spettrali degli oggetti transnettuniani e le loro composizioni chimiche».

Le tre tipologie di Tno individuate dai ricercatori sono i gruppi chiamati Bowl, Double-dip e Cliff: tre termini traducibili in italiano, rispettivamente, come ciotola, doppia immersione e scogliera. Sono stati soprannominati così considerando la forma dello spettro di luce, e secondo gli autori sono stati forgiati all’epoca in cui si formò il Sistema solare dalle linee di ritenzione dei ghiacci: regioni in cui le temperature sono abbastanza fredde da permettere la formazione e la sopravvivenza di specifici ghiacci all’interno del disco protoplanetario di una stella. Queste regioni, spiegano i ricercatori, sono state fondamentali nel determinare il gradiente di temperatura del Sistema solare primordiale e offrono un collegamento diretto tra le condizioni di formazione dei planetesimi e le loro composizioni attuali.

Secondo i risultati della ricerca, gli oggetti transnettuniani di tipo Bowl costituiscono il 25 per cento del campione. Questi corpi celesti sono caratterizzati da spettri che presentano un picco di assorbimento del ghiaccio d’acqua (H2O) a 3 micrometri la cui forma ricorda quello di una ciotola, e da una superficie polverosa. Mostrano inoltre una bassa riflettività, indicando la presenza di materia scura e refrattaria. I Tno Double-dip rappresentano invece il 43 per cento del campione, i loro spettri mostrano due caratteristici picchi di assorbimento (da cui il nome double-dip) che rappresentano le firme di ghiaccio di anidride carbonica (CO2), e segni della presenza di sostanze organiche complesse. I Tno di tipo Cliff, infine, costituiscono il 32 per cento del campione, presentano forti segni della presenza di ghiacci di metanolo e di composti organici complessi, nonché di molecole contenenti azoto, e sono quelli di colore più rosso. Sono così chiamati per via del brusco calo della riflettanza osservato nei loro spettri di luce a partire da 2,7 μm.

Ma che c’entra la composizione dei Tno con la formazione e l’evoluzione del Sistema solare primordiale? Secondo i ricercatori, le tre tipologie di Tno potrebbero rappresentare una fotografia di com’era il Sistema solare primordiale miliardi di anni fa, mostrando caratteristiche che suggeriscono quale fosse la struttura compositiva del disco protoplanetario della nostra stella.

Nello studio i ricercatori hanno inoltre verificato la possibilità che la composizione chimica dei tre gruppi di Tno possa essere collegata alla loro differente posizione nel disco protoplanetario che ha formato il Sistema Solare primordiale. I risultati dello studio suggeriscono che il gruppo di Tno Bowl si sia formato nelle regioni del disco più vicine al Sole, il gruppo Double-dip nelle zone intermedie, mentre il gruppo Cliff nelle regioni più distanti dal Sole.

«Questi risultati rappresentano la prima chiara connessione tra la formazione dei planetesimi nel disco protoplanetario della nostra stella e la loro successiva evoluzione», spiega Rosario Brunetto, astrochimico all’Istituto di astrofisica spaziale dell’Università di Parigi-Saclay e co-autore dello studio. «Proponiamo che i gruppi spettrali individuati siano resti fossili di gruppi di planetesimi ghiacciati di medie dimensioni presenti nel disco protoplanetario della nostra stella. Se così fosse, ciò fornirebbe un’immagine delle linee di ritenzione del ghiaccio nel Sistema solare appena prima della grande migrazione planetaria che lo ha forgiato».

«Ora che disponiamo di informazioni generali sui gruppi compositivi identificati, abbiamo molto altro da esplorare e scoprire», conclude Pinilla-Alonso. «Come comunità, possiamo iniziare a esplorare in dettaglio ciò che ha prodotto i gruppi come li vediamo oggi».

Per saperne di più:

  • Leggi su Nature Astronomy l’articolo “A JWST/DiSCo-TNOs portrait of the primordial Solar System through its trans-Neptunian objects” di Noemí Pinilla-Alonso, Rosario Brunetto, Mário N. De Prá, Bryan J. Holler, Elsa Hénault, Carolina de Souza Feliciano, Vania Lorenzi, Yvonne J. Pendleton, Dale P. Cruikshank, Thomas G. Müller, John A. Stansberry, Joshua P. Emery, Charles A. Schambeau, Javier Licandro, Brittany Harvison, Lucas McClure, Aurélie Guilbert-Lepoutre, Nuno Peixinho, Michele T. Bannister e Ian Wong


Millinove: una sorgente inedita di raggi X


media.inaf.it/2024/12/23/milli…
La maggior parte delle persone incontra i raggi X durante le visite mediche, dove vengono utilizzati per creare immagini delle ossa o diagnosticare le condizioni polmonari. Questi raggi X sono generati da sorgenti artificiali. Tuttavia, non tutti sanno che anche gli oggetti celesti possono emettere radiazioni X. «Alcuni fenomeni cosmici producono naturalmente raggi X», spiega Przemek Mróz, primo autore di uno studio pubblicato questo mese su The Astrophysical Journal Letters che presenta una nuova tipologia di queste sorgenti. «Per esempio, i raggi X possono essere prodotti da gas caldo che cade verso oggetti compatti come nane bianche, stelle di neutroni o buchi neri. I raggi X possono anche essere generati dalla decelerazione di particelle cariche, come gli elettroni».

29219553
Impressione artistica di un’esplosione di una nova classica. Crediti: Krzysztof Ulaczyk / Osservatorio astronomico dell’Università di Varsavia.

I ricercatori hanno identificato un gruppo di 29 oggetti insoliti nelle Nubi di Magellano, le due galassie a noi vicine, satelliti della Via Lattea. Questi oggetti hanno mostrato un comportamento inaspettato, manifestando outburst di lunga durata (in genere alcuni mesi), durante i quali la loro luminosità è aumentata da 10 a 20 volte. Mentre alcuni di questi oggetti mostravano outburst ricorrenti ogni pochi anni, altri si sono accesi solo una volta durante il periodo di osservazione.

Il team ha scoperto questi oggetti analizzando oltre vent’anni di dati raccolti dall’Optical Gravitational Lensing Experiment (Ogle), un progetto guidato da astronomi dell’Università di Varsavia. In particolare, uno degli oggetti individuati, chiamato Ogle-mNova-11, ha iniziato un outburst nel novembre 2023. «Abbiamo osservato questa stella con il Southern African Large Telescope (Salt), uno dei più grandi telescopi del mondo», spiega Mróz. «Il suo spettro ottico ha rivelato firme di atomi ionizzati di elio, carbonio e azoto, che indicano temperature estremamente elevate».

La stella è stata osservata anche dal Neil Gehrels Swift Observatory, che ha rilevato raggi X corrispondenti a una temperatura di 600mila gradi Celsius. Considerando la sua distanza di oltre 160mila anni luce, la luminosità di Ogle-mNova-11 risulta essere più di cento volte superiore a quella del Sole.

Le insolite proprietà dell’oggetto ricordano un altro sistema, chiamato Asassn-16oh, scoperto nel 2016 dall’All Sky Automated Survey for SuperNovae. «Crediamo che Ogle-mNova-11, Asassn-16oh e gli altri 27 oggetti formino una nuova classe di sorgenti transitorie a raggi X», dice Mróz. «Le abbiamo chiamate millinove, poiché il loro picco di luminosità è circa mille volte inferiore a quello delle nove classiche».

Si ritiene che le millinove siano sistemi stellari binari costituiti da due oggetti che orbitano l’uno intorno all’altro con un periodo di pochi giorni. Una nana bianca orbita attorno a una stella subgigante che ha esaurito l’idrogeno nel suo nucleo e si è espansa. La vicinanza tra le due stelle permette al materiale di fluire dalla subgigante alla nana bianca.

La sorgente dei raggi X rimane un mistero, ma gli scienziati hanno proposto due possibili spiegazioni. Secondo uno scenario, i raggi X potrebbero essere prodotti quando il materiale della subgigante cade sulla superficie della nana bianca, rilasciando energia. In alternativa, potrebbero derivare da un runaway termonucleare sulla superficie della nana bianca: quando il materiale si accumula sulla nana bianca, l’idrogeno si incendia, provocando un’esplosione termonucleare, non abbastanza violenta da espellere materiale.

Se quest’ultima ipotesi fosse corretta, le millinove potrebbero svolgere un ruolo cruciale nell’astrofisica. Quando una nana bianca cresce di massa, può raggiungere una soglia critica (circa 1,4 masse solari) ed esplodere come supernova di tipo Ia. Gli astronomi usano le supernove di tipo Ia come candele standard per misurare le distanze cosmiche. In particolare, le osservazioni delle supernove di tipo Ia hanno portato alla scoperta dell’accelerazione dell’espansione dell’universo, scoperta che è valsa il premio Nobel per la fisica 2011. Tuttavia, i progenitori delle supernove di tipo Ia rimangono sconosciuti.

Per saperne di più:

  • Leggi su The Astrophysical Journal Letters l’articolo “Millinovae: A New Class of Transient Supersoft X-Ray Sources without a Classical Nova Eruption” di Przemek Mróz, Krzysztof Król, Hélène Szegedi, Philip Charles, Kim L. Page, Andrzej Udalski, David A. H. Buckley, Gulab Dewangan, Pieter Meintjes, Michał K. Szymański, Igor Soszyński, Paweł Pietrukowicz, Szymon Kozłowski, Radosław Poleski, Jan Skowron, Krzysztof Ulaczyk, Mariusz Gromadzki, Krzysztof Rybicki, Patryk Iwanek, Marcin Wrona e Mateusz J. Mróz


Parker Solar Probe, mai così vicini al Sole


29218890
Lo scorso 20 dicembre, gli operatori della missione Parker Solar Probe al Johns Hopkins Applied Physics Laboratory di Laurel, nel Maryland, dove la sonda è stata progettata e costruita, hanno ricevuto una trasmissione di segnali che rassicurava sul normale funzionamento di tutti i sistemi di bordo. Un semaforo verde – anche di speranza – per l’evento di domani, martedì 24 dicembre, quando alle 12.53 ora italiana la missione solare statunitense si spingerà fino a 6.1 milioni di chilometri dalla superficie della nostra stella, avvicinandosi a essa come niente e nessuno prima.

media.inaf.it/wp-content/uploa…
Rappresentazione artistica che mostra la sonda della Nasa Parker Solar Probe mentre entra nella corona solare. Crediti: Nasa/Johns Hopkins APL/Ben Smith

«Questo è un esempio dell’audacia delle missioni della Nasa, che fanno qualcosa che nessun altro ha mai fatto prima per rispondere a domande di lunga data sul nostro universo», commenta Arik Posner, scienziato del programma Parker Solar Probe alla sede centrale della Nasa a Washington. «Non vediamo l’ora di ricevere il primo aggiornamento sullo stato della sonda e di iniziare a ricevere i dati scientifici nelle prossime settimane».

Non solo la più vicina, ma anche la più veloce. Parker Solar Probe volerà infatti una velocità di circa 692mila chilometri all’ora e raggiungerà temperature di circa 982 gradi Celsius mentre viaggia all’interno della corona solare. A una distanza così ravvicinata, la sonda si trova proprio all’interno della corona: un’occasione che consente di svolgere indagini scientifiche senza precedenti con il potenziale di cambiare davvero la visione della nostra stella. La corona solare, con le sue temperature estremamente più alte della superficie della stella, è infatti uno dei fenomeni legati al Sole finora meno compresi. Già nel 2021, durante l’ultimo passaggio ravvicinato di Parker Solar Probe sul Sole, la sonda era riuscita a fotografare da vicino per la prima volta delle strutture chiamate “flussi coronali”, e a vedere i confini della corona.

Per arrivare fin qui, sin dal suo lancio nel 2018, la missione della Nasa ha effettuato orbite che l’hanno progressivamente avvicinata al Sole, usando il pianeta Venere a più riprese per effettuare una serie di fionde gravitazionali che la spingessero sempre più vicina alla stella. L’ultimo flyby di Venere, quello che ha instradato la sonda al massimo avvicinamento di oggi, è avvenuto lo scorso 6 novembre.

Per gli aggiornamenti sul record di oggi però bisognerà attendere qualche giorno. Durante il perielio, infatti, la trasmissione dei dati dalla sonda a terra sarà interrotta a causa dell’estrema vicinanza alla stella. Il primo segnale radio dovrebbe arrivare venerdì 27 dicembre: sarà un cosiddetto beacon tone, e servirà solo a confermare – speriamo – lo stato di salute di Parker Solar Probe dopo il flyby sul Sole. Alla fine di gennaio 2025, quando la sonda raggiungerà una posizione lungo la sua orbita in cui riuscirà a vedere bene la Terra, comincerà l’invio di tutti i dati scientifici raccolti durante il sorvolo.

Godetevi cenone e pranzo di Natale, dunque, e lasciate passare pure Santo Stefano. Ma poi tornate a sbirciare qui, o nella pagina dedicata della Nasa, per avere notizie calde – l’aggettivo non potrebbe essere più azzeccato – su quanto accadrà fra poche ore.



Come Indiana Jones, ma su Marte


29184996
Vi trovate in un museo a cielo aperto, non sulla Terra, ma su un altro pianeta: Marte.
Qui, i resti di rover, lander e sonde spaziali non sono semplici “rifiuti spaziali”, ma testimonianze preziose di un’umanità che si spinge oltre i confini del proprio mondo.

È questa la visione dell’antropologo Justin Holcomb dell’Università del Kansas: un commento del quale è primo autore, pubblicato la settimana scorsa su Nature Astronomy, propone che gli artefatti lasciati dall’uomo su Marte debbano essere considerati patrimonio culturale. Non spazzatura galattica, quindi, ma eredità storica. E proprio come Indiana Jones esplorava templi e scavava nella storia, gli antropologi ora vogliono studiare e proteggere le tracce lasciate dalla nostra specie durante l’epopea dell’esplorazione interplanetaria.

29184998
Mappa che illustra le quattordici missioni su Marte, i siti chiave e gli esempi di manufatti che hanno contribuito allo sviluppo della documentazione archeologica (cliccare per ingrandire). Crediti: J. Holcomb

Secondo Holcomb, il desiderio umano di esplorare lo spazio è una naturale continuazione della nostra storia evolutiva. «Homo sapiens sta attualmente attraversando una fase di dispersione, che è iniziata dall’Africa, ha raggiunto altri continenti e ora si è spostata in ambienti extra terrestri», dice il ricercatore. «Abbiamo iniziato a popolare il Sistema solare. E proprio come usiamo i manufatti e le tracce storiche per seguire il nostro movimento, la nostra evoluzione e la nostra storia sulla Terra, potremmo farlo su altri pianeti o nello spazio seguendo le sonde, i satelliti, i lander e i vari materiali lasciati dietro di noi».

Dalla migrazione fuori dall’Africa fino alla colonizzazione di continenti remoti, l’espansione di Homo sapiens ha, dunque, lasciato una traccia fisica che gli archeologi possono seguire attraverso manufatti, insediamenti e altri resti andando letteralmente a rovistare nelle discariche per rivelare i segreti delle società passate sulla Terra. Questo processo, argomenta l’antropologo, si sta estendendo oltre i confini del nostro pianeta e gran parte del materiale considerato “spazzatura spaziale” può invece avere un grande valore archeologico e ambientale.

«Sono i primi segni materiali della nostra presenza», osserva Holcomb. «Molti scienziati si riferiscono a questo materiale come fossero rifiuti galattici. La nostra argomentazione è che non si tratta di spazzatura spaziale: è in realtà qualcosa di molto importante. È fondamentale cambiare questa narrativa e considerarlo come “patrimonio culturale”, perché la soluzione per i rifiuti è la rimozione, mentre per il patrimonio c’è la conservazione. C’è una grande differenza».

29185000
La fotocamera del rover Perseverance ha catturato le immagini di un pezzo della coperta termica utilizzata durante l’atterraggio. Crediti: Nasa/Jpl-Caltech/Asu

L’argomentazione di Holcomb per la conservazione delle tracce dell’esplorazione umana su altri pianeti si basa su un lavoro precedente, in cui si sosteneva la necessità di dichiarare un “antropocene lunare”, ovvero un’epoca di dominio umano sul paesaggio lunare. E la sua proposta va oltre il semplice riconoscimento del valore simbolico di questi artefatti. Egli sostiene che le future missioni spaziali dovrebbero considerare con attenzione l’impatto che potrebbero avere su siti già “occupati” da tracce umane. Atterrare in prossimità di veicoli, rover o strumenti precedenti potrebbe infatti compromettere il contesto archeologico o storico di questi oggetti.

L’uomo ha raggiunto Marte per la prima volta oltre cinquant’anni fa, dando inizio alla storia dell’attività umana sul Pianeta rosso. Il primo indizio tangibile della nostra presenza su Marte risale al 1971, quando il rover sovietico Mars 2 Orbiter si schiantò sulla superficie del pianeta. Da allora, ogni missione ha lasciato il segno: dalle sonde americane Viking degli anni ’70, al rover Perseverance e al piccolo elicottero Ingenuity – primo drone a volare su un altro pianeta. Tutte testimonianze importanti del progresso scientifico e tecnologico nella conquista di uno dei pianeti più vicini al nostro. Purtroppo però, mentre gli antropologi hanno una certa conoscenza di come il clima e la geologia contribuiscano al degrado degli artefatti sulla Terra, i processi marziani e le caratteristiche come la velocità e la gravità dei danni sui reperti causati da raggi cosmici, venti, acqua e suolo sono attualmente poco conosciuti.

«La geoarcheologia studia gli effetti geologici sui materiali archeologici», spiega Holcomb. «La geoarcheologia planetaria è un settore di studi futuro, e dobbiamo considerare i materiali non solo su Marte in generale ma anche in diverse aree del pianeta dove i processi sono differenti. Ad esempio, nelle latitudini settentrionali e meridionali Marte ha una criosfera, e l’azione del ghiaccio accelera sicuramente l’alterazione dei materiali. Ancora: con le sabbie ferrose di Marte, cosa succede quando i materiali vengono sepolti? Inoltre, le tempeste marziani di polvere globali sono uniche nel loro genere, una singola tempesta può letteralmente attraversare l’intero globo. Il rover Spirit, ad esempio, si trova proprio accanto a un campo di dune che alla fine lo seppellirà. E, una volta sepolto, sarà molto difficile da ritrovare».

29185002
Lander, scudo termico e paracadute nella zona chiamata Elysium Planitia su Marte della missione InSight. Crediti: Nasa

Marte potrebbe idealmente diventare il primo “museo extraterrestre”, non costruito con mura o monumenti, ma formato dall’intero pianeta. Occorrerebbe, secondo gli studiosi, stabilire una metodologia per monitorare e catalogare i reperti, creando un archivio di oggetti da preservare utilizzando database come, per esempio, il Registro degli oggetti lanciati nello spazio esterno. dell’Onu.

Ogni pezzo di tecnologia lasciato sul suolo marziano è un frammento della nostra evoluzione. «Come le punte di Clovis in America o gli antichi utensili di pietra in Africa, questi artefatti», conclude Holcomb, «marcano momenti chiave nella storia dell’umanità, una traccia della nostra transizione da specie terrestre a esploratori del cosmo».

Per saperne di più:



Siamo polvere presa in prestito al cosmo


29047763
29047769
Hannah Arnesen. Stardust. Polvere di Stelle. Orecchio Acerbo 2024. 352 pagine, 33 euro

Com’è nato l’universo? E le stelle, i pianeti, la vita sulla Terra? Che ne sarà di tutto questo, un giorno? Sono domande che affrontiamo quotidianamente qui, sulle pagine di Media Inaf. E sono anche alcune delle domande che contribuiscono a tessere la trama di Stardust. Polvere di stelle, albo illustrato della svedese Hannah Arnesen, pubblicato in Italia da Orecchio Acerbo nella traduzione di Laura Cangemi. Una trama fatta di storie umane passate, presenti e future, che si intrecciano con la storia più grande – quella biologica e geologica del nostro pianeta e quella, cosmica, dell’universo.

Riassumere quasi 14 miliardi di anni in 350 pagine, per giunta con una prospettiva sul futuro, tanto dell’umanità quanto del cosmo, è un’impresa ambiziosa. Vengono in aiuto le splendide illustrazioni acquerellate che accompagnano le poche, misurate parole. Dalle prime stelle che rischiarano le tenebre primordiali alla colorata nebulosa da cui prende forma il Sole, con la sua corte di pianeti tra i quali fa bella mostra di sé, in terza posizione, il nostro pallido puntino blu. Dalle collisioni di comete e asteroidi, piccoli corpi forieri d’acqua e altre sostanze essenziali alla vita come la conosciamo sulla Terra, fino all’esplosione della vita stessa, che popola dapprima gli abissi marini per poi spingersi in ogni angolo del globo, attraversando innumerevoli trasmutazioni per sopravvivere a grandi e piccoli cambiamenti e forgiare, miliardi di anni più tardi, qualcosa che ci somiglia, in cui ci riconosciamo. Qualcosa che, oggi, interviene sull’ambiente in maniera sempre più massiccia, imponente e impattante, mettendo in moto mutamenti che rischiano di diventare fatali proprio per noi e per quanto di più bello abbiamo costruito in questa lunga evoluzione.

Il libro si articola in tre grandi sezioni. Tre lunghissime lettere d’amore. La prima è un inno alla Terra, culla delle nostre (dis)avventure, che ha visto alternarsi glaciazioni, estinzioni di massa, prodigiose fioriture e grandi rivoluzioni. La seconda si rivolge a chi legge: a noi e ai nostri corpi caduchi, fatti di materia riciclata, sintetizzata nei miliardi d’anni di storia cosmica e presa in prestito solo temporaneamente all’universo. Corpi che respirano le stesse molecole inalate da chi ci ha preceduto sul pianeta, che esitano ogni giorno di più a riconoscere il mondo che cambia e che a volte, in quest’era di emergenza climatica – anzi, emergenza umana – faticano a immaginare o addirittura a mettere al mondo chi verrà dopo di loro. La terza lettera, scritta per un figlio ancora non nato, pronostica possibili futuri. Futuri apocalittici, nei quali la transizione energetica non è mai arrivata a compimento, ma anche futuri più rosei, responsabili, in cui la cura e l’azione collettiva hanno cambiato il corso della storia.

In bilico tra arte e scienza, Stardust spazia dall’intimo e microscopico a quanto di più grande riusciamo a immaginare: c’è il buio pesto degli spazi intergalattici spolverizzati di stelle, il rosa dei tramonti terrestri, il verde brulicante di vita e il grigio degli incendi che sempre più spesso affollano le nostre notizie quotidiane. Creature multiformi emergono dalle pennellate di Arnesen, come il primo pesce ad avventurarsi sulle terre emerse centinaia di milioni di anni fa, uno “zio acquatico” di calviniana memoria, ignaro della colossale trasformazione iniziata con il suo pionieristico primo passo. Affiorano tra le pagine anche i nostri volti: volti dai molteplici toni e colori, omaggio alle Humanæ variazioni che rendono la nostra specie così ricca. E non mancano i corpi ingabbiati, le carcasse macellate delle altre, di specie, quelle che il modo di produzione dominante ha ridotto a mera merce, incurante sia delle emozioni animali sia dell’impatto che ha l’allevamento intensivo sull’ambiente. Il tutto scandito da grafici che mostrano l’andamento della temperatura terrestre nella storia e corredato dalle reazioni di adulti, adolescenti e bambini alla catastrofe climatica in corso, raccolte dall’autrice nei quattro anni di studio che hanno portato alla realizzazione di questo volume. Perché se è vero che “un giorno il Sole si gonfierà fino a diventare una gigante rossa […] e si spegnerà, diventerà un corpo celeste freddo e buio” è anche vero che, oggi, il terzo pianeta intorno al Sole “è la nostra casa, l’unica che conosciamo” e di cui prendersi cura, noi che altro non siamo se non “polvere di stelle sulla Terra”.



Universi, è uscito il numero di dicembre


28959161
28959163
Copertina del numero di dicembre di Universi, con una foto del Telescopio Nazionale Galileo. Crediti: Fabrizio Villa

È online – e probabilmente già sotto l’albero degli abbonati – il numero di dicembre di Universi. Anche in questo numero i ricercatori e le ricercatrici dell’Istituto Nazionale di Astrofisica (Inaf) presentano cinque approfondimenti su recenti scoperte, pubblicate negli ultimi sei mesi sulle principali riviste internazionali.

Con il primo approfondimento, grazie alla sapiente narrazione di Roberto Decarli e Federica Loiacono, ci avviciniamo alla comprensione dei quasar e delle loro interazioni con le galassie circostanti, avvenute appena un miliardo di anni dopo il Big Bang.

Nel secondo approfondimento, Luigi Bedin racconta di un progetto guidato dall’Inaf che, grazie al telescopio spaziale James Webb, ha prodotto immagini straordinarie dei due ammassi globulari più vicini alla Terra. Queste osservazioni hanno permesso di studiare gli oggetti più deboli mai rilevati in ammassi stellari: nane bianche e nane brune.

Paolo d’Incecco ci porta sull’Etna, guidando un progetto internazionale che selezionerà e analizzerà vulcani terrestri attivi come analoghi per lo studio del vulcanismo su Venere. Come riportato anche su Media Inaf questo mese, i ricercatori del gruppo Avengers – così si chiama il progetto, indimenticabile soprattutto per gli amanti di Tony Stark – sono stati a La Palma e Tenerife.

Melania Del Santo e Thomas Russell ci svelano i segreti di insoliti e potenti “pasti spaziali”: eventi in cui un oggetto con un forte campo gravitazionale cresce sottraendo materia a una stella vicina. Parte di questa materia, prima di essere inghiottita, viene espulsa attraverso meccanismi di lancio ancora poco conosciuti.

L’ultimo approfondimento, curato da Andrea Bulgarelli, esplora il mondo dei computer quantistici. Con la loro capacità di elaborare enormi quantità di dati simultaneamente, queste tecnologie stanno rivoluzionando il mondo della ricerca, diventando un alleato imprescindibile anche per l’astrofisica.

In questo numero, due interviste arricchiscono il panorama dei contenuti: la prima è con Piero Boitani, filologo, saggista e Accademico dei Lincei, che il 18 gennaio 2024 – nell’ambito della mostra dell’Inaf “Macchine del Tempo” a Palazzo delle Esposizioni Roma – ha tenuto una conferenza su scienza e umanesimo dal titolo Vaghe stelle dell’Orsa: Leopardi tra astronomia e poesia. Boitani approfondisce il tema della scienza come storia e mito, soffermandosi sul caso esemplare di Leopardi. Nella versione online dell’intervista è disponibile un link al testo integrale della lecture, gentilmente concesso dall’autore.

La seconda intervista è con Alessandro Bogliolo, professore all’Università di Urbino e ideatore di CodyTrip, il format di gite scolastiche online che, solo a ottobre, ha portato circa 42mila partecipanti alla scoperta del Telescopio Nazionale Galileo a La Palma, alle Canarie. Dal 2022, grazie alla collaborazione con l’Inaf, questo progetto ha aperto le porte della ricerca astrofisica italiana alle scuole di tutta Italia, accompagnandole virtualmente nei principali centri di ricerca dell’Istituto.

Infine, la rubrica Visione ci porta all’Osservatorio astrofisico di Torino, con gli splendidi scatti di Riccardo Bonuccelli che immortalano laboratori e ricercatori all’opera. Non mancano poi le rubriche consolidate dedicate a società, arte, musica, scuola e libri, e altre ancora… tutte legate dal filo conduttore dell’astronomia.

Ricordo che dal sito della rivista è possibile abbonarsi alla versione cartacea, almeno fino a esaurimento delle nostre scorte. Per chi invece preferisce il digitale, sul sito sono presenti tutti gli articoli.

Non mi resta che augurarvi buona lettura e buone feste.



Luna, vecchia dentro, giovane fuori


media.inaf.it/2024/12/20/luna-…
Si pensa che l’ultimo grande impatto sulla Terra abbia formato la Luna. La datazione di questo evento, basata sull’età di diverse rocce che si presume si siano cristallizzate dall’oceano magmatico lunare, non è univoca ma varia fra 4,35 e 4,51 miliardi di anni fa, a seconda che si utilizzino le età di campioni di roccia lunare intera o di singoli grani di zircone. Un nuovo articolo pubblicato su Nature, però, prende posizione affermando che la Luna si sia formata tra 4,43 e 4,51 miliardi di anni fa. Dopo la sua formazione, infatti, la crosta del nostro satellite si sarebbe fusa nuovamente fuorviando i ricercatori nel determinare con esattezza la sua età.

Cominciamo quindi dall’inizio. La storia della Luna, dicevamo, parte da un’enorme collisione: un asteroide grande come Marte si è schiantato contro una giovane Terra. L’impatto ha generato un calore tale che il nostro pianeta si è fuso completamente e ha espulso nello spazio un’imponente quantità di materiale. Materiale che si è poi raggruppato per formare la Luna, inizialmente ricoperta da un enorme oceano di roccia calda e liquida. Nei milioni di anni successivi, il corpo appena formato si è raffreddato e si è allontanato sempre di più dalla Terra, fino a raggiungere l’orbita attuale a una distanza di circa 384mila chilometri.

28894937
Alcune centinaia di milioni di anni dopo la sua formazione, la Luna fu soggetta a un’intensa attività vulcanica. La distanza tra la Terra e la Luna era allora molto minore di quella attuale. Crediti: Mps/Alexey Chizhik

Alcune centinaia di milioni di anni dopo la sua formazione, però, la Luna orbitava ancora molto vicino alla Terra rispetto a oggi: a circa un terzo della distanza attuale. Le forze di marea che derivavano dalla sua orbita riscaldavano il suo interno, originando un’attività vulcanica talmente intensa che potrebbe aver fuso la sua crosta a più riprese. Ed è proprio questo ad aver creato opinioni contrastanti circa l’età del nostro satellite. Alcuni ricercatori, infatti, pensano che la sua formazione risalga a 4,35 miliardi di anni fa, altri ne datano la nascita a 4,51 miliardi di anni fa. E questo perché da un lato quasi tutti i campioni di roccia lunare indicano l’età più giovane, dall’altro alcuni rari cristalli di silicato di zirconio, noti come zirconi, sono significativamente più antichi. Secondo gli autori del nuovo studio hanno ragione entrambi. Come è possibile? Perché, come dicevamo, la crosta lunare è stata in gran parte fusa di nuovo dopo la sua formazione e solo alcuni zirconi sono stati in grado di resistere inalterati a queste condizioni estreme.

Come dimostrano i calcoli dei ricercatori, il flusso di calore proveniente dall’interno lunare era sufficiente a fondere e smuovere l’intero mantello. Il che non significa che la Luna fosse coperta da un oceano di magma, ma che nel corso di diversi milioni di anni il calore dall’interno ha raggiunto gradualmente ogni parte della superficie, liquefacendo la maggior parte della roccia sulla crosta – forse anche più volte.

«I campioni di roccia lunare ci raccontano l’intera e turbolenta storia della Luna», dice Thorsten Kleine, direttore del Max Planck Institute for Solar System Research di Göttingen e coautore dello studio. «Ci parlano della sua formazione e del successivo violento vulcanismo. Finora non avevamo letto correttamente questi indizi».

Il forte vulcanismo ha probabilmente resettato l’orologio geologico della Luna, e i campioni di rocce lunari non rivelano quindi la loro età originale, ma solo quando sono stati riscaldati per l’ultima volta. Solo alcuni zirconi resistenti al calore forniscono prove di un passato più lontano, come mostrano i ricercatori nei loro calcoli. In alcuni punti in cui la lava non ha raggiunto la superficie, i grani di zircone sono rimasti freddi e hanno mantenuto le loro proprietà originarie inalterate.

Tirando le somme, quindi, la Luna avrebbe un’età compresa tra 4,43 e 4,51 miliardi di anni, mentre il violento vulcanismo avrebbe modellato la sua crosta circa 4,35 miliardi di anni fa. Un risultato, questo, che non solo fornisce una risposta più precisa alla domanda “quant’è vecchia la Luna”, ma che risolverebbe anche altre contraddizioni riguardo la sua storia. Il numero relativamente basso di crateri presenti sulla Luna, ad esempio, era un altro argomento a sfavore della sua vecchiaia. In un tempo così lungo, il nostro vicino cosmico avrebbe dovuto assistere a un maggior numero di impatti. Il vulcanismo offre ora una spiegazione anche a questo: la lava proveniente dall’interno della Luna potrebbe aver riempito i primi bacini di impatto, rendendoli così irriconoscibili. Una situazione simile a quella in cui versava la Luna all’epoca è osservabile ancora oggi sulla luna di Giove Io, che percorre un’orbita leggermente ellittica attorno al gigante gassoso. Le enormi forze di marea di Giove rendono la piccola luna il corpo più vulcanicamente attivo del Sistema solare. La Luna primordiale della Terra era probabilmente all’altezza di Io.

Per saperne di più:



Accordo inter-enti per l’Einstein Telescope


28884856
Nel pomeriggio di ieri, giovedì 19 dicembre, nel corso di una videoconferenza, la presidente della Regione autonoma della Sardegna, Alessandra Todde, i rettori delle università di Cagliari e Sassari, Francesco Mola e Gavino Mariotti, e i presidenti dell’Istituto nazionale di fisica nucleare (Infn), Istituto nazionale di astrofisica (Inaf) e Istituto nazionale di geofisica e vulcanologia (Ingv), Antonio Zoccoli, Roberto Ragazzoni e Carlo Doglioni, hanno firmato un accordo inter-enti per il coordinamento e la promozione in Sardegna di iniziative a supporto della candidatura del sito minerario di Sos Enattos per ospitare l’Einstein Telescope (Et), futura infrastruttura europea per la ricerca di onde gravitazionali.

28884858
La miniera di Sos Enattos, in provincia di Nuoro. Crediti: Infn, Ego

L’obiettivo dell’accordo, di cui la Regione Sardegna è capofila, è creare un coordinamento permanente per il sostegno alla candidatura dell’area intorno alla miniera dismessa nel comune di Lula (NU), che faciliti la realizzazione di azioni comuni tra gli enti coinvolti. Tali iniziative avranno sia una finalità promozionale – come il rafforzamento della sensibilizzazione e dell’informazione sulla candidatura, la promozione territoriale e la valorizzazione dell’identità culturale e del patrimonio archeologico – sia una più strettamente scientifica e didattica, come la formazione in ambito scientifico e tecnico e la promozione di attività di ricerca in diversi ambiti chiave per Et, dalla geologia all’architettura fino all’ingegneria, passando per l’impatto ambientale e socio-economico. Inoltre, tra le azioni citate nell’accordo non mancano anche iniziative di carattere strategico per il territorio, come il rafforzamento dei trasporti aerei e stradali, lo studio di soluzioni per la mobilità sostenibile compatibili con Et, la creazione di scuole internazionali e altre iniziative che favoriscano l’accoglienza di ricercatrici e ricercatori stranieri.

Il coordinamento delle attività previste dall’accordo sarà affidato a un comitato di gestione composto da sei membri (uno per ogni ente coinvolto) e presieduto dalla Regione Sardegna.

«Tenevamo molto alla firma di questo accordo, dichiara Alessandra Todde, presidente della Regione Sardegna, ente capofila, «che fa seguito alle delibere e ai finanziamenti già messi in campo nelle scorse settimane. Einstein Telescope è per noi una infrastruttura strategica per la quale stiamo lavorando sin dal primo giorno. L’accordo firmato oggi ci vede in prima linea nella promozione della candidatura e di tutto il territorio, costruendo momenti coordinati e partecipati in tutte le aree della Regione. Vogliamo fare squadra con le università e con gli enti di ricerca, rendendo partecipi le cittadine e i cittadini della Sardegna».

Un ruolo fondamentale nella candidatura sarda per Einstein Telescope è giocato dalle università del territorio, come sottolinea Francesco Mola, rettore dell’Università di Cagliari: «La nostra università è orgogliosa di essere parte integrante di questa iniziativa, che non solo conferma il valore strategico del nostro territorio, ma mette anche in luce le eccellenze scientifiche e accademiche che siamo in grado di offrire. Questo accordo dimostra la forza della sinergia tra istituti nazionali, università, enti pubblici, realtà industriali e la comunità locale».

«L’Università degli studi di Sassari sostiene con convinzione il progetto Et a Lula fin dal principio», aggiunge il rettore dell’ateneo sassarese Gavino Mariotti. «L’Einstein Telescope è molto più di un progetto di ricerca, è un’occasione di rinascita per l’intera isola che oggi soffre di un calo demografico senza precedenti. Et avrebbe in sé la forza di far crescere nuova linfa e nuove menti, innescando in Sardegna processi virtuosi di ampia portata. Questo accordo dimostra che le istituzioni sono pronte a collaborare tra loro per importanti obiettivi comuni».

28884860
Rendering del progetto. Crediti: Infn

Le sfide scientifiche di Et richiedono una forte cooperazione tra le istituzioni del territorio e gli enti di ricerca coinvolti, che sarà rafforzata dalla firma dell’accordo. «Einstein Telescope è un progetto di portata scientifica mondiale, ospitare questa grande infrastruttura di ricerca in Sardegna sarebbe un risultato di straordinario valore, per il territorio e per tutto il Paese», sottolinea il presidente dell’Infn Antonio Zoccoli. «Per riuscire in questa impresa è determinante che Einstein Telescope sia un progetto di tutti, sia il più possibile condiviso: dalla società civile, dalle istituzioni, dalla comunità scientifica. Bisogna essere uniti. Questo è il senso dell’accordo sottoscritto oggi, il primo inter-istituzionale, che sancisce formalmente una collaborazione che è già in atto, e la dota di un comitato di coordinamento il cui ruolo sarà fondamentale per promuovere azioni efficaci nel quadro di una strategia comune. Einstein Telescope è una sfida importante e impegnativa che possiamo vincere».

«Per l’Inaf questo accordo rappresenta una duplice conferma della sua vocazione istituzionale allo sviluppo della ricerca astrofisica dai migliori siti e con la migliore tecnologia a disposizione», dichiara il presidente dell’Inaf Roberto Ragazzoni. «Conferma la bontà del sito che, con il suo silenzio sismico, rappresenta il migliore possibile in ambito europeo, in una regione che già ospita il radiotelescopio di San Basilio, gestito dall’Osservatorio astronomico di Cagliari, una delle nostre strutture più importanti. Conferma anche l’impegno in termini di sviluppo tecnologico perché il nostro Istituto intende portare sul sito di Sos Enattos le migliori tecnologie per la manipolazione della luce e delle osservazioni a grandissimo campo, proprio per affinare le capacità di cogliere le controparti ottiche di quei fenomeni celesti che saranno scrutati dal sensibilissimo Einstein Telescope».

«La sigla di questo accordo rappresenta un forte segnale di collaborazione e coesione tra alcune delle realtà scientifiche nazionali più importanti, e segna un passo decisivo nel percorso di promozione della candidatura italiana a ospitare un’infrastruttura di ricerca ambiziosa come Et», aggiunge il presidente dell’Ingv Carlo Doglioni. «L’Ingv, proseguendo la sua attività di caratterizzazione del sottosuolo e del rumore sismico di fondo del sito – grazie ai sensori sismici installati nelle gallerie della miniera – nonché di identificazione dell’origine delle sorgenti di questo rumore attraverso campagne temporanee di misura con strumentazione installata in superficie, conferma il suo impegno nello sviluppo di Et e del suo sito ospitante, Sos Enattos, come casa comune della ricerca italiana di alto profilo, ma lancerà anche il progetto Earth Telescope, finalizzato allo sguardo verso il profondo del pianeta per scoprirne finalmente i segreti della sua struttura e funzionamento».

Guarda su MediaInaf Tv il video di Gloria Nobile sull’Einstein Telescope:

youtube.com/embed/FYSyj59ZwuU?…



Va ad Andrew Alberini il premio “Ernesto Capocci”


28821601
Si è tenuta oggi all’Auditorium nazionale Inaf, intitolato a Ernesto Capocci, presso l’Osservatorio astronomico di Capodimonte, nel corso della serata intitolata Stelle in festa, la premiazione dell’Ernesto Capocci Scientific Award, dedicato a giovani ricercatori nel campo degli studi rivolti al Sistema solare. Giunto alla sua seconda edizione, il premio è stato conferito ad Andrew Alberini, giovane astrofisico originario di Populonia Stazione, in provincia di Livorno, che sta svolgendo il suo dottorato di ricerca all’Inaf di Arcetri.

28821603
La consegna del premio “Ernesto Capocci” al vincitore, Andrew Alberini. Crediti: Modestino Iafanti

La giuria dell’edizione 2024 del premio, composta da Sonia Fornasier dell’Università Lesia di Parigi, da Ivano Bertini dell’Università di Napoli Parthenope e da Fabio Cozzolino dell’Inaf di Napoli, ha deciso di premiare la qualità del lavoro di Alberini proposto nell’articolo “Investigating the stability of aromatic carboxylic acids in hydrated magnesium sulfate under UV irradiation to assist detection of organics on Mars” pubblicato su Scientific Reports. La giuria ha ritenuto l’articolo di Alberini di alta rilevanza negli studi in esobiologia, i cui risultati potranno avere un significativo impatto futuro, in special modo per la missione della Nasa Mars Sample Return. Per la giuria, inoltre, la ricerca di Alberini fornisce input fondamentali, attraverso attività di laboratorio, per la validazione di misure condotte in situ dal rover Perseverance nell’ambito della missione Mars 2020. «È per me un grande onore ricevere questo premio», ha detto Alberini, emozionato per il riconoscimento, «e desidero esprimere la mia profonda gratitudine alla giuria, al comitato scientifico e agli eredi del professor Capocci. L’articolo è frutto del contributo di 20 ricercatori di Italia, Spagna, Francia, Svezia, Canada, Cina e Stati Uniti; desidero, quindi, condividere con loro la soddisfazione di questo importante riconoscimento».

Alberini si è laureato in fisica all’Università di Pisa con una tesi sulla “Zona di abitabilità per pianeti extrasolari” e poi ha ottenuto la laurea magistrale, cum Laude, all’Università di Firenze. Ora sta svolgendo il dottorato di ricerca tra l’Osservatorio di Arcetri e il Dipartimento di fisica e astronomia dell’università fiorentina, investigando le possibili tracce di vita extraterrestre sulla superficie di Marte attraverso l’analisi i dati spettroscopici ottenuti dagli strumenti SuperCam e Sherloc del rover Nasa Perseverance. Gli obiettivi del lavoro di Alberini sono lo studio della fotostabilità delle potenziali molecole organiche nell’ambiente marziano e la creazione di un database a spettroscopia infrarossa di campioni marziani che potrà essere di aiuto per le prossime missioni verso il Pianeta rosso. Alberini tiene a rivolgere anche «uno speciale ringraziamento a John Robert Brucato e Teresa Fornaro per aver reso possibile questo progetto di dottorato e di ricerca presso l’Osservatorio di Arcetri. Mi auguro che i risultati che stiamo ottenendo possano fornire un contributo alla ricerca astrobiologica sulla possibile presenza di vita passata o presente su Marte, un tema ancora ricco di interrogativi ai quali dobbiamo continuare a cercare risposte».

Alla cerimonia di premiazione sono intervenuti anche gli eredi Capocci, che hanno sostenuto l’istituzione del premio dedicato all’astronomo napoletano che nell’Ottocento ha rivolto gran parte delle sue energie scientifiche e divulgative allo studio del Sistema solare. Importanti furono i suoi lavori sulle comete e le sue intuizioni sulla natura della fascia principale degli asteroidi. «Lo studio dei corpi del Sistema solare è iniziato a Capodimonte ai tempi di Ernesto Capocci», ha sottolineato il direttore dell’Osservatorio, Pietro Schipani, consegnando il premio insieme all’erede Capocci, «ed è tuttora una linea di ricerca estremamente attiva. Siamo felici di assegnare annualmente questo premio dedicato alla memoria di un grande scienziato, a beneficio dei giovani ricercatori attivi nel settore».

La serata, a cui ha preso parte anche Michelle Lee, console alla cultura e stampa del Consolato generale degli Stati Uniti a Napoli, è proseguita con la conversazione scientifica di Enrico Cascone dell’Inaf di Napoli dal titolo “L’universo corale, le molte voci delle stelle”, mostrando al pubblico com’è cambiata la nostra conoscenza del cosmo; un tuffo nella moderna astronomia multimessaggera che svela aspetti finora sconosciuti sul funzionamento dell’universo.



Dietro l’incredibile resistenza del batterio Conan


28813936
È un microscopico batterio dalla forma sferica. Il suo nome scientifico è Deinococcus radiodurans, ma è ormai conosciuto con il soprannome di “Conan il batterio” per via della sua incredibile resistenza a dosi di radiazioni migliaia di volte superiori a quelle letali per l’essere umano. Il segreto di questa impressionante resistenza è la presenza all’interno della cellula batterica di una potente molecola anti-ossidante. Un team di ricerca guidato da Michael Daly, ricercatore alla Uniformed Services University e Brian Hoffman, scienziato della Northwestern University, ha ora scoperto la struttura di questa molecola.

Immagine al microscopio del batterio Deinococcus radiodurans Crediti: Usu/Michael Daly

Lo studio, i cui risultati sono stati pubblicati la settimana scorsa su Proceedings of the National Academy of Sciences, si basa su una precedente ricerca nella quale gli scienziati hanno cercato di indagare la capacità del Deinococcus radiodurans di resistere alle radiazioni, misurando l’accumulo di molecole di antiossidanti a base di manganese nelle cellule microbiche. I risultati di questa ricerca suggeriscono che la dose di radiazioni a cui un microrganismo o le sue spore possono sopravvivere è direttamente correlata alla quantità di anti-ossidanti che contiene. In altre parole, più anti-ossidanti un batterio dispone, maggiore sarà la resistenza alle radiazioni.

Il motivo di ciò è dovuto al fatto che le radiazioni causano la produzione di radicali liberi, specie reattive dell’ossigeno in grado di provocare un danno a macromolecole biologiche, ad esempio il Dna, e strutture cellulari. La presenza di elevate quantità intracellulari di anti-ossidanti, molecole in grado di prevenire e neutralizzare la formazione di radicali liberi, limita il danno cellulare indotto dalle radiazioni, favorendo così i meccanismi di radioprotezione.

Con l’obiettivo di comprendere meglio la struttura del sistema di protezione contro le radiazioni, nel nuovo studio gli scienziati hanno indagato in laboratorio il meccanismo di radioprotezione utilizzando tre metaboliti di partenza: un decapeptide sintetico (Dp1), lo ione manganese, un cofattore di molti enzimi, e ioni fosfato, tutti elementi presenti all’interno delle cellule del batterio. Attraverso l’uso di avanzate tecniche spettroscopiche, il team ha scoperto che il segreto della protezione dalle radiazioni del batterio è un complesso ternario, costituito dal decapeptide Dp1 legato al manganese e al fosfato, formando così la molecola anti-ossidante Mdp, un protettore dai danni causati da radiazioni molto più potente rispetto al manganese combinato da solo con gli altri componenti.

«Questo complesso ternario è un eccellente scudo contro gli effetti delle radiazioni», dice Hoffman. «Sappiamo da tempo che gli ioni manganese e il fosfato insieme costituiscono un potente anti-ossidante, ma scoprire e comprendere la potenza “magica” fornita dall’aggiunta del terzo componente è una svolta. Questo studio ha fornito la chiave per capire perché questa combinazione è un radioprotettore così potente e promettente»

La comprensione del meccanismo di radioprotezione del batterio Deinococcus radiodurans potrebbe portare alla scoperta di nuovi antiossidanti sintetici specifici per le esigenze umane, utilizzabili ad esempio per la protezione degli astronauti dalle intense radiazioni cosmiche durante le missioni di esplorazione nello spazio profondo. Queste scoperte, concludono i ricercatori, potrebbero aprire nuove strategie per migliorare la resistenza all’ossidazione delle cellule, stimolare lo sviluppo di vaccini cellulari interi inattivati dalle radiazioni e potenzialmente portare ad altri progressi in campo medico.

Per saperne di più:



À rebours: la morte delle stelle svela la loro nascita


28780002
Dalla fine delle stelle al loro inizio: è questo l’approccio utilizzato da una ricerca pubblicata su Universe che ha permesso di sfruttare il numero di supernove e raggi gamma osservati nell’universo per ottenere la cosiddetta funzione di massa iniziale (Imf), ossia il modo in cui la massa delle stelle si distribuisce dopo la loro formazione. Applicando un comune metodo computazionale di stima di parametri, gli scienziati sono riusciti a ricavare l’Imf di zone anche molto lontane del cosmo, impossibili da osservare direttamente con i telescopi. La ricerca è stata condotta da un team di studiosi della Scuola internazionale superiore di studi avanzati (Sissa) di Trieste, l’Istituto nazionale di fisica nucleare (Infn), l’Istituto di fisica fondamentale dell’universo (Ifpu) e l’Istituto nazionale di astrofisica (Inaf).

28780004
Francesco Gabrielli, ricercatore alla Sissa e primo autore dello studio pubblicato su Universe. Crediti: Sissa

L’Imf ottenuta dagli autori dello studio è risultata sorprendentemente simile a quella misurata nell’universo più vicino a noi. Questo, sostengono gli scienziati, sarebbe una possibile prova a sostegno di una Imf universale. Il risultato sarà ora messo alla prova dalle osservazioni di telescopi come il Jwst ed Euclid.

L’Imf è un valore universale? Forse

«Tutte le popolazioni stellari osservate nelle nostre vicinanze sembrano mostrare una funzione di massa iniziale sorprendentemente simile. Questo potrebbe indicare che si tratti di una costante universale nella formazione stellare, indipendentemente dalla regione specifica dell’universo in cui si verifica. Sfortunatamente, le limitazioni strumentali impediscono agli scienziati di discernere le popolazioni stellari al di là dell’universo locale e di testare l’universalità dell’Imf», spiega Francesco Gabrielli, ricercatore e autore – con Andrea Lapi e Mario Spera – dello studio.

La formazione stellare è uno dei processi più affascinanti dell’universo. Avviene nelle regioni dense delle galassie, attraverso il collasso e la frammentazione delle nubi di gas molecolare. Quando un singolo grumo gassoso diventa abbastanza caldo e denso, inizia a bruciare idrogeno e comincia a brillare: è in questo momento che nasce una stella.

Supernove e lampi di raggi gamma per calcolare l’Imf

La nuova ricerca è partita con un meccanismo a ritroso e, più in particolare, dalla conoscenza che l’esito della vita di una stella dipende dalla sua massa. Le stelle massicce terminano la loro vita in spettacolari esplosioni, chiamate supernove. Si ritiene che alcune supernove lancino persino un getto di materiale a velocità molto elevate, alimentando l’emissione di raggi gamma, in un cosiddetto lampo di raggi gamma. Poiché il verificarsi di un particolare tipo di esplosione dipende dalla massa della stella, il numero di esplosioni che si verificano nell’universo dipenderà dal numero di stelle che si formano con la giusta massa. In altre parole, dipenderà dall’Imf.

«Sulla base di queste considerazioni», spiega Gabrielli, «il mio gruppo e io abbiamo sviluppato un nuovo metodo per determinare l’Imf oltre l’universo locale. In particolare, abbiamo utilizzato un metodo computazionale in realtà piuttosto comune ma impiegato per la prima volta per riprodurre il numero osservato di supernove e lampi di raggi gamma nell’universo. Poiché queste quantità dipendono strettamente dall’Imf, questo ci ha dato la possibilità di vincolare la forma esatta dell’Imf che meglio riproduce le osservazioni».

28780006
Crediti: David Kopacz/Pexels

Alla prova delle osservazioni

Utilizzando questo approccio per la prima volta, i ricercatori sono stati così in grado di ottenere una nuova metodologia di determinazione dell’Imf. Una cosa particolarmente affascinante scoperta dal team di ricerca è che l’Imf calcolata fino all’universo lontano risulti sorprendentemente simile a quella misurata nell’universo locale, possibile prova a sostegno di un’Imf universale.

«Questo è un momento entusiasmante per gli astrofisici», conclude Gabrielli, «poiché molti nuovi telescopi, come il Jwst ed Euclid, stanno ora iniziando le osservazioni. Di conseguenza, ci si aspetta una quantità straordinaria di osservazioni di supernove ed esplosioni di raggi gamma nei prossimi anni. Sarà emozionante vedere cosa ci dirà questa nuova ricchezza di dati sull’Imf e sulla sua universalità. Una comprensione più profonda dell’Imf permetterebbe di fare importanti passi avanti in svariati ambiti astrofisici, tra cui la formazione ed evoluzione delle stelle, l’arricchimento chimico dell’universo, e l’osservazione di onde gravitazionali emesse da buchi neri in collisione».

Fonte: comunicato stampa Sissa

Per saperne di più:



Blazar da record: è il più distante mai visto


28701088
Dodici miliardi e novecento milioni di anni. Tanto è il tempo che la luce dell’oggetto J0410-0139 ha impiegato per giungere fino a noi. Una luce molto particolare: è il fascio di fotoni emesso da un Agn, una galassia nel cui nucleo alberga un buco nero attivo. Iperattivo, in questo caso: stiamo infatti parlando di un quasar, ovvero un nucleo eccezionalmente luminoso. Ma c’è di più: oltre a essere luminosissimo, il fascio di luce emesso da J0410-0139 è puntato dritto verso di noi. Quest’ultimo dettaglio è ciò che lo rende non un semplice quasar, bensì un blazar. Il blazar più distante, e quindi più antico, mai osservato fino a oggi. Dunque un record, certo, ma a rendere questa sua antichità interessante agli occhi degli astronomi è ciò che ne consegue: potrà aiutarli a comprendere come i buchi neri supermassicci siano stati in grado di crescere così rapidamente nell’universo primordiale.

28701091
Rappresentazione artistica del blazar più distante dell’universo. Crediti: U.S. National Science Foundation/Nsf National Radio Astronomy Observatory, B. Saxton

La scoperta è il risultato di una ricerca sistematica di nuclei galattici attivi in epoche remote condotta da Eduardo Bañados, astrofisico alla guida di un gruppo specializzato nei primi miliardi di anni di storia cosmica del Max-Planck-Institut für Astronomie tedesco – gruppo del quale fa parte anche Silvia Belladitta, associata Inaf – e da un team internazionale di astronomi fra i quali Roberto Decarli dell’Inaf di Bologna. Poiché la luce impiega un certo tempo per raggiungerci, vediamo gli oggetti lontani come erano milioni o addirittura miliardi di anni fa. Non solo: il cosiddetto redshift cosmologico – fenomeno dovuto all’espansione cosmica – sposta lo spettro della loro luce a lunghezze d’onda molto più lunghe di quelle a cui era stata emessa. Bañados e il suo team hanno dunque sfruttato questa caratteristica per compiere una ricerca sistematica di oggetti talmente spostati verso le frequenze più basse da non apparire nemmeno più nelle survey in luce visibile (in particolare, nella Dark Energy Legacy Survey) ma presenti, invece, come sorgenti luminose in banda radio nella survey a 3 GHz Vlass.

Sono così emersi venti candidati che soddisfacevano entrambi i criteri. Fra questi c’era J0410-0139, l’unico a esibire anche un’altra curiosa caratteristica, tipica dei blazar: significative fluttuazioni di luminosità nel regime radio. Per avere la certezza che proprio di un blazar si trattasse, gli autori dello studio hanno scomodato una quantità ragguardevole di telescopi in tutto il mondo e nello spazio, fra i quali l’Ntt per le osservazioni in infrarosso, il Vlt, Lbt, uno dei telescopi Keck e il telescopio Magellan per gli spettri, i due telescopi spaziali per raggi X Chandra e Xmm-Newton, il Vla per la banda radio e, infine, gli array Alma e Noema per le osservazioni a onde millimetriche. Grazie a questa campagna multibanda è stato anche possibile determinare il redshift esatto del blazar, risultato pari a z=6.9964, e di conseguenza il tempo che la sua luce ha impiegato per giungere fino a noi: come dicevamo in apertura, 12.9 miliardi di anni.

28701093
Visualizzazione schematica delle tappe principali del Big Bang. L’universo è composto da gas neutro a 400mila anni dopo il Big Bang, e la radiazione delle prime stelle inizia a re-ionizzare l’idrogeno. Dopo diverse centinaia di milioni di anni l’universo è completamente ionizzato. Crediti: Osservatorio astronomico nazionale del Giappone (Naoj)

Luce dunque risalente a un’epoca – quella della reionizzazione – di estremo interesse per gli astronomi. La luce del precedente detentore del record di “blazar più distante” (a redshift z=6.1) ha impiegato circa cento milioni di anni in meno per raggiungerci. Cento milioni di anni in più o in meno possono sembrare pochi alla luce del fatto che stiamo guardando indietro di oltre 12 miliardi di anni, ma in realtà la differenza è cruciale. Parliamo infatti di un periodo in cui l’universo sta cambiando rapidamente. In quei cento milioni di anni, un buco nero supermassiccio può aumentare la sua massa di un ordine di grandezza. In base ai modelli attuali, il numero di quasar dovrebbe essere aumentato di un fattore da cinque a dieci durante quei cento milioni di anni. Detto altrimenti, trovare un blazar risalente a 12.8 miliardi di anni fa non sarebbe inaspettato, ma trovare un blazar risalente a 12.9 miliardi di anni fa, come in questo caso, è tutta un’altra cosa.

«Il fatto che J0410-0139 sia un blazar – un getto che per caso punta direttamente verso la Terra – ha immediate implicazioni statistiche», sottolinea a questo proposito Bañados. «Per fare un’analogia con la vita reale, immaginate di leggere che qualcuno ha vinto cento milioni di dollari alla lotteria. Considerata la rarità di una tale vincita, si può immediatamente dedurre che ci debbano essere state molte altre persone che hanno partecipato a quella lotteria, ma che non hanno vinto una somma così esorbitante. Allo stesso modo, trovare un Agn con un getto che punta direttamente verso di noi implica che in quel periodo della storia cosmica dovessero esserci molti Agn con getti che non puntavano verso di noi».

28701095
Silvia Belladitta, ricercatrice postdoc al Max Planck e associata Inaf. Crediti: Giulia Perotti

In altre parole, riassume efficacemente Belladitta, «dove ce n’è uno, ce ne sono altri cento». Ed è per questo che la scoperta di J0410-0139 è di grande rilievo per ricostruire l’evoluzione del cosmo: si pensa infatti che i buchi neri con getti possano crescere molto più rapidamente di quelli senza getti.

L’eccezionale antichità di J0410-0139 ha poi un altro risvolto di notevole interesse per gli astronomi: è un faro eccezionale per guardare la reionizzazione “in controluce”, analizzando le righe d’assorbimento dovute alla materia incontrata dalla luce del blazar nella sua corsa fino a noi attraverso lo spazio e il tempo. «Un radio-quasar molto brillante a z~7 – come questa sorgente – potrebbe permetterci di studiare la “foresta” della linea 21 cm, cioè una serie di segnali radio prodotti dall’idrogeno neutro», spiega Belladitta a Media Inaf. «Osservare la 21 cm forest è una delle chiavi per ricostruire i primi momenti della storia cosmica, perché ci permette di studiare direttamente l’idrogeno neutro, la sua temperatura, i suoi movimenti. E di capire, guardando sia la profondità che la forma del segnale di assorbimento, quali tipi di oggetti – stelle, galassie o buchi neri – abbiano prodotto abbastanza energia per ionizzare l’idrogeno. Questo ci aiuta a rispondere a una domanda fondamentale: quali sono state le vere “protagoniste” della reionizzazione cosmica?»

Per saperne di più:



Antico buco nero dormiente catturato da Webb


Immagine/foto
Anche i buchi neri schiacciano un sonnellino, tra una mangiata e l’altra. Un team internazionale di scienziati, guidato dall’Università di Cambridge, ha scoperto un antichissimo buco nero supermassiccio “dormiente” in una galassia compatta, relativamente quiescente e che vediamo come era quasi 13 miliardi di anni fa. Il buco nero, descritto in un articolo pubblicato oggi sulla rivista Nature, ha una massa pari a 400 milioni di volte quella del Sole e risale a meno di 800 milioni di anni dopo il Big Bang, rendendolo uno degli oggetti più antichi e massicci mai rilevati.

Questo mastodontico oggetto è inoltre il primo buco nero supermassiccio non attivo, in termini di accrescimento di materia, osservato durante l’epoca della reionizzazione, una fase di transizione nell’universo primordiale durante la quale il gas intergalattico è stato ionizzato dalla radiazione delle prime sorgenti cosmiche. Probabilmente rappresenta solo la punta dell’iceberg di una intera popolazione di buchi neri “a riposo” ancora da osservare in questa epoca lontana. La scoperta, a cui partecipano ricercatrici e ricercatori anche dell’Istituto nazionale di astrofisica (Inaf), della Scuola Normale Superiore di Pisa e della Sapienza Università di Roma, si basa sui dati raccolti telescopio spaziale James Webb (Jwst), nell’ambito del programma Jades (Jwst Advanced Extragalactic Survey).

28694876
Immagine in falsi colori ottenuta dal telescopio spaziale Jwst, che mostra una piccola frazione del campo Goods-North. La galassia evidenziata nel riquadro ospita un antichissimo buco nero supermassiccio “dormiente”. Crediti: Jades Collaboration

In che senso il buco nero è “dormiente”? Grazie a questi dati, il gruppo di ricerca ha stabilito che, nonostante la sua dimensione colossale, questo buco nero sta accrescendo la materia circostante a un ritmo molto basso a differenza di quelli di massa simile osservati nella stessa epoca (i cosiddetti quasar) – circa cento volte inferiore al limite teorico massimo – rendendolo praticamente inattivo.

Un’altra peculiarità di questo buco nero ad alto redshift (ossia collocato nell’universo primordiale) è il suo rapporto con la galassia ospite: la sua massa rappresenta il 40 per cento della massa stellare totale, un valore mille volte superiore a quello dei buchi neri normalmente osservati nell’universo vicino. «Questo squilibrio», spiega Alessandro Trinca, ricercatore post-doc oggi in forza all’Università dell’Insubria ma già postdoc all’Inaf di Roma per un anno, «suggerisce che il buco nero abbia avuto una fase di crescita rapidissima, sottraendo gas alla formazione stellare della galassia. Ha rubato tutto il gas che aveva a disposizione prima di diventare dormiente lasciando la componente stellare a bocca asciutta».

«Comprendere la natura dei buchi neri», aggiunge Rosa Valiante, ricercatrice all’Inaf di Roma coinvolta nel team internazionale e coautrice dell’articolo, «è da sempre un argomento che affascina l’immaginario collettivo: sono oggetti apparentemente misteriosi che mettono alla prova “famose” teorie scientifiche come quelle di Einstein e Hawking. La necessità di osservare e capire i buchi neri, da quando si formano a quando diventano massicci fino a miliardi di volte il nostro Sole, spinge non solo la ricerca scientifica a progredire, ma anche l’avanzamento tecnologico».

28694879
Illustrazione artistica che rappresenta l’aspetto potenziale del buco nero supermassiccio scoperto dal team di ricerca durante la sua fase di intensa attività super-Eddington. Crediti: Jiarong Gu

I buchi neri supermassicci così antichi, come quello descritto nell’articolo su Nature, rappresentano un mistero in astrofisica. La rapidità con cui questi oggetti sono cresciuti nelle prime fasi della storia dell’universo sfida i modelli tradizionali, che non sono in grado di spiegare la formazione di buchi neri di tale portata. In condizioni normali, i buchi neri accrescono materia fino a un limite teorico, chiamato “limite di Eddington”, oltre il quale la pressione della radiazione generata dall’accrescimento contrasta ulteriori flussi di materiale verso il buco nero. La scoperta di questo buco nero primordiale supporta l’ipotesi che fasi brevi ma intense di accrescimento dette “super-Eddington” siano essenziali per spiegare l’esistenza di questi “giganti cosmici” nell’universo primordiale. Si tratta di fasi durante le quali i buchi neri riuscirebbero a inglobare materia a un ritmo molto superiore, sfuggendo temporaneamente a questa limitazione, intervallate da periodi di dormienza.

«Se la crescita avvenisse a un ritmo inferiore al limite di Eddington, il buco nero dovrebbe accrescere il gas in modo continuativo nel tempo per sperare di raggiungere la massa osservata. Sarebbe quindi molto improbabile osservarlo in una fase dormiente», spiega Raffaella Schneider, professoressa al Dipartimento di fisica della Sapienza.

28694889
Immagine in tre colori del nucleo galattico attivo e della galassia ospite Jades Gn 1146115. L’immagine è stata creata con diversi filtri (rosso F444W, verde F277W e blu F115W) utilizzando gli strumenti NirCam e NirSpec dwl James Webb Space Telescope in modalità multi-oggetto, come parte del programma Jades. La galassia si trova a un redshift di 6.68, che corrisponde a un’epoca di meno di 800 milioni di anni dopo il Big Bang. Crediti: I. Juodzbalis et al. / Nature (2024)

Gli scienziati ipotizzano che buchi neri simili siano molto più comuni di quanto si pensi, ma oggetti in un tale stato dormiente emettono pochissima luce, il che li rende particolarmente difficili da individuare, persino con strumenti estremamente avanzati come il telescopio spaziale Webb. E allora come scovarli? Sebbene non possano essere osservati direttamente, la loro presenza viene svelata dal bagliore di un disco di accrescimento che si forma intorno a loro. Con il Jwst, telescopio delle agenzie spaziali americana (Nasa), europea (Esa) e canadese (Csa) progettato per osservare oggetti estremamente poco luminosi e distanti, sarà possibile esplorare nuove frontiere nello studio delle prime strutture galattiche.

«Questa scoperta», conclude Stefano Carniani, ricercatore della Scuola Normale Superiore di Pisa e membro del team Jades, «apre un nuovo capitolo nello studio dei buchi neri distanti. Grazie alle immagini del James Webb, potremo indagare le proprietà dei buchi neri dormienti, rimasti finora invisibili. Queste osservazioni offrono i pezzi mancanti per completare il puzzle della formazione e dell’evoluzione delle galassie nell’universo primordiale».

La scoperta rappresenta solo l’inizio di una nuova fase di indagine. Il Jwst sarà ora utilizzato per individuare altri buchi neri dormienti simili, contribuendo a svelare nuovi misteri sull’evoluzione delle strutture cosmiche nell’universo primordiale.

Per saperne di più:

  • Leggi su Media Inaf l’intervista a Rosa Valiante
  • Leggi su Nature l’articolo “A dormant, overmassive black hole in the early Universe”, di Ignas Juodžbalis, Roberto Maiolino, William M. Baker, Sandro Tacchella, Jan Scholtz, Francesco D’Eugenio, Raffaella Schneider, Alessandro Trinca, Rosa Valiante, Christa DeCoursey, Mirko Curti, Stefano Carniani, Jacopo Chevallard, Anna de Graaff, Santiago Arribas, Jake S. Bennett, Martin A. Bourne, Andrew J. Bunker, Stephane Charlot, Brian Jiang, Sophie Koudmani, Michele Perna, Brant Robertson, Debora Sijacki, Hannah Ubler, Christina C. Williams, Chris Willott e Joris Witstok


Il bell’addormentato nel cosmo


28692077
28692079
Rosa Valiante, ricercatrice dell’Istituto nazionale di astrofisica a Roma

Un colosso cosmico, a metà strada tra un predatore insaziabile e un gigante dormiente. Così potremmo descrivere il buco nero appena individuato nell’universo primordiale grazie al telescopio spaziale James Webb. Un team internazionale di scienziati guidato dall’Università di Cambridge è riuscito infatti a identificare questo mostro da record: un buco nero supermassiccio con una massa pari a 400 milioni di volte quella del Sole, situato in un’era remota della storia dell’universo, a soli 800 milioni di anni dopo il Big Bang. Una scoperta che sfida i modelli attuali di formazione e crescita di questi oggetti estremi.

Si tratta di un buco nero insolito non solo per le dimensioni, ma anche per il suo stato di dormienza: questo mostro cosmico che ha apparentemente “mangiato troppo”, dopo un periodo di iperattività, ha ridotto drasticamente il suo accrescimento. Questo comportamento, sebbene raro da osservare, potrebbe rivelarsi comune per i buchi neri dell’universo primordiale.

Per sapere di più su questa straordinaria scoperta, pubblicata oggi sulla rivista Nature, abbiamo parlato con Rosa Valiante, ricercatrice dell’Istituto nazionale di astrofisica (Inaf) e coautrice dello studio.

Cosa rende quest’oggetto così speciale rispetto ad altri buchi neri supermassicci?

«Questo buco nero, con una massa pari a 400 milioni di volte quella del Sole, è uno dei primi di questa portata osservati dal James Webb Space Telescope. È unico non solo per le dimensioni, ma anche perché si trova a una distanza straordinaria, in un’epoca dell’universo risalente a soli 800 milioni di anni dopo il Big Bang, nella cosiddetta epoca della reionizzazione. Per dare un’idea, oggi l’universo ha circa 13,8 miliardi di anni. Un’altra peculiarità è che questo buco nero rappresenta il 40 per cento della massa totale della galassia che lo ospita, un valore molto superiore alla media osservata per i buchi neri nell’universo locale (cioè più vicini a noi), che solitamente copre solo lo 0,1 per cento. E ciò che lo rende ancora più insolito è che non sta accrescendo attivamente materia, quindi è “dormiente”».

Come avete fatto a capire che proprio lì ci fosse un buco nero e che fosse “dormiente”?

«Le osservazioni del James Webb sono state fondamentali. In particolare, i ricercatori di Cambridge hanno analizzato una riga spettrale dell’idrogeno chiamata . Questa riga, anziché avere la forma “stretta” tipica delle galassie, risultava più larga, consistente con la presenza di un buco nero. Grazie alle caratteristiche di questa riga, è stato possibile stimare la massa del buco nero e la sua luminosità, che però è risultata essere molto bassa: oltre cento volte inferiore a quella stimata per i buchi neri attivi di massa simile osservati alla stessa epoca. Questo ha confermato che il tasso di accrescimento è estremamente ridotto rispetto alla norma, solo il 2 per cento del tasso limite di Eddington».

Nonostante cresca lentamente, questo buco nero ha una massa – ci diceva – pari al 40 per cento di quella stellare della galassia. Quali implicazioni ha questo rapporto anomalo?

«Un rapporto così elevato suggerisce che il buco nero, nelle sue fasi iniziali, abbia consumato gran parte del gas disponibile per crescere, lasciando “a bocca asciutta” la formazione stellare. Questo fenomeno sembra indicare che il buco nero abbia attraversato dei periodi in cui la sua crescita ha sovrastato l’evoluzione della componente stellare della galassia. Probabilmente la maggior parte delle stelle osservate oggi si è formata solo dopo che il buco nero è entrato in una fase dormiente, cioè quando il suo tasso di accrescimento ha iniziato a diminuire, fino ad arrivare molto al di sotto del limite di Eddington. È un comportamento mai investigato nel dettaglio finora; infatti, i modelli teorici suggerivano una crescita più sincronizzata tra buchi neri e galassie».

28692081
Il campo Goods-North, nel quale è stato individuato il buco nero supermassiccio dormiente, osservato con lo strumento Nircam a bordo del telescopio spaziale Webb. Crediti: Nasa, Esa, Csa, B. Robertson (Uc Santa Cruz), B. Johnson (Cfa), S. Tacchella (Cambridge), M. Rieke (University of Arizona), D. Eisenstein (Cfa)

Quindi questa scoperta sembrerebbe contrastare con i modelli attuali, oppure no?

«Una scoperta come questa rappresenta una sfida per i modelli esistenti. Se un fenomeno così non viene previsto, significa che il modello deve essere rivisto. Tuttavia, questa è anche un’opportunità d’oro: ci permette di testare la validità delle nostre descrizioni della fisica e, se necessario, cambiarle. Nel nostro caso, abbiamo trovato una spiegazione grazie a un modello super-Eddington sviluppato da Alessandro Trinca durante il suo dottorato all’Università di Roma “La Sapienza” e messo a punto durante il suo postdoc all’Inaf. Questo modello, che prevede fasi brevi di accrescimento estremamente rapido, al di sopra appunto della soglia limite di Eddington, intervallate da lunghi periodi di dormienza, è riuscito a descrivere le caratteristiche di questo oggetto. Ora stiamo facendo simulazioni numeriche per migliorarlo ulteriormente e per spiegare meglio tutte le caratteristiche di questo buco nero».

Ha citato più volte questo ‘limite di Eddington’, ma cos’è esattamente e perché è così importante?

«Il limite di Eddington definisce la quantità massima di materia che un buco nero può accrescere entro un certo lasso di tempo, in condizioni di equilibrio tra la pressione di radiazione del materiale che si trova attorno al buco nero e la forza di gravità di esso. Stimare il tasso di accrescimento di materia in rapporto al limite di Eddington è importante per studiare e modellare i processi fisici che regolano la crescita del buco nero e il suo eventuale impatto (feedback) sulla galassia che lo ospita. Sia le osservazioni che i modelli teorici suggeriscono che, in condizioni estreme, questa soglia massima può essere superata, almeno per brevi periodi».

Questo buco nero potrebbe rappresentare la punta dell’iceberg di una intera popolazione di buchi neri “dormienti” ancora da osservare in questa epoca lontana?

«Il James Webb continuerà a cercare oggetti simili. Nuove campagne osservative sono già in programma, questa volta mirate specificamente a individuare buchi neri dormienti. La scoperta di questo oggetto è stata una sorpresa, ma ora ci aspettiamo di trovare un’intera popolazione di oggetti simili, soprattutto nell’universo primordiale. Inoltre, entro il 2030-2031, saranno lanciate missioni spaziali dedicate alle onde gravitazionali. Questo aprirà un nuovo canale di osservazione, complementare a quello delle onde elettromagnetiche. La combinazione dei due metodi ci permetterà di ottenere una visione ancora più completa dei buchi neri e della loro evoluzione. Non sai mai cosa aspettarti insomma, c’è sempre una nuova sorpresa, anche questo è il bello della scienza».


Per saperne di più:

  • Leggi il comunicato stampa dell’Inaf
  • Leggi su Nature l’articolo “A dormant, overmassive black hole in the early Universe” di Ignas Juodžbalis, Roberto Maiolino, William M. Baker, Sandro Tacchella, Jan Scholtz, Francesco D’Eugenio, Raffaella Schneider, Alessandro Trinca, Rosa Valiante, Christa DeCoursey, Mirko Curti, Stefano Carniani, Jacopo Chevallard, Anna de Graaff, Santiago Arribas, Jake S. Bennett, Martin A. Bourne, Andrew J. Bunker, Stephane Charlot, Brian Jiang, Sophie Koudmani, Michele Perna, Brant Robertson, Debora Sijacki, Hannah Ubler, Christina C. Williams, Chris Willott e Joris Witstok


Intelligenza artificiale che legge tra le righe


28587227
L’era delle indagini astronomiche su larga scala rappresenta una sfida che richiede approcci innovativi per fare fronte a una mole sempre più voluminosa di dati da analizzare, e una direzione promettente per affrontare questa sfida è certamente offerta dall’intelligenza artificiale.

Uno studio ora in uscita su Astronomy & Astrophysics propone di integrare tecniche sofisticate di machine learning – già applicate con successo in altri campi scientifici – e di adattarle all’analisi degli spettri di galassie per predire quantità fondamentali come redshift, massa stellare e tasso di formazione stellare delle galassie. Il modello si chiama M-Topnet (Multi-task network outputting probabilities) ed è basato su una rete neurale artificiale piuttosto articolata. M-Topnet non si limita a classificare o stimare un singolo parametro ma, grazie all’apprendimento multi-task, analizza contemporaneamente diverse proprietà fisiche delle galassie. Inoltre, è capace di associare alle stime di queste grandezze anche una distribuzione di probabilità – e quindi un’incertezza – permettendo così di valutare l’affidabilità di ciascun risultato. Lo strumento è stato progettato per essere capace di elaborare gli spettri prodotti dallo spettrografo di ultima generazione Moons (Multi Object Optical and Near-infrared Spectrograph), che verrà installato nei prossimi mesi al Very Large Telescope dell’Eso, in Cile.

28587232
Michele Ginolfi, astrofisico dell’università di Firenze. Crediti: Inaf

Ma cosa c’è di veramente nuovo in questo strumento di intelligenza artificiale? Lo abbiamo chiesto a Michele Ginolfi dell’Università di Firenze, alla guida dello studio.

In cosa si distingue M-Topnet dai metodi standard di machine learning?

«I metodi standard per analizzare gli spettri di galassie si basano principalmente sul confronto con modelli teorici o template preesistenti, cercando il miglior match. Questi metodi funzionano, ma hanno dei limiti: sono lenti, richiedono una grandissima quantità di informazioni e tendono a perdere precisione con dati di bassa qualità o quando le caratteristiche spettrali non sono ben definite. Il nostro metodo, invece, sfrutta una rete neurale artificiale molto flessibile che, una volta addestrata, è in grado di imparare direttamente dai dati come collegare lo spettro osservato alle proprietà fisiche della galassia. Ciò che lo rende speciale è che, per il redshift, non fornisce un singolo valore, ma una distribuzione di probabilità: una sorta di “mappa” che mostra quanto siamo sicuri delle diverse possibili soluzioni».

Cosa si intende per apprendimento multi-task?

«Si tratta di un approccio in cui un modello di intelligenza artificiale viene addestrato per svolgere più compiti contemporaneamente, anziché uno solo. Questo approccio ha diversi vantaggi: i compiti sono connessi tra loro, quindi le informazioni che il modello impara da uno possono aiutare a migliorare le predizioni sugli altri. Compiti principali come la stima del redshift sono affiancati da funzioni ausiliarie, come l’identificazione delle linee spettrali. Questi compiti secondari aiutano il modello a costruire una rappresentazione interna più completa dei dati, che non solo migliora le prestazioni nei compiti principali, ma rende il modello più robusto e capace di generalizzare meglio. Pensiamo alla cucina: se vuoi diventare un maestro nel preparare primi piatti spettacolari, probabilmente non andresti a una scuola che insegna solo primi piatti. Preferiresti piuttosto un corso di cucina completa su come preparare primi, secondi, dolci e altro, perché in questo modo impareresti in modo più versatile e generale tecniche che sono comuni ai diversi tipi di piatti, come dosare il sale, gestire i tempi di cottura o abbinare i sapori».

Definite il vostro modello diverso da una delle solite “scatole nere”. Cosa significa?

«Le reti neurali artificiali spesso vengono definite “black box” perché è difficile capire cosa avviene al loro interno: sappiamo cosa entra e cosa esce, ma non sempre riusciamo a interpretare come si arriva a certe conclusioni. Nel nostro caso, però, non è proprio così. Analizzando lo spazio latente – cioè le rappresentazioni interne che la rete costruisce per interpretare i dati – siamo riusciti a individuare una struttura ben precisa, che riflette alcune proprietà fisiche delle galassie, incluse alcune mai mostrate al modello durante l’addestramento. Un esempio? La rete distingue spontaneamente tra galassie passive ed attive, una caratteristica che non era parte del processo di apprendimento. È come se la rete avesse imparato da sola a identificare nuovi pattern e simmetrie nei dati, suggerendo informazioni emergenti. Questo non solo rende la pipeline più interpretabile, ma apre anche la strada a nuove scoperte».

Mi scusi, cosa è una pipeline?

«Per pipeline intendiamo una sequenza organizzata di passaggi, o fasi, che i dati attraversano per essere analizzati e trasformati. Nel nostro caso, la pipeline parte dallo spettro della galassia e, tramite vari passaggi di elaborazione, stima alcune proprietà fisiche della galassia stessa. È come una “catena di montaggio” del dato: ogni passaggio è progettato per aggiungere informazioni o raffinare il risultato finale».

It’s my pleasure to introduce the M-TOPnet (Multi-Task network Outputting Probabilities) pipeline to you

“Measuring redshift and galaxy properties via a multi-task neural net with probabilistic outputs: an application to simulated MOONS spectra”t.co/AlgCLXhAyu pic.twitter.com/cE1Gay6uTm

— Michele Ginolfi (@micginolfi) October 31, 2024

In cosa la vostra pipeline è diversa, per esempio, da ChatGpt, che ci risulta già più familiare?

«ChatGpt è un modello generativo multi-modale, progettato per comprendere e generare testo e immagini appartenenti a un dominio molto ampio e generale. Il nostro modello, invece, è specializzato nell’affrontare un compito più mirato in un dominio più specifico: misurare le proprietà fisiche delle galassie a partire dai loro spettri. A differenza di ChatGpt, non si limita a produrre una risposta “diretta”, ma ci fa sapere quando non è convinto di un risultato. È interessante notare che modelli simili a ChatGpt stanno iniziando a emergere anche in astronomia, e saranno capaci di trattare dati complessi come testo, immagini e spettri, integrandoli per nuove analisi. Ne vedremo delle belle!».

Come fate a capire se le risposte fornite dal vostro modello sono affidabili?

«Questo è proprio uno degli aspetti più innovativi della nostra pipeline. Grazie a un approccio probabilistico integrato, il nostro modello tiene conto sia delle incertezze nei dati (aleatorie) sia di quelle legate alla rete neurale stessa (epistemiche). Così, possiamo non solo fare previsioni accurate, ma anche capire quanto possiamo fidarci di esse. L’aspetto dell’incertezza associata alla misura è particolarmente cruciale per dati complessi come gli spettri di galassie. Ad esempio, abbiamo osservato che quando la predizione è sbagliata – magari perché il segnale è troppo debole e nascosto nel rumore, oppure perché lo spettro non presenta righe di emissione – il modello offre tante soluzioni diverse, mostrando una grande incertezza. Questo è particolarmente utile perché ci permette di identificare i casi “senza speranza” e dire: meglio per ora non considerare una stima poco affidabile, e aspettare osservazioni più profonde per migliorare la qualità dei dati».

Però esistono già modelli che associano ai parametri richiesti anche un’incertezza. In che modo possiamo dire che il vostro lavoro sia ancora più innovativo?

«È vero, per esempio il lavoro di Nils Candebat, Germano Sacco e altri colleghi dell’Inaf di Arcetri associa l’incertezza a un modello di machine learning, ma lo fa in modo diverso. Il loro approccio utilizza reti neurali invertibili, che permettono di fare un’inferenza simile a quella bayesiana in modo naturale, ed è particolarmente efficace per certi tipi di predizioni. Il nostro metodo, invece, è più specializzato nella stima del redshift, che richiede una precisione estrema e spesso può presentare più di una soluzione possibile. Da qualche mese stiamo collaborando tutti insieme – io, Germano Sacco, Francesco Belfiore e i nostri collaboratori più giovani – su progetti che vanno proprio in questa direzione. Grazie a diverse pubblicazioni recenti e ai progetti in corso, l’Osservatorio di Arcetri sta diventando un nodo importante nello sviluppo di metodi di machine learning per l’astrofisica capaci di gestire bene le incertezze nelle predizioni, un aspetto cruciale per il nostro campo».

28587236
Lo spettrografo ottico e infrarosso Moons, destinato al Very Large Telescope dell’Eso, in Cile (illustrazione artistica). Crediti: Eso

Perché avete scelto proprio Moons per testare questo strumento?

«Moons è uno strumento rivoluzionario, progettato per raccogliere dati spettroscopici di altissima qualità su un numero enorme di galassie – quasi mezzo milione – coprendo un’ampia gamma di redshift. Grazie alla sua combinazione di sensibilità, alta risoluzione spettrale e capacità di osservare contemporaneamente molti oggetti, Moons sarà fondamentale per studiare l’evoluzione delle galassie in momenti cruciali della storia dell’universo, come l’epoca del “mezzogiorno cosmico”, quando l’universo aveva circa la metà della sua età attuale. La sua copertura spettrale, che si estende fino al vicino infrarosso, consente inoltre di accedere a diagnostiche essenziali per analizzare proprietà come il tasso di formazione stellare, la massa stellare e la metallicità, anche in galassie lontane e deboli. Un aspetto fondamentale è che per Moons disponiamo di dati simulati estremamente realistici, scrupolosamente preparati dai miei colleghi. Questi dati ci permettono di addestrare e testare il nostro modello con precisione, preparandoci al meglio per l’arrivo dei dati reali. Il nostro tool può anche supportare la definizione di strategie osservative ottimali, massimizzando l’efficienza del prezioso tempo osservativo che scienziati e scienziate avranno a disposizione con Moons. Ci tengo a sottolineare che questo lavoro è frutto di uno sforzo corale: dalla generazione dei dati per l’addestramento del modello, alla progettazione della rete neurale, fino all’interpretazione dei risultati, ogni fase è stata possibile grazie a un lavoro di squadra».

In che modo ritiene che il machine learning cambierà il lavoro dell’astrofisico o si integrerà con questo?

«Il lavoro dell’astrofisico sta già subendo la stessa trasformazione che coinvolge molte altre discipline scientifiche. Pensiamo al metodo galileiano: esso si basa sull’interconnessione tra osservazione, ipotesi ed esperimento. Tradizionalmente, al centro di questo ciclo c’è sempre stato l’essere umano, l’osservatore. Con l’intelligenza artificiale, però, non è più solo il cervello umano a guidare questo processo, ma siamo affiancati anche da “cervelli digitali”.
Questi strumenti possono aiutarci in due modi principali: ottimizzando e velocizzando processi già noti, e rivelando schemi e relazioni nascoste nei dati. Quest’ultimo punto è particolarmente interessante, perché non solo ci permette di gestire meglio la crescente complessità dei dati, ma può anche suggerire nuove ipotesi, aprendo la strada a scoperte inaspettate.


Per saperne di più:



Stella binaria attorno al buco nero centrale


28577200
Un’equipe internazionale di ricercatori ha scoperto una stella binaria in orbita vicino a Sagittarius A*, il buco nero supermassiccio al centro della nostra galassia. È la prima volta che una coppia di stelle viene trovata nelle vicinanze di un buco nero supermassiccio. La scoperta, basata sui dati raccolti dal Vlt (Very Large Telescope) dell’Eso (l’Osservatorio europeo australe), ci aiuta a capire come le stelle sopravvivano in ambienti con gravità estrema e potrebbe aprire la strada alla scoperta di pianeti vicino a Sagittarius A*.

28577202
L’immagine indica la posizione della stella binaria D9, appena scoperta, che orbita attorno a Sagittarius A*, il buco nero supermassiccio al centro della nostra galassia. Si tratta della prima coppia di stelle mai trovata vicino a un buco nero supermassiccio. Il ritaglio mostra il sistema binario rilevato dallo spettrografo Sinfoni del Very Large Telescope dell’Eso. Sebbene in questa immagine le due stelle non siano distinguibili separatamente, la natura binaria di D9 è stata rivelata dagli spettri acquisiti da Sinfoni nel corso di diversi anni. Questi spettri hanno mostrato che la luce emessa dall’idrogeno gassoso intorno a D9 oscilla periodicamente verso le lunghezze d’onda del rosso e del blu mentre le due stelle orbitano l’una intorno all’altra. Crediti: Eso/F. Peißker et al., S. Guisard

«I buchi neri non sono così distruttivi come pensavamo», dice Florian Peißker, ricercatore all’Università di Colonia, in Germania, e autore principale dello studio pubblicato oggi su Nature Communications. Le stelle binarie, coppie di stelle in orbita l’una attorno all’altra, sono molto comuni nell’universo, ma non erano mai state trovate prima vicino a un buco nero supermassiccio, dove l’intensa gravità può rendere instabile il sistema stellare.

Questa nuova scoperta dimostra che alcune stelle binarie possono prosperare brevemente, anche in condizioni distruttive. D9, come viene chiamata la stella binaria appena scoperta, è stata rivelata appena in tempo: si stima che abbia solo 2,7 milioni di anni e la forte forza gravitazionale del buco nero lì vicino probabilmente la farà fondere in un’unica stella prima di appena un milione di anni, un lasso di tempo molto breve per un sistema così giovane.

«Abbiamo solo una breve finestra, sulle scale temporali cosmiche, per osservare un tale sistema binario, e ci siamo riusciti», esulta la coautrice Emma Bordier, anch’essa ricercatrice all’Università di Colonia ed ex studentessa all’Eso.

Per molti anni, gli scienziati hanno anche pensato che l’ambiente estremo vicino a un buco nero supermassiccio impedisse la formazione di nuove stelle. Diverse giovani stelle trovate in prossimità di Sagittarius A* hanno smentito questa ipotesi. La scoperta della giovane stella binaria ora mostra che anche le coppie di stelle possono formarsi in queste condizioni difficili. «Il sistema D9 mostra chiari segni della presenza di gas e polvere attorno alle stelle, il che suggerisce che potrebbe trattarsi di un sistema stellare molto giovane che deve essersi formato nelle vicinanze del buco nero supermassiccio», spiega il coautore Michal Zajaček, ricercatore all’Università Masaryk, Repubblica Ceca, e all’Università di Colonia.

28577204
Questa immagine mostra una linea di emissione dell’idrogeno mappata dallo strumento SInfoni del Very Large Telescope dell’Eso. Crediti: Eso/F. Peißker et al.

La binaria appena scoperta è stata trovata in un denso ammasso di stelle e altri oggetti in orbita intorno a Sagittarius A*, chiamato ammasso S. I più enigmatici in questo ammasso sono gli oggetti G, che si comportano come stelle ma sembrano nubi di gas e polvere.

È stato durante le osservazioni di questi misteriosi oggetti che il gruppo ha trovato uno schema sorprendente in D9. I dati ottenuti con lo strumento Eris del Vlt, combinati con i dati di archivio dello strumento Sinfoni, hanno rivelato variazioni ricorrenti nella velocità della stella, indicando che D9 era in realtà composta da due stelle in orbita l’una attorno all’altra. «Pensavo che la mia analisi fosse sbagliata», spiega Peißker, «ma lo schema spettroscopico si ripeteva per circa 15 anni ed era quindi chiaro che questa scoperta fosse effettivamente la prima binaria osservata nell’ammasso S».

I risultati gettano nuova luce su cosa potrebbero essere i misteriosi oggetti G. L’equipe suggerisce che potrebbero in realtà essere una combinazione di stelle binarie che non si sono ancora fuse con il materiale rimanente di stelle già fuse.

La natura precisa di molti degli oggetti in orbita intorno a Sagittarius A*, così come il modo in cui potrebbero essersi formati così vicini al buco nero supermassiccio, rimane un mistero. Ma presto Gravity+, lo strumento aggiornato per l’interferometro del Vlt (Vlti), e lo strumento Metis sull’Elt (Extremely Large Telescope) dell’Eso, in costruzione in Cile, potrebbero cambiare le cose. Entrambi gli strumenti consentiranno all’equipe di effettuare osservazioni ancora più dettagliate del centro galattico, svelando la natura degli oggetti già noti e scoprendo senza dubbio altre stelle binarie e sistemi giovani. «La nostra scoperta ci consente di fare ipotesi sulla presenza di pianeti, poiché questi si formano spesso attorno a stelle giovani. Sembra plausibile che la rivelazione di pianeti nel centro galattico sia solo questione di tempo», conclude Peißker.

Fonte: comunicato stampa Eso



Sorvegliati spaziali, anche quest’anno su Rai Gulp


28539650
Martedì 17 dicembre, alle 19.35, torna su Rai Gulp “Meteo Spazio”, il programma di divulgazione astronomica di Rai Kids dedicato ai ragazzi (8-14 anni), ma in grado di coinvolgere anche un pubblico più adulto. Il programma vede la partecipazione dell’Istituto nazionale di astrofisica (Inaf(.

In questa nuova stagione, Riccardo Cresci, comandante dell’astronave Star Gulp, riprenderà la sua emozionante esplorazione dello spazio con un nuovo itinerario cosmico: esplorare pianeti, stelle, lune e asteroidi alla ricerca di un corpo celeste abitabile.
Le trenta puntate di questa edizione, ognuna da nove minuti circa, saranno registrate nello studio virtuale del Centro di produzione di Torino con il supporto scientifico del progetto Sorvegliati spaziali dell’Inaf, dedicato alla divulgazione della difesa planetaria.

Anche quest’anno Daria Guidetti dell’Inaf – Istituto di radioastronomia, referente di Sorvegliati spaziali, sarà consulente scientifica del programma, per il quale produrrà anche videopillole di approfondimento su ogni tema trattato. Paolo Romano e Lidia Contarino, entrambi dell’Inaf – Osservatorio astrofisico di Catania e membri del team di Sorvegliati spaziali, forniranno aggiornamenti settimanali sull’attività solare per garantire che la navicella Star Gulp possa evitare i pericoli dovuti a radiazioni e flussi di particelle troppo intensi durante il suo viaggio. Collaborerà al programma anche la giovane divulgatrice scientifica Linda Raimondo.

«Sono estremamente soddisfatta che Sorvegliati spaziali sia stato nuovamente coinvolto in questo programma, dopo il successo della scorsa edizione», dice Daria Guidetti. «In un panorama televisivo dove i programmi di divulgazione scientifica, e in particolare quelli dedicati all’astronomia, sono ancora troppo pochi, è un privilegio poter contribuire con un progetto pensato soprattutto per i ragazzi. Quello che rende questa esperienza ancora più speciale è che, durante la scorsa edizione, ho ricevuto feedback positivi anche da tanti nonni e adulti che hanno seguito le puntate insieme ai più giovani».

«Siamo grati a Rai Kids», aggiunge Guidetti, «per la fiducia che ha dimostrato nei confronti del nostro lavoro e per il grande apprezzamento ricevuto. Siamo dunque ancor più motivati a continuare con entusiasmo e dedizione su questa strada».

«Le osservazioni della fotosfera e della cromosfera solare, effettuate con il telescopio di Catania, e i dati delle missioni spaziali sulla corona solare ci permettono di monitorare l’attività del Sole», spiega Paolo Romano, «e quindi analizzare le regioni attive solari, i brillamenti e le condizioni della corona, per fornire informazioni precise e aggiornate sugli effetti che questi fenomeni possono avere sull’ambiente spaziale e sulla Terra. Per “Meteo Spazio” facciamo un passo in più: traduciamo le informazioni ottenute in una narrazione più accessibile e appassionante per i più giovani, e che si inserisca nel contesto di ogni puntata, rendendo in tal modo il nostro contributo ancora più gratificante».

Non resta dunque che sintonizzarsi su Rai Gulp ogni martedì alle 19:35 per seguire questa nuova stagione, nata per i ragazzi ma che piace anche ai più grandi. E se doveste perdere un episodio, niente paura: tutte le puntate saranno sempre disponibili su RaiPlay pronte per essere guardate quando e dove volete.

Guarda il reel di presentazione con Daria Guidetti:

youtube.com/embed/u8kK9lsMhiE?…



Materia oscura nell’inflazione calda


28461260
28461262
Gabriele Montefalcone (foto fornita dall’intervistato)

Non sappiamo che cos’è. Non abbiamo la più pallida idea di coma sia fatta. E a dirla tutta non siamo nemmeno così sicuri che esista veramente. Parliamo di quegli inaccessibili quattro quinti di materia che gli stessi fisici definiscono oscura. Della sua natura non conosciamo nulla. Ma gli scienziati non si lasciano scoraggiare per così poco. E continuano a sfornare ipotesi e modelli. Ipotesi e modelli in grado di spiegare, per esempio, quando si possa essere formata. Uno tra gli scenari più suggestivi è stato pubblicato il mese scorso su Physical Review Letters e colloca l’epoca della comparsa della materia oscura nell’universo addirittura – ora chiariremo in che senso – prima del Big Bang.

Lo scenario è ben riassunto dal titolo dell’articolo: produzione di materia oscura durante l’inflazione calda attraverso il freeze-in. E a formularlo sono tre fisici teorici del Weinberg Institute for Theoretical Physics dell’Università del Texas a Austin, negli Stati Uniti: Katherine Freese, Barmak Shams Es Haghi e un ventisettenne romano laureato a Princeton: Gabriele Montefalcone. Nel suo caso, l’etichetta di fisico teorico sta un po’ stretta, e ve ne potete rendere conto anche solo cercando il suo nome in rete: le prime immagini che escono mostrano tutte un giovane atleta alto e muscoloso intento a correre i 400 ostacoli.

Montefalcone, è sempre lei? Il fisico teorico e il campione sportivo?

«Sì, sono sempre io, anche se non so ancora per quanto tempo. Negli ultimi anni ho corso a livello professionale, ho partecipato a varie competizioni internazionali, e nel 2023 anche ai mondiali universitari. Ero anche in preparazione per le Olimpiadi, per andare a Parigi».

Poi cos’è successo?

«Purtroppo ho un problema cronico al piede sinistro che mi dà fastidio ormai da sette anni e che proprio l’anno scorso ha deciso di mollarmi. La voglia di correre e spingermi oltre i miei limiti è ancora forte, ma considerando i miei altri obiettivi professionali e personali, non so se sia più fattibile; per ora mi sto prendendo del tempo per riflettere. Fortunatamente, ho sempre avuto il desiderio di coniugare la carriera sportiva con lo studio, e gli Stati Uniti mi hanno dato la possibilità di realizzare entrambi».

28461264
Gabriele Montefalcone (foto fornita dall’intervistato)

E si è così trovato, tra un ostacolo e l’altro, ad affrontare anche questo ostacolo non piccolo dell’origine della materia oscura. Chiariamo anzitutto un dubbio terminologico che viene a tutti noi quando leggiamo che potrebbe essersi formata prima del Big Bang: per voi fisici teorici il Big Bang – che per noi profani è l’inizio di tutto – viene subito dopo l’inflazione, è così? Per quale motivo?

«Il termine ‘Big Bang’, scientificamente, si riferisce a uno stato iniziale in cui tutte le particelle dell’universo erano in equilibrio termico a una temperatura molto elevata, e da lì in poi l’universo si espande. Quindi si identifica l’inflazione prima del Big Bang perché durante l’inflazione non c’è questa radiazione e l’inflazione è il meccanismo che sostanzialmente spiega e produce le condizioni iniziali che osserviamo nel Big Bang. In questo senso, lo distinguiamo da ciò che comunemente viene inteso come Big Bang, ovvero la singolarità iniziale».

Diciamo dunque che se volessimo disegnarne la timeline la sequenza sarebbe: singolarità, inflazione, Big Bang e infine l’espansione. È corretto?

«Sì, perché inizialmente il Big Bang veniva concepito come qualcosa che arrivava fino alla singolarità, anche se parlare di temperatura o di qualsiasi altra proprietà alla singolarità non ha realmente senso. Quindi quando si parlava della teoria del Big Bang si arrivava fino a un certo punto e si diceva: bene, qui ho tutte le particelle in equilibrio termico. L’inflazione, in questo contesto, può essere vista come una sorta di “ponte” tra la singolarità e il Big Bang».

Ed è in questa brevissima fase di rapidissima espansione, culminata con il Big Bang, che secondo il vostro modello si sarebbe formata la materia oscura. Gli altri modelli ritengono invece che sia comparsa più tardi?

«Occorre una premessa: noi stiamo utilizzando una classe di modelli di inflazione specifica, una grande classe di modelli chiamata warm inflation, “inflazione calda”. L’idea di inflazione originale, quella standard, che potremmo chiamare “inflazione fredda”, prevede che ci sia una particella, l’inflatone, che causa un’accelerazione quasi esponenziale dell’universo. Una volta che l’inflatone ha perso sufficiente energia, ecco che inizia a decadere. L’inflazione si interrompe, nel senso che il periodo di espansione accelerata si conclude. E l’inflatone decade in tutte le altre particelle che formano la materia standard. Un processo, questo, che viene chiamato reheating. In pratica, ci sono due fasi principali: inizialmente l’universo si espande in modo quasi esponenziale, che è ciò che ti garantisce di arrivare a un universo omogeneo e piatto. Ma fino a questo punto non c’è dentro niente, quindi occorre far decadere l’inflatone e produrre tutto il resto. Ciò pone però un problema: se l’inflatone produce tutte le particelle, deve necessariamente esistere un’interazione tra l’inflatone e le particelle stesse. Quindi uno si potrebbe chiedere: è possibile che mentre espando produco queste particelle? La risposta è sì, ma nel caso standard – quello dell’inflazione fredda – questa produzione è così lenta da risultare inutile, nel senso che l’espansione è talmente grande che nella mia piccola regione d’universo rimango senza niente».

Mentre invece con la vostra classe di modelli, quella dell’inflazione calda, che succede?

«L’inflazione calda prevede che ci sia un’interazione tale da rendere possibile – durante la stessa inflazione – mantenere una densità di radiazione sufficiente. Ovviamente, questa interazione non può essere dominante, perché altrimenti l’espansione dell’universo non sarebbe possibile. Perché l’universo si espanda, infatti, è necessario che l’energia totale sia principalmente associata all’inflatone. Ma se l’inflatone, mentre espande, decade a sufficienza, si può arrivare a una sorta d’equilibrio – e questo è stato dimostrato dai teorici dell’inflazione calda – tale da mantenere una temperatura, diciamo. Si chiama inflazione calda proprio per questo: prevede che già in quell’epoca l’universo abbia una temperatura, mentre nel caso dell’inflazione fredda non l’avrebbe».

E quale problema risolve, un modello basato sull’inflazione calda?

«Il vantaggio è che se le cose stanno così non c’è più bisogno della fase di reheating di cui parlavamo prima. Possiamo addirittura immaginare che, a un certo punto, l’energia dell’inflatone venga completamente espressa nella radiazione, dando così luogo a una sorta di transizione continua: si scivolerebbe, cioè, dal regno dell’inflatone, dov’era lui a dominare, a quello della radiazione, senza la necessità di un secondo passaggio».

Prima però ci diceva che i modelli più standard, quelli più sviluppati, sono quelli dell’inflazione fredda. Perché quella calda è rimasta più, diciamo, di nicchia?

«Perché dal punto di vista teorico, di costruzione dei modelli, è rimasta a lungo molto più complessa. Solo da pochi anni, nel 2016, si è arrivati a un modello d’inflazione calda gestibile, diciamo. Poi nel 2019 ne è stato sviluppato un altro ancora più interessante. Insomma è solo nell’ultima decina d’anni che ha iniziato a diffondersi un po’ di più fra gli addetti ai lavori».

Inflazione calda, dunque. Durante la quale si sarebbe prodotta una quantità di materia non più insignificante rispetto all’espansione ma significativa – sufficiente a spiegare quel che vediamo oggi. Anche materia oscura?

«La risposta breve è sì. Prima però occorre mettersi d’accordo su come si produce la materia oscura. È una domanda che ci siamo posti ormai circa sessant’anni fa, e il modello originario è quello che viene chiamato di freeze out. È il meccanismo che ha motivato la ricerca di materia oscura negli esperimenti che ci sono tutt’oggi, anche in Italia. Quello che prevede, molto in breve, è che all’inizio la materia oscura sia in equilibrio con tutto il resto. Ci sono le particelle standard e ci sono quelle di materia oscura. E si può fare proprio un calcolo: se hai una determinata interazione e una determinata massa, a un certo punto, man mano che l’universo si espande, quando il rate d’interazione diventa minore del rate d’espansione ecco che tu, particella, non interagisci più. Da qui il freeze out: mentre le particelle continuano a interagire, il loro numero può variare, ma una volta che le interazioni cessano, l’abbondanza delle particelle è fissata – praticamente non parli più con nessuno. Nel modello standard, le prime particelle che fanno freeze out sono i neutrini: avendo un’interazione piccolissima, non passa nemmeno un secondo dal Big Bang che subito iniziano a viaggiare senza parlare più con nessuno».

E la materia oscura quando avrebbe fatto freeze out?

«Se ipotizziamo che anche la materia oscura si sia formata così, puoi farti un conto: sai quanta ne hai oggi, perché più o meno abbiamo un’idea di quanta ce ne debba essere, e puoi calcolare quale dovrebbe essere l’interazione con il modello standard, e dunque la massa. Sono i calcoli che hanno portato a ipotizzare che dovesse essere una particella che interagiva con la weak force e avere una massa attorno ai 100 GeV. Calcoli che hanno motivato esperimenti come quelli al Gran Sasso per la ricerca delle wimps, insomma».

Che però non sono mai state trovate…

«Purtroppo non ancora, nonostante oramai i trent’anni di ricerche. Ecco allora che i fisici hanno iniziato a chiedersi se potessero esserci altre possibilità – sempre sperando che ci sia una qualche interazione tra questa materia oscura e quella ordinaria, perché se non c’è il gioco è finito, o diventa veramente duro, diciamo. Un’altra possibilità c’è, ed è che l’interazione sia molto più piccola di quanto si pensasse. Molto più piccola, in particolare, di quella che occorre per arrivare al freeze out: sufficientemente piccola da far sì che non ci sia mai equilibrio termico tra la materia oscura e il modello standard».

28461266
Secondo il modello descritto nell’articolo su Physical Review Letters, le particelle di materia oscura (punti neri) hanno iniziato a formarsi quando l’universo si è espanso rapidamente durante un periodo chiamato inflazione cosmica, poco prima del Big Bang. Crediti: Gabriele Montefalcone

E dunque quando avverrebbe la sua formazione?

«Be’, anzitutto assumiamo che all’inizio non ci sia la materia oscura, c’è soltanto il modello standard. Se c’è un’interazione piccolissima, la materia oscura viene prodotta da questa interazione. Perché per esempio può accadere, anche se raramente, che due particelle di modello standard si annichiliscano in materia oscura. Ma l’opposto non accadrà mai. Ecco così che pian piano produci materia oscura: è il processo che chiamiamo freeze in. Uno scenario molto semplice, che parte da una piccolissima interazione e pian piano arriva all’abbondanza di materia oscura che osserviamo».

Arriviamo ora al vostro scenario: questo processo di freeze in che ci ha appena descritto come si intreccia con l’inflazione calda?

«Proviamo a chiederci: e se non fosse vero che all’inizio, diversamente da quanto assunto prima, non c’è abbondanza di materia oscura? È possibile? Nel modello d’inflazione calda che ho descritto prima, ricordiamocelo, c’è anche la radiazione. C’è già prima del Big Bang. E se questa radiazione ha una anche minima interazione con la materia oscura, non possiamo più escludere che possa produrla. Certo, a dominare sarebbe sempre l’inflatone, con un piccolo residuo di radiazione. E a sua volta una porzione minima della radiazione diventerebbe materia oscura. Insomma, la conclusione alla quale arriviamo è che ci sia un’inflazione calda, e durante quest’inflazione calda avvenga una qualsiasi piccola interazione tra la radiazione e la materia oscura, come previsto dal meccanismo del freeze in: ecco così che di materia oscura se ne produrrà già durante l’inflazione. E se ne produrrà un bel po’».

Affascinante. C’è modo di sottoporlo a verifica, questo scenario? Sperimentalmente, intendo? È che a questo punto la natura della materia oscura mi sembra ancora più oscura delle Wimps…

«È senz’altro molto difficile. Purtroppo, nella ricerca della materia oscura, siamo arrivati a una situazione in cui abbiamo una classe di modelli che possiamo sottoporre a sperimentazione, ma sono molto circoscritti rispetto ai modelli che ci siamo nel frattempo inventati, che abbiamo postulato. La cosa che però trovo interessante del nostro modello è che qualche possibilità di verifica c’è. Prevedendo interazioni così lievi con la materia standard, i modelli di freeze in sono praticamente impossibili da verificare, almeno per i prossimi 20-30 anni. Ma nel nostro caso verrebbe tutto prodotto durante l’inflazione, dunque è prevista una connessione tra l’inflatone e la materia oscura. Ciò significa che future osservazioni che ci aiutino a determinare il modello di inflazione ci daranno anche un po’ d’informazione su questa materia oscura. In questo senso potremmo avere possibilità sperimentali, per quanto indirette, nei prossimi dieci anni».

Come? Cosa dovrebbe accadere nei prossimi dieci anni?

«Se siamo fortunati avremo nuove informazioni, sia dall’osservazione della radiazione cosmica di fondo che dalle grandi survey di galassie, su due elementi relativi all’inflazione. Anzitutto, quante onde gravitazionali primordiali sono state prodotte, dall’inflazione. Secondo elemento, l’ammontare di non gaussianità nello spettro di queste perturbazioni. Detto altrimenti, l’inflazione calda ha una smoking gun, una firma abbastanza peculiare: una quantità ridottissima – sostanzialmente nulla – di onde gravitazionali primordiali, che dunque non dovremmo vedere, e allo stesso tempo dovrebbe avere non gaussianità abbastanza elevate nello spettro di perturbazione. Quindi se nel prossimo decennio noi riuscissimo a osservare queste non gaussianità e, al tempo stesso, non trovassimo traccia di onde gravitazionali primordiali, secondo me ci troveremmo davanti a un’evidenza abbastanza significativa della possibilità che ci sia effettivamente stata un’inflazione calda».

E quali fra i telescopi in costruzione potrebbero portare a queste osservazioni? Poiché parliamo di onde gravitazionali primordiali, immagino non si riferisca a Lisa o all’Einstein Telescope, giusto?

«No, quelli lavorano a frequenze totalmente diverse. Penso anzitutto a una missione spaziale come LiteBird, ma anche, da terra, al Simon Observatory e a Cmb-S4, il cui obiettivo scientifico principale è proprio la misura della cosiddetta tensor-to-scalar ratio, dunque delle onde gravitazionali primordiali».


Per saperne di più:



Dischi protoplanetari: una volta duravano di più


28455513
Quando l’universo era giovane i dischi protoplanetari duravano più a lungo di quanto finora previsto dai modelli. Questa la scoperta pubblicata oggi su The Astrophysical Journal da un team internazionale di scienziati guidato da Guido De Marchi dell’Agenzia spaziale europea. I dati che hanno permesso di raggiungere questo risultato sono stati raccolti dal James Webb Space Telescope (Jwst) e risolvono un enigma lungo più di vent’anni, iniziato con osservazioni raccolte dal telescopio spaziale Hubble.

28455516
Rappresentazione artistica di un disco protoplanetario. Crediti: Gemini Observatory/Aura; autrice Lynette Cook

Già nel 2003 Hubble aveva trovato prove del fatto che potessero esistere pianeti in orbita attorno a stelle molto vecchie, così vecchie da possedere solo piccole quantità di elementi pesanti, ritenuti necessari per la formazione dei pianeti. Questo ha aperto il campo alla possibilità di formare pianeti anche quando l’universo era molto giovane. Oltre vent’anni dopo, grazie al telescopio James Webb, i ricercatori hanno potuto osservare in dettaglio Ngc 346, una regione di formazione stellare massiccia nella Piccola Nube di Magellano che contiene una piccola quantità di elementi pesanti, proprio come l’universo da giovane. Non soltanto alcune stelle mostrano la presenza di dischi protoplanetari, ma questi dischi hanno un’età maggiore rispetto a quelli osservati attorno alle stelle giovani della Via Lattea.

28455519
Katia Biazzo, ricercatrice all’Inaf di Roma e coautrice dello studio pubblicato su ApJ

Dunque l’intuizione di Hubble è confermata da Jwst, ed è necessario ripensare ai modelli di formazione planetaria, così come a quelli che spiegano le prime fasi evolutive nell’universo giovane.

«Le stelle che si sono formate nell’universo primordiale avevano a disposizione principalmente gli elementi più leggeri della tavola periodica, idrogeno ed elio, e pochi elementi più pesanti. Finora eravamo convinti che con questa composizione i dischi protoplanetari dovessero sopravvivere per un tempo breve, meno di pochi milioni di anni, e che questo non avrebbe permesso ai pianeti di formarsi», dice una delle autrici dello studio, Katia Biazzo dell’Inaf di Roma. «Il dubbio sorto con le prime osservazioni di Hubble ci ha portato a puntare di nuovo sulla Piccola Nube di Magellano con il Jwst, concentrandoci su Ngc 346, un laboratorio perfetto per la formazione di stelle in un ambiente povero di elementi pesanti. Grazie a precedenti osservazioni con Hubble, sospettavamo che lì avremmo trovato stelle di circa 20-30 milioni di anni di età con dischi protoplanetari che le circondavano».

Secondo quanto osservato nella nostra galassia e quanto previsto dai modelli, questi dischi dovrebbero dissiparsi al massimo nell’arco di pochi milioni di anni, ma in assenza di informazioni spettroscopiche non era possibile stabilire con certezza che quelle stelle avessero effettivamente attorno a loro un disco protoplanetario. Ora, grazie alla sensibilità di Jwst, è stato possibile ottenere i primi dati spettroscopici di stelle in formazione simili al Sole e del loro ambiente circostante in una galassia vicina alla Via Lattea. I risultati confermano che queste stelle, nonostante l’ambiente povero di elementi pesanti e un’età “avanzata” di circa 20-30 milioni di anni, hanno effettivamente dei dischi che le circondano. Questo significa che i pianeti hanno più tempo per formarsi attorno a queste stelle rispetto alle regioni di formazione stellare nella nostra galassia.

I ricercatori propongono due meccanismi per l’esistenza e la sopravvivenza di dischi protoplanetari in ambienti poveri di elementi pesanti: da un lato è probabile che alla stella occorra più tempo del previsto per spazzare via il disco con il suo vento, proprio a causa dell’assenza di elementi più pesanti, che renderebbero più efficace il vento stesso; dall’altra è possibile che per formare una stella simile al Sole in un ambiente povero di elementi pesanti occorra una nube di gas più grande, che dunque produrrà un disco di dimensioni maggiori, che avrebbe bisogno di più tempo per essere disperso. È anche possibile che la spiegazione sia una combinazione di entrambi i processi fisici proposti: solo nuovi dati e nuovi risultati potranno aiutarci a distinguere tra questi scenari.

Per saperne di più:

  • Leggi su The Astrophysical Journal l’articolo “Sun-like stars take longer to form when the metallicity is low” di De Marchi G., Giardino G., Biazzo K., Panagia N., Sabbi E., Beck T. L., Robberto M., Zeidler P., Jones O. C., Meixner M., Fahrion K., Habel N., Nally C., Hirschauer A. S., Soderblom D. R., Nayak O., Lenkic L., Rogers C., Brandl B. e Keyes C. D.