Telescopio Roman, tutti gli specchi al loro posto
La scorsa settimana, la Nasa ha messo un’altra spunta nella to do list per la costruzione del telescopio spaziale Nancy Grace Roman: l’Optical Telescope Assembly. È stato cioè completato il montaggio e l’allineamento delle ottiche del telescopio, che comprendono uno specchio primario di 2,4 metri, nove altri specchi, le strutture di supporto e l’elettronica. Il tutto era stato consegnato il 7 novembre alla più grande camera bianca del Goddard Space Flight Center della Nasa a Greenbelt, nel Maryland, dove si sta costruendo l’osservatorio.
In questa foto, l’ingegnere ottico Bente Eegholm ispeziona la superficie dello specchio primario del telescopio spaziale Nancy Grace Roman della Nasa. Questo specchio di 2,4 metri è uno dei componenti principali del gruppo ottico del telescopio, che contiene anche altri nove specchi, strutture di supporto ed elettronica. Crediti: Nasa/Chris Gunn
Il telescopio, il cui lancio è previsto entro maggio 2027, raccoglierà la luce a lunghezze d’onda infrarosse e la invierà a due strumenti: il Wide Field Instrument, una fotocamera a infrarossi da 300 megapixel, e il coronografo. Progettato e costruito dalla L3Harris Technologies di Rochester, New York, la fase di Optical Telescope Assembly prevedeva di assemblare le ottiche chiave (compreso lo specchio primario) messe a disposizione della Nasa dal National Reconnaissance Office. L3Harris ha quindi rimodellato lo specchio e costruito l’hardware per garantire la conformità alle specifiche di Roman per le osservazioni in un ampio intervallo di lunghezze d’onda infrarosse, e con un’elevata sensibilità.
l team di Goddard ha lavorato a stretto contatto con L3Harris per garantire il rispetto dei rigorosi requisiti richiesti alle ottiche e per l’integrazione del telescopio nel resto dell’osservatorio di Roman. Requisiti, quelli sulle ottiche, che devono essere rispettati scrupolosamente al fine di garantire la qualità dei risultati della missione, e che hanno richiesto uno scambio costate e continuo fra l’azienda costruttrice e il team di Roman alla Nasa. Ogni componente ottica è stata testata singolarmente prima di essere assemblata. Sono poi stati eseguiti dei test per verificare il cambiamento nell’allineamento degli specchi del telescopio che si verificherà quando il telescopio raggiungerà la sua temperatura operativa nello spazio. Poi, il telescopio è stato sottoposto a test che simulano le scosse estreme e le intense onde sonore associate al lancio. Scosse che muoveranno, ad esempio, gli attuatori, dei piccoli componenti che regolano la posizione e la forma di alcuni specchi nello spazio. Il team ha anche misurato i gas che verranno rilasciati nel passaggio dalla normale pressione dell’aria al vuoto e che, se non controllati attentamente, potrebbero contaminare il telescopio o gli strumenti. Infine, il telescopio è stato sottoposto a un test di vuoto termico della durata di un mese, per garantire che resista alla temperatura e alla pressione dello spazio. È stata verificata anche la funzionalità dei 100 riscaldatori di Roman, installati per mantenere costante la temperatura entro una frazione di grado. Una condizione, la stabilità termica, cruciale affinché il telescopio abbia una messa a fuoco stabile, e produca quindi immagini ad alta risoluzione sempre nitide.
Ora che il gruppo ottico è arrivato a Goddard, sarà installato assieme agli strumenti sull’Instrument Carrier di Roman, una struttura portastrumenti che manterrà il telescopio, le ottiche e i due strumenti otticamente allineati. La scatola elettronica – essenzialmente il cervello del telescopio – sarà infine montata all’interno del veicolo spaziale insieme agli altri componenti elettronici di Roman.
«Abbiamo un telescopio di prim’ordine, ben allineato e con ottime prestazioni ottiche alle fredde temperature a cui sarà sottoposto nello spazio», dice Bente Eegholm, responsabile delle ottiche nella fase di Optical Telescope Assembly presso il Goddard Space Flight Center. «Ora attendo con ansia la fase successiva, in cui il telescopio e gli strumenti verranno assemblati per formare l’osservatorio Roman».
Sul Roman Telescope, guarda su MediaInaf Tv questo servizio del 2022 di Stefano Parisini:
Principio antropico? C’è chi dice no
Un sistema di tre stelle, visto dal telescopio spaziale Hubble, che può ospitare pianeti potenzialmente abitabili. Il sistema di Alpha Centauri, a noi vicino, comprende tre stelle. Crediti: Nasa, Esa, G. Duchene (Universite de Grenoble I); Elaborazione immagini: Gladys Kober (Nasa/Università Cattolica d’America)
Le possibilità di vita intelligente nell’universo – e in altri ipotetici universi, al di fuori del nostro – ora possono essere stimate grazie a un modello teorico elaborato da tre astrofisici, tra cui l’italiano Daniele Sorini, ricercatore all’Istituto di cosmologia computazionale dell’Università di Durham. A distanza di oltre 60 anni dalla definizione della famosa equazione di Drake, il nuovo modello si concentra sulle condizioni create dall’accelerazione dell’espansione dell’universo, presumibilmente guidata dall’energia oscura, e sulla quantità di stelle formate. Poiché le stelle sono un prerequisito per l’emergere della vita come la conosciamo, il modello può quindi essere usato per stimare la probabilità di esistenza di vita intelligente nell’universo. Per addentrarsi nel modello e cercare di capire ciò che i ricercatori hanno concluso, Media Inaf ha intervistato Sorini, primo autore dello studio pubblicato su Monthly Notices of the Royal Astronomical Society.
Sorini, i nostri lettori sono molto affezionati all’equazione di Drake e ora sembra che voi abbiate trovato qualcosa di meglio. Qual è la differenza tra la famosa equazione e il vostro approccio?
«L’equazione di Drake cerca di stimare il numero di civiltà intelligenti all’interno della nostra galassia, la Via Lattea. Il nostro lavoro, invece, non ha a che vedere con la ricerca di civiltà extraterrestri. Ma in un certo senso, si possono trovare dei punti di contatto con la logica sottostante l’equazione di Drake. L’equazione, infatti, parte dal numero di stelle formate annualmente nella Via Lattea, chiedendosi poi quante di esse possano ospitare pianeti abitabili, e su quanti di questi pianeti possano svilupparsi forme di vita in grado di inviare segnali rilevabili della propria presenza. Perciò, l’equazione di Drake mette in relazione l’efficienza della nostra galassia nel formare stelle con la comparsa di vita intelligente. Tuttavia, la Via Lattea non è l’unica galassia: nell’universo visibile ce ne sono centinaia di miliardi. Nel nostro articolo, dunque, ci chiediamo quanto sia facile formare vita intelligente, a qualunque punto nell’evoluzione dell’universo e in qualunque galassia. In effetti, facciamo un ulteriore balzo concettuale, chiedendoci: quante stelle si formerebbero nell’universo, se i suoi ingredienti fondamentali fossero differenti? Precisamente, se ci fosse più o meno energia oscura di quella che effettivamente osserviamo, avremmo più o meno stelle? E ciò come influenzerebbe la formazione di vita intelligente nell’universo? In un certo senso, dunque, la nostra ricerca si potrebbe in parte considerare come un’estensione della logica dell’equazione di Drake su scala cosmica: ben oltre la nostra galassia, appunto».
In questa immagine viene mostrato come apparirebbe la stessa regione dell’universo (in termini di quantità di stelle) per diversi valori della densità di energia oscura. In senso orario, dall’alto a sinistra: nessuna energia oscura, stessa densità di energia oscura del nostro universo, 30 e 10 volte la densità di energia oscura nel nostro universo. Le immagini sono generate da una serie di simulazioni cosmologiche. Crediti: Oscar Veenema
Che tipo di calcolo avete fatto?
«Innanzi tutto, abbiamo calcolato la quantità di galassie, in funzione della loro massa, che si formano nel nostro universo e in ipotetici universi alternativi contenenti diverse quantità di energia oscura (nello specifico, tra 0 e 100mila volte l’ammontare osservato nel nostro universo). Ciò è determinato essenzialmente dall’azione della forza di gravità, che tende a compattare la materia presente nell’universo e formare strutture – le galassie, appunto. L’energia oscura, invece, accelera l’espansione dell’universo, rendendo così più difficile la formazione di strutture. Dopodiché, abbiamo calcolato la quantità di stelle formate nelle varie galassie nel corso del tempo, basandoci su un modello di formazione stellare che avevo sviluppato nel 2021. Infine, abbiamo calcolato la frazione della materia ordinaria (cioè quella a cui siamo abituati, che costituisce noi stessi e gli oggetti con cui abbiamo a che fare ogni giorno) che viene convertita in stelle, nell’intera vita degli universi considerati (passata e futura). Assumendo che tale frazione sia proporzionale alla generazione di vita intelligente, abbiamo potuto determinare quali abbondanze di energia oscura siano più favorevoli alla formazione della vita».
E qual è il risultato? Il nostro universo è quello ottimale per la formazione di vita intelligente?
«Non proprio. La nostra conclusione è che l’universo ottimale conterrebbe circa un decimo della quantità di energia oscura presente nel nostro universo. La frazione di stelle rispetto alla quantità di materia ordinaria, e quindi la probabilità di generare vita intelligente, diminuisce all’aumentare dell’abbondanza di energia oscura. Ciò avviene perché l’universo si espande più velocemente, formando dunque meno galassie. Ma osserviamo una diminuzione di tale probabilità anche al diminuire dell’energia oscura al di sotto del valore ottimale. In questo caso, benché ci siano più galassie, esse contengono generalmente una densità di gas più bassa, che le rende meno efficienti nel formare stelle».
Beh, ma allora il nostro universo si discosta solo di un fattore 10 da quello ottimale. Questo spiegherebbe quindi la quantità di energia oscura che osserviamo?
«No, ed è qui che viene il bello. Consideriamo infatti un “multiverso” di possibili universi. Non si tratta per forza di universi “reali”, potrebbe anche essere un esperimento concettuale, ma non cambia la sostanza delle conclusioni. Supponiamo ora di prendere un osservatore (cioè, una forma di vita intelligente) a caso nel multiverso e di chiedergli quale sia la densità di energia oscura che egli osserva nel proprio universo di appartenenza. Il nostro risultato è nel che 99.5 per cento dei casi, ci risponderebbe con un numero più alto rispetto a quello che osserviamo noi. Ciò significa che, almeno secondo il nostro modello, noi ci ritroveremmo ad abitare un universo molto inusuale. In altre parole, il nostro universo non sarebbe “fatto su misura” per lo sviluppo della vita intelligente».
Daniele Sorini, ricercatore all’Istituto di Cosmologia Computazionale dell’Università di Durham, si occupa di cosmologia e struttura su grande scala dell’universo. In particolare, studia il ruolo di supernove e buchi neri supermassicci nella formazione di stelle all’interno delle galassie e sulla distribuzione di materia nell’universo. Crediti: D. Sorini
Questo non contraddice il fatto che se abbiamo più energia oscura allora sopprimiamo la formazione di galassie, e quindi la possibilità che ci sia vita?
«Questo è un punto sottile, ma non c’è contraddizione. Per analogia, supponiamo di voler disporre 300 biglie all’interno di 100 scatolette, che etichettiamo progressivamente da 1 a 100. Diciamo che ne inseriamo 100 nella scatola numero 1, quattro nella scatola numero 2, e due in ciascuna delle successive scatole, dalla 3 alla 100. Senza dubbio, la scatola numero 1 è quella che contiene più biglie – potremmo dire la scatola “favorita dalle biglie”. Ma se prendiamo una biglia a caso tra tutte le scatole, sarà molto più probabile che questa venga estratta da una scatola diversa dalla numero 1. Allo stesso modo, presi individualmente, universi con poca energia oscura sono più ospitali per la vita. Ma, visto che la vita può formarsi lo stesso anche sui tanti possibili universi contenenti molta energia oscura, in fin dei conti l’osservatore medio dovrebbe aspettarsi di misurare una quantità di energia oscura più alta».
Quali sono le implicazioni di queste conclusioni?
«Le nostre conclusioni sollevano dubbi sulla validità del principio antropico, cioè l’idea che il nostro universo possa essere particolarmente “su misura” per la formazione di vita intelligente. La rilevanza cosmologica del principio antropico nasce a fronte della difficoltà nello spiegare la densità di energia oscura misurata nel nostro universo a partire da principi primi. Le osservazioni, infatti, rilevano una densità molto più bassa di quella che ci aspetteremmo. Nel 1989, il premio Nobel per la fisica Steven Weinberg suggeriva una possibile soluzione invocando il principio antropico. Una sovrabbondanza di energia oscura sopprimerebbe la formazione di strutture, dunque delle stelle, dunque della vita. La nostra esistenza, ragionava Weinberg, spiegherebbe la bassa densità di energia oscura che noi osserviamo. Le nostre conclusioni, però, ci dicono che potrebbe non essere così».
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “The impact of the cosmological constant on past and future star formation” di Daniele Sorini, John A Peacock, Lucas Lombriser
- Guarda su YouTube il Cosmology Talk di Daniele Sorini “How Dark Energy Affects Past and Future Star Formation“
C’era acqua su Marte, 742 milioni di anni fa
Le meteoriti sono delle vere e proprie capsule del tempo. Questi pezzi di roccia, spesso grandi quanto una noce, portano infatti con sé preziose informazioni sul corpo celeste dal quale provengono. Uno dei modi con cui gli addetti ai lavori possono estrapolare queste informazioni è attraverso la geocronologia, un insieme di metodi usati per stabilire l’età dei minerali e datare così gli eventi che hanno interessato la storia geologica del corpo celeste. La datazione radiometrica argon-40/argon-39 – un metodo che si basa sul raffronto tra le abbondanze dell’isotopo radioattivo dell’argon e dei suoi prodotti di decadimento – è uno dei più potenti metodi di indagine geocronologica.
Utilizzando questa tecnica, apportando piccole modifiche rispetto al metodo standard, un team di ricercatori guidati dalla Purdue University, negli Usa, ha determinato l’età di alcuni minerali contenuti in una meteorite proveniente da Marte, ottenendo nuove informazione sulla storia geologica del pianeta. I risultati dello studio, pubblicati la settimana scorsa sulla rivista Geochemical Perspective Letters, suggeriscono la presenza di acqua liquida sul nostro vicino cosmico 742 milioni di anni fa.
Un frammento della meteorite marziana Lafayette. Crediti: Purdue University
La meteorite oggetto dello studio, appartenente a un gruppo delle rocce ignee chiamate Nakhliti, è la meteorite Lafayette, un pezzo di roccia di circa cinque centimetri di lunghezza e di ottocento grammi di peso espulso da Marte a seguito di un impatto circa 11 milioni di anni fa, caduto sulla Terra molto probabilmente nel 1919 e ritrovato nella collezione geologica della Purdue University solo nel 1931. Il minerale sottoposto alle analisi è l’iddingsite, costituita da microcristalli di silicati idrati che si originano per alterazione acquosa dell’olivina, un altro dei minerali presenti in queste meteoriti. La tecnica utilizzata, come anticipato, è stata la datazione 40Ar/39Ar, un metodo in grado di studiare le relazioni tra microstruttura mineralogica e record isotopici.
Per la ricerca, gli scienziati hanno utilizzando 0,216 grammi del frammento meteorico conservato presso la Smithsonian Institution, Lafayette Usnm 1505 – uno dei pochi pezzi del meteorite esistenti in circolazione. La preparazione del campione ha previsto la separazione fisica delle inclusioni di iddingsite dai grani di olivina, seguita – e questa è la modifica apportata alla tecnica rispetto al metodo standard – dalla micro-incapsulazione di dodici aliquote da circa un microgrammo (un milionesimo di grammo) di campione. L’irradiazione neutronica delle micro-capsule e la misurazione della composizione isotopica di argon sono stati gli step successivi dell’esperimento.
I risultati delle indagini condotte dai ricercatori fanno risalire la formazione dei minerali di iddingsite a circa 742 ± 15 milioni di anni fa, all’interno del periodo geologico più recente della storia di Marte, iniziato circa 2,9 miliardi di anni fa, il cosiddetto Amazzoniano. E poiché l’iddingsite è un minerale che si forma per interazione acqua-roccia, la conclusione dei ricercatori è che, molto probabilmente, a quell’epoca sul pianeta era ancora presente acqua liquida.
«La datazione dei minerali di iddingsite nella meteorite Lafayette ci ha permesso di scoprire che si sono formati 742 milioni di anni fa», spiega Marissa Tremblay, ricercatrice alla Purdue University e prima autrice dello studio. «La cronogeologia di questi minerali può dirci quando c’era ancora acqua liquida sulla superficie di Marte o nelle sue vicinanze nel suo passato geologico».
Petrografia della meteorite di Lafayette. A destra, un’immagine che mostra un grano di olivina (Ol) contenente inclusioni di iddingsite (Id). A sinistra, immagine che mostra l’arricchimento di potassio (grigio più brillante) nell’iddingsite. I dati sono stati raccolti utilizzando un microscopio elettronico a scansione (Sem) presso l’Università di Glasgow. Crediti: M.M. Tremblay et al., Geochemical Perspective Letters, 2024
L’acqua in questione, tuttavia, non è quella dei laghi e dei fiumi che un tempo scorrevano copiosi sulla superficie del pianeta. Si tratterebbe piuttosto di acqua proveniente dallo scioglimento di permafrost. Considerato che l’Amazzoniano è stato un periodo caratterizzato da attività vulcanica, gli autori suggeriscono infatti che il magmatismo abbia agito come una fonte di calore localizzata sciogliendo il ghiaccio sottosuperficiale di Marte. L’acqua così prodotta avrebbe interagito con la roccia, formando l’iddingsite presente nelle meteoriti del gruppo delle Nakhliti, alla quale la meteorite Lafayette appartiene.
«Non pensiamo che in quel periodo ci fosse abbondante acqua liquida sulla superficie di Marte», dice Tremblay. «Supponiamo invece che l’acqua provenisse dallo scioglimento del permafrost causato dall’attività magmatica che si verifica periodicamente su Marte anche ai giorni nostri».
Nello studio il team di ricerca ha dimostrato che l’età della meteorite è affidabile e che questa non sia stata influenzata da eventi accaduti dopo l’interazione con l’acqua.
«L’età dei minerali potrebbe essere stata influenzata dall’impatto che ha espulso la meteorite Lafayette da Marte, dal riscaldamento sperimentato dalla meteorite durante gli undici milioni di anni in cui è rimasta fluttuante nello spazio, o dal riscaldamento sperimentato quando è caduta sulla Terra bruciando nell’atmosfera terrestre», ricorda la ricercatrice. «Tuttavia, siamo stati in grado di dimostrare che nessuno di questi eventi ha influenzato l’età alla quale è avvenuta l’alterazione acquosa della meteorite».
La datazione 40Ar/39Ar dell’iddingsite all’interno della meteorite marziana Lafayette suggerisce che questi minerali abbiano interagito con l’acqua liquida 742 milioni di anni fa, concludono i ricercatori. Questa età è il vincolo più preciso finora raggiunto circa l’interazione acqua-roccia su Marte. L’attività magmatica ha molto probabilmente indotto lo scioglimento del permafrost locale portando all’alterazione delle nakhliti, deducono gli autori dello studio, e l’attivazione localizzata di cicli idrologici su Marte nel periodo Amazzoniano da parte del magmatismo, sebbene transitoria, non era insolita.
Per saperne di più:
- Leggi su Geochemical Perspective Letters l’articolo “Dating recent aqueous activity on Mars” di M.M. Tremblay, D.F. Mark, D.N. Barfod, B.E. Cohen, R.B. Ickert, M.R. Lee, T. Tomkinson e C.L. Smith
Tracce d’attività vulcanica sull’altro lato della Luna
media.inaf.it/wp-content/uploa…
Distribuzione di distinti episodi vulcanici sul lato nascosto della Luna. L’immagine di telerilevamento evidenzia il sito di atterraggio di Chang’e-6 insieme alle vicine unità basaltiche di mari e criptomari. Crediti: Yang Muhan
Un biglietto andata/ritorno per la Luna in cinquantatré giorni, un orbiter, un lander, un modulo di risalita e uno di rientro. E una valigia che parte vuota e torna piena. Questa in due righe la missione cinese Chang’e-6, partita per visitare brevemente il lato nascosto della Luna e riportarne alcuni campioni, per la prima volta, sulla Terra. Campioni che, già alle prime analisi, hanno mostrato dettagli inediti: il sito da cui provengono era vulcanicamente attivo circa 2,8 miliardi di anni fa. Lo studio, condotto nel laboratorio di Li Qiuli all’Istituto di geologia e geofisica dell’Accademia cinese delle scienze, è stato pubblicato oggi su Nature, e suggerisce che l’attività vulcanica sul mare basaltico in questa regione è stata presente per più di 1,4 miliardi di anni.
La missione cinese Chang’e-6 è partita lo scorso 3 maggio. Direzione, l’enorme bacino bacino Polo Sud-Aitken, su cui è atterrata il 2 giugno: si tratta di un cratere meteoritico di oltre duemila chilometri di diametro situato sul lato a noi nascosto della Luna, vicino al polo sud lunare. Qui, con l’aiuto di una trivella e una paletta, il lander ha prelevato del materiale e l’ha riportato sulla Terra appena 23 giorni dopo, il 25 giugno. Una missione lampo che ha fatto la storia, consegnando circa due chilogrammi di materiale da una regione lunare finora inesplorata. Sul lato della Luna che guarda la Terra, infatti, di visite e prelievi di materiale ce ne sono stati numerosi. I campioni lunari provenienti dalle missioni Apollo, Luna e Chang’e-5, in particolare, hanno stabilito che il vulcanismo sul lato a noi vicino della Luna ha avuto luogo tra 4 e 2 miliardi di anni fa. Tuttavia, la mancanza di campioni provenienti dal lato a noi nascosto della superficie lunare non ha permesso di confermare i tempi dell’attività vulcanica per quella regione.
Cosa che è stata ora possibile grazie a Chang’e-6, che ha recuperato campioni dal bacino Apollo, situato nel bacino nord-orientale del Polo Sud-Aitken: un’area in cui la crosta lunare è più sottile, e che offre l’opportunità di studiare il vulcanismo dell’altra faccia della Luna. E che, stando ai risultati, conferma la storica e ben nota asimmetria fra il volto a noi visibile e quello nascosto del nostro satellite.
Gli autori dell’articolo hanno analizzato 108 frammenti di basalto (un tipo di roccia vulcanica) contenuti in due campioni di suolo raccolti da Chang’e-6, utilizzando un processo chiamato datazione piombo-piombo, che misura gli isotopi del piombo per determinare l’età dei campioni. Fra questi hanno trovato un frammento di basalto ad alto contenuto di alluminio di circa 4,2 miliardi di anni, mentre la maggior parte dei frammenti di basalto studiati aveva un’età di formazione risalente a circa 2,8 miliardi di anni fa. Secondo gli autori, questa età rappresenta l’episodio vulcanico principale nel sito di atterraggio di Chang’e-6: un’eruzione sorprendentemente giovane e non riconosciuta dalle osservazioni effettuate su campioni provenienti dal lato a noi vicino della Luna.
Per saperne di più:
- Leggi su Nature l’articolo “Lunar farside volcanism 2.8 billion years ago from Chang’e-6 basalts“, di Qian W. L. Zhang, Mu-Han Yang, Qiu-Li Li, Yu Liu, Zong-Yu Yue, Qin Zhou, Liu-Yang Chen, Hong-Xia Ma, Sai-Hong Yang, Xu Tang, Guang-Liang Zhang, Xin Ren e Xian-Hua Li
The post Tracce d’attività vulcanica sull’altro lato della Luna first appeared on MEDIA INAF.
Cinquina di galassie per il Vst
La Girandola del Sud, una galassia a spirale a circa 15 milioni di anni luce da noi, ritratta dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
L’Istituto nazionale di astrofisica (Inaf) rilascia oggi le immagini di cinque galassie dell’universo locale, riprese con il telescopio italiano Vst (Vlt Survey Telescope) gestito da Inaf in Cile. Le nuove immagini mostrano queste iconiche galassie nei minimi dettagli, immortalandone la forma, i colori e la distribuzione delle stelle fino a grandi distanze dal centro. Due di esse, la galassia irregolare Ngc 3109 e la irregolare nana Sestante A, si trovano ai confini del cosiddetto Gruppo Locale, di cui fa parte anche la nostra galassia, la Via Lattea, e si trovano a circa quattro milioni di anni luce da noi. Altre due galassie, la splendida galassia a spirale nota come Girandola del Sud (ma anche Ngc 5236 o M 83) e la irregolare Ngc 5253, si trovano, rispettivamente, a circa quindici e undici milioni di anni luce dalla nostra, mentre la quinta e più lontana, la galassia a spirale Ic 5332, dista circa trenta milioni di anni luce.
Le osservazioni sono state realizzate in tre filtri, o colori, nell’ambito della survey Vst-Smash (Vst Survey of Mass Assembly and Structural Hierarchy), un progetto guidato da Crescenzo Tortora, ricercatore dell’Inaf a Napoli, per comprendere i meccanismi che portano alla formazione delle tante e diverse galassie che popolano il cosmo.
La galassia irregolare Ngc 3109, a circa 4 milioni di anni luce da noi, ritratta dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
Le cinque galassie di cui oggi vengono diffuse le immagini sono parte di un campione di 27 galassie che il team sta studiando con il Vst, telescopio dotato di uno specchio dal diametro di 2,6 metri, costruito in Italia e ospitato dal 2012 presso l’Osservatorio Eso di Cerro Paranal, in Cile. Queste galassie sono state selezionate accuratamente nella porzione di cielo che, nel corso dei prossimi anni, sarà osservata anche dal satellite Euclid dell’Agenzia Spaziale Europea (Esa) per fornire una controparte ottica più dettagliata (fino a lunghezze d’onda corrispondenti al colore blu) ai dati spaziali raccolti dallo strumento Vis (a lunghezze d’onda corrispondenti al colore rosso) e dallo strumento Nisp nel vicino infrarosso. Il gruppo ha presentato la survey in un articolo pubblicato sulla rivista The Messenger dell’Eso.
«Cerchiamo di capire come si formano le galassie, in funzione della loro massa e del loro tipo morfologico. Questo significa chiedersi come si formano le stelle in situ, all’interno delle galassie, ma anche come vengono accumulate (ex situ) attraverso processi di merging, cioè di fusione, con altre galassie» spiega Tortora, alla guida di un team internazionale che coinvolge molti ricercatori e ricercatrici di svariate sedi Inaf. «Per fare questo, dobbiamo tracciare i colori di queste galassie fino alle regioni periferiche, per poter investigare la presenza di strutture molto deboli appartenenti a queste galassie, e popolazioni di galassie poco brillanti che vi orbitano attorno. Questo è utile per poter tracciare i residui delle interazioni galattiche, e quindi vincolare il processo gerarchico della formazione delle strutture cosmiche».
La galassia irregolare nana Sestante A, a circa 4 milioni di anni luce da noi, ritratta dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
L’analisi dei dati raccolti è ancora all’inizio, ma le osservazioni si sono già dimostrate efficaci, permettendo al team di esaminare le galassie fino a brillanze superficiali molto basse, che fino a qualche anno fa erano difficili da osservare. Il telescopio Vst, grazie al suo grande campo di vista di un grado quadrato, pari a circa quattro volte l’area della luna piena nel cielo, è stato lo strumento fondamentale che ha permesso di realizzare queste immagini in un tempo relativamente breve – osservando il campo intorno a queste galassie, nei tre filtri, con 10 ore di osservazioni per grado quadrato. In confronto, realizzare una sola di queste immagini con il telescopio spaziale Hubble avrebbe richiesto molti puntamenti consecutivi.
«È la prima volta che tutte queste galassie vengono osservate in maniera così profonda e dettagliata, e con dati omogenei», aggiunge Tortora. «Negli anni a venire, solo Euclid raggiungerà le nostre profondità ottiche, ma non potrà contare sulla vasta copertura nelle lunghezze ottiche del Vst. Il Vera Rubin Observatory, invece, pur osservando in regioni spettrali simili alle nostre, raggiungerà profondità simili solo dopo molti anni di osservazione. Questo rende Vst uno strumento che può ancora dire la sua, e dà speranze per interessanti risultati all’interno della nostra survey», conclude.
La galassia irregolare Ngc 5253, a circa 11 milioni di anni luce da noi (sinistra), e la galassia a spirale Ic 5332, a circa 30 milioni di anni luce da noi (destra), ritratte dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
Per saperne di più:
- Leggi su The Messenger l’articolo “Vst-Smash: the Vst survey of Mass Assembly and Structural Hierarchy”, di Crescenzo Tortora, Rossella Ragusa, Massimiliano Gatto, Marilena Spavone, Leslie Hunt, Vincenzo Ripepi, Massimo Dall’Ora, Abdurro’uf, Francesca Annibali, Maarten Baes, Francesco Michel Concetto Belfiore, Nicola Bellucco, Micol Bolzonella, Michele Cantiello, Paola Dimauro, Mathias Kluge, Federico Lelli, Nicola R. Napolitano, Achille Nucita, Mario Radovich, Roberto Scaramella, Eva Schinnerer, Vincenzo Testa e Aiswarya Unni
Le prime immagini di Vst-Smash illustrate da Crescenzo Tortora su MediaInaf Tv:
Cronologia di una supernova
Nel pannello a sinistra: immagine a luce visibile del Sloan Digital Sky Survey della galassia Ngc 7331, dove è stata osservata la supernova Sn 2014C. Le immagini nell’inserto del Chandra X-ray Observatory mostrano una regione della galassia prima e dopo l’esplosione, con colori che rappresentano raggi X a bassa (rosso), media (verde) e alta energia (blu). Pannello in alto a destra: il modello che mostra la densità del mezzo circumstellare intorno alla supernova. La stella segna la posizione della supernova, e le frecce indicano la velocità del vento stellare negli ultimi stadi di vita della stella massiccia. Pannello in basso a destra: spettro osservato ai raggi X con NuStar (simboli rossi) confrontato con quello sintetico (blu) previsto dal modello. Crediti: S. Orlando et al. ApJ, 2024
Le proprietà e la morfologia dei resti di supernova sono il risultato dei complessi processi fisici che avvengono nella stella progenitrice sia nelle fasi che precedono l’esplosione sia durante l’evento stesso (dal rapido collasso del nucleo, che avviene in pochi secondi, fino all’emergenza dell’onda d’urto dalla superficie della stella). Sono inoltre influenzate dalle interazioni tra i frammenti della stella espulsi durante l’esplosione (gli ejecta) e le onde d’urto generate dalla supernova con le nubi interstellari (materiale eventualmente presente attorno alla stella) e circumstellari (materiale espulso dalla stella prima dell’esplosione). Queste nubi sono sempre presenti in quanto le stelle massive, soprattutto al termine della loro evoluzione, sono caratterizzate da intensi venti stellari ed eventi di perdita di massa impulsivi, che trasferiscono nel mezzo circostante diverse masse solari di gas.
Queste complesse interazioni possono anche influenzare l’evoluzione temporale delle supernove. Ad esempio, a seguito dell’impatto delle onde d’urto con il materiale circumstellare, si può osservare un aumento della luminosità della supernova in specifiche bande. È ciò che è accaduto, per esempio, alla supernova Sn 2014C, esplosa nella galassia Ngc 7331 a quasi 50 milioni di anni luce da noi. La supernova è stata osservata e monitorata con vari telescopi in diverse bande dello spettro elettromagnetico. In particolare, ai raggi X e nelle onde radio, Sn 2014C ha mostrato un aumento di luminosità circa 200 giorni dopo l’esplosione, suggerendo che l’onda d’urto avesse investito dense nubi circumstellari.
Un team di ricerca guidato dall’astrofisico Salvatore Orlando dell’Inaf di Palermo ha creato un modello dettagliato che riproduce le varie osservazioni di Sn 2014C, descrivendo le caratteristiche della stella, del suo vento e del materiale circumstellare prima, durante e dopo l’esplosione. Le proprietà osservate oggi nel resto di supernova sono spiegate dal modello, assumendo che la stella progenitrice avesse espulso i suoi strati esterni ricchi di idrogeno durante un intenso periodo di perdita di massa, iniziato circa 5000 anni prima dell’esplosione e terminato circa 4000 anni dopo. Al termine di questa fase, la stella progenitrice aveva espulso circa 2.5 masse solari di gas, che hanno formato una struttura a ciambella nel piano equatoriale della stella, estesa tra circa 2900 e 10000 unità astronomiche (un’unità astronomica equivale a circa 150 milioni di km, ossia la distanza media tra Terra e Sole). Il modello spiega anche la presenza di due componenti con temperature diverse nel resto di supernova osservate ai raggi X: la componente più calda è costituita dal materiale circumstellare investito dall’onda d’urto, mentre la componente a temperatura inferiore proviene dai frammenti stellari espulsi durante l’esplosione.
Salvatore Orlando (Inaf – Osservatorio astronomico di Palermo), primo autore dello studio pubblicato su The Astrophysical Journal. Crediti: Inaf
«Sn 2014C rappresenta un caso di studio affascinante nel campo delle supernove», spiega Orlando a Media Inaf, «poiché offre nuove prospettive sulle ultime fasi di vita delle stelle massicce. Nei primi giorni successivi all’esplosione, questa supernova era stata classificata come “povera di idrogeno” (di tipo Ib) in base alle sue caratteristiche spettroscopiche. Ciò indicava che la stella progenitrice aveva perso il proprio inviluppo di idrogeno prima dell’esplosione. Tuttavia, circa 200 giorni dopo il collasso del nucleo, Sn 2014C ha subito una sorprendente metamorfosi: si è improvvisamente arricchita di idrogeno, accompagnata da un marcato aumento di emissioni in banda X e radio, trasformandosi in una supernova di tipo IIn. Questa evoluzione suggerisce che la stella avesse espulso grandi quantità di materiale (soprattutto idrogeno) secoli o millenni prima dell’esplosione, un fenomeno spesso associato alla presenza di un sistema binario. La trasformazione osservata è stata quindi causata dall’interazione dell’onda d’urto della supernova con il materiale stellare precedentemente espulso».
«Studiare questa classe di oggetti, noti come supernove interagenti», continua Orlando, «permette di approfondire i processi estremi di perdita di massa che caratterizzano la fase finale della vita delle stelle massicce. La vera novità è che, per la prima volta, abbiamo potuto ricostruire in dettaglio la geometria e la distribuzione di densità del mezzo circumstellare attorno alla stella progenitrice e tracciare la sua storia di perdita di massa, grazie a un modello tridimensionale idrodinamico. Questo modello ha seguito l’evoluzione del sistema dalle fasi precedenti all’esplosione, durante la perdita di massa della stella, fino all’interazione della supernova con il mezzo circumstellare. In tal modo, sebbene non sia stato possibile osservare direttamente la struttura di questo materiale (vista anche la notevole distanze dell’oggetto), il modello ne ha consentito una ricostruzione dettagliata grazie ai vincoli offerti dai dati osservativi non risolti spazialmente. Questo approccio innovativo apre nuove prospettive per comprendere i processi che precedono l’esplosione delle supernove e offre indizi preziosi sui meccanismi di evoluzione delle stelle massicce».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Constraining the CSM structure and progenitor mass-loss history of interacting supernovae through 3D hydrodynamic modeling: The case of SN 2014C”, di S. Orlando, E. Greco, R. Hirai, T. Matsuoka, M. Miceli, S. Nagataki, M. Ono, K.-J. Chen, D. Milisavljevic, D. Patnaude, F. Bocchino, N. Elias-Rosa
Trio di mostri galattici nell’universo primordiale
Immagine Jwst dei tre Mostri Rossi. Crediti: Nasa/Csa/Esa, M. Xiao & P. A. Oesch (Università di Ginevra), G. Brammer (Istituto Niels Bohr), Archivio Dawn Jwst
Un team internazionale di ricercatori guidato dall’Università di Ginevra (Unige) ha identificato tre galassie ultramassicce – quasi quanto la Via Lattea – già presenti nel primo miliardo di anni dopo il Big Bang. I risultati indicano che la formazione stellare nell’universo primordiale dev’essere stata molto più efficiente di quanto si pensasse, mettendo in discussione i modelli di formazione delle galassie. La sorprendente scoperta, descritta sulla rivista Nature, è stata effettuata dal James Webb Space Telescope (Jwst) nell’ambito del programma Fresco.
Il programma si propone di analizzare sistematicamente un campione completo di emission line galaxies (Elg, ossia galassie che presentano forti righe di emissione nei loro spettri) nei primi miliardi di anni di storia cosmica. La presenza di righe di emissione consente di valutare con precisione la distanza delle galassie e, di conseguenza (dall’intensità delle righe), la quantità di stelle contenute nelle stesse. In particolare, nel campione analizzato tre galassie si sono distinte per il loro grande contenuto stellare. Queste galassie stanno formando stelle con un’efficienza quasi doppia rispetto alle galassie di massa inferiore della stessa epoca o alle galassie ordinarie di epoche successive della storia cosmica. A causa del loro elevato contenuto di polvere, che conferisce a queste tre galassie massicce un colore rossastro nelle immagini di Jwst, sono state chiamate i tre Mostri Rossi.
«Trovare tre bestie così massicce nel campione rappresenta un bel rompicapo», afferma Stijn Wuyts, coautore dello studio dell’Università di Bath. «Molti processi nell’evoluzione delle galassie tendono a introdurre una fase che limita l’efficienza con cui il gas può convertirsi in stelle, ma in qualche modo questi mostri rossi sembrano aver eluso rapidamente la maggior parte di questi ostacoli».
Finora si riteneva che tutte le galassie si fossero formate gradualmente all’interno di grandi aloni di materia oscura, in grado di catturare gas (atomi e molecole) in strutture legate dalla gravità. In genere, nelle galassie al massimo il 20 per cento di questo gas viene trasformato in stelle. Tuttavia, le nuove scoperte mettono in discussione questa visione, rivelando che le galassie massicce nell’universo primordiale potrebbero essere cresciute in modo molto più rapido ed efficiente.
Sebbene questi risultati non siano in conflitto con il modello cosmologico standard, sollevano interrogativi non trascurabili per le teorie sulla formazione delle galassie, in particolare per quanto riguarda la questione delle galassie troppo numerose e troppo massicce nell’universo primordiale. I modelli attuali potrebbero dover prendere in considerazione processi unici che hanno permesso a certe galassie massive di avere una formazione stellare così efficiente e quindi di formarsi molto rapidamente e molto presto. Le future osservazioni con Jwst e il telescopio Atacama Large Millimeter Array (Alma) forniranno ulteriori informazioni su questi mostri rossi ultramassicci e riveleranno campioni più ampi di tali sorgenti.
«Questi risultati indicano che le galassie dell’universo primordiale potevano formare stelle con un’efficienza inaspettata. Quando studieremo queste galassie in modo più approfondito, esse offriranno nuovi spunti di riflessione sulle condizioni che hanno plasmato le prime epoche dell’universo. I Mostri Rossi sono solo l’inizio di una nuova era nella nostra esplorazione dell’universo primordiale», conclude il primo autore dello studio, Mengyuan Xiao.
Per saperne di più:
- Leggi su Nature l’articolo “Accelerated formation of ultra-massive galaxies in the first billion years” di Mengyuan Xiao, Pascal A. Oesch, David Elbaz, Longji Bing, Erica J. Nelson, Andrea Weibel, Garth D. Illingworth, Pieter van Dokkum, Rohan P. Naidu, Emanuele Daddi, Rychard J. Bouwens, Jorryt Matthee, Stijn Wuyts, John Chisholm, Gabriel Brammer, Mark Dickinson, Benjamin Magnelli, Lucas Leroy, Daniel Schaerer, Thomas Herard-Demanche, Seunghwan Lim, Laia Barrufet, Ryan Endsley, Yoshinobu Fudamoto, Carlos Gómez-Guijarro, Rashmi Gottumukkala, Ivo Labbé, Dan Magee, Danilo Marchesini, Michael Maseda, Yuxiang Qin, Naveen A. Reddy, Alice Shapley, Irene Shivaei, Marko Shuntov, Mauro Stefanon, Katherine E. Whitaker & J. Stuart B. Wyithe
Ricetta per la chimica del Sole: cambiano le dosi
media.inaf.it/wp-content/uploa…
Istantanea del Sole ottenuta dallo strumento Atmospheric Imagery Assembly (Aia) a bordo del telescopio spaziale Solar Dynamics Observatory (Sdo) della Nasa. Crediti: Nasa/Sdo/Aia
La composizione chimica della nostra stella, in particolare per quel che riguarda le abbondanze di elementi pesanti, svolge un ruolo cruciale in numerose aree dell’astronomia. Nelle campo delle scienze planetarie ed esoplanetarie, ad esempio, è utilizzata come tester per comprendere le composizioni di altre stelle e per sondare le condizioni di formazione planetaria.
Sebbene le abbondanze solari di elementi pesanti (così gli astronomi chiamano tutti gli elementi della tavola periodica diversi da idrogeno ed elio) siano note con una precisione molto maggiore rispetto ad altre stelle, sul loro conto permangono notevoli incertezze. I dubbi sono legati soprattutto al disaccordo dei valori di abbondanza di carbonio, ossigeno e azoto tra i dati ottenuti con l’eliosismologia – una tecnica che permette di esplorare l’interno del Sole analizzando le onde di pressione che lo attraversano – rispetto a quelli ottenuti con la spettroscopia – un metodo che rivela la composizione superficiale in base alla firma spettrale prodotta da ciascun elemento chimico – e con le simulazioni.
In questo senso, la sfida degli astronomi è dunque trovare una quadra tra i valori di abbondanza di questi elementi determinati con le varie tecniche. Una sfida che ora un team di ricercatori guidati dal Southwest Research Institute pare aver vinto, combinando i dati di composizione di vari corpi primitivi della fascia di Kuiper con nuovi set di dati solari. Le nuove indagini, i cui risultati sono stati pubblicati questa settimana su The Astrophysical Journal, hanno permesso di ottenere una ricetta con i dosaggi rivisti, relativamente alla composizione degli elementi pesanti della nostra stella, che potenzialmente concilia per la prima volta le misurazioni spettroscopiche ed eliosismiche.
«Questo tipo di analisi interdisciplinare non era mai stato eseguito prima», sottolinea Ngoc Truong, ricercatore al Southwest Research Institute e primo autore dello studio. «Il nostro ampio set di dati suggerisce livelli di carbonio, azoto e ossigeno solari più abbondanti di quanto si pensasse in precedenza».
Per ottenere i nuovi dati composizionali del Sole, il team di ricerca ha combinato nuove misurazioni di neutrini solari – come quelle ottenute con lo strumento Borexino, un rivelatore situato presso i Laboratori nazionali del Gran Sasso (Infn), il cui scopo primario è lo studio delle proprietà di neutrini solari a bassa energia – con i dati di composizione del vento solare ottenuti dalla missione Genesis della Nasa, insieme ai dati di abbondanza di acqua trovata nelle meteoriti primitive che hanno avuto origine nel Sistema solare esterno e di densità di grandi oggetti della fascia di Kuiper, come Plutone e la sua luna Caronte, determinate dalla missione Nasa New Horizons.
«Con questa ricerca, pensiamo di aver finalmente ricostruito il mix di elementi chimici che ha prodotto il Sistema solare», dice Christopher Glein, esperto di geochimica planetaria, anche lui in servizio al Southwest Research Institute e co-autore dello studio. «Questa nuova conoscenza ci fornisce una base più solida per comprendere quali abbondanze di elementi nelle atmosfere dei pianeti giganti possono dirci qualcosa circa la loro formazione».
La ricerca non si è limitata allo studio della composizione degli elementi pesanti della nostra stella. Utilizzando le nuove abbondanze come input per un modello di formazioni planetaria, i ricercatori hanno infatti stimato le abbondanze di elementi pesanti nella nebulosa protosolare, valutando poi gli effetti di tale abbondanza sulle composizioni degli oggetti della fascia di Kuiper e delle condriti carbonacee, resti dell’epoca alla quale è avvenuta la formazione dei pianeti. I risultati della simulazione, sottolineano gli scienziati, hanno riprodotto con successo le composizioni sia dei grandi oggetti della fascia di Kuiper che delle condriti carbonacee.
Il team ha inoltre esaminato il ruolo dei composti organici come principale vettore di carbonio nella nebulosa protosolare, concludendo che la loro funzione è fondamentale per spiegare la chimica del Sistema solare.
I rapporti di abbondanza carbonio/ossigeno della nebulosa solare ottenuti, osservano gli autori dello studio, sono sufficienti a produrre una quantità tale di roccia da spiegare la densità del sistema Plutone-Caronte, che è stato utilizzato come valore rappresentativo della composizione in massa dei grandi corpi della fascia di Kuiper. Per contro, l’utilizzo delle abbondanze solari precedentemente note ha reso il sistema Plutone-Caronte “sottodenso”. Quanto alla materia organica, incorporarla nei modelli non è solo un mero dettaglio compositivo: la sua presenza influisce in modo significativo sulla composizione chimica della nebulosa e sui “mattoni” che hanno formato i corpi planetari.
Il futuro promette grandi risultati per nuovi modelli e dati in grado di fornire una comprensione più coerente della composizione interna del Sole, concludono i ricercatori. Poiché le abbondanze solari di elementi pesanti servono come parametri di riferimento per conoscere le composizioni elementari di altre stelle, ciò avrà implicazioni significative per comprendere la formazione e l’evoluzione di altri sistemi planetari e, ancora di più, per ottenere una prospettiva più ampia dell’evoluzione della chimica galattica.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “A broad set of solar and cosmochemical data indicates high C-N-O abundances for the solar system” di Ngoc Truong, Christopher R. Glein e Jonathan I. Lunine
Con i nuclei radioattivi sveliamo la nascita del Sole
Un isotopo instabile potrebbe riscrivere la storia della formazione del Sistema solare. Pubblicato oggi su Nature, uno studio condotto da un team internazionale di fisici e astrofisici indaga su alcuni nuclei radioattivi con tempi di decadimento di milioni di anni, capaci di svelare informazioni cruciali sull’origine del nostro sistema planetario e sugli eventi nucleari che hanno determinato la nascita di stelle simili al Sole. Un’importante collaborazione di scienziati guidata dal Centro nazionale canadese per gli acceleratori di particelle Triumf ha infatti ottenuto la prima misurazione del decadimento beta a stato legato degli ioni di tallio completamente ionizzati (205Tl81+) – in condizioni simili a quelle di un plasma astrofisico – presso il Gsi Helmholtzzentrum für Schwerionenforschung, un centro di ricerca sugli ioni pesanti a Darmstadt, in Germania. Questa misurazione ha effetti profondi sulla produzione di piombo radioattivo (205Pb) nelle stelle del ramo gigante asintotico e può essere utilizzata per aiutare a determinare il tempo di formazione del Sole.
Eruzione solare. Crediti: Nasa
Il decadimento beta a stato legato è una modalità rara di decadimento (processo attraverso il quale un nucleo atomico instabile si trasforma in un altro nucleo, emettendo radiazioni e particelle, fino a raggiungere uno stato più stabile) che si verifica solo in ioni altamente carichi. Finora, questa forma è stata osservata solo all’Experimental Storage Ring, un apparato unico nel suo genere capace di immagazzinare milioni di ioni completamente ionizzati per diverse ore. L’esperimento ha rivelato che il tempo di dimezzamento del 205Tl81+ è di 291 giorni, due volte superiore rispetto alle stime precedenti.
Come detto, il risultato dell’esperimento ha significative implicazioni per la generazione dell’isotopo radioattivo del piombo (205Pb) nelle stelle del ramo asintotico delle giganti(Asymptotic Giant Branch, Agb). Di cosa si tratta? Parliamo di quelle stelle, con una massa compresa tra 0,5 e 8 volte quella del Sole e quindi giunte alla fine del loro ciclo vitale, che, oltre a produrre circa la metà degli elementi più pesanti del ferro, sono le principali fornaci cosmiche di carbonio, elemento chiave alla base della biologia umana.
Lo studio della produzione degli elementi chimici nelle stelle è parte di quella branca dell’astrofisica chiamata nucleosintesi stellare. A differenza degli elementi cosiddetti leggeri (facilmente identificabili perché sono tutti quelli prima del ferro nella tavola periodica degli elementi), che sono prodotti attraverso reazioni nucleari tra particelle cariche (ad esempio, ioni di idrogeno o di elio), per produrre gli elementi pesanti (pensiamo ad argento, oro e piombo) sono necessari i neutroni. Queste particelle sono piuttosto rare negli interni stellari, anche perché un neutrone decade rapidamente in un protone.
Al centro dello studio pubblicato su Nature, a cui ha partecipato anche l’Istituto nazionale di astrofisica (Inaf), c’è appunto il piombo-205 (205Pb), un isotopo già presente al momento della formazione del Sistema solare, prodotto principalmente attraverso un processo di cattura neutronica lenta (in inglese s process) e che decade con un’emivita di 17,0 milioni di anni. Questo isotopo, le cui tracce sono state trovate nelle meteoriti più antiche, può fornire informazioni preziose sulle sorgenti stellari che hanno contaminato la nebulosa da cui si è formato il Sole e il Sistema solare. Tuttavia, fino a oggi, predire con precisione la produzione di 205Pb negli interni stellari è stato difficile e calcolare con precisione l’abbondanza del 205Pb è stato estremamente complesso, a causa dell’incertezza sui tassi di decadimento a temperature stellari.
Il primo autore dello studio Guy Leckenby al lavoro con l’Experimental Storage Ring del Gsi/Fair, Darmstadt
«La misurazione del 205Tl81+ era stata proposta negli anni ’80, ma ci sono voluti decenni di sviluppo degli acceleratori e il duro lavoro di molti colleghi per realizzarla», spiega Yury Litvinov di Gsi/Fair, portavoce dell’esperimento. «Il fascio di 205Tl è stato creato nel separatore di frammenti (Frs) attraverso una reazione nucleare, con numerose iniezioni necessarie per raggiungere un numero sufficiente di ioni immagazzinati. Il team dell’Frs ha sviluppato una nuova impostazione rivoluzionaria per ottenere l’intensità del fascio richiesta per il successo dell’esperimento».
L’esperimento è stato condotto nel 2020, nelle prime settimane dei lockdown a causa della pandemia di Covid-19. «La pandemia ha creato molte difficoltà, ma la dedizione del team ha permesso di salvare la situazione», ricorda Guy Leckenby, dottorando presso il centro di ricerca Triumf e primo autore dell’articolo. «Abbiamo perfezionato l’analisi per tre anni, uno sforzo che si è rivelato fruttuoso, dato che il tempo di dimezzamento misurato di 291 giorni è il doppio rispetto a quanto stimato teoricamente. Questo dimostra quanto sia importante effettuare misurazioni sperimentali».
Il contributo dei ricercatori dell’Inaf è stato determinante per la complessa interpretazione astrofisica della nuova misura. «In una prima fase», dice Sergio Cristallo, ricercatore di Inaf d’Abruzzo, «abbiamo partecipato al calcolo dei modelli teorici di stelle in fase di ramo asintotico delle giganti, ossia la categoria di oggetti che ha “contaminato” la nube protosolare con svariati isotopi radioattivi (come il palladio 107Pd, il cesio 135Cs e il 205Pb). Questi modelli sono stati confrontati con gli equivalenti di altri due gruppi di ricerca teorica, mostrando in generale un buon accordo».
«In una seconda fase», continua Diego Vescovi, anche lui ricercatore presso lo stesso osservatorio, «il nostro gruppo Inaf ha apportato un contributo ancora più importante, partecipando all’identificazione nel dettaglio della fase stellare in cui domina il decadimento beta del 205Pb (in 205Tl) e quella in cui invece domina il processo inverso (la cattura elettronica sul Tl205). L’abbondanza superficiale del 205Pb dipende infatti in modo sostanziale dall’interazione reciproca dei due processi».
Grazie a queste nuove misurazioni, gli autori hanno avuto modo di determinare il tempo di “isolamento” del materiale che ha formato il Sole all’interno della sua nube molecolare madre, confermando che la nostra stella è nata in una nube molecolare gigante a lunga vita. Questa scoperta non solo rafforza l’attuale teoria sulla nascita del Sole, ma apre la strada all’utilizzo del sistema di decadimento 205Pb–205Tl come cronometro per tracciare la storia della formazione del Sistema solare.
Per saperne di più:
- Leggi l’articolo “High-temperature 205Tl decay clarifies 205Pb dating in early Solar System”, di Guy Leckenby et al., pubblicato su Nature
Abbuffata cosmica per due buchi neri lontanissimi
Caotici e voraci, caratteristiche che potrebbero descrivere perfettamente due buchi neri mostruosi scoperti con l’Osservatorio Neil Gehrels Swift della Nasa, satellite con una importante partecipazione dell’Agenzia spaziale italiana (Asi) e dell’Istituto nazionale di astrofisica (Inaf). Pubblicando i risultati oggi sulla rivista Astronomy and Astrophysics, un gruppo di ricerca ha infatti rilevato per la prima volta un evento transiente di distruzione mareale in cui una coppia di buchi neri supermassivi sta interagendo con una nube di gas nel centro di una galassia distante. Il segnale di questo fenomeno, noto come At 2021hdr, si ripete periodicamente, offrendo agli astronomi un’opportunità unica di studiare il comportamento di questi oggetti cosmici estremi. Tra gli enti di ricerca coinvolti nello studio c’è anche l’Inaf.
Rappresentazione artistica di una coppia di buchi neri supermassicci che vortica all’interno di una nube di gas distruggendola. L’evento si chiama At 2021hdr, un brillamento ricorrente studiato dal Neil Gehrels Swift Observatory della Nasa e dalla Ztf Transient Facility presso l’Osservatorio Palomar, in California. Crediti: Nasa/Aurore Simonnet (Sonoma State University)
«È un evento molto strano, chiamato At 2021hdr, che si ripete ogni pochi mesi», spiega Lorena Hernández-García, ricercatrice al Millennium Institute of Astrophysics e al Millennium Nucleus for Transversal Research and Technology to explore Supermassive Black Holes, prima autrice dello studio e leader del team di ricerca. «Crediamo che una nube di gas abbia inghiottito i buchi neri; mentre orbitano l’uno attorno all’altro, i buchi neri interagiscono con la nube, perturbando e consumando il suo gas. Questo produce oscillazioni che si osservano nella luce del sistema». At 2021hdr è stato scoperto grazie al sistema Alerce broker e osservato per la prima volta nel 2021 con la Zwicky Transient Facility (Ztf) presso l’Osservatorio Palomar, in California.
Nell’animazione una nube di gas incontra due buchi neri supermassicci. La complessa interazione di forze gravitazionali e di attrito fa sì che la nube si condensi e si riscaldi; parte del gas viene quindi espulsa dal sistema a ogni orbita dei buchi neri. Crediti: F. Goicovic et al. 2016
Cosa provoca questo fenomeno? Dopo aver esaminato diversi modelli per spiegare ciò che vedevano nei dati, i ricercatori hanno dapprima considerato l’ipotesi di un evento di distruzione mareale (in inglese tidal disruption event), vale a dire la distruzione di una stella che si era avvicinata troppo a uno dei buchi neri, per poi convergere su un’altra possibilità: la distruzione mareale di una nube di gas, più grande del sistema binario stesso. Analizzando i dati raccolti, la dinamica è apparsa subito chiara: quando la nube si è scontrata con i due buchi neri, la loro forza di attrazione gravitazionale l’ha fatta a pezzi, formando filamenti attorno alla coppia. La nube si è poi riscaldata per attrito, il gas è diventato particolarmente denso e caldo vicino ai buchi neri, mentre la complessa interazione di forze ha fatto sì che parte del gas venisse espulso dal sistema a ogni rotazione.
Ztf ha rilevato esplosioni da At 2021hdr ogni 60-90 giorni dal primo brillamento. Il gruppo di Hernández-García ha osservato la sorgente con Swift da novembre 2022. Il satellite della Nasa li ha aiutati a determinare che la coppia di buchi neri produce oscillazioni nella luce ultravioletta e nei raggi X simultaneamente a quelle viste nella luce visibile.
«È la prima volta che si osserva un evento di distruzione mareale di una nube di gas da parte di una coppia di buchi neri supermassivi», dice Gabriele Bruni, ricercatore presso l’Inaf di Roma. «In particolare, l’oscillazione periodica misurata in banda ottica, ultravioletta e raggi X ha una durata mai osservata in precedenza per un evento di distruzione mareale. Grazie al monitoraggio costante di Ztf è stato possibile scoprire questo peculiare sistema, e avviare osservazioni in diverse bande. La survey dello Ztf infatti copre il cielo intero ogni tre giorni, permettendo per la prima volta di scoprire un grande numero di questi fenomeni astrofisici transitori».
Da sinistra: Francesca Panessa (Inaf Roma), Lorena Hernández-García (Millennium Institute of Astrophysics), Gabriele Bruni (Inaf Roma). Crediti: L. Sidoli/Inaf
«I fenomeni transienti permettono di studiare “in diretta” l’evoluzione dei sistemi di accrescimento su buchi neri supermassicci, dove la gravità e il campo magnetico si trovano a un regime energetico estremo. Sono quindi laboratori, che non riusciremo mai a riprodurre sulla terra, dove testare nuove leggi della fisica», sostiene Francesca Panessa, ricercatrice presso l’Inaf di Roma.
La coppia di due buchi neri si trova nel centro di una galassia chiamata 2Masx J21240027+3409114, situata a un miliardo di anni luce di distanza in direzione della costellazione del Cigno. I due buchi neri sono separati da circa 26 miliardi di chilometri e insieme contengono 40 milioni di volte la massa del Sole. Gli scienziati stimano che i buchi neri completino un’orbita ogni 130 giorni e che si fonderanno tra circa 70 mila anni.
«Finora sono pochi i fenomeni transienti osservati che presentano un oscillazione nella curva di luce come questo», sottolinea Bruni. «Le coppie di buchi neri supermassicci sono ancora un fenomeno raramente osservato, e ne vedremo molti di più con la prossima generazione di antenne gravitazionali a bassa frequenza (come Lisa, la Laser Interferometer Space Antenna). Inoltre, si aspettiamo di scoprire altri casi come questo nei prossimi anni, anche con l’accensione del Vera Rubin Telescope, che sarà in grado di scrutare ancora più a fondo l’universo».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “AT 2021hdr: A candidate tidal disruption of a gas cloud by a binary super massive black hole system”, di Hernández-García, A.M. Muñoz-Arancibia, P. Lira, G. Bruni, J. Cuadra, P. Arévalo, P. Sánchez-Sáez, S. Bernal, F.E. Bauer, M. Catelan, F. Panessa, M. Pávez-Herrera, C. Ricci, I. Reyes-Jainaga, B. Ailawadhi, V. Chavushyan, R. Dastidar, A. Deconto-Machado, F. Förster, A. Gangopadhyay, A. García-Pérez, I. Márquez, J. Masegosa, K. Misra, V.M Patiño-Alvarez, M. Puig-Subirà, J. Rodi e M. Singh
Domani, giovedì 14 novembre, dalle 20, ci troviamo in sede in Via Zauli Naldi 2 a #Faenza per osservare il cielo con #binocoli e #telescopi
Vedremo la #Luna quasi piena, #Saturno, #Giove, le #Pleiadi e tanto altro
Ingresso libero e #gratis, non mancare!
mobilizon.it/events/91717a30-e…
#astronomia #spazio #space #astronomy #astrofili #scienza #divulgazione #divulgazionescientifica #telescopio #binocolo #osservatorio #stargazing #starparty #evento #eventi #romagna #italia
Astronomia - Gruppo Forum reshared this.
Coincidenza cosmica spiega l’anomalia di Urano
Il Voyager 2 della Nasa ha catturato questa immagine di Urano mentre lo sorvolava nel 1986. Una nuova ricerca basata sui dati della missione mostra che poco prima del flyby si è verificato un evento inconsueto in cui il vento solare ha compresso la magnetosfera di Urano, spazzando via il plasma intorno al pianeta e alimentando fasce di radiazione intorno al pianeta con particelle cariche molto energetiche. Crediti: Nasa/Jpl-Caltech
Quando nel 1986 la sonda Voyager 2 della Nasa sorvolò Urano, regalò agli scienziati il primo – e finora unico – sguardo ravvicinato a questo strano pianeta che sembra rotolare lungo la sua orbita. Oltre alla scoperta di nuove lune e anelli, gli scienziati si trovarono di fronte a un mistero: un campo magnetico fortemente asimmetrico e fasci di particelle cariche altamente energetiche attorno al pianeta, tali da fargli guadagnare la reputazione di “anomalia” del Sistema solare.
Ora, una nuova ricerca ha analizzato i dati raccolti durante quel flyby, scoprendo che la fonte di quel mistero non fu altro che una coincidenza cosmica. È infatti emerso che nei giorni immediatamente precedenti il flyby del Voyager 2, il pianeta era stato colpito da un insolito vento solare che aveva “schiacciato” il campo magnetico del pianeta, comprimendo drasticamente la magnetosfera di Urano.
«Se il Voyager 2 fosse arrivato solo pochi giorni prima, avrebbe osservato una magnetosfera completamente diversa su Urano», dichiara Jamie Jasinski del Jet Propulsion Laboratory della Nasa, primo autore dello studio pubblicato su Nature Astronomy. «La sonda ha visto Urano in condizioni che si verificano solo il 4 per cento delle volte».
Le magnetosfere fungono da bolle protettive attorno ai pianeti con nucleo magnetico e campi magnetici, compresa la Terra, schermandoli dai getti di gas ionizzato – o plasma – che fuoriescono dal Sole nel vento solare. Imparare a conoscere meglio il funzionamento delle magnetosfere è importante per comprendere il nostro pianeta e quelli che si trovano in angoli poco visitati del Sistema solare, e oltre.
Ecco perché gli scienziati erano ansiosi di studiare la magnetosfera di Urano e ciò che videro nei dati del Voyager 2 nel 1986 li sconcertò. La sonda rilevò particelle cariche in movimento attorno a Urano, che creavano “cinture di radiazioni”. Le caratteristiche delle particelle cariche non seguivano i modelli magnetosferici tradizionali, probabilmente proprio a causa della forma irregolare del campo magnetico. Inoltre, apparentemente non c’era alcuna sorgente di particelle cariche per alimentare queste cinture; infatti, il resto della magnetosfera di Urano era quasi privo di plasma.
Il primo riquadro mostra la magnetosfera di Urano prima del sorvolo del Voyager 2 della Nasa. Il secondo pannello mostra come doveva essere la situazione durante il flyby del 1986, che ha dato agli scienziati una visione distorta della magnetosfera. Crediti: Nasa/Jpl-Caltech
La mancanza di plasma ha lasciato perplessi gli scienziati anche perché sapevano che le cinque principali lune di Urano nella bolla magnetica avrebbero dovuto produrre particelle ionizzate, come fanno le lune ghiacciate intorno ad altri pianeti esterni. Hanno quindi concluso che le lune dovevano essere inerti, senza alcuna attività in corso.
Perché non venne osservato alcun plasma e cosa stava alimentando le cinture di radiazioni? L’analisi dei nuovi dati indica proprio il vento solare come responsabile. Quando il plasma proveniente dal Sole ha colpito e compresso la magnetosfera, probabilmente ha spinto il plasma fuori dal sistema. Questo evento avrebbe anche intensificato la dinamica della magnetosfera, che avrebbe alimentato le cinture di radiazioni iniettandovi elettroni.
I risultati potrebbero essere una buona notizia per le cinque lune principali di Urano: alcune di esse potrebbero essere geologicamente attive. Avendo trovato una spiegazione per la temporanea mancanza di plasma, i ricercatori affermano che è plausibile che le lune abbiano in realtà sempre emesso ioni nella bolla circostante.
Gli scienziati planetari stanno cercando di approfondire le loro conoscenze sul misterioso sistema di Urano, che la National Academies’ 2023 Planetary Science and Astrobiology Decadal Survey ha indicato come obiettivo prioritario per una futura missione della Nasa. Nel frattempo, il Voyager 2 si trova a quasi 21 miliardi di chilometri dalla Terra. E prosegue il suo volo indomito.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “The anomalous state of Uranus’s magnetosphere during the Voyager 2 flyby” di Jamie M. Jasinski, Corey J. Cochrane, Xianzhe Jia, William R. Dunn, Elias Roussos, Tom A. Nordheim, Leonardo H. Regoli, Nick Achilleos, Norbert Krupp & Neil Murphy
Osservazioni non standard per le galassie di Webb
Le osservazioni del telescopio spaziale James Webb (Jwst) non confermano le ipotesi del modello standard di formazione delle galassie nell’universo primordiale, quello secondo il quale la materia oscura invisibile avrebbe agevolato la formazione delle stelle e delle galassie più antiche. Jwst avrebbe dovuto osservare deboli segnali provenienti da galassie giovani e di piccola massa, ma i dati che ha fornito raccontano un’altra storia: le galassie più antiche sono apparse infatti agli occhi del telescopio spaziali grandi e luminose. I risultati dello studio, guidato dalla Case Western Reserve University di Cleveland (Ohio) e pubblicato oggi su The Astrophysical Journal, sembrerebbero mettere quindi in discussione la nostra comprensione dell’universo primordiale.
Protogalassie osservate con il James Webb Space Telescope. Crediti: Nasa
Nello studio, sono state confrontate le osservazioni di galassie nell’universo primordiale – tecnicamente, ad alto redshift – con le predizioni di due modelli teorici assai diversi fra loro: il modello cosmologico standard Lambda-Cdm (Lambda Cold Dark Matter), in cui la formazione delle galassie è agevolata grazie all’introduzione della materia oscura, e il modello Mond (Modified Newtonian Dynamics), in cui la formazione delle galassie è spiegata grazie a una modifica delle leggi gravitazionali di Newton ed Einstein, e che non contempla la presenza di materia oscura nell’universo.
I dati osservativi ottenuti da Jwst riportati nello studio sono in accordo con la teoria della gravità modificata Mond, introdotta dal fisico Mordehai Milgrom oltre quarant’anni fa. «Gli astronomi hanno inventato la materia oscura per spiegare come si possa passare da un universo primordiale molto omogeneo a grandi galassie con molto spazio vuoto intorno, com’è attualmente», ricorda infatti Stacy McGaugh, primo autore dell’articolo e direttore del dipartimento di astronomia della Case Western Reserve, sottolineando però che «ciò che la teoria della materia oscura prevedeva non è quello che stiamo osservando»,
Il modello Lambda-Cdm prevede che le galassie si siano formate per accrescimento graduale di materia da strutture piccole a strutture più grandi, a causa della gravità extra fornita dalla massa della materia oscura. Secondo la teoria Mond invece, la formazione della struttura nell’universo primordiale sarebbe avvenuta molto più velocemente di quanto previsto dalla teoria Lambda-Cdm. Per questo, se così fosse, Jwst dovrebbe essere in grado di rilevare i deboli segnali luminosi dei piccoli precursori delle galassie.
Federico Lelli, primo ricercatore all’Istituto nazionale di astrofisica (Arcetri, Firenze). Crediti: Inaf
«Il modello standard Lcdm di formazione delle galassie è un modello strettamente “gerarchico”, in cui le galassie di grande massa si formano grazie alla fusione di tante proto-galassie e/o aloni di materia oscura più piccoli», spiega Federico Lelli dell’Inaf di Arcetri, coautore dello studio. «Questo processo richiede tempo, quindi ci si aspetta che le galassie massive, come ad esempio le galassie ellittiche, si formino relativamente tardi durante la storia evolutiva dell’universo. Negli ultimi anni, invece, varie osservazioni ottenute con diversi telescopi – Alma, Hst, Spitzer e più recentemente Jwst – ci hanno mostrato uno scenario molto diverso: le galassie massive sono già presenti nell’universo primordiale e sembrano essersi evolute molto più velocemente di quanto ci aspettassimo nel contesto cosmologico standard». Proprio come prevede la teoria Mond, secondo la quale la massa si assembla rapidamente a formare le galassie e fin dalle fasi iniziali si espande verso l’esterno con il resto dell’universo.
Lelli è anche fra gli autori di un altro studio, pubblicato lo scorso giugno, i cui risultati erano in linea con le previsioni della teoria della gravità modificata Mond, in quel caso basandosi sulla misura delle curve di rotazione delle galassie tramite il fenomeno della lente gravitazionale debole.
«In questa teoria, non esiste alcuna materia oscura», dice Lelli riferendosi alla teoria Mond. «Verso la fine degli anni ‘90, l’astrofisico Bob Sanders ha utilizzato la teoria Mond per predire che galassie massive ed evolute potessero essere già presenti nell’universo primordiale (a redshift 10). Si tratta di una predizione sorprendente e piuttosto incredibile, infatti non è stata presa in seria considerazione dalla maggior parte della comunità scientifica per molto tempo. I dati attuali, invece, sembrano proprio confermare la predizione di Bob Sanders del lontano 1998 (più di un quarto di secolo fa!), secondo cui le galassie massive si formano su tempi estremamente brevi, dell’ordine di qualche centinaio di milioni di anni dopo il Big Bang».
Il telescopio spaziale James Webb è stato progettato per rispondere ad alcune delle più grandi domande sull’universo, tra cui come e quando si sono formate le stelle e le galassie. Fino al suo lancio, nel 2021, nessun telescopio era infatti stato in grado di vedere così in profondità nell’universo – e quindi in un certo senso indietro nel tempo.
«In primo luogo, James Webb ha permesso di scoprire galassie ad altissimi redshift, quando l’universo aveva solo qualche centinaio di milioni di anni. Poi, ha rivelato l’esistenza di galassie massive e “passive” – ovvero che non formano più stelle – a redshift più alti di quanto non si ritenesse possibile, indicando che queste galassie passive debbano essersi formate in modo estremamente veloce e quasi “monolitico”. Inoltre», conclude Lelli, «Jwst ha rivelato l’esistenza di ammassi di galassie in epoche cosmiche più antiche di quanto non ci si aspettasse nel contesto cosmologico standard».
Molti di questi studi sono ancora in corso e necessitano di essere confermati con ulteriori osservazioni, ma la possibilità che il telescopio spaziale James Webb ci aiuti a scrivere nuove pagine di astrofisica, dopo soli circa tre anni dal suo lancio, è davvero promettente.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Accelerated Structure Formation: the Early Emergence of Massive Galaxies and Clusters of Galaxies” di S. S. McGaugh, J. M. Schombert, F. Lelli e J. Franck
- Sulla teoria Mond guarda su MediaInaf Tv l’intervista a Pavel Kroupa
Luna Rossa, un podcast di Massimo Capaccioli
media.inaf.it/wp-content/uploa…
Disponibile su Amazon Music, Apple Podcast e Spotify
Tutti ricordano lo sbarco sulla Luna degli americani, ma quanti sanno che quei primi passi, in realtà, potevano invece essere di un cosmonauta russo? A raccontarci una storia affascinante, ricca di aneddoti e di riferimenti storici, è il podcast Luna Rossa – La conquista sovietica dello spazio, scritto e narrato dall’astrofisico Massimo Capaccioli e prodotto dal Gran Sasso Science Institute dell’Aquila insieme all’Istituto nazionale di astrofisica (Inaf).
Dall’antico sogno di volare sulla Luna, reso credibile a metà dell’Ottocento dagli scrittori di fantascienza, agli avanzamenti tecnologici imposti dal secondo conflitto mondiale, un terreno su cui la Germania nazista primeggiò grazie soprattutto a un prepotente sviluppo del settore missilistico – strumento di guerra, ma anche propedeutico alla scalata dello spazio. E poi ancora dallo Sputnik, il primo satellite mandato in orbita non dagli americani, ma dall’Unione sovietica, al capolavoro “rosso” con il primo volo di un cosmonauta, Jurii Gagarin, fino alla prima passeggiata spaziale. Massimo Capaccioli, scienziato dell’Inaf di fama internazionale e appassionato divulgatore, in sei puntate guiderà l’ascoltatore in un viaggio tanto affascinante quanto ancora poco conosciuto. Fu appunto la Russia, il grande nemico degli Usa in quella che si delineava come una silente ma non meno pericolosa guerra, il paese più vicino all’allunaggio, per un decennio alla testa di quell’insolita competizione per la scalata del cielo sulla quale le due nazioni avevano trasferito un rischioso confronto muscolare. L’epilogo è noto: furono gli americani a tagliare per primi il filo di lana, il 20 luglio 1969, piantando la bandiera a stelle e strisce sul suolo lunare. Ma la Russia era stata a lungo la prima della classe, grazie a uomini di genio, a giovani coraggiosi e ad una ventata di genuino patriottismo.
Luna Rossa – La conquista sovietica dello spazio, già un libro edito da Carocci nel 2019 tradotto poi anche in inglese e in russo, da oggi è quindi anche un podcast. Creato da Massimo Capaccioli, con la cura editoriale di Carmelo Evoli, Luna Rossa è prodotto dal Gssi – Gran Sasso Science Institute dell’Aquila in collaborazione con l’Inaf, con le musiche originali e la regia della casa di produzione Indiehub. Tutte le puntate sono disponibili sulle principali piattaforme di ascolto podcast, raggiungibili a questo link.
Dove nascono i fast radio burst
Questo fotomontaggio mostra le antenne del Deep Synoptic Array-110, utilizzate per scoprire e localizzare i fast radio burst (Frb). Sopra le antenne ci sono le immagini di alcune galassie ospiti degli Frb, così come appaiono nel cielo. Crediti: Annie Mejia/Caltech
Dalla loro scoperta nel 2007, ifast radio burst – lampi estremamente energetici a radiofrequenza – hanno illuminato ripetutamente il cielo, portando gli astronomi alla ricerca delle loro origini. Attualmente i fast radio burst, o Frb, confermati sono centinaia e gli scienziati hanno raccolto prove sempre più evidenti di ciò che li innesca: stelle di neutroni altamente magnetizzate, note come magnetar. Una prova fondamentale è arrivata quando una magnetar è esplosa nella nostra galassia e diversi osservatori, tra cui il progetto Stare2 (Survey for Transient Astronomical Radio Emission 2) del Caltech, hanno ripreso il fenomeno in tempo reale.
Ora, sulla rivista Nature, i ricercatori del Caltech riportano di aver scoperto dove è più probabile che si verifichino gli Frb, ossia in galassie in formazione stellare massicce piuttosto che in quelle a bassa massa. Lo studio suggerisce che queste stelle “morte”, il cui campo magnetico è 100mila miliardi di volte più forte di quello terrestre, spesso si formano quando due stelle si fondono e poi esplodono in una supernova. Prima non era chiaro se l’origine delle magnetar fosse questa o se si formassero dall’esplosione di una singola stella.
«L’immensa potenza delle magnetar le rende tra gli oggetti più affascinanti ed estremi dell’universo», dice Kritti Sharma del Caltech, autrice principale del nuovo studio. «Si sa molto poco di ciò che causa la formazione delle magnetar alla morte delle stelle massicce. Il nostro lavoro aiuta a rispondere a questa domanda».
Il progetto è iniziato con la ricerca di Frb utilizzando il Deep Synoptic Array-110 (Dsa-110), un progetto del Caltech finanziato dalla National Science Foundation che si trova presso l’Owens Valley Radio Observatory, vicino a Bishop, in California. A oggi, il grande array radio ha rilevato e localizzato 70 Frb nella loro galassia di origine (solo altri 23 Frb sono stati localizzati da altri telescopi). Nello studio attuale, i ricercatori hanno analizzato 30 di questi Frb. «Dsa-110 ha più che raddoppiato il numero di Frb con galassie ospiti note», osserva Vikram Ravi del Caltech.
Sebbene sia noto che gli Frb si verificano in galassie che stanno attivamente formando stelle, il team ha scoperto con sorpresa che gli Frb tendono a verificarsi più spesso in galassie massicce rispetto a quelle in formazione stellare a bassa massa. Questo risultato è interessante perché in precedenza si pensava che gli Frb si verificassero in tutti i tipi di galassie attive.
Le galassie massicce tendono a essere ricche di metalli perché i metalli – elementi prodotti dalle stelle, più pesanti dell’idrogeno e dell’elio – richiedono tempo per accumularsi nel corso della storia cosmica. Il fatto che gli Frb siano più comuni in queste galassie ricche di metalli implica che anche la fonte degli Frb, le magnetar, sia più comune in questo tipo di galassie. «Nel corso del tempo, con la crescita delle galassie, le generazioni successive di stelle arricchiscono le galassie di metalli mentre si evolvono e muoiono», spiega Ravi.
Kritti Sharma. Crediti: Caltech
Inoltre, le stelle massicce che esplodono in supernove e possono diventare magnetar si trovano più comunemente in coppia. Infatti, l’84 per cento delle stelle massicce sono binarie. Quindi, quando una stella massiccia in una binaria si “gonfia” a causa dell’abbondante contenuto di metalli, il materiale in eccesso viene trascinato verso la sua stella compagna, facilitando la fusione delle due stelle. Queste stelle fuse hanno un campo magnetico combinato maggiore di quello di una singola stella.
In sintesi, poiché gli Frb sono osservati maggiormente in galassie in formazione stellare massicce e ricche di metalli, allora le magnetar (che si pensa possano innescare gli Frb) si stanno probabilmente formando in ambienti ricchi di metalli, che favoriscono la fusione di due stelle. I risultati suggeriscono quindi che le magnetar nell’universo abbiano origine dai resti delle fusioni stellari.
In futuro, il team spera di individuare altri Frb e i loro luoghi di origine utilizzando Dsa-110, e poi Dsa-2000, un array radio ancora più grande che dovrebbe essere costruito nel deserto del Nevada e completato nel 2028. «Questo risultato è una pietra miliare per l’intero team Dsa. Molti degli autori di questo articolo hanno contribuito alla costruzione di Dsa-110», conclude Ravi. «E il fatto che Dsa-110 sia così bravo a localizzare gli Frb fa ben sperare per il successo di Dsa-2000».
Per saperne di più:
- Leggi su Nature l’articolo “Preferential Occurrence of Fast Radio Bursts in Massive Star-Forming Galaxies” di Kritti Sharma, Vikram Ravi, Liam Connor, Casey Law, Stella Koch Ocker, Myles Sherman, Nikita Kosogorov, Jakob Faber, Gregg Hallinan, Charlie Harnach, Greg Hellbourg, Rick Hobbs, David Hodge, Mark Hodges, James Lamb, Paul Rasmussen, Jean Somalwar, Sander Weinreb, David Woody, Joel Leja, Shreya Anand, Kaustav Kashyap Das, Yu-Jing Qin, Sam Rose, Dillon Z. Dong, Jessie Miller & Yuhan Yao
Il lato oscuro del Sole con Sorvegliati spaziali
Locandina dell’evento in diretta streaming “Sorvegliati spaziali – Il lato oscuro del Sole”
Sorvegliati spaziali, progetto di divulgazione dell’Inaf dedicato alla difesa planetaria, lancia un nuovo format di comunicazione scientifica. Una serie mensile di eventi in diretta streaming che offriranno al pubblico l’opportunità di esplorare le caratteristiche del nostro astro in modo interattivo e coinvolgente. Il primo appuntamento di questa nuova serie, intitolata Sorvegliati spaziali: il lato oscuro del Sole, si terrà mercoledì 13 novembre 2024, dalle ore 17:00, e sarà trasmesso in diretta sui canali YouTube di Media Inaf e Facebook di Sorvegliati Spaziali.
Il progetto Sorvegliati spaziali, ideato da Daria Guidetti e avviato nel 2021, ha come obiettivo principale sensibilizzare il pubblico sui potenziali pericoli provenienti dallo spazio, esplorando nuove modalità di comunicazione scientifica per coinvolgere un pubblico ancora più vasto. Nel corso degli anni, il progetto ha realizzato incontri, video, news e bollettini celesti, spettacoli teatrali e un’applicazione in realtà aumentata, tutti consultabili sul sito web del progetto. Dispone, inoltre, di un bollettino solare aggiornato quotidianamente con dati in tempo reale, curato da Mauro Messerotti, che riporta quante macchie e brillamenti ci sono ogni giorno e non solo, e dal gruppo Inaf Swelto, che riassume gli eventi più importanti del mese. Gli utenti possono monitorare tachimetri solari e parametri relativi al plasma dello spazio interplanetario (densità, velocità, temperatura), influenzati principalmente dal vento solare e dalle espulsioni di massa coronale.
La diretta sarà condotta da Clementina Sasso dell’Inaf di Napoli (Capodimonte) e da Paolo Pagano, professore al Dipartimento di fisica e chimica dell’Università di Palermo e ricercatore associato Inaf. «Il Sole è al suo massimo di attività quest’anno», dice Clementina Sasso. «Per ben quattro volte abbiamo visto gli effetti di questa attività anche sull’Italia con le aurore boreali. Con questo nuovo progetto vogliamo portare consapevolezza sul fenomeno, che non sempre ha effetti solo positivi come le aurore».
La scienza solare mostra, infatti, come l’attività del Sole possa influenzare profondamente la vita sulla Terra, determinando i cicli climatici e le condizioni essenziali per la sopravvivenza, ma presenti anche aspetti potenzialmente pericolosi ancora poco conosciuti. Le tempeste solari e le espulsioni coronali di massa possono alterare il campo magnetico terrestre e danneggiare satelliti, reti elettriche e sistemi di comunicazione.
Scopo del nuovo format di Sorvegliati spaziali: il lato oscuro del Sole sarà discutere proprio di questi effetti e aiutare il pubblico a comprendere come gli scienziati li monitorano e come le loro ricerche possono aiutarci a proteggere le tecnologie su cui facciamo affidamento. La nostra tecnologia sempre più raffinata ci ha aperto infinite possibilità, ma ci ha anche reso sempre più vulnerabili alla variabilità e attività del Sole, come spiega Paolo Pagano: «La meteorologia spaziale è entrata sempre di più nel nostro quotidiano per gli effetti nascosti e palesi che ha su tutte le attività della nostra vita. Di conseguenza, se ne parla sempre in termini catastrofici o apocalittici, come se dovessimo temere un’imminente devastazione. In realtà, con questo progetto, proviamo a raccontare che gli effetti della meteorologia spaziale sono già in mezzo a noi, non necessariamente catastrofici ma già misurabili nel quotidiano, e che hanno il potenziale di influenzare le nostre vite in molti modi».
Che siate appassionati di astronomia o semplicemente curiosi, preparatevi a osservare il Sole come non lo avete mai visto.
Guarda il trailer del programma:
Turismo spaziale: opportunità e prezzi
Nel pianificare una vacanza in posti esotici o difficili da raggiungere, ci viene naturale esaminare diverse opzioni per poi scegliere quella che offre il miglior rapporto costi benefici.
Che scelta ha un potenziale turista spaziale? Chi desideri passare qualche giorno in orbita intorno alla Terra ha, al momento, solo l’offerta di SpaceX che “vende” i sedili del modulo Crew Dragon a 55 milioni di dollari. La cifra è alta ma non esagerata, se consideriamo che la Nasa è arrivata a pagare 80 milioni di dollari per il trasporto dei suoi astronauti da parte dell’agenzia spaziale russa Roscosmos. Oltre ad avere un contratto per trasportare due equipaggi di astronauti Nasa ogni anno, SpaceX ha già venduto diverse navette a privati. La società Axiom ha fatto già tre viaggi alla Iss in preparazione della loro stazione spaziale privata, mentre Jared Isaacman è andato due volte in orbita acquistando l’intera capsula (di quattro sedili) nel 2021 con la missione Inspiration4 e a settembre con Polaris Dawn, che, nelle sue intenzioni, è la prima di una serie di tre missioni. Per i viaggiatori che volessero andare più lontano, Starship di SpaceX offrirà viaggi circumlunari. Mentre il miliardario giapponese Yusaku Maezawa ha cancellato il contratto a causa dei tempi di attesa, non mancano prenotazioni. Difficile dire quanto costerà un viaggio lunare ma un posto non potrà essere venduto a meno di diverse centinaia di milioni.
Crew of @Inspiration4x – first all-civilian human spaceflight to orbit – returns to Earth pic.twitter.com/pnjkDjnkAw— SpaceX (@SpaceX) September 18, 2021
Per chi avesse disponibilità economiche più limitate, oppure volesse avvicinarsi al volo spaziale in modo graduale, esistono i voli suborbitali con la capsula che sale fino a circa 100 km di altezza dove gli occupanti godono di qualche minuto di microgravità prima di rientrare a terra. Cento chilometri non è un’altezza scelta a caso perché si tratta della linea di Karman che, per convenzione, divide lo spazio atmosferico dallo spazio esterno. Solo chi supera la linea di Karman può dire di essere stato nello spazio.
Nel panorama attuale sono due le compagnie che offrono voli suborbitali: parliamo di Virgin Galactic di sir Richard Branson e di Blue Orgin di Jeff Bezos. Entrambe hanno iniziato i voli nell’estate del 2021. È partita per prima Virgin Galactic che fa decollare la navetta attaccata ad un aereo per poi liberarla in quota da dove sale per raggiungere l’altezza prevista, permettere ai passeggeri di fluttuare e poi atterrare come un aereo. Pochi giorni dopo è stata la volta di Blue Origin, che sfrutta il razzo riutilizzabile New Shepard per portare la navetta oltre la linea di Karman, dove viene staccata e inizia la manovra d’atterraggio con i paracadute.
Difficile paragonare i costi benefici delle due compagnie visto che Virgin Galactic ha un listino prezzi che è variato nel tempo, mentre Blue Origin fa trattativa privata. Cinque anni fa, Virgin Galactic offriva i suoi voli a 250mila dollari, prevendendo centinaia di biglietti. Poi ci sono stati ritardi nel programma e, tre anni fa, il costo è salito a 450mila dollari, per poi raddoppiare a 900mila dollari per gli ultimi voli. Diverso l’approccio di Blue Origin, per la quale si vocifera che, a oggi, un biglietto si aggiri intorno a 1,25 milioni di dollari: un costo superiore, ma non troppo diverso, da quello del concorrente, che però non naviga in buone acque, come testimoniato dalla perdita del 90 per cento del valore delle azioni. Questo non fa diminuire le liste d’attesa con migliaia di persone che costituiscono una nicchia di mercato abbastanza ampia da richiamare altri operatori.
Visto il crescente interesse per la space economy da parte del mercato cinese, che registra una presenza privata in crescita, non stupisce che siano nate compagnie che vogliono intercettare la clientela spaziale non occidentale. La prima a uscire allo scoperto è stata Deep Blue Aerospace, che sta sviluppando lanci suborbitali basati su un lanciatore recuperabile simile al Falcon9 di SpaceX. Hanno annunciato che inizieranno i test a fine anno con l’idea di essere pronti a fornire il servizio nel 2027. Per dimostrare che fanno sul serio, hanno annunciato la prevendita dei primi due biglietti al costo di 1,5 milioni di yuan, con un deposito di 50mila yuan, equivalenti a circa 200mila e 7mila dollari, rispettivamente.
Un prezzo stracciato che, se fosse mantenuto, potrebbe fare nascere la concorrenza suborbitale.
Andrea Cimatti socio dell’Accademia dei Lincei
Andrea Cimatti a Palazzo Corsini, sede dell’Accademia dei Lincei, il giorno della consegna ai nuovi soci dei distintivi e delle pergamene. Crediti: Piero Madau
Venerdì 8 novembre, a Roma, nel corso della cerimonia di apertura dell’anno accademico 2024-25 dell’Accademia dei Lincei, il presidente Roberto Antonelli e il vicepresidente Carlo Doglioni hanno conferito ai 46 nuovi soci nazionali, soci corrispondenti e soci stranieri i distintivi e le pergamene di elezione e di nomina. Fra i nuovi soci corrispondenti c’è l’astrofisico Andrea Cimatti, associato Inaf e direttore, dal 2021, del Dipartimento di fisica e astronomia “Augusto Righi” dell’Università di Bologna.
«Al di là della grande soddisfazione per il riconoscimento della mia carriera e dell’onore di diventare socio Linceo», dice Cimatti a Media Inaf, «vedo questo risultato come una grande opportunità di offrire all’Accademia il mio contributo non solo scientifico, ma anche culturale e sociale. Infatti, nel cupo periodo storico che stiamo vivendo, attraversato da oscuri rigurgiti di irrazionalità e “antiscienza”, le istituzioni scientifiche come l’Accademia dei Lincei rappresentano anche dei baluardi per promuovere la scienza, il suo metodo e le tante ricadute positive per la società».
Dopo periodi di ricerca in Germania (Eso) e negli Usa (University of California), Cimatti è stato ricercatore e poi astronomo associato all’Inaf – Osservatorio astrofisico di Arcetri. Dal 2006 è professore ordinario all’Università di Bologna, dove insegna astronomia, Galaxy Formation and Evolution e dirige il master Spices (Space Missions Science, Design and Applications). Le sue ricerche spaziano dalla formazione ed evoluzione delle galassie alla cosmologia osservativa, ed è co-fondatore della missione Esa Euclid. Ha pubblicato articoli di alto impatto e vinto i premi “Bessel” (Alexander von Humboldt-Stiftung) e “Tartufari” (Accademia dei Lincei). È coautore del testo Introduction to Galaxy Formation and Evolution – From Primordial Gas to Present-Day Galaxies (Cambridge University Press). È stato membro del consiglio direttivo del Gruppo 2003 per la ricerca scientifica e, nel 2017, è stato insignito dal presidente Mattarella del titolo di “Commendatore Ordine al Merito della Repubblica Italiana”. Con il libro L’universo oscuro (Carocci) ha vinto il Premio nazionale divulgazione scientifica “Giancarlo Dosi” (categoria Scienze matematiche fisiche e naturali).
C’è poi un astrofisico anche fra i nuovi soci stranieri: Piero Madau, attualmente “Distinguished Professor’ di astronomia e astrofisica alla University of California, Santa Cruz, e professore ordinario all’Università di Milano-Bicocca. Nato e cresciuto in Italia, Madau si è laureato all’Università di Firenze e ha conseguito il dottorato di ricerca in astrofisica alla Sissa di Trieste. È stato ricercatore postdoc al Caltech e alla Johns Hopkins University, e ha avuto ruoli accademici allo Space Telescope Science Institute e all’Università di Cambridge, nel Regno Unito. La ricerca del professor Madau è all’avanguardia nella cosmologia e combina approcci osservativi, teorici e computazionali. Il suo lavoro pionieristico ha fatto progredire notevolmente la nostra comprensione della formazione delle galassie, della materia oscura, dei buchi neri massicci e della reionizzazione cosmica.
Fiumi e mari sotto il ghiaccio dell’antico Marte
media.inaf.it/2024/11/08/acqua…
Circa tre miliardi e mezzo di anni fa, quando su una Terra quasi interamente coperta di acqua cominciavano a comparire le prime forme di vita, su Marte scorrevano fiumi subglaciali e un bacino delle dimensioni del Mar Mediterraneo si gonfiava sotto la protezione di spessi soffitti di ghiaccio. Il modello che spiega come si siano formati è stato pubblicato in un articolo pubblicato la scorsa settimana su Journal of Geophysical Research – Planets. In sostanza, l’anidride carbonica di cui era composta l’atmosfera si congelò e si depositò ai poli sopra lo spesso strato di ghiaccio d’acqua già esistente, isolando il calore emanato dall’interno di Marte e aumentando la pressione sul ghiaccio. Questo ha fatto sì che circa la metà dell’acqua totale presente sul pianeta si sciogliesse e fluisse sulla sua superficie senza alcun aumento delle temperature esterne.
Illustrazione artistica di un fiume ghiacciato proveniente dall’acqua di fusione sotto la calotta polare meridionale di Marte. Crediti: Peter Buhler/Psi
Marte, arido e rosso pianeta coperto di regolite, presenta oggi un’atmosfera di anidride carbonica molto più sottile di quella che sovrasta la Terra. Ma non è sempre stato così: anche l’atmosfera di Marte un tempo era più densa, e si ritiene che parte di questa sia collassata legandosi alla regolite del terreno, in un processo cominciato proprio 3,6 miliardi di anni fa e visibile ancora oggi. Non solo, secondo il modello strutturato dall’autore dello studio, Peter Buhler, ricercatore al Planetary Science Institute, in Arizona, attualmente l’atmosfera marziana funge da vettore alimentando un ciclo che collega i poli con l’equatore.
«L’atmosfera è più che altro un’accompagnatrice», spiega Buhler. «Agisce come un condotto per la vera azione, che è lo scambio di anidride carbonica tra il regolite e la calotta polare meridionale, ancora oggi».
La vera azione di cui parla l’autore è, dunque, questo ciclo dell’anidride carbonica, regolato dal grado di inclinazione rotazionale di Marte, che si sposta un po’ ogni centomila anni marziani. Quando l’inclinazione di Marte è minima rispetto al piano dell’eclittica, i poli non ricevono molta luce solare diretta, mentre il Sole scalda maggiormente l’equatore. In queste condizioni, il gas di anidride carbonica fuoriesce dalla regolite sul terreno a basse latitudini per entrare nell’atmosfera. E quando raggiunge i poli freddi, si deposita in cima alla calotta di ghiaccio d’acqua. Al contrario, quando Marte è fortemente inclinato, il Sole riscalda i poli e il ghiaccio di anidride carbonica sublima – ovvero si trasforma direttamente da ghiaccio solido a gas – nell’atmosfera, e fluisce dove la regolite più fredda può assorbirlo di nuovo come una spugna.
Un ciclo, questo, che sarebbe riproducibile e verificabile con il modello di Buhler per il Marte di oggi, e che l’autore ha voluto verificare nel periodo in cui il pianeta aveva un’atmosfera di anidride carbonica molto più densa – circa 3,6 miliardi di anni fa appunto. Un’epoca cruciale per il pianeta, in cui non solo l’anidride carbonica ha iniziato a collassare, ma hanno avuto origine anche molte reti fluviali. Se e come le due cose siano legate, però, è ancora oggetto di discussione nella comunità scientifica. Ma non per l’autore di questo studio, che con il suo modello è riuscito a trovare una spiegazione. Vediamo come.
Secondo il modello di Buhler, in quell’epoca uno strato di anidride carbonica di circa 0,6 chilometri di spessore si è depositato sopra un pre-esistente strato di 4 chilometri di ghiaccio d’acqua – spesso quanto quello che esiste oggi al polo sud della Terra. Il ghiaccio di anidride carbonica, che agisce come un potente isolante, ha intrappolato il calore irradiato dall’interno del pianeta, e con il suo peso ha aumentato la pressione sulla calotta di ghiaccio d’acqua. L’acqua alla base della calotta ha iniziato a fondere in grandi quantità fino a raggiungere i lati della calotta di ghiaccio, dove si trovava il permafrost. Calotta di ghiaccio in cima, una falda acquifera satura sotto e il permafrost ai lati: l’unica via d’uscita per l’acqua era l’interfaccia tra lo strato di ghiaccio e la roccia sottostante. Si sarebbero dunque formati così, i fiumi subglaciali sotterranei alla base della calotta glaciale, che scorrendo avrebbero eroso la roccia e lasciato dietro di sé lunghe creste di ghiaia. Fantasie del modello? No, queste strutture, che si chiamano esker, sono state osservate vicino al polo sud marziano, e avrebbero dimensioni coerenti con i fiumi subglaciali previsti da Buhler.
«Gli esker sono la prova che a un certo punto c’è stata una fusione subglaciale su Marte, e questo è un grande mistero», continua Buhler. «Si è cercato di scoprire i processi che avrebbero potuto far sì che ciò accadesse, ma finora nulla ha funzionato davvero. La migliore ipotesi attuale è che ci sia stato un qualche evento di riscaldamento globale non specificato, ma per me è una risposta insoddisfacente, perché non sappiamo cosa abbia causato quel riscaldamento. Il mio modello, invece, spiega gli esker senza invocare il riscaldamento climatico».
Continuando il viaggio, quando i fiumi subglaciali raggiungono il bordo della calotta glaciale incontrano l’atmosfera fredda e inizialmente formano colate trasudanti, come lava in lento movimento coperta da una pelle ghiacciata. Con il tempo, queste colate incrostate di ghiaccio si gonfiano di acqua fino a diventare veri e propri fiumi ghiacciati. Secondo il modello, il ghiaccio che ricopriva i fiumi avrebbe avuto uno spessore di decine o centinaia di metri mentre il fiume stesso sarebbe stato profondo pochi metri. Un fiume a scorrimento lento, appena pochi metri al secondo, ma con una quantità di acqua sufficiente a raggiungere lunghezze di migliaia di chilometri.
E qui, di nuovo la domanda: esistono alcune strutture visibili su Marte a supporto di questa idea? Secondo Buhler, nelle stesse regioni meridionali in cui si osservano gli esker, sì. Lì, dove si trova il bacino di Argyre, ci sono diverse valli lunghe e sinuose che scendono dalla regione polare meridionale, già identificate come antichi canali fluviali, pur senza una spiegazione circa la loro origine. E il bacino di Argyre stesso, rigonfio di acqua sotto il ghiaccio e con un volume pari a quello del Mar Mediterraneo, sarebbe stato un mare coperto di ghiaccio, e avrebbe continuato ad accumulare acqua per decine di migliaia di anni prima di tracimare e svuotarsi nelle pianure settentrionali.
La forza di questo modello, scrive l’autore nell’articolo, è che – basandosi solo sul ciclo osservato dell’anidride carbonica – sarebbe in grado di spiegare come grandi quantità d’acqua possano formarsi e muoversi in un clima freddo, senza dover ricorrere a una fase di riscaldamento climatico ancora del tutto ipotetico su Marte. Prima di cantar vittoria, comunque, è necessario trovare verifica più ampia anche nei dati e nelle osservazioni.
Per saperne di più:
- Leggi su Journal of Geophysical Research – Planets l’articolo “Massive Ice Sheet Basal Melting Triggered by Atmospheric Collapse on Mars, Leading to Formation of an Overtopped, Ice-Covered Argyre Basin Paleolake Fed by 1,000-km Rivers“, di Peter Buhler
A Stefano Borgani il premio “Tartufari” dei Lincei
media.inaf.it/wp-content/uploa…
Crediti: Università di Trieste
Stefano Borgani, docente di cosmologia all’Università di Trieste e associato all’Inaf con incarico di ricerca, ha ricevuto il prestigioso premio internazionale “Prof. Luigi Tartufari” dell’Accademia dei Lincei.
Il riconoscimento è conferito a studiosi di scienze fisiche, matematiche e naturali che si sono distinti con ricerche innovative e attività rilevanti. Questa la motivazione: “La sua ricerca in ambito cosmologico spazia dallo studio della struttura su grande scala dell’universo per vincolare modelli di materia oscura ed energia oscura, alla descrizione della formazione ed evoluzione di strutture cosmiche tramite l’utilizzo di simulazioni numeriche basate su metodologie di High Performance Computing. I suoi studi sull’applicazione cosmologica degli ammassi di galassie sono stati tra i primi in assoluto a evidenziare il ruolo di tali oggetti per la cosmologia di precisione e, allo stesso tempo, hanno evidenziato per la prima volta la necessità di comprendere a fondo le proprietà fisiche degli ammassi di galassie al fine di poter sfruttare appieno le loro potenzialità per le applicazioni cosmologiche”.
«Stiamo vivendo l’età dell’oro della cosmologia», dice Borgani. «La quantità e la qualità dei dati che stiamo avendo, in primis dal telescopio spaziale Euclid di Esa, promettono di rivoluzionare la nostra comprensione dell’universo. Domande sulla natura dell’energia e della materia oscura, e sulle leggi fisiche che descrivono la nascita e l’evoluzione dell’universo, potrebbero finalmente trovare una risposta. La comunità italiana, grazie alla partecipazione di Inaf e di vari istituti e università, sta svolgendo un ruolo di primo piano all’interno del Consorzio Euclid. A Trieste in particolare si è creata una stretta collaborazione tra ricercatori del nostro ateneo, di Inaf-Osservatorio astronomico di Trieste e Sissa, proprio sull’analisi dei dati Euclid e loro interpretazione attraverso simulazioni basate su calcolo ad alte prestazioni».
«Sono molto onorato di ricevere questo premio da un’istituzione così prestigiosa come l’Accademia dei Lincei. Mi piace pensare», conclude Borgani, «che questo sia un riconoscimento non solo per il sottoscritto, ma anche per i miei stretti collaboratori, coi quali ho condiviso tante avventure di ricerca, nonché per i giovani ricercatori che ho seguito nel corso degli anni e che hanno arricchito la mia vita scientifica».
Fonte: Università di Trieste
Un francobollo speciale per Lorenzo Respighi
Il francobollo commemorativo dedicato al bicentenario della nascita di Lorenzo Respighi. Crediti: Poste Italiane; bozzettista Claudia Giusto
Per celebrare il bicentenario della nascita di Lorenzo Respighi (Cortemaggiore 1824 – Roma 1889) il Ministero delle Imprese e del Made in Italy ha emesso un francobollo commemorativo realizzato dalla bozzettista Claudia Giusto. L’annullo filatelico speciale di oggi, organizzato presso la sede dell’Istituto Nazionale di Astrofisica (Inaf) e del Museo Astronomico e Copernicano dell’Osservatorio Astronomico di Roma, intende ricordare il contributo inestimabile di un pioniere dell’astrofisica e tra i più valenti astronomi italiani del XIX secolo.
Proposto dal “Comitato nazionale per le Celebrazioni del bicentenario della nascita di Lorenzo Respighi (1824-1889)”, istituito con decreto del Ministro della Cultura che ne ha finanziato le varie attività celebrative svolte e ancora in corso durante il 2024, il francobollo fa parte della serie tematica “Le Eccellenze del Sapere”, pensata per la Giornata mondiale della Scienza dell’ONU (che ogni anno viene celebrata il 10 novembre) e che include emissioni dedicate anche ad altre illustri figure della scienza italiana come Giovanni Caselli, Alessandro Cruto, Camillo Golgi e Nazareno Strampelli.
Grazie al suo impegno e alla sua ricerca pionieristica, Lorenzo Respighi è ricordato come uno degli astronomi più brillanti del suo tempo, capace di spingere i confini della conoscenza dell’epoca. La sua vita s’intreccia prima con la storia dell’Osservatorio Astronomico di Bologna e poi con quella dell’Osservatorio Astronomico del Campidoglio. Respighi fu innovatore nel campo dell’astrofisica con ricerche all’avanguardia sulla fisica solare, la spettroscopia stellare e le tecnologie come il prisma obiettivo per la raccolta di spettri.
L’astronomo fu co-fondatore della Società degli Spettroscopisti Italiani, primo ente al mondo dedicato alla promozione dell’astrofisica, che oggi è la Società Astronomica Italiana (Sait). Respighi fu inoltre membro dell’Accademia dei Lincei e della Società italiana delle scienze detta dei XL, nonché membro della Royal Astronomical Society, della Commissione europea per la misura del grado di meridiano e della Commissione italiana dei pesi e delle misure.
Il primo annullo del francobollo dedicato a Lorenzo Respighi. Nella foto, da sinistra: il direttore generale dell’Inaf Gaetano Telesio, il presidente dell’Inaf Roberto Ragazzoni, il presidente del “Comitato nazionale per le Celebrazioni del bicentenario della nascita di Lorenzo Respighi (1824-1889)” Angelo Antonelli, la Responsabile Coordinamento Commerciale Macroaree Centro Sud – Poste Italiane Roberta Sarrantonio, il dirigente dell’Ufficio di Gabinetto del Ministero delle Imprese e del Made in Italy Giorgio Maria Tosi Beleffi, il Presidente Commissione Cultura Sport Turismo Grandi Eventi XIV Roma Giuseppe Acquafredda, Aldo Altamore per il “Comitato nazionale per le Celebrazioni del bicentenario della nascita di Lorenzo Respighi 1824-1889)”. Crediti: Inaf
Ricordiamo che l’annullo filatelico è un timbro speciale che viene applicato sui francobolli nel primo giorno di emissione per commemorare eventi importanti come anniversari o altre manifestazioni. L’annullo filatelico è progettato appositamente per i collezionisti e ha un valore estetico oltre che storico.
La vignetta del francobollo riproduce un particolare di un ritratto di Respighi realizzato nel 1880, in evidenza su una stampa d’epoca realizzata da Cacchiatelli e Cleter nel 1865 e raffigurante l’interno dell’Osservatorio Astronomico del Campidoglio di Roma. Entrambe le opere sono custodite presso il Museo dell’INAF-Osservatorio Astronomico di Roma. Completano il francobollo la leggenda “LORENZO RESPIGHI ASTRONOMO 1824 – 1889”, la scritta “ITALIA” e l’indicazione tariffaria “B” che equivale al prezzo di 1,25 euro.
Il francobollo è stampato dall’Istituto Poligrafico e Zecca dello Stato S.p.A., in rotocalcografia, su carta bianca, patinata neutra, autoadesiva; formato stampa e carta: 30 x 40 mm; formato tracciatura: 37 x 46 mm; dentellatura: 11 effettuata con fustellatura. Con una grammatura di 90 g/mq, la tiratura del francobollo sarà di 250 mila esemplari.
Accordo da 23 milioni di euro per Cta+
media.inaf.it/wp-content/uploa…
Crediti: Inaf
Martedì 5 novembre, presso la Sede centrale dell’Istituto nazionale di astrofisica (Inaf), alla presenza del presidente Roberto Ragazzoni, del direttore generale Gaetano Telesio e con l’intervento del presidente del Consiglio di amministrazione di Cimolai S.p.A. Marco Sciarra e del rappresentante di Ohb Digital Connect Germania Fabrice Scheid, è stato dato formale avvio alle attività che porteranno alla realizzazione di due telescopi del tipo Large Size Telescope (Lst) nell’ambito del progetto Pnrr “Cherenkov Telescope Array Plus (Cta+)”, finanziato dal Mur nel contesto del “Fondo per la realizzazione di un sistema integrato di infrastrutture di ricerca e innovazione”. L’appalto ha un valore di 23 milioni di euro e il più alto mai assegnato dall’Inaf.
Per il volume del finanziamento ricevuto (oltre 71 milioni di euro), questo è il principale progetto dell’Inaf nell’ambito del Pnrr ed è finalizzato ad aumentare in maniera sostanziale il contributo italiano alla costruzione del grande osservatorio internazionale Cherenkov Telescope Array (Cta), che svelerà i segreti del cosmo alle altissime energie scrutando il cielo nei raggi gamma. Cta+ è coordinato dall’Inaf in collaborazione con l’Istituto nazionale di fisica nucleare (Infn), le università di Bologna, Bari, Siena e Palermo e con il Politecnico di Bari e alcuni partner internazionali.
I due telescopi sono strutture da 24 metri di diametro e dal peso di quasi cento tonnellate ognuno, capaci di muoversi così velocemente da poter raggiungere qualsiasi parte del cielo in pochi secondi. Questi saranno installati nel deserto cileno, dove avrà sede il sito sud dell’Osservatorio Cta.
I partner industriali dell’Inaf in questa avventura rappresentano un’eccellenza nel campo della realizzazione delle strutture meccaniche per l’astronomia. Cimolai S.p.A., leader nel settore delle grandi infrastrutture, sta già realizzando per conto dell’Eso l’Extremely Large Telescope (Elt), un telescopio ottico di ben 40 metri di diametro, mentre Ohb Digital Connect Germania ha partecipato alla realizzazione dei radiotelescopi dell’osservatorio Alma, sempre dell’Eso.
«L’avvio di questo ambizioso progetto rappresenta un passo fondamentale non solo per l’Inaf ma per tutta la comunità scientifica internazionale», dice il presidente dell’Inaf Roberto Ragazzoni. «L’accordo ci permette di rafforzare il contributo alla costruzione di Cta e di consolidare il nostro ruolo di protagonisti nella ricerca astrofisica di frontiera. Questo è il frutto della collaborazione tra istituti di ricerca italiani e partner industriali di eccellenza, che confermano l’Italia come leader nelle grandi infrastrutture scientifiche. Siamo orgogliosi di contribuire a una nuova era nella scoperta dell’universo».
Nessun pianeta attorno a Vega
Hubble ha acquisito questa immagine del disco circumstellare intorno alla stella Vega utilizzando lo Space Telescope Imaging Spectrograph (Stis). Crediti: Nasa, Esa, Csa, Stsci, S. Wolff (Università dell’Arizona), K. Su (Università dell’Arizona), A. Gáspár (Università dell’Arizona)
Nel film Contact tratto dal romanzo di Carl Sagan, la protagonista – la scienziata Ellie Arroway, interpretata dall’attrice Jodi Foster – imbocca un tunnel spaziotemporale per raggiungere Vega. Uscita dal tunnel, emerge all’interno di una tempesta di detriti che circondano la stella, dove non sono visibili pianeti. Ecco, a distanza di quasi 30 anni, oggi possiamo dire che i registi ci avevano visto giusto.
Situata nella costellazione della Lira, Vega è una delle stelle più luminose del cielo boreale. È leggendaria perché ha offerto la prima evidenza di materiale in orbita attorno a una stella. Ora, un team di astronomi della Università dell’Arizona, a Tucson, ha utilizzato i telescopi spaziali Hubble e James Webb per osservare, con un livello di dettaglio senza precedenti, il disco di detriti di quasi cento miliardi di chilometri di diametro che circonda Vega.
Webb ha visto il bagliore infrarosso di un disco di particelle grandi come sabbia che vortica intorno alla stella bianco-blu, 40 volte più luminosa del Sole. Hubble ha catturato un alone esterno a questo disco di particelle della consistenza di quelle che caratterizzano il fumo, che riflettono la luce della stella.
La grande sorpresa di queste osservazioni è che non ci sono prove evidenti di uno o più grandi pianeti, che attraversando il disco lascerebbero dei caratteristici solchi, un po’ come quelli dei trattori da neve.
La distribuzione della polvere nel disco di detriti di Vega è stratificata radialmente perché la pressione della luce stellare spinge verso l’esterno i grani più piccoli, più velocemente di quelli più grandi. «Il fatto di vedere la suddivisione delle particelle di polvere in base alle dimensioni può aiutarci a capire le dinamiche sottostanti ai dischi circumstellari», commenta Schuyler Wolff, primo autore dell’articolo che presenta i risultati di Hubble.
Il disco osservato presenta una sottile lacuna, a circa 60 unità astronomiche dalla stella (due volte la distanza di Nettuno dal Sole), ma per il resto è molto regolare, fino a perdersi nel bagliore della stella. Questo dimostra che non ci sono pianeti di massa almeno pari a quella di Nettuno che circolano su grandi orbite, come nel Sistema solare.
«Stiamo vedendo in dettaglio quanta varietà ci sia tra i dischi circumstellari e come questa varietà sia legata ai sistemi planetari sottostanti. Stiamo scoprendo molte cose sui sistemi planetari, anche quando non riusciamo a vedere quelli che potrebbero essere pianeti nascosti», aggiunge Kate Su dell’Università dell’Arizona, autrice principale dell’articolo che presenta i risultati di Webb. «Ci sono ancora molte incognite nel processo di formazione dei pianeti e credo che queste nuove osservazioni di Vega contribuiranno a vincolare i modelli di formazione dei pianeti».
Webb ha acquisito questa immagine del disco circumstellare intorno alla stella Vega utilizzando lo strumento Miri (Mid-Infrared Instrument). Crediti: Nasa, Esa, Csa, Stsci, S. Wolff (Università dell’Arizona), K. Su (Università dell’Arizona), A. Gáspár (Università dell’Arizona)
L’architettura del sistema di Vega risulta insolita, quindi, nettamente diversa da quella del Sistema solare, dove pianeti giganti come Giove e Saturno impediscono alla polvere di diffondersi come avviene in questo caso.
Per fare un confronto, c’è una stella vicina – Fomalhaut – che è circa alla stessa distanza, età e temperatura di Vega. Ma l’architettura circumstellare di Fomalhaut è molto diversa da quella di Vega, avendo tre fasce detritiche annidate. Si ipotizza che i pianeti siano i corpi in grado di “costringere” gravitazionalmente la polvere in anelli, anche se non è stato ancora identificato alcun pianeta. Data la somiglianza fisica tra Vega e Fomalhaut, perché Fomalhaut sembra essere stata in grado di formare pianeti e Vega no? Qual è la differenza? È stato l’ambiente circumstellare o la stella stessa a creare questa differenza?
Era il 2005 quando il telescopio spaziale Spitzer della Nasa mappò un anello di polvere intorno a Vega, confermato successivamente da osservazioni effettuate con telescopi submillimetrici, tra cui il Caltech Submillimeter Observatory su Mauna Kea, nelle Hawaii, e anche l’Atacama Large Millimeter/submillimeter Array (Alma) in Cile, e il telescopio spaziale Herschel dell’Esa (Agenzia Spaziale Europea). Tuttavia, nessuno di questi telescopi è riuscito a vedere molti dettagli. «Le osservazioni di Hubble e Webb insieme forniscono così tanti dettagli da dirci qualcosa di completamente nuovo sul sistema Vega, che nessuno conosceva prima», conclude Rieke.
Per saperne di più:
- Leggi su arXiv il pre-print dell’articolo “Deep Search for a scattered light dust halo around Vega with the Hubble Space Telescope” di Schuyler G. Wolff, Andras G., George H. Rieke, Jarron M. Leisenring, Kate Su, David Wilner, Luca Matra, Marie Ygouf e Nicholas P. Ballering
- Leggi su arXiv il pre-print dell’articolo “Imaging of the Vega Debris System using JWST/MIRI” di Kate Y. L. Su, Andras G., George H. Rieke, Renu Malhotra, Luca Matra, Schuyler Grace Wolff, Jarron M. Leisenring, Charles Beichman e Marie Ygouf
Cometa Tsuchinshan, l’Apod è prodotta in Cadore
“Comet Tsuchinshan-Atlas over the Dolomites”, la foto di Alessandra Masi scelta dalla Nasa come Apod, Astronomy Picture of Day. Crediti & copyright: Alessandra Masi
Da quando è apparsa in cielo è stata immortalata praticamente da ogni angolo della Terra. Astrofotografi, appassionati, curiosi: non c’è persona che non abbia alzato gli occhi al cielo per ammirarla. Nel nostro emisfero, la luminosità di Venere e la stella Arturo – la quarta più brillante del cielo notturno osservabile e una delle prime visibili al tramonto – ci hanno aiutato ad individuarla. L’avrete capito: stiamo parlando della regina indiscussa dei cieli di queste ultimi mesi: la cometa non periodica C/2023 A3 Tsuchinshan-Atlas, ribattezzata dai media come “la cometa del secolo”. Osservata per la prima volta nel gennaio 2023 dallo Zǐjīn Shān Astronomical Observatory, la cometa ci è venuta a trovare dopo aver lasciato la remota nube di Oort, che circonda il Sistema solare, raggiungendo il perielio, cioè la minima distanza dalla nostra stella, il 27 settembre del 2024, divenendo visibile in tutto il suo splendore anche a occhio nudo. Da allora l’abbiamo vista ritratta mentre solcava il cielo sopra luoghi e paesaggi suggestivi in migliaia di scatti mozzafiato. Scatti come quello che vedete nell’immagine d’apertura, scelto oggi, mercoledì 6 novembre, dalla Nasa come Apod, Astronomy Picture of Day.
L’autrice della fotografia è Alessandra Masi, astrofotografa di professione, socia dell’Associazione astronomica Cortina e fotografa sostenitrice della Fondazione Dolomiti Unesco, che nel suo palmarès conta già diversi riconoscimenti: un’altra sua foto è stata la Apod del 19 gennaio 2021 – la stessa poi pubblicata l’11 febbraio come Epod (Earth Science Picture of the Day) – e il suo scatto scatto “Luna eclissata tramonta vicino alla Rocchetta di Prendera” si è aggiudicato il primo posto nella categoria eclissi lunare totale al concorso fotografico Iau Oae Astrophotography Contest.
L’Apod di oggi, scattata a metà ottobre, mostra il cielo illuminato dalla lunga coda di polveri e ioni della cometa che puntano verso l’alto, lontano dal Sole. Ma mostra anche una caratteristica rara e interessante della cometa: la presenza di un’anticoda che punta verso il basso, quasi verso il Sole appena tramontato. Si tratta di una scia di particelle di polveri più grandi, prodotte dall’elevata velocità di espulsione dei materiali dal nucleo, visibile solo quando la Terra passa attraverso il piano orbitale della cometa.
«In questi ultimi anni ho avuto la fortuna di riprendere diverse comete ed è sempre entusiasmante seguire la loro evoluzione», dice Masi a Media Inaf. «Il loro aspetto muta ogni giorno e ogni ora in modo imprevedibile suscitando in me stupore e curiosità, spingendomi a pianificare luoghi e postazioni adatte per poterle osservare e riprendere al meglio».
A rendere lo scatto dell’astrofotografa ancora più suggestivo c’è poi il paesaggio: la vista del borgo di Tai di Cadore, in primo piano, con le imponenti montagne dolomitiche, patrimonio dell’Unesco, sullo sfondo. A causa del maltempo, ottenere la foto non è stato semplice, ma alla fine la pazienza ha ripagato l’autrice dello scatto.
«Anche nel caso di questa cometa avevo scelto delle postazioni che mi consentissero di ritrarla nell’ambiente vicino a casa, ma il maltempo sembrava non concedere tregua», ricorda Masi. «La sera del 15 ottobre delle nuvole dense oscuravano il cielo generando in me la preoccupazione di un’altra deludente uscita. Ho cominciato a scattare sperando di individuarla in mezzo alle nuvole e finalmente eccola comparire. Pian piano il cielo si è aperto, permettendomi di vederla ad occhio nudo e di poterla aspettare nella posizione che avevo immaginato, in un suggestivo scenario sopra il paese di Tai di Cadore, una frazione di Pieve di Cadore, per poi tramontare velocemente dietro Monte Pelmo, che per me rappresenta una delle meraviglie delle Dolomiti».
L’astrofotografa Alessandra Masi, autrice dello scatto “Comet Tsuchinshan-Atlas over the Dolomites”, scelto dalla Nasa come foto astronomica del giorno
La foto – scattata con una Canon R6, obiettivo Canon 24/105 a 55mm, 3200 Iso 4 sec. F5.6 – è frutto di esposizioni multiple per recuperare le luci del paese. Il risultato finale rivela tutta la passione di Alessandra Masi per l’astrofotografia paesaggistica, in particolare per quella del paese in cui vive.
«Sono sorpresa d’essere riuscita, nonostante le luci del paese e la forte luminosità della Luna, che hanno rappresentato la difficoltà maggiore, a catturare la lunghissima coda con l’anticoda della cometa, che hanno contribuito a creare un’immagine interessante, tanto da suscitare l’interesse per questo prestigioso riconoscimento», continua Masi. «Un riconoscimento che, come il precedente, ritrae il paese in cui vivo e al quale sono profondamente legata, e del quale sono lieta di avere l’opportunità di condividere la bellezza».
«Esplorare il cielo notturno è una passione che cresce in me a ogni uscita», conclude l’astrofotografa. «L’emozione di catturare gli oggetti celesti e incorniciarli nell’ambiente in cui vivo, nel suggestivo scenario delle Dolomiti, è un’esperienza indimenticabile che per me ha una doppia valenza: ricordarmi i bellissimi momenti emozionali al cospetto di tanta bellezza e rendere l’idea della prospettiva e delle dimensioni proporzionali degli oggetti osservati. L’amore per il territorio dolomitico, riconosciuto dall’Unesco come patrimonio mondiale dell’umanità, mi ha ispirata nella ricerca della fotografia paesaggistica e ad avvicinarmi, come fotografa sostenitrice, alla fondazione Unesco. Inoltre, la frequentazione dell’Associazione astronomica Cortina Stelle ha rappresentato un passo importante per appassionarmi alla conoscenza e alla ripresa del cielo stellato, permettendomi di ottenere dei riconoscimenti anche a livello internazionale».
Estrellas Compartidas ☮️ likes this.
All’origine della texture dei mondi senz’aria
media.inaf.it/2024/11/06/featu…
Canalicoli curvilinei, depositi dalla forma lobata. E ancora: scarpate e terreni butterati. Sono solo alcune delle caratteristiche geomorfologiche osservate sulle superfici di mondi senza atmosfera come l’asteroide 4 Vesta e il pianeta nano Cerere. Uno dei misteri che gli astronomi vogliono chiarire è cosa possa aver plasmato questa morfologia di superficie. Un team di ricercatori guidati dal Southwest Research Institute, negli Usa, pare ora aver trovato la risposta. Secondo quanto riportato nell’articolo che descrive la ricerca, pubblicato il mese scorso sulla rivista The Planetary Science Journal, a scolpire queste enigmatiche caratteristiche di superficie potrebbero essere state delle salamoie transitorie, ovvero flussi d’acqua salmastra prodotta per liquefazione di ghiaccio d’acqua sotto-superficiale in seguito all’impatto di un corpo celeste.
Immagine del cratere Cornelia sulla superficie dell’asteroide 4 Vesta che mostra depositi lobati (a destra) e canaloni curvilinei (evidenziati dalle frecce bianche, a sinistra). Secondo Michael J. Poston e colleghi, a produrre queste caratteristiche superficiali su Vesta, come in altri mondi senza atmosfera, potrebbe essere stato lo scorrere di salamoie temporanee prodotte dallo scioglimento di ghiaccio sotto-superficiale provocato da impatti meteorici. Crediti: Courtesy of Jet Propulsion Laboratory
L’idea alla base di questo lavoro di ricerca, già proposta dai ricercatori in un lavoro precedente, è che le caratteristiche superficiali dei corpi senza atmosfera siano la diretta conseguenza di impatti meteorici in grado di portare in superficie e sciogliere depositi contenenti ghiaccio d’acqua eventualmente presenti nel sottosuolo. Il flusso temporaneo del liquido così prodotto creerebbe i canali e i depositi multiformi osservati all’interno dei crateri di nuova formazione.
«Volevamo indagare l’ipotesi, precedentemente proposta, secondo cui il ghiaccio sotto la superficie di un mondo senza atmosfera potrebbe essere portato in superficie e sciolto da un impatto, e il liquido risultante scorrere lungo le pareti del cratere per formare caratteristiche superficiali distinte», spiega Jennifer EC Scully, ricercatrice al Jet Propulsion Laboratory (Jpl) e co-autrice della pubblicazione.
I ricercatori hanno tentato di spiegare la presenza delle misteriose caratteristiche di flusso presenti sulle superfici di corpi celesti simulando degli impatti, indagando poi per quanto tempo il liquido prodotto dallo scioglimento del ghiaccio avrebbe potuto potenzialmente scorrere in superficie, prima di ricongelarsi sotto le pressioni dell’atmosfera transitoria creata dalla collisione. Per fare ciò, gli scienziati hanno condotto esperimenti di laboratorio nei quali hanno simulato le pressioni a cui è sottoposto un ipotetico strato di ghiaccio su 4 Vesta, uno degli asteroidi più grandi del Sistema solare, dopo l’impatto di un meteoroide.
L’apparecchiatura sperimentale utilizzata per la ricerca si chiama Dustie (Dirty Under-vacuum Simulation Testbed for Icy Environments), si trova presso il Jpl della Nasa ed è un camera per il vuoto grande quanto una botte di vino, costruita proprio per simulare specifiche condizioni di pressione atmosferica.
I parametri sperimentali impostati dai ricercatori, che dovevano simulare il flusso di un liquido prodotto da un impatto su un corpo senza aria, includevano pressione atmosferica e temperatura attorno al cratere d’impatto. I campioni di liquido testati erano acqua pura e una salamoia di cloruro di sodio (NaCl), ciascuno miscelato con perle di vetro o con un simulante della regolite di varie dimensioni, pompati nell’apparecchiatura da una anticamera collegata alla camera principale del simulatore.
I campioni sono stati caricati nell’anticamera più piccola con la valvola della camera principale chiusa, isolando così la pressione interna dell’anticamera da quella della camera principale. Successivamente, dall’anticamera è stata pompata fuori l’aria così da provocarne il degassamento, per simulare le condizioni del liquido appena fuso dall’impatto del meteoroide. Infine, l’apertura della valvola della camera a vuoto principale ha simulato la rapida diminuzione di pressione sul liquido che si è formato dai depositi ghiacciati del sottosuolo.
«Attraverso i nostri impatti simulati», spiega Michael J. Poston, ricercatore al Southwest Research Institute e primo autore dello studio, «abbiamo scoperto che l’acqua pura si è congelata nel vuoto troppo rapidamente per apportare cambiamenti significativi, ma le miscele di acqua e sale, le cosiddette salamoie, sono rimaste liquide e hanno continuato a scorrere per almeno un’ora».
Alla luce di questi risultati, i ricercatori ritengono che una salamoia di cloruro di sodio sia fondamentale per la longevità del flusso di liquidi che creano le caratteristiche superficiali di corpi come Vesta e Cerere. Nel nostro esperimento, spiegano i ricercatori, nelle condizioni atmosferiche transitorie indotte dall’impatto, le salamoie di pochi centimetri di spessore sono rimaste liquide per un tempo sufficiente a produrre diverse caratteristiche morfologiche, mentre l’aggiunta di particolato ai campioni ha accelerato i tempi di solidificazione.
I risultati di questo studio potrebbero aiutare a spiegare le origini di alcune caratteristiche osservate su corpi distanti, come le pianure lisce di Europa e la caratteristica struttura a forma di ragno al centro del suo cratere Manannán. La ricerca, inoltre, potrebbe far luce sui vari canali e depositi di detriti a forma di ventaglio su Marte. Pur circoscritti alle condizioni post-impatto su Vesta e Cerere, i risultati contribuiscono alla crescente mole di lavori scientifici che sfruttano esperimenti di laboratorio per comprendere il tempo di vita dei liquidi su una varietà di mondi senza aria. In linea con gli studi su altri mondi senza atmosfera, emerge che le salamoie prodotte dallo scioglimento di ghiacci a seguito di impatti sembrano rimanere liquide per la durata necessaria a scolpire le superfici dei corpi senza aria, formando caratteristiche geomorfiche distintive, come appunto quelle viste su Vesta e Cerere.
«Se questi risultati si rivelassero coerenti in tutti i corpi aridi e privi di aria o con atmosfera rarefatta», conclude Poston, «ciò vorrebbe dire che su questi mondi in un recente passato c’era acqua. E forse c’è ancora, il che significa che potrebbe essere espulsa dagli impatti».
Per saperne di più:
- Leggi su The Planetary Science Journal l’articolo “Experimental Examination of Brine and Water Lifetimes after Impact on Airless Worlds” di Michael J. Poston, Samantha R. Baker, Jennifer E. C. Scully, Elizabeth M. Carey, Lauren E. Mc Keown, Julie C. Castillo-Rogez e Carol A. Raymond
Tempeste spaziali estreme negli anelli degli alberi
Ogni anno crescono aggiungendo uno strato di legno nel proprio tronco. Gli alberi, in questi “cerchi di vita”, racchiudono informazioni preziose, comprese quelle sulle tempeste solari e altre attività spaziali estreme accadute nel lontano passato. Secondo Amy Hessl, docente di geografia alla West Virginia University (Wvu), analizzare questi anelli di accrescimento è come consultare una sorta di archivio naturale costruito nell’arco di centinaia di anni.
Lo studio degli anelli degli alberi può aiutare a prepararsi a eventi meteorologici spaziali che potrebbero minacciare satelliti e astronauti. Amy Hessl, docente di geografia alla West Virginia University, è a capo di un progetto per il loro studio finanziato dalla National Science Foundation. Crediti: Wvu
Le particelle energetiche solari, spiega Hessl, attraverso una cascata di reazioni danno origine ad atomi di radiocarbonio nell’atmosfera. Gli alberi assorbono il carbonio presente nell’atmosfera e il legno trattiene così le tracce di radiocarbonio integrandolo nei propri anelli annuali. Gli anelli possono così offrire una registrazione dell’attività solare e cosmica.
Alcuni fenomeni estremi in particolare, noti come “eventi di Miyake”, si caratterizzano per un aumento rapido e significativo di radiocarbonio in atmosfera, e sono stati osservati per la prima volta negli anelli degli alberi vissuti nel 774 e nel 993 d.C. In seguito sono stati identificati altri sette eventi nel corso degli ultimi 14mila anni. «Se un evento simile si verificasse oggi e voi foste su un volo ad alta latitudine diretto in Norvegia, probabilmente ricevereste la dose di radiazioni di tutta una vita», dice Hessl. «Alcuni di questi eventi sono stati davvero estremi, e sarebbero devastanti per i nostri attuali sistemi di telecomunicazioni. Certo, è un tipo di evento molto raro, ma non si può escludere. Dipendiamo dai satelliti e, se si verificasse oggi, probabilmente metterebbe fuori uso la maggior parte delle nostre reti di telecomunicazioni, richiedendo fino 15 anni per riprendersi».
Secondo i ricercatori, gli anelli degli alberi possono aiutarci a quantificare questi rischi e, in definitiva, a stimare quando e come questi eventi potranno verificarsi nuovamente: studiare come queste “registrazioni naturali” avvengano potrebbe offrire un’importante testimonianza storica dell’attività solare e cosmica, fondamentale per la previsione e la gestione dei futuri rischi spaziali.
Ora un progetto finanziato dalla National Science Foundation (Nsf) statunitense, guidato dalla stessa Hessl, si propone di esaminare gli alberi per capire quanto radiocarbonio hanno assimilato. Ogni albero può infatti reagire in modo diverso e, in realtà, ci sono molte variabili che possono influenzare quanto fedelmente un albero registri i livelli atmosferici nel tempo. «Fino a poco tempo fa, gli scienziati davano per scontato che gli alberi assorbissero il radiocarbonio in modo uniforme. Per molti anni, abbiamo considerato gli alberi come se fossero strumenti scientifici, ma non lo sono. Sono molto variabili e differenti nel modo in cui assorbono il radiocarbonio», spiega Hessl. «Stiamo dunque studiando perché specie diverse di alberi o alberi in luoghi diversi non assorbono il radiocarbonio allo stesso modo».
Bristlecone Pine Cedar Breaks National Monument nello Utah. Il team di ricerca ha scoperto che i pini settembrini (bristlecone pines) possono conservare in modo unico le fluttuazioni del radiocarbonio, diventando così le specie più affidabili per la ricostruzione dell’attività atmosferica. Crediti: Wikipedia/G. Longenecker
Grazie al finanziamento della Nsf, e collaborando con esperti della Northern Arizona University e della Montana State University, il team guidato da Hessl esaminerà tre specie arboree provenienti da tre località degli Stati Uniti: i longevi pini settembrini (bristlecone pines) dello Utah, i longevi cipressi calvi della Carolina del Nord e le querce fossilizzate del Missouri, ciascuno dei quali può fornire un punto di vista unico su questi eventi atmosferici.
I ricercatori sperano di comprendere le modalità con cui ogni specie arborea registra il radiocarbonio e, di conseguenza, quali alberi possono essere considerati testimoni affidabili degli eventi cosmici passati.
Ogni esemplare verrà analizzato attraverso il metodo della datazione incrociata, che consente di associare ogni anello a un anno specifico, garantendo un elevato grado di precisione nella correlazione con gli eventi di Miyake. Dopo aver prelevato un campione di carota grande come una matita – o una sezione trasversale, se l’albero è morto – i ricercatori dateranno ogni anello utilizzando la “datazione incrociata”, una tecnica di datazione indipendente che consente di confermare l’anno di formazione di ogni anello. Qualsiasi albero vivo durante un evento di Miyake, registrerebbe tale accadimento nella chimica dei propri anelli. Con questo metodo, sarà quindi possibile analizzare come e se, nelle piante di regioni diverse, sono stati registrati eventi estremi o altre anomalie solari e se i vari modelli coincidono. In sostanza, si proveranno a indagare le ambiguità e le incertezze della relazione fra anelli ed eventi di space weather.
I dati raccolti finora mostrano, in effetti, che alberi diversi assorbono il radiocarbonio atmosferico in modo non uniforme e che specie longeve, come ad esempio i pini settembrini, mostrano segni chiari delle fluttuazioni di radiocarbonio, diventando così le specie più affidabili per la ricostruzione dell’attività atmosferica. Tuttavia, alcune specie potrebbero immagazzinare il carbonio incorporandolo nei propri anelli solo successivamente, rendendo i dati potenzialmente meno accurati.
Il meteo spaziale può interferire con l’elettronica dei satelliti, le comunicazioni radio e i segnali GPS, le orbite dei veicoli spaziali e persino, in casi estremi, con le reti elettriche sulla Terra. Crediti: Nasa
«Stiamo cercando di definire quanto siano stati estremi questi eventi, quando si sono verificati esattamente e per quanto tempo il radiocarbonio è rimasto nell’atmosfera. Dobbiamo essere sicuri di utilizzare registratori attendibili», sottolinea Hessl. «Ciò che vorremmo capire adesso è: quanto sono attendibili questi alberi nel registrare i livelli di radiocarbonio nell’atmosfera?».
Prima analisi cinematica in 3D d’ammassi globulari
Galleria di immagini dei 16 ammassi globulari analizzati in ordine di differenza delle proprietà cinematiche osservate tra le popolazioni stellari multiple. Crediti: Esa/Hubble; Eso; Sdss
Uno studio pubblicato oggi sulla rivista Astronomy & Astrophysics apre nuove prospettive sulla nostra comprensione della formazione ed evoluzione dinamica delle popolazioni stellari multiple negli ammassi globulari, agglomerati di stelle di forma sferica, molto compatti, formati tipicamente da 1-2 milioni di stelle. Un gruppo di ricercatori, dell’Istituto nazionale di astrofisica (Inaf), dell’Università di Bologna e dell’Università dell’Indiana negli Usa, ha infatti condotto la prima analisi cinematica 3D (tridimensionale) delle popolazioni stellari multiple per un campione rappresentativo di 16 ammassi globulari nella nostra galassia, fornendo una descrizione osservativa pionieristica del modo in cui le stelle si muovono al loro interno e della loro evoluzione dall’epoca di formazione fino allo stato presente.
«La comprensione dei processi fisici alla base della formazione ed evoluzione iniziale degli ammassi globulari», spiega Emanuele Dalessandro, ricercatore all’Inaf di Bologna, primo autore dell’articolo e coordinatore del gruppo di lavoro, «è una delle più affascinanti e discusse domande astrofisiche degli ultimi 20-25 anni. I risultati del nostro studio forniscono la prima evidenza concreta che gli ammassi globulari si siano generati attraverso molteplici eventi di formazione stellare e pongono vincoli fondamentali sul percorso dinamico seguito dagli ammassi nel corso della loro evoluzione. Questi risultati sono stati possibili grazie a un approccio multi-diagnostico e alla combinazione di osservazioni e simulazioni dinamiche allo stato dell’arte». Lo studio evidenzia che le differenze cinematiche tra le popolazioni multiple sono estremamente utili per comprendere i meccanismi di formazione ed evoluzione di queste antiche strutture.
Con età che possono arrivare a 12-13 miliardi di anni (quindi fino all’alba del cosmo), gli ammassi globulari sono tra i primi sistemi a essersi formati nell’universo e rappresentano una popolazione tipica di tutte le galassie. Sono sistemi compatti – con masse di alcune centinaia di migliaia di masse solari e dimensioni di pochi parsec – e osservabili anche in galassie lontane.
«La loro rilevanza astrofisica è enorme», dice Dalessandro, «perché non solo ci aiutano a verificare i modelli cosmologici della formazione dell’Universo grazie alla loro età, ma ci offrono anche laboratori naturali per studiare la formazione, l’evoluzione e l’arricchimento chimico delle galassie».
Il satellite Gaia dell’Esa che mappa le stelle della Via Lattea. Crediti: Esa/Atg medialab; background: Eso/S. Brunier
Nonostante gli ammassi stellari siano stati studiati per oltre un secolo, risultati osservativi recenti dimostrano che la loro conoscenza è ancora incompleta.
«Risultati ottenuti negli ultimi due decenni hanno inaspettatamente dimostrato che gli ammassi globulari sono composti da più di una popolazione di stelle: una primordiale, con proprietà chimiche simili a quelle di altre stelle nella galassia, e una con abbondanze chimiche anomale di elementi leggeri quali elio, ossigeno, sodio, azoto», ricorda Mario Cadelano, ricercatore al Dipartimento di fisica e astronomia dell’Università di Bologna e associato Inaf, tra gli autori dello studio. «Nonostante il gran numero di osservazioni e modelli teorici finalizzati a caratterizzare le proprietà di queste popolazioni, i meccanismi che regolano la loro formazione non sono tutt’ora compresi».
Lo studio si basa sulla misura delle velocità nelle tre dimensioni, ovvero sulla combinazione di moti propri e velocità radiali, ottenuti dal telescopio dell’Esa Gaia e da dati ottenuti tra gli altri con il telescopio Vlt dell’Eso principalmente nell’ambito della survey Mikis (Multi Instrument Kinematic Survey), una survey spettroscopica specificamente indirizzata all’esplorazione della cinematica interna degli ammassi globulari. L’utilizzo di questi telescopi, dallo spazio e da terra, ha garantito una visione 3D senza precedenti della distribuzione di velocità delle stelle negli ammassi globulari selezionati.
Dalle analisi emerge che le stelle con differenti abbondanze di elementi leggeri sono caratterizzate da proprietà cinematiche differenti, come la velocità di rotazione e la distribuzione delle orbite.
Il Very Large Telescope (Vlt) dell’Eso durante alcune osservazioni. Crediti: Eso/S. Brunier
«In questo lavoro abbiamo analizzato nel dettaglio come si muovono all’interno di ogni ammasso migliaia di stelle», aggiunge Alessandro Della Croce, studente di dottorato presso l’Inaf di Bologna. «È risultato subito chiaro che stelle appartenenti a diverse popolazioni sono caratterizzate da proprietà cinematiche differenti: le stelle con composizione chimica anomala tendenzialmente ruotano all’interno dell’ammasso più velocemente delle altre e si diffondono progressivamente dalle regioni centrali verso quelle più esterne».
L’intensità di queste differenze cinematiche dipende all’età dinamica degli ammassi globulari. «Questi risultati sono compatibili con l’evoluzione dinamica a “lungo termine” di sistemi stellari in cui le stelle con abbondanze chimiche anomale si formano più centralmente concentrate e più rapidamente rotanti di quelle standard. Ciò di conseguenza suggerisce che gli ammassi globulari si siano generati attraverso eventi multipli di formazione stellare e fornisce un tassello importante nella definizione dei processi fisici e dei tempi-scala alla base della formazione ed evoluzione di ammassi stellari massicci», conclude Dalessandro.
Questa nuova visione tridimensionale del moto delle stelle all’interno degli ammassi globulari fornisce un quadro inedito e affascinante sulla formazione ed evoluzione dinamica di questi sistemi, contribuendo a chiarire alcuni dei misteri più complessi riguardanti l’origine di queste antichissime strutture.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “A 3D view of multiple populations kinematics in Galactic globular clusters”, di E. Dalessandro, M. Cadelano, A. Della Croce, F. I. Aros, E. B. White, E. Vesperini, C. Fanelli, F. R. Ferraro, B. Lanzoni, S. Leanza e L. Origlia
Dieci milioni di euro per studiare i misteri del cosmo
Sono stati annunciati oggi, martedì 5 novembre, alle ore 12 dal Consiglio europeo della ricerca (Erc) i vincitori degli Erc Synergy Grant 2024 e il progetto Recap (Reionization Complementary Approach Project) si è aggiudicato un finanziamento da dieci milioni di euro. Guidato da un team internazionale composto da quattro scienziate, di cui tre italiane, Recap promette di studiare in dettaglio l’epoca della reionizzazione, uno dei periodi fondamentali per comprendere l’evoluzione dell’universo. Laura Pentericci e Valentina D’Odorico dell’Istituto nazionale di astrofisica (Inaf) coordinano due dei team coinvolti nel progetto.
Le ricercatrici che compongono il team Recap. Da sinistra a destra: Kirsten Kraiberg Knudsen, Laura Pentericci, Benedetta Ciardi e Valentina D’Odorico
L’epoca della reionizzazione rappresenta l’ultima importante fase di transizione attraversata dall’universo, iniziata circa 100-200 milioni di anni dopo il Big bang e protrattasi per molte centinaia di milioni di anni. Il suo nome è dovuto al fatto che in quel periodo il gas presente tra le galassie è stato ionizzato dalla radiazione delle prime sorgenti cosmiche. Recap si propone di sviluppare simulazioni tridimensionali e osservazioni multi-frequenza sfruttando dati raccolti dal James Webb Space Telescope, dal Very Large Telescope e dall’Osservatorio Alma, e l’obiettivo è comprendere questa complessa fase dell’universo, la natura delle prime sorgenti e l’impatto sulla successiva evoluzione del cosmo.
Recap è un progetto sviluppato da un team interdisciplinare composto da quattro scienziate che lavorano tra l’Italia, la Svezia e la Germania. Oltre a Laura Pentericci e Valentina D’Odorico dell’Inaf il team comprende anche Benedetta Ciardi dell’Istituto Max Planck for Astrophysics a Garching in Germania e Kirsten Kraiberg Knudsen della Chalmers University of Technology di Göteborg. Le diverse esperienze e specializzazioni delle quattro ricercatrici, che vanno dall’osservazione di oggetti celesti lontanissimi alla realizzazione di modelli numerici, permetteranno al team di affrontare lo studio della reionizzazione con una nuova prospettiva ad ampio spettro. Recap è uno dei 57 progetti finanziati nel 2024 dal Consiglio europeo della ricerca nell’ambito dei Synergy Grant, tra quasi 550 proposte pervenute.
Rappresentazione artistica della porzione di timeline dell’universo attorno all’epoca della reionizzazione, il processo che ha ionizzato la maggior parte della materia presente nel cosmo. Crediti: Esa/C. Carreau
«Il nostro progetto nasce dalla voglia di combinare le nostre capacità diverse e complementari, per affrontare insieme uno dei più grandi misteri dell’astrofisica moderna, cioè l’epoca della reionizzazione», spiega Pentericci. «Sarà sicuramente entusiasmante e stimolante lavorare con le altre colleghe: unendo le forze saremo in grado di svelare quest’epoca remota e affascinante della storia del nostro universo, quando si sono formate le prime galassie e finalmente è terminata la cosiddetta “età oscura”».
Il finanziamento stanziato copre un periodo di sei anni e prevede l’assunzione di ricercatori e studenti di dottorato che forniranno il loro contributo ai lavori di simulazione e osservazione. L’intenzione è quella di creare un’eredità scientifica duratura, che guiderà le campagne osservative delle infrastrutture di nuova generazione, come l’Extremely Large Telescope e l’Osservatorio Ska. I risultati ottenuti contribuiranno ad arricchire le conoscenze della comunità scientifica, che potrà programmare in maniera ottimale i futuri progetti di osservazione, dotandosi di nuovi strumenti all’avanguardia.
«Sono molto soddisfatta e orgogliosa di questo risultato», dice D’Odorico. «Abbiamo lavorato molto per raggiungerlo e credo che la sinergia fra di noi, sia scientifica che umana, abbia giocato un ruolo fondamentale già nella preparazione della proposta e dell’interview. Questo progetto ci permetterà di allargare i nostri gruppi di ricerca proprio per dedicare il tempo necessario a combinare i nostri risultati e riuscire a rispondere ad alcune delle domande fondamentali legate al processo di reionizzazione cosmica».
Codex in viaggio verso la Stazione spaziale
È partito alle 3.29 di questa mattina (ora italiana) dal Kennedy space center della Nasa, in Florida (le 21.29 di ieri sera ora locale), a bordo di una navicella Dragon di SpaceX, lo strumento Codex, un coronografo solare che verrà installato sulla Stazione spaziale internazionale per raccogliere importanti informazioni sul vento solare e sulla sua formazione. Si tratta della 31esima missione di rifornimento commerciale operata da SpaceX verso il laboratorio orbitante. La navicella, che porta anche il rifornimento di cibo e attrezzature per gli astronauti e altri esperimenti, dovrebbe attraccare al modulo Harmony della Iss alle 14.45 di oggi pomeriggio, martedì 5 novembre.
Liftoff of Dragon’s 31st Commercial Resupply Services mission to the @Space_Station! pic.twitter.com/MPRoutKS3t— SpaceX (@SpaceX) November 5, 2024
Codex, lo dicevamo, è un coronografo, ovvero uno strumento che blocca la luce intensa proveniente dalla superficie del Sole per riuscire a vedere i dettagli nella sua regione più esterna, la corona. Lo strumento è una collaborazione tra il Goddard Space Flight Center della Nasa e il Korea Astronomy and Space Science Institute (Kasi). L’Inaf ha contribuito alla calibrazione dello strumento nel suo laboratorio spaziale OpSys (Optical Payload System), a Torino, e collaborerà anche all’analisi delle immagini coronali.
Ad assistere al lancio c’era dunque anche Silvano Fineschi dell’Inaf di Torino, che ha inviato nella notte a Media Inaf le sue impressioni a caldo. «Il lancio notturno è stato spettacolare: il bagliore degli scarichi dei motori del razzo si è riflesso sulle acque della laguna e ha illuminato il cielo a giorno. Qualche secondo dopo, il rombo dei motori ha scosso il terreno fino al sito d’osservazione del lancio. In quel momento, è stata grande l’emozione di vedere anni di lavoro messi in gioco in quei pochi secondi. La notte è serena e si può seguire l’ascesa del Falcon fino al distacco del primo stadio e all’accensione del secondo stadio che continua veloce nella sua entrata in orbita. Poi, improvvisamente, un altro bagliore illumina il cielo: è il primo stadio de Falcon che finito il suo lavoro sta ritornando a terra, controllato dagli stessi motori che un momento prima lo hanno fatto staccare da terra. Atterra a pochi chilometri dalla rampa che aveva lasciato solo alcuni minuti prima. A differenza dei vettori a razzo tradizionali “usa e getta”, una volta rifornito, sarà pronto per un’altra missione. Domani un’altra emozione: alle ore 10 ora della Florida la capsula Dragon attraccherà alla Stazione spaziale».
Lo strumento Codex durante la calibrazione nel Laboratorio Spaziale “Optical Payload System” (OPSys) a Torino. Crediti: INAF/Maria Laura Fineschi
Codex è diverso dai precedenti coronografi della Nasa, perché è dotato di filtri speciali in grado di fornire dettagli sulla temperatura e sulla velocità del vento solare. In genere, un coronografo solare cattura immagini della densità del plasma che si allontana dal Sole. Codex potrà quindi fare un passo in più nella determinazione delle condizioni fisiche del vento solare, poiché combinerà le stime di temperatura e velocità del vento solare con la tradizionale misura della densità. In questo modo sarà possibile vedere l’evoluzione delle strutture nel vento solare, da quando si formano dalla corona del Sole fino a quando fluiscono verso l’esterno e diventano il vento solare. Lo scopo? Ad esempio, capire che cosa riscalda il vento solare fino a una temperatura di circa un milione di gradi – circa 175 volte più caldo della superficie della nostra stella – e lo fa uscire dal Sole a più di 1.6 milioni di chilometri all’ora.
«L’Inaf di Torino ha una lunga esperienza nello studio della corona solare dallo spazio», continua Fineschi. «Attualmente è anche coinvolto nella missione dell’Esa Solar Orbiter, con il coronografo italiano Metis. L’osservazione simultanea della corona solare con Codex e con Metis fornirà informazioni uniche sui parametri fisici dell’atmosfera solare, quali velocità del vento solare e temperature del plasma coronale. Questo permetterà una maggiore comprensione dell’atmosfera del Sole e delle sue tempeste, dalle quali anche la Terra è investita, soprattutto in questo periodo in cui il loro ciclo undecennale di attività è al massimo».
Ricordiamo infine che Codex non è l’unico esperimento a bordo della navicella Dragon nel quale siano coinvolti ricercatori dell’Istituto nazionale di astrofisica: ci sono anche alcuni campioni di materiale del progetto Ema (Euro Material Ageing), al quale partecipano ricercatori dell’Inaf di Bologna e dell’Inaf di Catania, destinato a essere condotto nella piattaforma Bartolomeo della Stazione spaziale internazionale. In particolare, sono stati inclusi nel piano dei test – finalizzati a verificare gli effetti dell’esposizione alle condizioni estreme dello spazio sui cristalli usati per le ottiche e per i rivelatori dei futuri telescopi per raggi gamma – tre tipi di materiali, basati su germanio, silicio e cadmio-zinco-tellurio.
Guarda su MediaInaf Tv il servizio video del 2023 su Codex:
Buchi neri come fonte dell’energia oscura
Il buco nero Cygnus X-1. Crediti: Nasa/ Cxc/ M.Weiss
Secondo la teoria dell’inflazione cosmologica, quasi 14 miliardi di anni fa – nelle primissime fasi del Big Bang – un’energia misteriosa ha guidato l’espansione esponenziale dell’universo. Quell’antica energia condivideva le caratteristiche principali dell’attuale energia oscura, che rappresenta il più grande mistero del nostro tempo. Infatti, sappiamo che costituisce la maggior parte dell’universo – circa il 70 per cento – ma non sappiamo cosa sia.
«Se ci domandiamo in quale punto dell’universo riscontriamo una gravità così forte come all’inizio dell’universo, la risposta è al centro dei buchi neri», fa notare Gregory Tarlé, professore di fisica all’Università del Michigan e coautore dello studio. «È possibile che ciò che è accaduto durante l’inflazione avvenga al contrario: la materia di una stella massiccia diventa di nuovo energia oscura durante il collasso gravitazionale, come un piccolo Big Bang riprodotto al contrario».
In un nuovo studio pubblicato su Journal of Cosmology and Astroparticle Physics, Tarlé e colleghi rafforzano l’ipotesi di questo scenario con i recenti dati del Dark Energy Spectroscopic Instrument (Desi), uno strumento composto da 5mila occhi robotici montati sul telescopio Mayall dell’Osservatorio Nazionale di Kitt Peak. «Se i buchi neri contengono energia oscura, possono accoppiarsi e crescere con l’universo in espansione, causandone l’accelerazione», dichiara Kevin Croker, primo autore dello studio, dell’Arizona State University. «Non riusciamo a capire nei dettagli come questo avvenga, ma possiamo vedere le prove che sta accadendo».
In sostanza, dai dati del primo anno della survey quinquennale di Desi si evince che la densità dell’energia oscura è aumentata nel tempo. Questo risultato, riferiscono i ricercatori, fornisce un indizio convincente a sostegno dello scenario suddetto, perché l’aumento osservato nel tempo è in linea con l’aumento del numero e della massa dei buchi neri.
Immagine della NirCam di Jwst del protoammasso di formazione stellare PHz G191.24+62.04, risalente a 11 miliardi di anni fa, quando l’universo stava raggiungendo il suo picco di formazione stellare. Queste prime galassie sono tra le galassie a formazione stellare più attive osservate tra 10,5 e 11,5 miliardi di anni fa. Ogni galassia visibile in questa immagine sta quindi producendo molti buchi neri che, secondo l’ipotesi dei buchi neri cosmologicamente accoppiati, stanno convertendo la materia in energia oscura. Questa immagine mostra i due “moduli” di Jwst NirCam: il modulo più a sinistra contiene il protocluster, mentre il modulo più a destra è un campo vuoto adiacente. Ogni modulo osserva migliaia di galassie. Crediti: Nasa, Esa, Csa, Maria Polletta (Inaf), Hervé Dole (Paris), Brenda Frye (UofA), Jordan C. J. D’Silva (Uwa), Anton M. Koekemoer (STScI), Jake Summers (Asu), Rogier Windhorst (Asu)
Per cercare le prove dell’energia oscura proveniente dai buchi neri, il team ha utilizzato decine di milioni di galassie distanti misurate da Desi. Lo strumento scruta miliardi di anni nel passato e raccoglie dati che possono essere utilizzati per determinare con precisione la velocità di espansione dell’universo. A loro volta, questi dati possono essere utilizzati per dedurre come la quantità di energia oscura stia cambiando nel tempo. Il team ha confrontato questi dati con il numero di buchi neri che si formano alla morte di stelle massicce nel corso della storia dell’universo.
«I due fenomeni sono risultati coerenti l’uno con l’altro: man mano che si creavano nuovi buchi neri alla morte di stelle massicce, la quantità di energia oscura nell’universo aumentava nel modo giusto», riporta Duncan Farrah, professore associato di fisica all’Università delle Hawaii e coautore dello studio. «Questo rende più plausibile l’ipotesi che i buchi neri siano la fonte dell’energia oscura».
La ricerca si inserisce in una letteratura in crescita che studia la possibilità di un accoppiamento cosmologico nei buchi neri. Uno studio del 2023, che ha visto la partecipazione di molti degli autori di questo articolo, ha riportato l’accoppiamento cosmologico nei buchi neri supermassicci all’interno dei centri galattici. Quello studio ha incoraggiato altri team a cercare l’effetto in tutti i luoghi in cui è possibile trovare i buchi neri nell’universo.
Una differenza fondamentale del nuovo lavoro è che la maggior parte dei buchi neri in questione sono più giovani di quelli esaminati in precedenza. Questi buchi neri sono nati in un’epoca in cui la formazione stellare era ben avviata, anziché appena iniziata. «Questo si verifica molto più tardi nell’universo e si basa sulle recenti misurazioni della produzione e della crescita dei buchi neri osservate con i telescopi spaziali Hubble e Webb», afferma Rogier Windhorst, scienziato del Jwst e professore alla Arizona State University.
A prescindere dalle osservazioni future, il lavoro che si sta svolgendo ora rappresenta un cambiamento epocale nella ricerca sull’energia oscura, sostengono i ricercatori. «Fondamentalmente, se i buchi neri sono energia oscura, accoppiati all’universo che abitano, non è più solo una questione teorica», conclude Tarlé. «Ora è una domanda sperimentale».
Per saperne di più:
- Leggi su Journal of Cosmology and Astroparticle Physics l’articolo “DESI Dark Energy Time Evolution is Recovered by Cosmologically Coupled Black Holes” di Kevin S. Croker, Gregory Tarlé, Steve P. Ahlen, Brian G. Cartwright, Duncan Farrah, Nicolas Fernandez e Rogier A. Windhorst
Mai s’era visto un buco nero ingozzarsi così
I buchi neri supermassicci, quelli che si trovano al centro della maggior parte delle galassie, continuano negli ultimi tempi a essere osservati dai telescopi moderni in epoche sorprendentemente precoci dell’evoluzione dell’universo. È difficile capire come questi buchi neri siano riusciti a diventare così grandi e così rapidamente. Ma con la scoperta – pubblicata oggi su Nature Astronomy – di un buco nero supermassiccio di bassa massa che si nutre di materiale a una velocità estrema, osservato appena un miliardo e mezzo di anni dopo il Big Bang, gli astronomi dispongono ora di nuovi, preziosi, indizi sui meccanismi di crescita rapida di questi buchi neri nell’universo primordiale.
Rappresentazione artistica di una galassia nana all’inizio dell’universo nella cui regione centrale alberga un buco nero (riquadro in alto a destra) che si alimenta rapidamente. Crediti: NoirLab / Nsf / Aura / J. Da Silva / M. Zamani
Lo studio su Lid-568, questo il nome della galassia che ospita il precoce e vorace buco nero, è stato condotto da un team di ricercatori guidato da Hyewon Suh, astronoma dell’International Gemini Observatory/Nsf NoirLab. Gli autori della scoperta – fra i quali anche quattro ricercatori dell’Istituto nazionale di astrofisica: Federica Loiacono, Giorgio Lanzuisi, Stefano Marchesi e Roberto Decarli – hanno utilizzato il James Webb Space Telescope (Jwst) per osservare un campione di galassie della survey Cosmos del Chandra X-ray Observatory. Si tratta di galassie molto luminose in banda X ma invisibili nell’ottico e nel vicino infrarosso. Non però del tutto invisibili per Jwst, la cui sensibilità senza rivali all’infrarosso gli consente – come vedremo – di rilevare anche emissioni debolissime come queste.
All’interno del campione, Lid-568 si distingueva per la sua intensa emissione di raggi X. «Il mio contributo», dice a questo proposito Lanzuisi, «ha riguardato proprio l’analisi della sua emissione in banda X. Essendo la sorgente nel campo Cosmos, le osservazioni profonde ottenute col telescopio Chandra – e lo spettro X di questa sorgente in particolare – erano nei nostri archivi già dal 2016, ma prima dell’osservazione con Jwst il redshift era molto incerto e, soprattutto, non conoscevamo la massa del buco nero al centro di questa galassia».
Osservare Lid-568 anche con Jwst ha però richiesto accorgimenti particolari. L’emissione X non era sufficiente a consentire di determinarne, da sola, la posizione esatta, e dunque a garantire una corretta centratura del bersaglio nel campo visivo del telescopio. Gli scienziati del team di supporto strumentale di Jwst hanno dunque suggerito a Suh e colleghi di utilizzare, al posto della tradizionale spettroscopia a fenditura, lo spettrografo a campo integrale (Ifu) di NirSpec: uno strumento di Jwst in grado di ottenere uno spettro per ogni pixel del campo visivo, invece di limitarsi a una fenditura ristretta.
«A causa della sua debolezza, l’individuazione di Lid-568 sarebbe stata impossibile senza Jwst. L’uso dello spettrografo a campo integrale», spiega un altro dei coautori dello studio, Emanuele Farina, astronomo dell’International Gemini Observatory/Nsf NoirLab, «è stato innovativo e necessario per compiere questa osservazione».
Lo strumento NirSpec di Jwst ha infatti permesso al team di ottenere una visione completa del bersaglio e della regione circostante, portando alla scoperta inaspettata di potenti deflussi di gas intorno al buco nero centrale. La velocità e le dimensioni di questi deflussi – outflows, in inglese – hanno portato il team a dedurre che una frazione sostanziale della crescita di massa del buco nero al centro di Lid-568 potrebbe essersi verificata in un singolo episodio di rapido accrescimento.
«Questo risultato, che si è rivelato un caso fortuito, ha aggiunto una nuova dimensione alla nostra comprensione del sistema e ha aperto interessanti strade di indagine», dice Suh. In particolare, lei e il suo team sono rimasti sorpresi nello scoprire che Lid-568 sembra nutrirsi di materia a una velocità quaranta volte superiore al suo limite di Eddington: una soglia legata alla luminosità massima che un buco nero può raggiungere, e alla velocità con cui può assorbire materia, mantenendo un equilibrio tra la forza gravitazionale – verso l’interno – e la pressione – verso l’esterno – generata dal calore della materia compressa in caduta verso il buco nero stesso. Quando gli autori dello studio hanno visto che la luminosità di Lid-568 era molto al di là di questa soglia, e dunque molto più alta di quanto teoricamente possibile, subito si sono resi conto di avere fra le mani dati sorprendenti.
I quattro ricercatori dell’Inaf che hanno preso parte allo studio pubblicato su Nature Astronomy. Da sinistra: Roberto Decarli, Stefano Marchesi, Federica Loiacono e Giorgio Lanzuisi. Crediti: Inaf
«I dati in banda X sono stati cruciali nel derivare la luminosità totale emessa dal materiale che accresce sul buco nero, corretta per il forte assorbimento presente in questa sorgente molto rossa (in quanto “arrossata” dalla polvere) e compatta», sottolinea Lanzuisi. «Questa luminosità molto alta – circa mille volte quella della nostra intera galassia – insieme alla massa relativamente ridotta del buco nero – tre milioni di masse solari, un valore piuttosto piccolo per un buco nero supermassiccio – sono servite a determinare il tasso di accrescimento rispetto al limite di Eddington, risultato appunto oltre quaranta volte quello teorico. Le osservazioni multibanda dal medio infrarosso (con Spitzer) al millimetrico (con Alma) hanno poi permesso di confermare questa alta luminosità totale».
«Questo buco nero sta banchettando», riassume un’altra coautrice dello studio, Julia Scharwächter, dell’International Gemini Observatory/Nsf NoirLab. «Si tratta di un caso estremo che dimostra come un meccanismo di alimentazione rapida al di sopra del limite di Eddington possa rappresentare una delle possibili spiegazioni del perché vediamo questi buchi neri molto massicci già presenti così presto nella vita dell’universo».
Un risultato, dunque, che fornisce nuovi indizi sulla formazione dei buchi neri supermassicci a partire da “semi” fatti di buchi neri più piccoli, semi che secondo le teorie attuali deriverebbero dalla morte delle prime stelle dell’universo (semi leggeri) oppure dal collasso diretto di nubi di gas (semi pesanti). Finora queste teorie non trovavano conferme osservative. «La scoperta di un buco nero “super-Eddington” in accrescimento suggerisce che una porzione significativa dell’aumento di massa possa avvenire durante un singolo e rapido episodio di “nutrimento”, indipendentemente dal fatto che il buco nero abbia avuto origine da un seme leggero o pesante», conclude Suh.
La scoperta di Lid-568 dimostra anche che è possibile che un buco nero superi il suo limite di Eddington, offrendo per la prima volta agli astronomi l’opportunità di studiare come ciò avvenga. È possibile che i potenti deflussi osservati in Lid-568 agiscano come una valvola di sfogo per l’energia in eccesso generata dall’accrescimento estremo, impedendo al sistema di diventare troppo instabile. Per studiare ulteriormente i meccanismi in gioco, il team sta già pianificando ulteriori osservazioni con Jwst.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “A super-Eddington-accreting black hole ~1.5 Gyr after the Big Bang observed with JWST”, di Hyewon Suh, Julia Scharwächter, Emanuele Paolo Farina, Federica Loiacono, Giorgio Lanzuisi, Günther Hasinger, Stefano Marchesi, Mar Mezcua, Roberto Decarli, Brian C. Lemaux, Marta Volonteri, Francesca Civano, Sukyoung K. Yi, San Han, Mark Rawlings e Denise Hung
Guarda il video sul canale YouTube del NoirLab:
Nell’occhio del maelstrom dei buchi neri
I buchi neri continuano a suscitare grande interesse tra gli scienziati: sono oggetti puramente gravitazionali, estremamente semplici, ma capaci di nascondere misteri che sfidano la nostra comprensione delle leggi naturali. La maggior parte delle osservazioni finora si è concentrata sulle loro caratteristiche esterne e sull’ambiente circostante, lasciando ancora in gran parte inesplorata la loro natura interna. Un nuovo studio, condotto da un gruppo di ricercatori della University of Southern Denmark, della Charles University di Praga, della Scuola internazionale superiore di studi avanzati (Sissa) e della Victoria University of Wellington (Nuova Zelanda), pubblicato venerdì su Physical Review Letters, ha esaminato un aspetto comune della regione più interna di molti spaziotempi che descrivono i buchi neri, suggerendo che la nostra comprensione di questi oggetti potrebbe richiedere ulteriori approfondimenti.
Per Raúl Carballo-Rubio, ricercatore postdoc presso il CP3-Origins della University of Southern Denmark e corresponding author dello studio, il punto centrale è che “le dinamiche interne dei buchi neri, ancora in gran parte sconosciute, potrebbero cambiare radicalmente il nostro modo di osservarli, anche da una prospettiva esterna”.
La soluzione di Kerr delle equazioni della Relatività generale è la più accurata descrizione conosciuta dei buchi neri rotanti osservati in astrofisica gravitazionale. Essa rappresenta un buco nero come un maelstrom, cioè un vortice, nello spaziotempo caratterizzato da due orizzonti: uno esterno, che segna il limite oltre il quale nulla può sfuggire alla sua attrazione gravitazionale, e uno interno, che racchiude una singolarità ad anello, una regione dove lo spaziotempo per come lo conosciamo cessa di esistere. Questo modello è compatibile con le osservazioni, poiché le deviazioni dalla teoria di Einstein all’esterno del buco nero sono controllate dai parametri della nuova fisica, che regolano le dimensioni del nucleo e che sono attese essere genericamente estremamente piccole.
Tuttavia, un recente studio condotto dal suddetto gruppo internazionale ha evidenziato una criticità riguardante l’interno di questi oggetti: mentre era noto che un orizzonte interno statico è caratterizzato da un’accumulazione infinita di energia, lo studio dimostra che anche per più realistici buchi neri dinamici questo orizzonte è soggetto a una forte instabilità in tempi relativamente brevi. Questa instabilità è dovuta a un’accumulazione di energia che cresce esponenzialmente nel tempo fino a raggiungere un valore finito, ma estremamente grande, in grado di influenzare significativamente la geometria globale del buco nero e quindi cambiarla.
Il risultato finale di questo processo dinamico non è ancora chiaro, ma lo studio implica che un buco nero non possa stabilizzarsi nella geometria di Kerr, almeno su lunghe scale temporali, anche se la rapidità e l’entità delle deviazioni dallo spaziotempo di Kerr rimangono oggetto di indagine. Come spiega uno degli autori dello studio, Stefano Liberati, professore alla Sissa, «questo risultato suggerisce che la soluzione di Kerr – contrariamente a quanto finora presupposto – non possa descrivere esattamente i buchi neri osservati, almeno sulle scale temporali tipiche della loro esistenza».
Comprendere il ruolo di questa instabilità è quindi fondamentale per affinare i modelli teorici dell’interno dei buchi neri e la loro relazione alla struttura globale di questi oggetti. In questo senso, potrebbe fornire un collegamento mancante tra i modelli teorici e le possibili osservazioni di fisica oltre la Relatività generale. In conclusione, questi risultati aprono nuove prospettive per lo studio dei buchi neri, offrendo l’opportunità di approfondire la nostra comprensione della loro natura interna e del loro comportamento dinamico.
Fonte: press release Sissa
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Mass Inflation without Cauchy Horizons”, Raúl Carballo-Rubio, Francesco Di Filippo, Stefano Liberati e Matt Visser
Dialogo sopra una massima del caso
Tommaso Maccacaro e Claudio M. Tartari. La necessità del caso. Dialogo semiserio sui molti modi della scienza. Edizioni Clichy 2024,, 208 pagine. 19 euro
Ogni ‘mpidimentu è giovamentu (ogni impedimento è giovamento), recita un famoso detto siciliano. Una massima da utilizzare nei momenti imprevedibili della vita. Ma è davvero così? Errore e casualità possono essere alleati della ricerca? Tommaso Maccacaro, astrofisico nonché presidente dell’Inaf dal 2008 al 2011, e Claudio Maria Tartari, storico medievalista specializzato in paleografia e divulgatore, nel loro saggio La necessità del caso, edito da Edizioni Clichy, provano a snocciolare una riflessione affascinante e originale sul ruolo del caso nel progresso scientifico.
L’agile volume combina l’approccio scientifico con un tono narrativo leggero, creando una frattura con il classico stile saggistico e coinvolgendo il lettore in un dialogo tra amici di vecchia data. I due autori spiegano come la scienza non sia solo pianificazione e metodo, ma anche apertura al caso e all’imprevedibilità. Maccacaro racconta la sua esperienza nella ricerca astronomica e nella divulgazione, e Tartari offre una visione storica, raccogliendo le tracce del caso in episodi storici memorabili, come la scoperta dell’America.
Il caso, protagonista del libro, si manifesta quale elemento invisibile, una forza – come spiegano gli stessi autori – che influenza e devia il percorso della ricerca non solo scientifica. Ecco che si parla della scoperta della radiazione cosmica di fondo da parte di Arno Penzias e Robert Wilson, un esempio tanto famoso quanto eclatante: il segnale, inizialmente interpretato come un semplice disturbo, è oggi considerato uno dei pilastri dell’astrofisica moderna e la prova del modello del Big Bang. I temi trattati nei vari capitoli includono anche avvenimenti culturali e tecnologici, quali il tardivo sviluppo delle macchine a vapore e delle biciclette, o la nascita della radioastronomia.
L’elemento chiave del saggio rimane tuttavia la scelta del metodo narrativo. Gli autori muovono tutte le loro riflessioni attraverso dialoghi interattivi e vivaci, quasi a voler invitare il lettore a seguire un’amichevole conversazione tra esperti. Si alternano aneddoti personali, fatti storici e analisi scientifiche, il tutto condito da un’ironia centrata e pulita che riesce a rendere accessibili anche a chi non ha una formazione scientifica argomenti talvolta complessi. La narrazione è arricchita da dettagli storici che trasformano la lettura in un’esperienza didattica estremamente appagante e divertente.
Emerge una visione della scienza non come mera accumulazione di dati, rigida e lineare, ma come un insieme di intuizioni e coincidenze. Una grande caccia al tesoro nella quale la destinazione finale non è sempre scontata e dove il caso si intreccia alla determinazione degli scienziati. Una visione che si distanzia dalla retorica della perfezione scientifica, mostrando quanto sia essenziale per il progresso non solo l’abilità tecnica, ma anche la capacità di accogliere l’imprevisto. Un equilibrio tra dedizione e adattamento, dove anche i fallimenti e le intuizioni fortuite contribuiscono a creare conoscenza.
In un’epoca in cui l’incertezza è spesso considerata qualcosa da cui tenersi alla larga, La necessità del caso ricorda che il disordine e l’imprevisto possono invece portare a incredibili scoperte e innovazioni.
Ecologia e spazio, un legame profondo
La copertina del volume “Life: 100 Photographs that Changed The World” (2003). Crediti: Wikimedia Commons
È la sera del 24 dicembre 1968 e gli astronauti della missione Apollo 8 sono i primi esseri umani a sorvolare l’emisfero nascosto del nostro satellite. L’equipaggio è formato dal comandante Frank Borman, al suo secondo volo, dal pilota del modulo di comando James Lowell, al terzo volo, e dal pilota del modulo lunare William Anders al suo primo volo. Dopo avere passato i tre giorni del viaggio sempre in vista della Terra, gli astronauti, che hanno il compito di fotografare la superficie della Luna, si sentono isolati. Per questo, quando il moto della loro navicella li porta fuori dall’ombra della Luna, accolgono con gioioso stupore la vista dell’emisfero della Terra illuminata dal Sole. La registrazione della loro conversazione ci fa capire che è Anders il primo a farsi stregare dalla Terra scintillante. Inutilmente il comandante Borman cerca di dissuaderlo dal perdere tempo per una attività non programmata. Anders ride, chiede a Jim Lowell di sbrigarsi a passargli la macchina fotografica con il rullino a colori e immortala la visione della Terra che sorge. La Nasa la chiamerà Earthrise e penso andrebbe dedicata proprio a Bill Anders che, novantenne, ci ha lasciato il 7 giugno schiantandosi con il suo aereo. Oltre ad essere entrata a fare parte della lista delle 100 foto che hanno cambiato il mondo, compilata dalla rivista Life nel 2003, la Terra che sorge ha avuto l’onore della copertina di quel numero della rivista.
Benché l’esplorazione del nostro satellite abbia avuto importantissime ricadute scientifiche e tecnologiche, tutti gli astronauti lunari sono stati concordi nel dire che quello che li aveva colpiti di più era stato vedere la Terra così brillante e così isolata nel buio dello spazio. Eugene Cernan, comandante della missione Apollo 17, ha dichiarato: “siamo andati ad esplorare la Luna ma abbiamo scoperto la Terra”.
Sono in molti a pensare, probabilmente con ragione, che la foto della Terra che sorge, nella sua esplicita semplicità, abbia contribuito alla sviluppo della sensibilità ecologista. È un’immagine che muove le coscienze e certamente fa venire voglia di difendere il nostro pianeta, vaste aree del quale sono inquinate dalle attività industriali, dalle emissioni delle auto, dagli scarichi indiscriminati. Sarà questa la ragione di essere del primo Earth Day, organizzato il 22 aprile 1970 sotto la spinta del senatore democratico Gaylord Nelson, che pensò di dare voce alla preoccupazione delle giovani generazioni per lo stato dell’ambiente. Il pubblico rispose in massa: si contarono venti milioni di persone, una cifra enorme, pari al 10 per cento della popolazione americana dell’epoca. Un chiaro segnale per la politica Usa che, negli anni successivi, approvò le leggi per il controllo della qualità dell’aria e dell’acqua e per la protezione delle specie animali a rischio. Per i primi venti anni lo Earth Day è stata un’iniziativa esclusivamente americana, poi, nel 1990, è diventata globale coinvolgendo 200 milioni di persone in 141 paesi. Da allora non ha mai smesso di crescere rivolgendo la sua attenzione al cambiamento climatico, oltre che alla salvaguardia dell’ambiente.
Ecologia spaziale @Hoepli_1870 – un estratto del nuovo libro su la Domenica del @sole24ore pic.twitter.com/dMmIYZFyEf— Patrizia Caraveo (@CaraveoPatrizia) October 27, 2024
Sappiamo benissimo che l’attività dell’uomo interferisce con gli equilibri ecologici locali e globali e questo è particolarmente vero per i beni comuni, quelli che il diritto romano chiamava res communes perché per loro natura non possono essere privatizzate, come l’atmosfera o gli oceani. Dal momento che sono a disposizione di tutti, ma non appartengono a nessuno, le res communes sono particolarmente esposte alle conseguenze di un eccessivo sfruttamento.
Se vogliamo lasciare un pianeta in buona salute alle generazioni future occorre promuovere un uso consapevole e sostenibile delle risorse globali della Terra, ma fino a dove ci dobbiamo spingere? In altre parole, quale sono i confini dell’ambiente che vogliamo proteggere? Dove finisce quello che ci circonda e ci permette di vivere e di operare? Gli esseri umani svolgono attività nello spazio dal 1957 e tradizionalmente si dava per scontato che le attività spaziali fossero confinate nello spazio. Oggi la situazione è radicalmente cambiata: la qualità della nostra vita dipende dalla possibilità di utilizzare servizi offerti da satelliti e, per venire incontro alla domanda del pubblico, il numero degli strumenti in orbita sta letteralmente esplodendo.
Il nostro pianeta è circondato da satelliti che svolgono un lavoro straordinario nello studiare i cambiamenti climatici, salvare vite umane e mitigare le conseguenze di disastri naturali, fornire servizi di comunicazione e navigazione globali e aiutarci a rispondere a importanti domande scientifiche.
Di sicuro i rapidi sviluppi tecnologici sono stati accompagnati da applicazioni innovative a beneficio della società. Purtroppo, però, stanno emergendo impatti negativi, come l’inquinamento luminoso, il pericolo di collisioni in orbita, il deposito di gas tossici nella nostra atmosfera ed i rischi di incidenti causati da detriti in caduta libera.
Ci siamo resi conto che lo spazio circumterrestre è un bene comune dell’umanità. Le sue dimensioni sono grandi, ma non infinite e rischia il sovraffollamento. Parliamo di un ambiente prezioso che è necessario preservare imparando a utilizzarlo in modo consapevole e sostenibile.
Generalizzando il concetto di ecosistema ad includere anche lo spazio circumterrestre dove orbitano i satelliti, stiamo completando un lungo cammino che è iniziato oltre 60 anni fa, grazie alla foto della Terra che sorge.
Per saperne di più:
- Leggi il libro di Patrizia Caraveo Ecologia spaziale. Dalla Terra alla Luna a Marte (Hoepli, 2024)
Scienza al cinema, l’Inaf premia U Are The Universe
La grafica ufficiale del Trieste Science+Fiction Festival 2024 disegnata da ZeroCalcare. Crediti: Trieste Science+Fiction Festival
Giunto alla sua 24esima edizione, Trieste Science+Fiction Festival riunisce ogni anno appassionati e professionisti della fantascienza e del fantastico nel capoluogo giuliano. Oltre cinquanta anteprime internazionali e tre concorsi hanno arricchito quest’anno la manifestazione, con la partecipazione di registi, attori e autori provenienti da ogni angolo del mondo. Come ogni anno, un ventaglio di opere di fantascienza che affrontano tematiche contemporanee si sono affiancate a prospettive immaginative e spesso distopiche.
Tra i film più attesi troviamo storie che riflettono le paure e le speranze del presente: dalla minaccia del cambiamento climatico all’impatto dell’intelligenza artificiale – tema al centro dell’evento, rappresentato quest’anno nel manifesto ideato da Zerocalcare. Grazie alla varietà di generi, dai racconti cyberpunk e post-apocalittici ai thriller psicologici e agli horror sci-fi, il festival offre uno spaccato delle preoccupazioni sociali del nostro tempo, esplorate attraverso le infinite possibilità del cinema fantastico.
In questa cornice, l’Istituto nazionale di astrofisica (Inaf), partner storico e patrocinatore del Festival, ha conferito il premio Inaf-Event Horizon al film U Are The Universe del regista ucraino Pavlo Ostrikov. Il riconoscimento, istituito nel 2023 in occasione dei 60 anni dal primo Festival internazionale del film di fantascienza di Trieste, viene assegnato da una giuria dell’Inaf – composta da un gruppo di ricercatori, giornalisti e cinefili di spessore – al lungometraggio che meglio esplora tematiche innovative e profonde legate alla scienza e alla condizione umana.
Una scena del film “U are the Universe” con il protagonista Volodymyr Kravchuk. Crediti: Trieste Science+Fiction Festival
«U Are The Universe si distingue per la capacità di trasportare gli spettatori nell’immensità e nella solitudine del cosmo, affrontando con tocco leggero un tema profondo: come restare umani in tempi e condizioni estreme», dice Stefano Cristiani, presidente della giuria composta da Vincenzo Cardone, Fabrizio Fiore, Paolo Soletta, Paolo Tozzi e da chi scrive.
La giuria ha voluto premiare l’abilità di Ostrikov «per aver realizzato uno sci-fi che coniuga ironia, romanticismo, avventura, tragedia, citazioni filmiche, con una scrittura intelligente che evita i cliché e affronta le grandi domande che hanno sempre plasmato il genere: la condizione umana nello spazio, cosa significhi realmente agire come umani, la mortalità, l’isolamento, il bisogno di connessioni. Ostrikov e il suo team affrontano questi temi con mezzi narrativi minimalisti, un’ambientazione vintage, la fotografia funzionale di Nikita Kuzmenko, la performance di Volodymyr Kravchuk, concentrandosi sui conflitti e lo sviluppo del personaggio camionista-spaziale, che deve aprirsi ad un’altra persona proprio quando – specchio dell’attualità – si chiude l’orizzonte sul mondo che conosce. Il delicato equilibrio della linea narrativa produce con successo un’allegoria della speranza nei momenti più bui».
Un tema secondario ma rilevante è l’idea che lo spazio venga utilizzato come discarica per i rifiuti terrestri, quali ad esempio i materiali nucleari. Questa scelta narrativa aggiunge spessore alla trama e invita il pubblico a riflettere sulla fragilità del pianeta Terra e le conseguenze delle nostre azioni sul cosmo, mostrando la scienza e la fantascienza come potenti strumenti di sensibilizzazione.
La locandina ufficiale del film premiato. Crediti: Trieste Science+Fiction Festival
Con il premio Event Horizon, l’Inaf conferma così il suo impegno nella promozione di un cinema di fantascienza che non solo intrattiene, ma stimola il pensiero, celebrando l’incontro tra scienza e immaginazione. La cerimonia di premiazione del film è avvenuta ieri, sabato 2 novembre, alla presenza del regista e di Fabrizio Fiore, direttore dell’Inaf – Osservatorio astronomico di Trieste, che insieme a Cristiani ha consegnato il premio.
«Spesso la fantascienza anticipa la scienza, influenzando il nostro modo di percepire e metabolizzare i concetti scientifici», dice Fiore. «Questo premio è stato ideato proprio per onorare quelle opere che non si limitano a ricorrere ai soliti stereotipi fantascientifici, ma che affrontano, con intelligenza e sensibilità, il progresso scientifico e l’innovazione tecnologica, anche in relazione a questioni etiche e filosofiche». U Are The Universe si colloca perfettamente in questa tradizione, offrendo al pubblico una visione a tutto tondo della condizione umana nello spazio.
Per saperne di più:
- Visita il portale del Festival Science+Fiction di Trieste
Guarda il trailer di U Are The Universe:
Attenti al lupo nella nebulosa
Immagine Vst della Dark Wolf Nebula. Crediti: Eso/Vphas+ team
Oltre alle storie di creature fantastiche e vorticosi inseguimenti celesti che l’umanità tramanda da millenni in ogni angolo del globo, la volta stellata racchiude un’infinità di forme singolari, visibili solo al telescopio, che si celano tra gli astri e il materiale interstellare. È il caso della Nebulosa del lupo scuro (in inglese, Dark Wolf Nebula), immortalata dal telescopio italiano Vst (Vlt Survey Telescope) in una spettacolare immagine resa pubblica oggi dallo European Southern Observatory (Eso) in occasione di Halloween.
La nebulosa, che è parte di una nube interstellare ancora più vasta, chiamata Gum 55, si trova in direzione della costellazione dello Scorpione, verso il centro della Via Lattea, a circa 5300 anni luce da noi. Nell’immagine, composta da 283 milioni di pixel, la polvere cosmica nelle porzioni più scure della nebulosa assorbe la luce proveniente dai corpi celesti situati dietro di essa, creando l’illusione di una silhouette la cui forma ricorda quella di un lupo. Si tratta di una nebulosa oscura, che spicca sullo sfondo, brulicante di stelle e tinto di rosso dall’emissione diffusa del gas idrogeno, eccitato dalla radiazione ultravioletta che le giovani stelle rilasciano nei dintorni.
Individuare figure fantasiose nelle nubi scure che solcano la Via Lattea, anziché tracciando linee immaginarie tra le stelle come nel caso delle costellazioni, è una tradizione di lunga data di molti popoli indigeni. Ne è un esempio la Nebulosa Sacco di Carbone, visibile a occhio nudo nell’emisfero sud, che è nota presso il popolo Mapuche come ‘pozoko’ (pozzo d’acqua) mentre dagli Inca veniva chiamata ‘yutu’ (un uccello simile alla pernice).
Una serie di dettagli all’interno dell’enorme Nebulosa del lupo scuro: la “testa” del lupo si riconosce nell’immagine in alto al centro. I “pilastri” nelle immagini a destra si formano quando l’intensa radiazione delle stelle giovani incontra dense sacche di polvere e gas, erodendo e spazzando via il materiale circostante. Crediti: Eso/Vphas+ team
Il Vst, gestito dall’Istituto nazionale di astrofisica (Inaf) presso l’osservatorio Eso di Cerro Paranal, sulle Ande Cilene, ha un grande campo di vista, pari a un grado quadrato, equivalente a circa quattro volte l’area della luna piena in cielo. Il telescopio è stato progettato e costruito dall’Inaf di Napoli per scansionare in maniera efficace grandi porzioni del cielo dell’emisfero sud. Questa immagine è stata realizzata nell’ambito del progetto Vst Photometric Hα Survey of the Southern Galactic Plane and Bulge (Vphas+), una collaborazione di ricerca internazionale a guida britannica che sfrutta il potente telescopio italiano per studiare, su grande scala, le regioni della Via Lattea in cui nascono le stelle.
«Nonostante i suoi dodici anni di vita, il Vst continua a funzionare in maniere efficiente, regalando immagini spettacolari come questa», commenta Enrichetta Iodice, ricercatrice Inaf a Napoli e responsabile del Centro italiano di coordinamento per Vst. «Il grande campo di vista e l’alta risoluzione angolare della fotocamera OmegaCam, che opera sul Vst, sono le caratteristiche fondamentali che ci permettono di coprire grandi aree di cielo e scrutare le strutture dell’universo vicino con dettagli eccellenti».
like this
Da Firenze allo spazio, con due ambasciatori
Sofia Randich e Pietro Ubertini alla premiazione. Crediti: Inaf
Si è tenuta oggi, giovedì 31 ottobre, nel Salone dei Cinquecento di Palazzo Vecchio, nel cuore di Firenze, la cerimonia di premiazione del Florence Ambassador Award: tra i nuovi quattordici “Ambasciatori della Città di Firenze” ci sono anche due astrofisici dell’Istituto nazionale di astrofisica, Sofia Randich e Pietro Ubertini. Motivazione: avere promosso lo svolgimento della 44ma assemblea generale del Comitato internazionale sullo spazio Cospar (Committee on Space Research), che si terrà a Firenze dall’1 al 9 agosto 2026. Il Cospar promuove lo scambio di risultati, informazioni e dibattiti nel campo della ricerca spaziale internazionale, ed è un forum aperto a tutti gli scienziati del mondo dal 1958, anno della sua fondazione.
L’iniziativa Florence Ambassador Award è promossa dal Comune di Firenze e organizzata dalla Fondazione Destination Florence all’interno del Florence Academic Leader Program per individuare figure di spicco del mondo accademico, scientifico, medico e aziendale che propongono la città di Firenze per ospitare importanti eventi internazionali.
«La missione del Cospar è assicurare un contesto di altissimo livello in un’ottica di apertura e inclusione, senza impedimenti dovuti a tensioni di carattere geopolitico o differenze di alcun tipo», spiega Ubertini, che del Cospar è vicepresidente, ed è alla guida del comitato organizzatore di Florence2026 con Sofia Randich, direttrice fino allo scorso anno dell’Osservatorio Inaf di Arcetri.
«È un onore ricevere questo riconoscimento. Riportare a Firenze nel 2026 l’Assemblea scientifica Cospar, già ospitata nel 1961 e 1964», ricorda Randich, «è certamente un bel successo, frutto di un eccellente lavoro di squadra, che ci ha visto impegnati come Inaf insieme ad Aim Group International, con il supporto del Comune di Firenze e di molti istituti di ricerca, fra i quali l’Università di Firenze, la sezione fiorentina dell’Infn, alcuni istituti del Cnr e l’Asi. Da una parte si consolida un legame storico fra Firenze e la comunità scientifica internazionale; dall’altra, l’evento, che porterà a Firenze migliaia di scienziati ed esperti avrà un impatto significativo sia per gli addetti ai lavori e i ricercatori, in particolare i giovani, che per la città nel suo insieme».
«Durante l’assemblea del Cospar ad Atene, nel 2022, abbiamo presentato la candidatura di Firenze al Council per il 2026. È stato un testa a testa mozzafiato, con Firenze selezionata con soli tre voti di vantaggio rispetto a Praga. Nell’ultimo anno Firenze è diventata la mia città di adozione, con frequenti visite prima per la redazione della proposta e poi per l’organizzazione di Florence2026. Pur essendo romano, sono molto orgoglioso che la città di Firenze, culla del Rinascimento europeo, mi onori riconoscendomi un suo ambasciatore», conclude Ubertini. «Riportare a Firenze l’Assemblea Cospar dopo sessant’anni è un grandissimo onore».
Sabrina Santi likes this.
Sabrina Santi reshared this.
The Catcher in the Strewn Field
Infografica sulla terminologia che descrive le varie fasi dell’ingresso in atmosfera di un oggetto dallo spazio. Crediti: Sorvegliati spaziali/Inaf
Strewn field, in italiano area di dispersione: così gli astronomi chiamano la porzione di terreno nella quale si suppone siano cadute le meteoriti – dunque i frammenti giunti a terra – provenienti da un singolo asteroide. Qualora l’ingresso in atmosfera del meteoroide sia stato intercettato da una rete di telecamere all-sky, come l’italiana Prisma per esempio, triangolando le tracce del bolide (fireball) durante la caduta si può arrivare a stimare lo strewn field con una precisione notevole, tale da consentire il successivo recupero di meteoriti, come è avvenuto più volte negli ultimi anni, anche in Italia: nel 2020 a Cavezzo, con la “meteorite di Capodanno”, e nel 2023 a Matera, con la “meteorite di San Valentino”.
Ma le reti di camere all-sky non sono disponibili ovunque, dunque non sempre è possibile disporre dei dati necessari per una triangolazione. Si può comunque tentare di circoscrivere lo strewn field anche in questi casi? La risposta arriva ora da uno studio, in uscita su Icarus, guidato da Albino Carbognani dell’Istituto nazionale di astrofisica. Ed è una risposta positiva: adottando un semplice modello di frammentazione accoppiato a un profilo atmosferico reale, si legge nell’abstract, è possibile stimare lo strewn field partendo direttamente dai dati orbitali dell’asteroide. La precisione è ovviamente minore – anche se non di molto, come vedremo – rispetto a quella ottenibile con la triangolazione delle tracce del fireball, però offre un vantaggio non trascurabile: il tempo. Essendo l’orbita dell’asteroide nota – grazie a osservazioni telescopiche dal suolo – ben prima dell’impatto in atmosfera (ab initio, come dice il titolo dell’articolo), si aprono scenari in cui diventa possibile sapere in anticipo dove cadranno gli eventuali frammenti di meteorite.
Con quanta precisione, Carbognani?
«Nel nostro articolo mostriamo che, ipotizzando un range per la coesione del meteoroide da 0,5 a 5 MPa, per gli asteroidi 2024 BX1, 2023 CX1 e 2008 TC3, che sono i casi con lo strewn field meglio noto e studiato, lo strewn field osservato e quello nostro teorico coincidono entro un’incertezza dell’ordine di 1 km o anche meno: una distanza perfettamente percorribile a piedi dalle squadre di ricerca. Incertezza che diminuisce all’aumentare dell’inclinazione della traiettoria del fireball rispetto alla superficie terrestre. Quindi con la prossima caduta asteroidale, se andrà a finire sulla terraferma, si potrà conoscere in anticipo e con buona approssimazione dove sarà lo strewn field e organizzarsi per il recupero delle meteoriti prima della caduta dell’asteroide – da qui il titolo del paper».
Albino Carbognani, ricercatore all’Inaf Oas Bologna, collaboratore di Media Inaf e primo autore dello studio sul calcolo “ab initio” dello strewn field in uscita su Icarus, qui davanti a un monitor con lo strewn field di 2024 BX1. Crediti: Inaf
Con range di coesione intendete la “compattezza” del meteoroide?
«Sì, il range per la coesione del meteoroide indica proprio quanto sia compatto o fragile il corpo alle pressioni dovute alla caduta in atmosfera. Se il meteoroide è fragile perché la roccia è ricca di crepe si frammenterà a una quota più elevata, mentre se è più compatto si frammenterà più in basso, vicino al suolo. La quota della frammentazione principale determina il rimanente cammino in atmosfera dei frammenti – più lungo per i meteoroidi fragili, più breve per quelli compatti – e di conseguenza la posizione dello strewn field teorico. È un po’ come avere due autobus per arrivare in stazione a prendere il treno: il primo fa scendere i passeggeri (che fanno le veci dei frammenti) più lontano, mentre il secondo li fa scendere vicino alla stazione. Nel primo caso le persone devono fare a piedi un tratto maggiore con il rischio di perdere il treno, nel secondo caso si arriva subito camminando per un pezzo molto più breve rispetto al primo».
Torniamo all’incertezza nella delimitazione dello strewn field: con il vostro metodo, diceva, è dell’ordine di un chilometro. Quant’è, invece, nei casi in cui è possibile seguire il fireball con una rete di camere all-sky?
«Con una rete tipo Prisma e supponendo di triangolare il fireball durante la caduta del meteoroide, si può arrivare a un’incertezza sulla posizione dello strewn field di alcune centinaia di metri. Tuttavia anche con Prisma bisogna ipotizzare le masse delle meteoriti per campionare la zona di caduta. Il vantaggio di Prisma è che permette di misurare con maggiore precisione il punto di inizio del volo buio da cui dipende la posizione dello strewn field».
Ma solo “a fatto compiuto”, dicevamo, mentre invece con il metodo da voi proposto lo si può scoprire prima dell’impatto. Quanto tempo prima?
«Dipende da quanto tempo passa fra la scoperta dell’asteroide e la collisione. Considerato che si tratta di oggetti metrici – vale a dire, con un diametro nell’ordine del metro – siamo nell’ordine di circa 24 ore prima della caduta. Ma ci sono stati casi in cui le ore erano molte di meno».
Ventiquattro ore non sono poche, e un chilometro mi pare un margine d’incertezza relativamente contenuto: arriverà dunque il giorno in cui sarà possibile recarsi sul posto e attendere l’arrivo d’una meteorite?
«Sì l’idea è proprio questa: con il calcolo preventivo dei possibili strewn field si potrà attendere l’arrivo al suolo dei frammenti. Usando telescopi di grande diametro come quello in dotazione al Vera C. Rubin Observatory, un piccolo asteroide potrebbe essere scoperto alcuni giorni prima della caduta e ci si potrebbe recare sul posto con tutta calma, diminuendo il tempo che passa dalla caduta alla raccolta, minimizzando così la contaminazione terrestre».
O magari, se si è proprio fortunati, trovandosi nel punto giusto intendo, si potrebbe persino acchiappare una meteorite “al volo”… Nel caso potrebbe bastare un buon guantone da baseball – come quello d’un catcher, il ricevitore – per prenderla senza farsi male, o sarebbe troppo rischioso?
«L’acchiappo dei frammenti del meteoroide al volo sarebbe rischioso, non tanto per la temperatura – perché di norma arrivano a terra già raffreddati, a una temperatura di poco superiore a quella ambientale – ma per la velocità tipica di impatto al suolo, che è dell’ordine di 200-300 km/h. Si rischia di farsi davvero male».
Per saperne di più:
- Leggi su Icarus l’articolo “Ab initio strewn field for small asteroids impacts”, di Albino Carbognani, Marco Fenucci, Raffaele Salerno e Marco Micheli
Primi fotoni per il Vera Rubin
Il telescopio Vera Rubin durante la sua prima osservazione in cielo con la camera di prova da 144 megapixel, chiamata “commissioning camera”, nella notte del 24 ottobre 2024. Crediti: RubinObs / Nsf / Doe / NoirLab / Slac / Aura / W. O’Mullane
Lo scorso 24 ottobre, per la prima volta, la cupola che ospita il Vera Rubin si è aperta, il telescopio si è posizionato in direzione della finestra di cielo e i primi fotoni hanno completato il percorso che dalle profondità del cosmo li ha fatti rimbalzare sullo specchio primario, quindi sul secondario e infine sul terziario, per poi essere raccolti e misurati dalla commissioning camera, un detector di prova a bassa risoluzione installato proprio per eseguire alcuni test prima dell’installazione della camera scientifica definitiva.
«Non si tratta ancora di “prima luce”, quella avverrà quando la camera scientifica LsstCam sarà installata al telescopio l’anno prossimo», dice a Media Inaf Gabriele Rodeghiero dell’Istituto nazionale di astrofisica, in questi giorni al Vera Rubin insieme a Luca Rosignoli, studente di dottorato dell’Università di Bologna, «ma letteralmente della prima immagine presa in cielo: i primi fotoni rimbalzati tra i tre specchi del telescopio fino a entrare nella ComCam, la commissioning camera, una versione ridotta di quella scientifica, del tutto rispettabile con il suo campo di vista che copre un diametro di due lune piene».
Il processo di acquisizione dei primi dati di Rubin con la commissioning camera è iniziato ben prima del tramonto, con la preparazione del telescopio, della cupola e degli specchi. Come consuetudine prima di qualunque osservazione di carattere scientifico, anzitutto sono state effettuate le calibrazioni crepuscolari, mentre il cielo era ancora in penombra, e in seguito il telescopio è stato puntato verso una stella luminosa per verificare la precisione di puntamento e la messa a fuoco. Alle 21:53 ora locale, in Cile, con il cielo completamente buio, il team ha dato il comando alla commissioning camera di scattare un’esposizione di 30 secondi.
Photons, meet the Commissioning CameraOn October 24, Rubin staff successfully completed the first end-to-end on-sky test of the full telescope system using the testing camera — from capturing the night sky to transferring data to @SLAClab!
: t.co/r1HgWt2LcZ pic.twitter.com/NGurTXOmrx
— Rubin Observatory (@VRubinObs) October 29, 2024
«La prima immagine doveva essere uno sky flat, un’immagine a luce diffusa del cielo crepuscolare», continua Rodeghiero, responsabile per il Vera Rubin del team Ina-S21, una squadra di ricercatori e tecnologi che oltre a Rodeghiero e Rosignoli comprende anche Rodolfo Canestrari, Enrico Giro e Felice Cusano, tutti dell’Inaf, e che lavora con il Rubin System Engineering team alla validazione e verifica dei requisiti del Rubin Observatory, «ma già si possono scorgere i primi donuts, le tipiche ciambelline create dalle stelle fuori fuoco. Ci guardiamo tutti stupiti, e capiamo che siamo già molto vicini ad un’immagine di buona qualità. Dopo alcuni altri tentativi che mandano in fault il telescopio, ecco che compare sullo schermo l’immagine di una nebulosa planetaria con una nitidezza ed un fuoco praticamente perfetti, ben oltre ogni ragionevole aspettativa».
Questo esercizio end-to-end di funzionalità del telescopio e delle sue ottiche ha dimostrato, in via definitiva, che il Vera Rubin è funzionante e performante, ed è pronto per la sua prossima fase. La commissioning camera di Rubin è stata progettata per essere fisicamente delle stesse dimensioni della definitiva Lsst Camera – che presto la sostituirà – ma con un rivelatore circa 20 volte più piccolo: solo 144 megapixel rispetto ai 3200 megapixel della camera scientifica. La camera di prova servirà ancora per verificare tutte le componenti chiave del sistema e scovare qualsivoglia problema prima dell’installazione della camera vera e propria che sarà utilizzata per la scienza.
Da sinistra, Gabriele Rodeghiero (Inaf) e Luca Rosignoli (Unibo), presenti al Vera Rubin la notte della ricezione dei primi fotoni. Crediti: Inaf
I prossimi passi riguarderanno l’allineamento e la sagomatura degli specchi per garantire una qualità ottimale delle immagini con la commissioning camera. Verrà poi testata le pipeline di elaborazione dei dati di Rubin, che verranno anche resi disponibili agli scienziati. L’installazione di Lsst Camera al telescopio è prevista per gennaio 2025. Seguirà un periodo di messa in funzione di circa sei mesi, che porterà alla prima pubblicazione di immagini di Rubin, prevista per metà del 2025.
«Cinquant’anni fa una giovane Vera Cooper Rubin scopriva la prima evidenza di materia oscura sviluppando le lastre fotografiche del cielo sopra il Cerro Tololo Inter-american Observatory, 20 km a ovest da dove ci troviamo stasera», ricorda Rodeghiero. «Oggi, grazie a un passaggio di testimone generazionale, è l’inizio di una nuova pagina dell’astronomia che porta il suo nome. Rubin ci mostrerà la forma del cielo modellato dalla materia ed energia oscura, e il suo carattere transiente in luminosità e posizione con una profondità senza precedenti. Sappiamo che il prossimo anno sarà estremamente impegnativo per raggiungere il livello di affidabilità e stabilità necessario affinché la survey decennale di Rubin possa iniziare. Ma ora ci gustiamo questa notte fantastica, i sorrisi, gli applausi, gli occhi rossi e lucidi di chi ha investito mezza carriera in questo progetto ed ora sa che forma ha il primo fotone».
Gruppo Astrofili Faenza APS
in reply to Gruppo Astrofili Faenza APS • • •E non temere il freddo! Segui i nostri consigli su come vestirsi per uscire a vedere le stelle d'inverno!
youtu.be/vMA_6Qgz_lE
- YouTube
youtu.beAstronomia - Gruppo Forum reshared this.