Con un poco di zucchero filato cosmico
media.inaf.it/wp-content/uploa…
La galassia Ngc 7727. Crediti: International Gemini Observatory/NoirLab/Nsf/Aura
Due lunghi bracci vorticosi che si diramano da un nucleo centrale, ricchi di gas, polvere e sacche di stelle abbaglianti appena formate. La riconoscete? È la tipica forma di una galassia a spirale. Eppure questa figura così nota del cosmo, durante la fusione con un’altra galassia, può prendere una forma molto più bizzarra e amorfa: i suoi ampi bracci vengono improvvisamente scombinati e i due buchi neri supermassicci nei rispettivi centri galattici restano intrappolati in un’energetica e spettacolare danza cosmica prodotta dalle forze di marea.
È il caso di Ngc 7727, una particolare galassia situata nella costellazione dell’Acquario, a circa 90 milioni di anni luce da noi. Gli astronomi hanno catturato un’immagine che mostra le conseguenze di questa fusione galattica utilizzando lo spettrografo Gmo (Gemini Multi-Object Spectrograph) montato sul Gemini South telescope in Cile. L’immagine rivela vaste bande vorticose composte da polvere e gas interstellari che si avvolgono attorno ai nuclei in fusione delle galassie progenitrici, come un intricato garbuglio di filamenti che ricordano lo zucchero filato. Come conseguenza di questa fusione è possibile ammirare un mix sparso di regioni attive ricche di esplosioni stellari e strisce di polvere che circondano il sistema.
Ciò che più colpisce di Ngc 7727 sono i suoi due nuclei galattici, ciascuno dei quali ospita un buco nero supermassiccio, così come è stato confermato dal Vlt (Very Large Telescope). Gli astronomi ora sostengono che la galassia abbia avuto origine da una coppia di galassie a spirale coinvolte in una danza celeste circa un miliardo di anni fa. Stelle e nebulose fuoriuscirono dai loro sistemi rimanendo in balia della forza gravitazionale dei buchi neri finché non si formarono i nodi aggrovigliati e irregolari che osserviamo. La galassia è ancora scossa dall’impatto, la maggior parte dei tralci che vediamo sono incendiati dalla luce di giovani stelle e vivai stellari attivi. Si stima che circa ventitré degli oggetti rilevati in questo sistema siano candidati a divenire dei giovani ammassi globulari. Questi gruppi di stelle si formano spesso in aree in cui la formazione stellare è più elevata del solito e sono particolarmente comuni nelle galassie interagenti, come mostrato dall’immagine.
I due buchi neri supermassicci, che muovono e rimescolano la materia stellare, distano tra loro circa 1600 anni luce. Sono la coppia di buchi neri più vicina alla Terra che si conosca. Uno misura 154 milioni di masse solari e l’altro 6,3 milioni di masse solari. Si stima che tra circa 250 milioni di anni i due buchi neri si fonderanno in uno solo per formare un oggetto ancora più massiccio che dispenderà violente increspature di onde gravitazionali attraverso lo spaziotempo.
Una volta che la polvere galattica si sarà depositata, gli scienziati prevedono che Ngc 7727 si formerà in una galassia ellittica composta da stelle più vecchie e con pochissima formazione stellare, simile a Messier 87, una galassia ellittica con un buco nero supermassiccio al centro. Questo potrebbe essere il medesimo destino che attende il futuro della nostra galassia, la Via Lattea quando si fonderà con la galassia di Andromeda tra miliardi di anni.
Una nuova “teoria del tutto” per un’evoluzione 4.0
Ammonite opalizzata iridescente. Con il progredire dell’evoluzione della vita da organismi unicellulari a organismi pluricellulari e la formazione di ecosistemi, anche la mineralogia della superficie terrestre è diventata più complessa. E la diversità minerale che si è creata ha cambiato radicalmente la direzione e le possibilità dell’evoluzione. La biodiversità porta alla diversità minerale e viceversa. I due sistemi, biologico e minerale, hanno interagito per creare la vita come la conosciamo oggi. Crediti: Dr. Robert Lavinsky
Le leggi della natura descrivono e spiegano i fenomeni che osserviamo quotidianamente nel mondo che ci circonda. Le leggi classiche del moto, della gravità, dell’elettromagnetismo e della termodinamica, come pure le leggi fondamentali dell’evoluzione, sono alcuni esempi. Ognuna di queste leggi naturali, basate su dati empirici, descrive un comportamento universale dei sistemi fisici macroscopici nello spazio e nel tempo.
In un articolo pubblicato la settimana scorsa sui Proceedings of the National Academy of Sciences, un team multidisciplinare di scienziati, comprendente tra gli altri filosofi della scienza, astrobiologi e fisici teorici, descrive ora una nuova legge. L’hanno chiamata “legge mancante della natura” e riconosce l’evoluzione come una caratteristica comune dei sistemi complessi.
L’idea centrale della legge, chiamata anche “legge dell’aumento dell’informazione funzionale”, è che i sistemi naturali complessi evolvono verso stati di maggiore strutturazione, diversità e complessità se le molteplici configurazioni possibili del sistema subiscono una “selezione per una o più funzioni”. In pratica, quando una nuova configurazione di un sistema funziona bene e la funzione migliora, avviene l’evoluzione. E ciò a prescindere dal fatto che il sistema sia vivente o non vivente.
Ma cosa si intente esattamente per configurazione del sistema? E soprattutto, quali sono queste funzioni alla cui base ci sarebbe l’evoluzione?
La risposta alla prima domanda si trova nei cosiddetti attributi di applicabilità della legge. Nel formulare la teoria, uno degli sforzi che i ricercatori hanno fatto è stato quello di identificare eventuali equivalenze tra diversi sistemi evolutivi attraverso l’indagine di attributi comuni in grado di sostenere un enunciato che unificasse tutti i sistemi in questione. Per indagare questo concetto, gli autori hanno preso in esame tre sistemi in evoluzione differenti: il sistema stellare, il sistema minerale e il sistema biologico. Secondo i ricercatori, questi tre sistemi naturali in evoluzione differiscono in modo significativo nei dettagli: la nucleosintesi stellare dipende dalla selezione di configurazioni stabili di protoni e neutroni; l’evoluzione minerale si basa sulla selezione di nuove disposizioni stabili di elementi chimici; l’evoluzione biologica avviene attraverso la selezione naturale di tratti ereditabili vantaggiosi. Tuttavia, spiegano i ricercatori, questi e molti altri sistemi sono equivalenti sotto tre importanti aspetti: ogni sistema è formato da numerose unità interagenti (particelle nucleari, elementi chimici, molecole o cellule) che si dispongono in modi diversi e si riorganizzano ripetutamente, dando luogo a un numero combinatorio di configurazioni possibili; in ognuno dei sistemi, i processi in corso generano un gran numero di configurazioni diverse; alcune configurazioni, in virtù della loro stabilità o di altri vantaggi competitivi, hanno maggiori probabilità di persistere grazie alla selezione per funzione. In altre parole, ogni sistema si evolve attraverso la selezione di configurazioni vantaggiose. Da quando detto, si capisce come per configurazione di un sistema gli autori intendono l’insieme dei possibili modi che hanno gli elementi costitutivi del sistema stesso di organizzarsi nello spazio. Quanti sono questi modi? Molti, aggiungono i ricercatori. Tuttavia, solo una piccola parte di essi sopravvive in un processo chiamato “selezione per funzione”.
Andiamo ora al concetto di funzione, che Michael L. Wong, astrobiologo e scienziato planetario della Carnegie Carnegie Institution for Science, e colleghi spiegano prendendo come esempio una delle teorie che ha cambiato profondamente il mondo della scienza: la teoria evoluzionistica di Charles Darwin. Quello che sosteneva il naturalista inglese nel suo enunciato è che alle base dell’evoluzione c’è un meccanismo di selezione naturale innescato dalla lotta per la sopravvivenza. In questa teoria, la ‘funzione’ è la sopravvivenza di una specie, ovvero la capacità degli individui con le caratteristiche più vantaggiose di vivere abbastanza a lungo da raggiungere la maturità sessuale, riprodursi, produrre prole e trasmettere ai discendenti i propri geni, che verranno dunque selezionati a preferenza rispetto ai tratti non vantaggiosi. Tutto questo, naturalmente, sotto la spinta dell’adattamento all’ambiente.
La nuova legge amplia questa prospettiva, ammettendo almeno tre tipi di funzioni, dove per funzione si intende qualsiasi processo interno o esterno al sistema che apporti un vantaggio al sistema stesso. La prima funzione, che è anche la più elementare, è la stabilità. Molte strutture in natura sono state selezionate contro il decadimento all’equilibrio termodinamico “nutrendosi” di entropia negativa. Le strutture si sono cioè organizzate in maniera stabile opponendosi alla tendenza naturale al disordine, ossia all’entropia. Queste disposizioni stabili di atomi o molecole vengono selezionate in un processo che gli autori chiamano selezione del primo ordine o selezione per persistenza statica. L’idea alla base è che le configurazioni della materia tendono a persistere a meno che non esistano vie cineticamente più favorevoli all’acquisizione di assetti più stabili.
La seconda funzione è la dinamicità, tipica dei sistemi aperti. Il processo alla base di questa funzione è la dissipazione di energia libera: senza questa funzione, sottolineano i ricercatori, non potrebbero esistere sistemi complessi. L’autocatalisi – tipica dei sistemi autoreplicanti, dunque degli esseri viventi – e l’omeostasi sono altri tipi di funzioni. Il processo di selezione che avviene sulla base di questa funzione è la selezione di secondo ordine o selezione per persistenza dinamica.
La terza funzione, infine, è la novità, ovvero la tendenza dei sistemi in evoluzione a esplorare nuove configurazioni, che a volte portano a comportamenti nuovi o caratteristiche sorprendenti. In un universo che supporta molte possibilità di combinazioni, la scoperta di nuove configurazioni funzionali viene selezionata quando esiste un numero considerevole di configurazioni che non sono state ancora sottoposte a selezione, osservano i ricercatori. La selezione che sottende questa funzione è la selezione di terzo ordine o selezione per generazione di novità.
Secondo i ricercatori, dunque, la selezione di una configurazione dei sistemi sulla base di una o più di queste funzioni porta all’evoluzione del sistema stesso. Detto così l’enunciato mostra molte similitudini con la “legge della complessità crescente“, che afferma che la selezione naturale, agendo da sola, tende ad aumentare la complessità di un sistema. In realtà, sottolineano i ricercatori, la legge dell’aumento dell’informazione funzionale amplifica e quantifica questa congettura, concentrandosi sulla selezione naturale dei sistemi biologici in evoluzione.
Come anticipato, la legge in questione si applica a un’ampia gamma di sistemi in evoluzione, compresi i sistemi viventi. La vita, sebbene distinta nelle specificità dei suoi meccanismi evolutivi, può essere infatti concettualizzata come equivalente ai sistemi stellari e minerali: sia che la guardiamo su scala molecolare, sia che la guardiamo a livello di cellule, individui o ecosistemi, i sistemi biologici hanno il potenziale di presentarsi in numerose configurazioni, e la selezione naturale conserva preferenzialmente configurazioni con funzioni efficaci.
Oltre ad aiutare a comprendere l’evoluzione dei sistemi complessi, lo studio in questione ha notevoli implicazioni anche per la ricerca della vita nel cosmo. L’idea dei ricercatori a tal proposito è questa: se esiste una demarcazione tra la chimica della vita e quella del mondo inanimato che ha a che fare con la selezione per la funzione, si potrebbero identificare delle “regole della vita” che ci permetterebbero di discriminare questa linea di demarcazione nelle indagini astrobiologiche.
«Se Darwin ha formulato la teoria evolutiva partendo da un approccio legato alla sopravvivenza della specie, con questo lavoro lo scenario di applicabilità si amplia notevolmente», dice a Media Inaf John Brucato, astrobiologo all’Inaf – Osservatorio astrofisico di Arcetri, che abbiamo contattato per un commento al nuovo enunciato. «La funzione più interessante è la “novità”», aggiunge lo scienziato, «ovvero la tendenza dei sistemi in evoluzione a esplorare nuove configurazioni che a volte portano a nuovi comportamenti o caratteristiche sorprendenti. Data l’ubiquità dei sistemi evolutivi nel mondo naturale, la nuova legge introdotta in questo lavoro considera sia la “funzione” che il “contesto”. Se accettiamo che la selezione basata sulla crescita di funzionalità, sulla persistenza e sulla generazione di novità sia un processo universale guidato da una legge di natura, allora dobbiamo aspettarci che la vita sia un fenomeno comune nell’Universo»
Per saperne di più:
- Leggi su Proceedings of the National Academy of Sciences l’articolo “On the roles of function and selection in evolving systems” di Michael L. Wong, Carol E. Cleland, Daniel Arend Jr., Stuart Bartlett, H. James Cleaves II, Heather Demarest, Anirudh Prabhu, Jonathan I. Lunine e Robert M. Hazen
Filamenti a doppia elica nel cuore del blazar
Immagine ad alta risoluzione del getto relativistico nel blazar 3C 279 ottenuta con RadioAstron. L’immagine rivela una struttura complessa all’interno del getto, con diversi filamenti che formano una struttura a elica. In basso, a titolo di confronto, l’immagine ottenuta dal Very Long Baseline Array e la posizione della sorgente nel cielo dei raggi gamma (si noti che le scale sono molto diverse). Crediti: Nasa/Doe/Fermi Lat Collaboration; Vlba/Jorstad et al.; RadioAstron/Fuentes et al.
I blazar sono le sorgenti continue di radiazione più potenti dell’universo. Come altre galassie attive, presentano una struttura costituita da un buco nero supermassiccio centrale circondato da un disco di materia che lo alimenta. Rientrano in quel 10 per cento di galassie attive che mostrano getti di plasma ad alta velocità in uscita da entrambi i poli, e in particolare in quella percentuale ancora più ridotta di casi in cui possiamo osservare questi getti quasi frontalmente. Un team di ricercatori guidato da Antonio Fuentes dell’Istituto di astrofisica dell’Andalusia (Iaa-Csic) ha ora osservato il getto della galassia 3C 279 – situata in direzione della costellazione della Vergine, a circa cinque miliardi di anni luce da noi – con una risoluzione e una sensibilità senza precedenti, individuando grandi filamenti con una struttura a doppia elica: una scoperta che richiede di rivedere i modelli teorici utilizzati finora.
«I risultati, pubblicati oggi su Nature Astronomy, mostrano che il getto di 3C 279 presenta una struttura complessa», spiega Rocco Lico, coautore dello studio, ricercatore all’Istituto nazionale di astrofisica e all’Iaa-Csic, «composta da almeno due filamenti elicoidali che si estendono dai pressi del nucleo a oltre 570 anni luce di distanza». Si tratta di una struttura inedita, anche se già nel 2020 l’Event Horizon Telescope (Eht) – la collaborazione che nel 2019 ha prodotto la prima immagine di un buco nero – aveva rivelato strutture inaspettate nel nucleo di 3C 279, con una sensibilità però insufficiente per osservare i filamenti.
«Grazie a RadioAstron, un radiotelescopio spaziale con un’orbita che si spinge fino ad arrivare vicino a quella della Luna, e a una rete di 23 radiotelescopi distribuiti su tutta la Terra, abbiamo ottenuto l’immagine a più alta risoluzione del cuore di un blazar fino a oggi, riuscendo così a osservare per la prima volta la struttura interna del getto», dice Fuentes, primo autore dello studio.
I due coautori Inaf dello studio. Da sinistra: Rocco Lico, dell’Inaf Ira di Bologna, e Gabriele Bruni, dell’Inaf Iaps di Roma
«Nonostante dal 2019 RadioAstron non sia più attivo», aggiunge un altro coautore dello studio, Gabriele Bruni, ricercatore all’Istituto nazionale di astrofisica, «la miniera di dati lasciati in eredità dalla missione continua a rivelare dettagli inediti sulla fisica dei getti. Negli ultimi dieci anni, infatti, sono stati numerosi i contributi della missione allo studio della struttura, propagazione, e conformazione del campo magnetico dei getti relativistici lanciati dai nuclei galattici attivi, grazie alla risoluzione da record raggiunta tramite la tecnica del Vlbi spaziale». Bruni ricorda inoltre come iI gioco di squadra compiuto dalle stazioni radioastronomiche di tutto il globo, che hanno supportato RadioAstron durante le osservazioni, abbia incluso anche le tre antenne italiane dell’Inaf: il Sardinia Radio Telescope, Medicina e Noto.
Tornando ai filamenti elicoidali osservati nel getto di 3C 279, le loro proprietà, spiega Fuentes, «ci portano a concludere che sono prodotti dalle instabilità presenti nel plasma di cui sono fatti i getti. Tenendo conto di tutti gli elementi, siamo giunti a concludere che il modello utilizzato per quattro decenni per spiegare la variabilità radio associata ai getti non si può applicare a questo caso. Proponiamo dunque un modello alternativo che tiene conto delle strutture da noi osservate».
Dallo studio emerge inoltre che il getto potrebbe essere confinato da un campo magnetico elicoidale. Sarebbe questo campo magnetico, che in 3C 279 ruota in senso orario attorno al getto, a incanalare il materiale che viaggia lungo di esso, a una velocità pari a 0,997 volte la velocità della luce.
«Questo risultato, insieme ad altre recenti scoperte, suggerisce che i getti dei blazar abbiano una struttura interna più ricca e complessa delle morfologie “a imbuto” osservate negli studi a bassa risoluzione. Alla luce di questi risultati, molte altre sorgenti di questo tipo potranno essere rianalizzate e reinterpretata», conclude uno dei coautori dello studio, José Luis Gómez, ricercatore all’Iaa-Csic, «evidenziando l’importanza di nuove reti globali di radiotelescopi con risoluzione angolare e sensibilità più elevate, come nel prossimo decennio il Next Generation Eht e, a più lungo termine, le missioni spaziali che osservano a lunghezze d’onda millimetriche».
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Filamentary structures as the origin of blazar jet radio variability”, di Antonio Fuentes, José L. Gómez, José M. Martí, Manel Perucho, Guang-Yao Zhao, Rocco Lico, Andrei P. Lobanov, Gabriele Bruni, Yuri Y. Kovalev, Andrew Chael, Kazunori Akiyama, Katherine L.Bouman, He Sun, Ilje Cho, Efthalia Traianou, Teresa Toscano, Rohan Dahale, Leonid I. Gurvits, Svetlana Jorstad, Jae-Young Kim, Alan P. Marscher, Yosuke Mizuno, Eduardo Ros e Tuomas Savolainen
Guarda su MediaInaf Tv l’intervista a Rocco Lico:
C’è del tellurio in quella kilonova
media.inaf.it/wp-content/uploa…
Immagine del Grb 230307A e la relativa kilonova (in alto a sinistra) realizzata con la fotocamera NirCam a bordo del telescopio spaziale Webb. La galassia di colore bluastro in basso a destra è il luogo d’origine delle due stelle di neutroni che, dopo aver viaggiato per circa 120mila anni luce, hanno dato luogo all’esplosione. Crediti: Nasa, Esa, Csa, A. Levan (Radboud University)
Un team internazionale di scienziati ha identificato l’origine di un potente lampo di raggi gamma (gamma-ray burst, o Grb) osservato lo scorso marzo: a generarlo è stata una kilonova, ovvero l’esplosione causata dalla fusione tra due stelle di neutroni. La ricerca è basata su osservazioni realizzate con il James Webb Space Telescope (Jwst), che ha anche permesso di rilevare l’elemento chimico tellurio nel materiale espulso dalla potente esplosione. Il lampo, denominato Grb 230307A, è il secondo più luminoso mai scoperto in oltre 50 anni di osservazioni. È stato individuato il 7 marzo 2023 dal telescopio spaziale per raggi gamma Fermi, a cui ha fatto seguito il Neil Gehrels Swift Observatory, entrambi della Nasa. I risultati sono stati pubblicati oggi sulla rivista Nature.
«Il materiale in queste esplosioni è lanciato nello spazio a velocità molto elevate, causando una rapida evoluzione della luminosità e della temperatura del plasma in espansione», afferma Om Sharan Salafia, ricercatore dell’Istituto nazionale di astrofisica (Inaf) a Milano, tra gli autori dello studio. «Con l’espansione, il materiale si raffredda e il picco della sua luce si sposta sempre più verso il rosso, per poi passare all’infrarosso su scale temporali che vanno da giorni a settimane».
Le kilonove sono esplosioni estremamente rare, il che ne rende difficile l’osservazione. Per molto tempo, si è ritenuto che i Grb brevi, dalla durata inferiore a due secondi, derivassero da questi eventi, mentre i Grb più lunghi fossero associati alla morte esplosiva di una stella massiccia, o supernova. Il caso di Grb 230307A è peculiare: il lampo è durato 200 secondi, come i Grb di lunga durata, eppure le osservazioni di Jwst indicano chiaramente che proviene dalla fusione di due stelle di neutroni. Oltre al tellurio, è probabile che nel materiale espulso nella kilonova siano presenti anche altri elementi pesanti, vicini ad esso sulla tavola periodica, come ad esempio lo iodio, necessario per gran parte della vita sulla Terra.
La collaborazione di molti telescopi, sia a terra che nello spazio, ha permesso al team di raccogliere una gran quantità di informazioni su questo evento subito dopo il primo rilevamento, aiutando loro a individuare la sorgente nel cielo e a monitorare la sua luminosità nel tempo. Le osservazioni nei raggi gamma, nei raggi X, nell’ottico, nell’infrarosso e in banda radio hanno mostrato che la controparte ottica/infrarossa era debole, evolvendosi rapidamente e passando dal blu al rosso: i tratti distintivi di una kilonova. In particolare, la sensibilità di Jwst nell’infrarosso ha aiutato gli scienziati a identificare l’origine delle due stelle di neutroni che hanno prodotto la kilonova: una galassia a spirale a circa 120mila anni luce dal luogo della fusione. I progenitori del poderoso evento erano due stelle massicce che formavano un sistema binario in questa galassia: le esplosioni che le hanno trasformate in stelle di neutroni, tuttavia, hanno espulso il sistema binario dalla galassia. Prima di fondersi e dare luogo alla kilonova, diverse centinaia di milioni di anni più tardi, hanno percorso un tragitto pari al diametro della Via Lattea.
Alla campagna osservativa ha partecipato anche il Vst (Vlt Survey Telescope), telescopio dell’Inaf presso l’Osservatorio di Paranal, in Cile. «Quando il Grb fu scoperto, non si conosceva ancora la sua controparte ottica, in quanto Swift non lo aveva osservato e quindi non si aveva idea della posizione esatta con precisione di arcosecondi, in modo da attivare il follow-up classico» spiega il co-autore Luca Izzo, ricercatore presso l’Inaf a Napoli e presso il Dark Cosmology Center, Niels Bohr Institute, Università di Copenhagen, in Danimarca. «Avendo del tempo di osservazione al Vst per un mio programma sulle galassie vicine, decisi di pianificare delle osservazioni per la ricerca della controparte nella notte a me riservata, due giorni dopo la scoperta del Grb. Queste osservazioni hanno identificato correttamente la controparte ottica poche ore dopo la prima conferma, ottenuta dalla UltraCam sul New Technology Telescope. Questo dimostra il contributo del Vst nell’identificazione ottica di sorgenti ad alta energia e nel successivo follow-up e caratterizzazione. Una cosa che faremo sicuramente nel futuro immediato».
Per saperne di più:
- Leggi su Nature X l’articolo “Heavy element production in a compact object merger observed by Jwst”, di Andrew Levan, Benjamin P. Gompertz, Om Sharan Salafia, Mattia Bulla, Eric Burns, Kenta Hotokezaka, Luca Izzo, Gavin P. Lamb, Daniele B. Malesani, Samantha R. Oates, Maria Edvige Ravasio, Alicia Rouco Escorial, Benjamin Schneider, Nikhil Sarin, Steve Schulze, Nial R. Tanvir, Kendall Ackley, Gemma Anderson, Gabriel B. Brammer, Lise Christensen, Vikram S. Dhillon, Phil A. Evans, Michael Fausnaugh, Wen-fai Fong, Andrew S. Fruchter, Chris Fryer, Johan P. U. Fynbo, Nicola Gaspari, Kasper E. Heintz, Jens Hjorth, Jamie A. Kennea, Mark R. Kennedy, Tanmoy Laskar, Giorgos Leloudas, Ilya Mandel, Antonio Martin-Carrillo, Brian D. Metzger, Matt Nicholl, Anya Nugent, Jesse T. Palmerio, Giovanna Pugliese, Jillian Rastinejad, Lauren Rhodes, Andrea Rossi, Andrea Saccardi, Stephen J. Smartt, Heloise F. Stevance, Aaron Tohuvavohu, Alexander van der Horst, Susanna D. Vergani, Darach Watson, Thomas Barclay, Kornpob Bhirombhakdi, Elm e Breedt, Alice A. Breeveld, Alexander J. Brown, Sergio Campana, Ashley A. Chrimes, Paolo D’Avanzo, Valerio D’Elia, Massimiliano De Pasquale, Martin J. Dyer, Duncan K. Galloway, James A. Garbutt, Matthew J. Green, Dieter H. Hartmann, Páll Jakobsson, Paul Kerry, Chryssa Kouveliotou, Danial Langeroodi, Emeric Le Floc’h, James K. Leung, Stuart P. Littlefair, James Munday, Paul O’Brien, Steven G. Parsons, Ingrid Pelisoli, David I. Sahman, Ruben Salvaterra, Boris Sbarufatti, Danny Steeghs, Gianpiero Tagliaferri, Christina C. Thone, Antonio de Ugarte Postigo, David Alexander Kann
In ricordo di Roberto Fanti
Roberto Fanti (terzo da sx) con Carla Fanti (seconda da sx), Liliana Formiggini e Roberto Bergamini nel giardino dell’Istituto di fisica dell’Università di Bologna nel 1967. Crediti: Inaf-Ira
Laureatosi in fisica a Bologna, dal 1965 Roberto Fanti ha fatto parte del gruppo di scienziati e tecnici che ha realizzato il primo grande progetto della radioastronomia italiana, il radiotelescopio “Croce del Nord” di Medicina, portando alla creazione del catalogo di radiosorgenti B2, pietra miliare per la scoperta e identificazione delle sorgenti radio, che per moltissimi anni è stato uno dei cataloghi maggiormente utilizzati dalla comunità internazionale. Al tempo il catalogo si rivelò fondamentale per la selezione di radiogalassie e quasar e Roberto capì immediatamente l’importanza di osservare questi oggetti ad alta risoluzione angolare, sviluppando una collaborazione tra l’allora Laboratorio di radioastronomia e il Westerbork Synthesis Radio Telescope (Wsrt) presso Dwingeloo (Olanda). I radioastronomi bolognesi ottennero un accesso continuo al Wsrt, che inizialmente era aperto ai soli ricercatori olandesi. Questa collaborazione segnò l’ingresso effettivo della radioastronomia italiana in campo europeo e contribuì a creare quell’asse tra Italia e Olanda che ancora oggi è uno dei fondamenti della radioastronomia in Europa.
«Con lui, Carla Fanti e Hans de Ruiter abbiamo lavorato per quasi 40 anni sul campione di radiosorgenti B2 a bassa luminosità e l’ultimo articolo, scritto quando eravamo già tutti pensionati, riguardava ancora le proprietà delle galassie del campione», ricorda Paola Parma, oggi associata all’Istituto di radioastronomia.
Roberto Fanti aveva una profonda conoscenza della fisica e dell’astrofisica e una mente così brillante da permettergli di portare contributi fortemente innovativi in ambiti anche molto diversi fra loro. Pur essendo inquadrato presso l’Università di Bologna ha sempre svolto la sua attività scientifica presso il Laboratorio nazionale di radioastronomia, diventato poi Istituto di radioastronomia del Cnr e dell’Inaf. Da qui, per tantissimi anni ha ispirato le più importanti linee di ricerca che hanno portato la radioastronomia italiana ai vertici mondiali. In particolare, è stato un vero e proprio pioniere dello studio della fisica ed evoluzione delle radiosorgenti extragalattiche, costruendo una solidissima scuola apprezzata in tutto il mondo.
Roberto Fanti con sua moglie Carla il giorno di festeggiamento per il suo pensionamento nel 2005 mostra uno dei regali ricevuti: una serie di antiche stampe di Bologna. Crediti: I. Gioia
«A distanza di quasi 35 anni, il suo articolo “On the nature of compact steep spectrum radio sources” è ancora un punto di riferimento per chi studia l’evoluzione delle radiogalassie», dice Tiziana Venturi, dirigente di ricerca dell’Istituto di radioastronomia. «Ricordo che sulla scia di quello studio, sotto la leadership di Roberto, nacquero collaborazioni intensissime con il California Institute of Technology, allora punta di diamante degli studi ad altissima risoluzione con la tecnica Vlbi delle radiosorgenti compatte».
Roberto è stato professore ordinario di astronomia e astrofisica e direttore, alla fine degli anni ‘90, del Dipartimento di astronomia. Ha insegnato fisica I e fisica II ai corsi di laurea in fisica e astronomia, e il corso di radioastronomia le cui dispense Una finestra sull’Universo “Invisibile” sono poi diventate un libro, scritto insieme con Carla Fanti, che è ancora oggi “la bibbia” per i radio astronomi. La sua brillantezza, la chiarezza e il fascino delle sue lezioni, unitamente alla sua disponibilità, lo hanno fatto amare e rispettare sia dagli studenti sia dai tanti colleghi. Si è sempre distinto per la sua modestia e correttezza, dando lezioni a tutti anche sul come fare “un passo di fianco” per far crescere i più giovani. È stato infatti un mentore eccezionale, facendo crescere intere generazioni di radioastronomi che hanno poi raccolto il suo testimone.
«È stato il mio professore di fisica I, così bravo che a distanza di qualche anno eravamo ancora tutti lì in fila per chiedergli una tesi o consigli sugli argomenti di tesi», dice Gianfranco Brunetti, oggi direttore dell’Istituto di radioastronomia, «la persona che più di tutti mi ha fatto avvicinare alla radioastronomia e sempre un fortissimo riferimento, tanto che negli anni ho continuato a passare nel suo ufficio come un bambino per discutere con lui “carta e penna” di quello che avevo scoperto».
«Roberto è stato il professore con cui mi sono laureata», dice Isabella Gioia, oggi associata all’Istituto di radioastronomia. «Aveva solo tre anni più di me, io laureanda e lui il mio professore! Fui piena di ammirazione per lui. Poi in seguito ebbi modo di conoscerlo meglio come collega, un collega unico, colto, erudito (e non solo in radioastronomia), garbato, gentile. Con lui si poteva parlare di tutto, non solo di scienza!».
In questo momento di tristezza e cordoglio per la sua scomparsa, ci rimane la solidità della sua eredità umana e scientifica, e il privilegio di averlo avuto come professore, collega e amico.
Al suo fianco sempre Carla, amatissima compagna di vita e di quella bellissima avventura che è lo studio dell’Universo. A lei e alla sua famiglia l’abbraccio affettuoso nostro e di tutta la comunità.
Gianfranco Brunetti, Luigina Feretti, Isabella Gioia, Gabriele Giovannini, Paola Parma e Tiziana Venturi
Ligo va oltre il limite quantistico
Uno sguardo sulla tecnologia che crea la luce “squeezed” nella camera a vuoto di Ligo. Crediti: Georgia Mansell/Ligo Hanford Observatory
Davanti alla precisione degli interferometri per onde gravitazionali si rimane a bocca aperta: i bracci lunghi quattro chilometri ciascuno dei rivelatori di Ligo riescono ad accorgersi di perturbazioni dello spazio-tempo ampie un millesimo del diametro di un protone. O diecimila miliardi di volte più piccole dello spessore di un capello umano, se preferite. Dimensioni inimmaginabili. Dimensioni alle quali gli effetti quantistici iniziano a farsi pesanti. Effetti come il crepitio del rumore prodotto dai fotoni all’interno dei tubi “sotto vuoto” nei quali corrono i fasci laser usati dall’interferometro per rilevare le contrazioni e le dilatazioni dello spazio-tempo dovute al passaggio di onde gravitazionali. Rumore che le leggi della meccanica quantistica – e in particolare il principio di indeterminazione di Heisenberg – rendono impossibile da eliminare del tutto, limitando così la sensibilità degli interferometri. Ma che la stessa meccanica quantistica aiuta ad aggirare. Come? Grazie a una tecnica chiamata quantum squeezing. Ebbene, gli scienziati di Ligo hanno ora annunciato in un articolo su Physical Review X di essere riusciti a implementare nell’interferometro uno squeezing dipendente dalla frequenza, superando così in sensibilità il limite quantistico e aumentando del 60 per cento il numero di eventi che Ligo potrà rivelare.
«La natura quantistica della luce crea il problema, ma la fisica quantistica ci fornisce anche la soluzione», dice a proposito dello squeezing la ricercatrice del Massachussetts Institute of Technology Lisa Barsotti, originaria di Livorno e oggi al Mit come supervisore dello sviluppo di questa nuova tecnologia per Ligo. La soluzione alla quale fa riferimento Barsotti consiste nell’impiego di particolari cristalli che trasformano un fotone in una coppia di fotoni entangled di energia inferiore. Ciò consente di realizzare fisicamente lo squeezing. «I fotoni arrivano con maggiore regolarità, come se si tenessero per mano invece di viaggiare in modo indipendente», spiega un altro dei fisici alla guida del progetto, Lee McCuller del Caltech. E grazie allo squeezing è possibile mettere in atto lo stratagemma che permette non di eliminare ma, almeno, di esercitare un controllo sugli effetti del principio di indeterminazione, consentendo di scegliere verso quale variabile “spingere” l’incertezza. Ovvero, nel caso di Ligo, di spostare il rumore più sulla frequenza o più sull’ampiezza.
Se ci si fermasse qui, però, non si sarebbe fatto altro che “travasare il rumore” da un dominio all’altro. A rendere davvero vantaggioso il ricorso a questa tecnica è il fatto che il rumore quantistico ha componenti ad alta e a bassa frequenza, componenti per le quali la scelta di dove concentrare e dove invece ridurre l’incertezza non è equivalente. Relativamente le alte frequenze, ridurre l’incertezza sulla frequenza (o sulla fase) migliora la sensibilità di Ligo. L’effetto indesiderato è l’incremento del rumore di pressione della radiazione degli specchi alle basse frequenze. Rumore che viene invece limitato riducendo l’incertezza sull’ampiezza.
Per massimizzare i vantaggi occorre dunque un sistema di squeezing che permetta di “spostare” il rumore in base alla frequenza. Ed è esattamente ciò che riescono a fare le nuove cavità ottiche di Ligo, tubi lunghi ognuno quanto tre campi da calcio: consentono di “spremere” la luce in modo diverso a seconda della frequenza. «Prima eravamo costretti a scegliere dove volevamo che Ligo fosse più preciso», dice Rana Adhikari del Caltech. «Ora è come se fossimo riusciti a salvare capra e cavoli».
Il sistema sembra funzionare anche sul campo: Ligo lo sta applicando sin dall’inizio del run osservativo attualmente in corso, O4, iniziato il 24 maggio 2023. E anche l’interferometro italiano Virgo, che fino a ora non ha preso parte al run O4 ma che dovrebbe farlo nel marzo 2024, potrebbe impiegare questa nuova tecnologia.
Per saperne di più:
- Leggi su Physical Review X l’articolo “Broadband quantum enhancement of the LIGO detectors with frequency-dependent squeezing”, di D. Ganapathy et al.
Guarda il servizio video su MediaInaf Tv:
Io, sì, vengo dalla Luna
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di Kamoʻoalewa mentre passa in prossimità del sistema Terra-Luna. Crediti: Addy Graham/University of Arizona
Gli astronomi li chiamano quasi-satelliti. Sono asteroidi near-Earth con orbite così simili a quelle d’un pianeta che sembrano orbitargli attorno, ma in realtà ruotano attorno al Sole. Ce li ha Venere, Nettuno, forse Cerere. E ce li ha anche la Terra, che a oggi ne conta sette. (469219) Kamoʻoalewa, un masso dal diametro compreso tra i 40 e i 100 metri, è uno di questi.
Scoperto nel 2016 dal telescopio PanStarrs, alle Hawaii, di recente il quasi-satellite della Terra è balzato agli onori della cronaca per la sua probabile origine lunare: uno studio condotto da un team di astronomi guidato dal Lunar and Planetary Laboratory dell’Università dell’Arizona (ne abbiamo parlato su Media Inaf) aveva infatti scoperto che le sue caratteristiche fisiche sono molto probabilmente simili a quelle delle rocce lunari. Ora una nuova ricerca, condotta questa volta dall’Università dell’Arizona, a Tucson, è giunta a risultati che avallano questa ipotesi. Il nuovo studio è riportato su Communications Earth & Environment, una rivista del gruppo Nature.
Nel corso della sua storia, la Luna è stata bombardata da moltissimi asteroidi, cosa evidente nei numerosi crateri da impatto che segnano la sua superficie. La maggior parte del materiale espulso con questi impatti solitamente ricade sulla Luna, mentre la restante parte raggiunge la Terra sotto forma di meteore. Una piccola quota, tuttavia, potrebbe sfuggire alla gravità sia della Luna che della Terra e finire per orbitare attorno al Sole, come altri asteroidi near-Earth.
Nello studio in questione, l’obiettivo dei ricercatori era determinare la probabilità che un pezzo di roccia staccatosi dalla Luna in seguito all’impatto di un meteoroide possa posizionarsi nell’orbita tipica di un quasi-satellite. Per farlo hanno effettuato simulazioni dell’evoluzione dinamica di frammenti di roccia lanciati da diverse posizioni della superficie lunare a velocità di espulsione differenti.
Tenendo in debita considerazione le forze gravitazionali di tutti i pianeti del Sistema solare, il team ha scoperto che c’è una probabilità di circa il 7 per cento che alcuni frammenti lunari possano effettivamente posizionarsi in orbite tipiche dei quasi-satelliti, al di fuori della nostra sfera di Hill, la regione dove l’influenza gravitazionale terrestre prevale su quella solare. Detto in altri termini, i risultati suggeriscono che sì, (469219) Kamoʻoalewa potrebbe essere un pezzo di roccia lunare che co-orbita insieme a noi attorno al Sole.
«Finora solo gli asteroidi oltre l’orbita di Marte erano considerati una fonte di near-Earth» osserva Renu Malhotra, scienziata planetaria presso l’Università dell’Arizona e co-autrice della pubblicazione. «Ora stiamo stabilendo che la Luna è la più probabile fonte del near-Earth Kamoʻoalewa».
In futuro i ricercatori cercheranno di dedurre l’età esatta dell’asteroide e di identificare le specifiche condizioni che gli hanno consentito di entrate nella sua attuale orbita. Studi più dettagliati per determinare l’origine da uno specifico cratere lunare forniranno inoltre utili spunti sulla meccanica dell’impatto e ci aiuteranno a comprendere meglio gli asteroidi near-Earth, alcuni dei quali sono considerati un potenziale pericolo per la Terra.
«Questo corpo celeste può darci informazioni sulla formazione della Luna e migliorare la nostra conoscenza degli asteroidi near-Earth», dice a questo proposito Aaron Rosengren, ricercatore dell’Università della California – San Diego, tra i firmatari dell’articolo. «Ma per dire con certezza che Kamoʻoalewa è un frammento della Luna abbiamo bisogno di maggiori informazioni». Informazioni che potrebbero arrivare a breve da Tianwen-2, una missione robotica che sarà lanciata nel 2025 dall’Agenzia spaziale cinese (Cnsa), tra i cui obiettivi c’è riportare sulla Terra campioni dell’asteroide.
Per saperne di più:
- Leggi su Nature Communications Earth & Environment l’articolo “Lunar ejecta origin of near-Earth asteroid Kamo’oalewa is compatible with rare orbital pathways” di Jose Daniel Castro-Cisneros, Renu Malhotra e Aaron J. Rosengren
Guarda il video (in inglese) sul canale YouTube della UC San Diego
youtube.com/embed/9Sc_Lv-iPt8?…
Quanti anni hai, Luna?
media.inaf.it/wp-content/uploa…
L’astronauta dell’Apollo 17 Harrison Schmitt nel 1972, coperto di polvere lunare. Crediti: Nasa
Più di 4 miliardi di anni fa, in un Sistema solare ancora giovane e in cui la Terra si stava ancora formando, un oggetto gigante delle dimensioni di Marte – denominato Theia – si schiantò contro il nostro pianeta primordiale. Il frammento più grande staccatosi dalla Terra – costituito da magma e rocce fuse sotto forma di un disco di detriti – ha orbitato intorno al pianeta fino a raffreddarsi e costituire, così, la Luna.
Questo è quanto sarebbe avvenuto, secondo la teoria dell’impatto gigante, al momento della nascita del nostro satellite. Ma sul quando e sul come c’è ancora un gran mistero.
Nel recente studio pubblicato sulla rivista Geochemical Perspectives Letters, un team internazionale di ricercatori ha analizzato i frammenti di roccia lunare raccolti dagli astronauti della missione Apollo 17 – l’ultima con equipaggio a bordo – per cercare di datare il momento della formazione della Luna. Fissando l’evento ad almeno 4,46 miliardi di anni, la scoperta renderebbe la Luna più vecchia di circa 40 milioni di anni rispetto a quanto finora stimato.
Riportati sulla Terra nel 1972, i campioni di polvere lunare utilizzati nella ricerca contengono minuscoli cristalli di zircone formatisi miliardi di anni fa, dopo il raffreddamento del magma. «Questi cristalli sono i più antichi frammenti solidi conosciuti, formatisi dopo l’impatto del corpo planetario con la Terra», afferma Philipp Heck, responsabile del Field Museum, direttore del Centro di ricerca interattivo di Negaunee, professore all’Università di Chicago e autore senior dello studio. «Poiché sappiamo quanto sono vecchi questi cristalli, possiamo usarli per stabilire una cronologia lunare».
Un grano di zircone lunare al microscopio. Crediti: J. Greer
Cristalli come prime tracce di una neonata Luna, quindi.
La roccia contenente i zirconi è stata raccolta nella valle Taurus-Littrow, sul bordo sud-orientale del Mare Serenitatis lunare, e conservata presso il Johnson Space Center della Nasa, a Houston. Secondo gli scienziati, l’energia scaturita dall’impatto del gigante corpo planetario con la Terra, avrebbe fuso la roccia creando un oceano magmatico: l’origine di quella che sarebbe poi diventata la superficie lunare.
Poiché i cristalli devono essersi formati dopo il raffreddamento dell’oceano di magma, la determinazione dell’età dei cristalli di zircone potrebbe effettivamente rivelare l’età minima possibile della Luna. «Con la superficie lunare così fusa, è impossibile che i cristalli di zircone si siano formati prima dell’impatto e poi si siano conservati», aggiunge Heck. «Devono per forza essersi formati successivamente, quando l’oceano magmatico lunare si è raffreddato. Altrimenti, sarebbero stati fusi e le loro “firme chimiche” sarebbero state cancellate del tutto».
Una precedente ricerca di Bidong Zhang, scienziato planetario dell’Ucla negli Stati Uniti e coautore della pubblicazione, aveva già suggerito che la Luna fosse più vecchia di quanto si pensasse. «È interessante notare che tutti i minerali più antichi trovati sulla Terra, su Marte e sulla Luna sono cristalli di zircone. Lo zircone, non il diamante, dura per sempre», osserva Zhang.
L’autrice principale Jennika Greer al lavoro con la sonda tomografica atomica. Crediti: Dieter Isheim, Northwestern.
La novità introdotta dal recente studio è l’utilizzo del nuovo metodo analitico chiamato tomografia a sonda atomica (Atom Probe Tomography, Apt) che ha definitivamente fissato l’età del cristallo di Luna più antico in assoluto. Il campione raccolto nella missione Apollo 17 pesava circa 110 chili e, considerando che non siamo tornati sulla Luna da oltre 50 anni, ogni frammento lunare che abbiamo a disposizione è preziosissimo: dobbiamo farlo fruttare per tutti gli studi e le ricerche prossime, fino a quando l’uomo non tornerà sulla Luna.
Per fortuna, gli scienziati hanno trovato, grazie all’Apt, un nuovo modo per analizzare la chimica del suolo lunare utilizzando, atomo per atomo, un singolo granello di polvere senza compromettere il resto del campione. «Nella tomografia a sonda atomica, si inizia riducendo un pezzo di campione lunare in una punta molto affilata, usando un microscopio a fascio ionico focalizzato, quasi come fosse un “temperamatite” di lusso», ha spiegato Jennika Greer, oggi all’Università di Glasgow in Scozia, prima autrice dello studio per cui ha collaborato sin dall’inizio insieme ad Heck, suo precedente supervisore di dottorato.
La “punta” ottenuta è larga solo poche centinaia di atomi, mentre un foglio di carta ha uno spessore di centinaia di migliaia di atomi. Una volta inserito il campione all’interno della sonda atomica, Greer lo ha colpito con un laser Uv per staccare singoli atomi che volano via e vanno a colpire una piastra di rilevamento. Gli elementi più pesanti, come il ferro, impiegano più tempo a raggiungere il rilevatore rispetto a quelli più leggeri, come l’idrogeno; misurando il tempo che intercorre tra lo sparo del laser e l’impatto dell’atomo sul rilevatore, lo strumento è in grado di determinare il tipo di atomo in quella determinata posizione e la sua carica. I ricercatori hanno poi analizzato i dati in tre dimensioni, utilizzando un punto codificato a colori per ogni atomo e molecola e creando una mappa 3D in scala nanometrica della polvere lunare. «Gli atomi passano attraverso uno spettrometro di massa e la velocità con cui si muovono ci dice quanto sono pesanti, il che a sua volta ci dice di cosa sono fatti», spiega Greer.
La microscopica punta affilata di un cristallo di zircone lunare. Crediti: J. Greer.
L’analisi atomo per atomo, condotta con gli strumenti di tomografia atomica della Northwestern University, ha mostrato quanti atomi, all’interno dei cristalli di zircone, avevano subito un decadimento radioattivo. Quando un atomo ha una configurazione instabile di protoni e neutroni nel proprio nucleo, infatti, subisce un decadimento, liberandosi di alcune particelle e trasformandosi in elementi diversi: per esempio, l’uranio decade in piombo.
Gli scienziati hanno stabilito quanto tempo impiega questo processo a verificarsi e, osservando la proporzione dei diversi isotopi di uranio e piombo presenti in un campione, sono riusciti a stabilirne l’età con precisione. «La datazione radiometrica funziona un po’ come una clessidra», spiega Heck. «In una clessidra, la sabbia scorre da un bulbo di vetro all’altro, e il passare del tempo è indicato dall’accumulo di sabbia nel bulbo inferiore. In modo analogo, conoscendo il tasso di trasformazione e contando il numero di “atomi progenitori” e il numero di “atomi figli” in cui si sono trasformati è possibile calcolare il tempo trascorso».
La proporzione di isotopi di piombo riscontrata dai ricercatori ha indicato che il campione analizzato aveva circa 4,46 miliardi di anni. Pertanto, la Luna deve avere almeno quell’età ed essersi formata entro 110 milioni di anni dalla nascita del Sistema solare. «È incredibile poter avere ora la prova strumentale che la roccia nelle nostre mani è il pezzo di Luna più antico mai trovato finora», commenta Greer.
L’analisi di Greer ha richiesto un solo granello di suolo, largo quanto un capello umano. In quel minuscolo granello ha identificato i prodotti degli agenti atmosferici spaziali, ferro puro, acqua ed elio, che si sono formati grazie alle interazioni del suolo lunare con l’ambiente spaziale. L’estrazione di queste preziose risorse dal suolo lunare potrebbe aiutare i futuri astronauti a sostenere le loro attività sulla Luna. Gli scienziati sono convinti che dal cristallo analizzato si potranno trarre ulteriori informazioni scientifiche. Questa tecnica potrà aiutarci a saperne di più sulle condizioni della superficie lunare e sulla formazione di risorse preziose come l’acqua e l’elio.
La mezzaluna della Terra si staglia sull’orizzonte lunare in questa spettacolare fotografia scattata dalla navicella Apollo 17 in orbita lunare durante l’ultima missione di allunaggio nel 1972. Crediti: Nasa
La Luna, che orbita intorno alla Terra a una distanza media di circa 385mila chilometri, ha un diametro di circa 3.475 chilometri, poco più di un quarto del diametro del nostro pianeta. L’impatto di Theia con il nostro pianeta è stato un evento catastrofico che ha cambiato la velocità di rotazione della Terra: è grazie alla Luna che si è avuto poi un effetto di stabilizzazione dell’asse e di rallentamento della velocità di rotazione terrestre.
«Il campione è un punto di riferimento per rispondere a molte domande anche sulla storia della Terra. È importante sapere quando si è formata la Luna, perché è un componente importante nel nostro sistema planetario. La Luna stabilizza l’asse di rotazione della Terra, è il motivo per cui ci sono 24 ore in un giorno, e per cui esistono le maree. Senza la Luna, la vita sulla Terra sarebbe diversa. È una parte fondamentale del nostro sistema naturale che deve essere ancora compresa a fondo. Il nostro studio fornisce un piccolo pezzo di puzzle in questo quadro ancora incompleto», ha concluso Heck.
A questo punto, citando la protagonista dell’anime giapponese Sailor Moon, verrebbe quasi spontaneo esclamare: «Potere del cristallo di Luna vieni a noi!».
Per saperne di più:
- Leggi l’articolo su Geochemical Perspectives Letters “4.46 Ga zircons anchor chronology of lunar magma ocean” di J. Greer, B. Zhang, D. Isheim, D.N. Seidman, A. Bouvier, P.R. Heck.
Coppie di buchi neri in equilibrio
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di un buco nero supermassiccio. Crediti: Nasa/Jpl Caltech
Un gruppo di quattro ricercatori delle Università di Southampton, Cambridge e Barcellona, ha dimostrato che è teoricamente possibile che esistano coppie di buchi neri perfettamente bilanciate – mantenute in equilibrio da una forza cosmologica – che si comportano come se fossero un unico buco nero.
Le teorie convenzionali sui buchi neri, basate sulla relatività generale di Einstein, spiegano come i buchi neri statici o quelli rotanti possano esistere da soli, isolati nello spazio. Al contrario, coppie di buchi neri sarebbero ostacolate dalla gravità, che li attirerebbe fino a farli scontrare e fondere. Tuttavia, questo è vero se si suppone un universo statico. Cosa succederebbe se fosse in movimento? In un universo in continua espansione, come il nostro, potrebbero esistere coppie di buchi neri “in armonia”, magari mascherandosi da uno solo?
«Il modello cosmologico standard presuppone che il Big Bang abbia portato all’esistenza di un universo che, circa 9,8 miliardi di anni fa, sia diventato dominato da una forza misteriosa, denominata energia oscura, che lo accelera a un ritmo costante», afferma Oscar Dias dell’Università di Southampton. Gli scienziati chiamano questa forza misteriosa costante cosmologica. In un universo spiegato dalla teoria di Einstein con una costante cosmologica, i buchi neri sono immersi in un fondo cosmologico accelerato. E questo cambia il modo in cui possono interagire ed esistere insieme.
Due buchi neri a distanza fissa. Credit: Aps/Alan Stonebraker
Attraverso complessi metodi numerici, in un articolo pubblicato su Physical Review Letters, il gruppo di scienziati mostra che due buchi neri statici (non rotanti) possono esistere in equilibrio: la loro attrazione gravitazionale risulta infatti essere compensata dall’espansione associata a una costante cosmologica. Anche con l’accelerazione di un universo in continua espansione, i buchi neri rimangono “bloccati” a una distanza fissa l’uno dall’altro. Per quanto l’espansione possa tentare di separarli, l’attrazione gravitazionale riesce a compensarla. «Visti da lontano, una coppia di buchi neri la cui attrazione è compensata dall’espansione cosmica sembrerebbe un unico buco nero. Potrebbe essere difficile individuare se si tratti di un singolo buco nero o di una coppia di buchi neri», commenta Dias.
«La nostra teoria è dimostrata per una coppia di buchi neri statici, ma crediamo che potrebbe essere applicata anche a quelli rotanti», conclude Jorge Santos dell’Università di Cambridge. «Inoltre, sembra plausibile che la nostra soluzione possa valere per tre o anche quattro buchi neri, aprendo tutta una serie di possibilità».
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Static Black Binaries in de Sitter Space” di Óscar J. C. Dias, Gary W. Gibbons, Jorge E. Santos, and Benson Way
Lampi radio da dieci milionesimi di secondo
Rappresentazione artistica dei lampi radio ultra-veloci scoperti nei dati d’archivio del Green Bank Telescope. La luce radio in arrivo è visualizzata come strisce bianche, rosse e arancioni che si ripetono in rapida successione. Crediti e copyright: Daniëlle Futselaar/www.artsource.nl
Quella che si sta per concludersi possiamo definirla senza dubbio la settimana dei lampi radio veloci (in inglese fast radio burst, Frb). Ieri la rivista Science ha pubblicato un lavoro in cui è stata annunciata la scoperta del più distante mai rilevato (ne abbiamo dato notizia anche su Media Inaf). E sempre ieri, questa volta sulle pagine di Nature Astronomy, è arrivato l’annuncio della scoperta dei fast radio burst più brevi: ultra-fast radio burst, li hanno chiamati.
I lampi radio veloci sono impulsi di onde radio di durata brevissima. Possono essere galattici o extra-galattici, ripetuti o emessi una tantum. Prodotti probabilmente dalle magnetar, stelle di neutroni con campi magnetici intensissimi, questi flash cosmici mostrano un’ampia gamma di scale temporali: da pochi secondi a qualche millisecondo. Nei dati d’archivio del Green Bank Telescope della National Science Foundation, un team internazionale di ricercatori ha ora scoperto impulsi radio veloci la cui durata è dell’ordine dei milionesimi di secondo: un decimo della durata degli Frb attualmente noti, o se preferite un decimillesimo della durata di un battito di ciglia. Sono i fast radio burst più brevi mai scoperti finora.
Gli Frb in questione sono stati individuati da un team di ricerca guidato da Mark Snelders, ricercatore presso Astron, l’istituto olandese di radioastronomia, nei dati d’archivio ottenuti nell’ambito del progetto Breakthrough Listen dal Green Bank Telescope.
Nel 2022, i ricercatori di Astron e dell’Università di Amsterdam già avevano ipotizzato l’esistenza di Frb della durata di milionesimi di secondo. «Durante le nostre riunioni di gruppo, ne parlavamo spesso», ricorda a questo proposito Snelders. «Per pura coincidenza, ho scoperto che esisteva un set di dati pubblico che potevamo utilizzare a questo scopo».
Spulciando cinque ore di dati provenienti dall’osservazione di Frb 20121102A, il primo fast radio burst ripetuto ad essere stato scoperto, e suddividendo ogni secondo dei primi trenta minuti delle cinque ore di osservazione in qualcosa come mezzo milione di singole immagini, i ricercatori li hanno ora individuati: otto lampi ultraveloci, facenti parte del treno di impulsi di Frb 20121102A, della durata di dieci milionesimi di secondo o meno ciascuno.
Ora che è stata rivelata la prima sorgente di lampi radio ultra-veloci, i ricercatori si aspettano di trovarne molte altre dello stesso tipo. Tuttavia, osservano i ricercatori, scovarli potrebbe essere più facile a dirsi che a farsi, poiché alcuni set di dati non sono sufficientemente dettagliati da consentire la suddivisione in mezzo milione di immagini al secondo.
«Nel rilevare e caratterizzare questi lampi della durata di microsecondi, mostriamo che esiste una popolazione di lampi radio ultra-veloci che le attuali ricerche di Frb ad ampio campo non catturano a causa della risoluzione temporale insufficiente», concludono i ricercatori. «Questi risultati indicano che gli Frb hanno scale temporali diverse e si verificano più frequentemente di quanto si pensasse inizialmente. Ciò potrebbe anche influenzare la nostra comprensione della loro energia, tempo di latenza e tasso distribuzione».
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Detection of ultra-fast radio bursts from FRB 20121102A” di M. P. Snelders, K. Nimmo, J. W. T. Hessels, Z. Bensellam, L. P. Zwaan, P. Chawla, O. S. Ould-Boukattine, F. Kirsten, J. T. Faber e V. Gajjar
Guarda sul canale YouTube del Green Bank Observatory il video (in inglese) di presentazione dei risultati a cura di Mark Snelders:
Una corrente a getto ad alta velocità su Giove
Utilizzando la NirCam del James Webb Space Telescope, è stato possibile scoprire una corrente a getto ad alta velocità poco sopra l’equatore di Giove, al di sopra dei principali banchi di nubi. I ricercatori hanno individuato diverse wind shears, o zone in cui la velocità del vento cambia con l’altezza o la distanza, che hanno permesso loro di seguire il getto. In particolare, il getto viaggia a 515 chilometri orari e si trova nella parte bassa della stratosfera di Giove, appena sopra le nebbie troposferiche, vicino al confine tra gli strati della troposfera e della stratosfera.
Infografica dell’Agenzia spaziale europea che mostra, a sinistra, l’immagine di Giove ripreso dal Webb. Sul lato destro dell’immagine sono riportati otto riquadri contenenti altrettante immagini, scattate a dieci ore di distanza. Le due più grandi, orizzontali, sono ingrandimenti di una sezione dell’equatore di Giove – corrispondenti al riquadro bianco riportato nell’immagine a sinistra. In queste due immagini ci sono sei riquadri più piccoli. La prima colonna dei riquadri è delineata in arancione, la seconda colonna in viola e la terza in giallo. Ciascuna delle immagini più piccole corrisponde ai riquadri arancioni, viola e gialli posizionati tre le due immagini orizzontali più grandi. Crediti: Nasa, Esa, Csa, Stsci, R. Hueso (University of the Basque Country), I. de Pater (University of California, Berkeley), T. Fouchet (Observatory of Paris), L. Fletcher (University of Leicester), M. Wong (University of California, Berkeley), J. DePasquale (Stsci)
L’immagine evidenzia delle caratteristiche attorno alla zona equatoriale di Giove che, durante una rotazione del pianeta (circa 10 ore), sono disturbate molto chiaramente dal movimento della corrente a getto. La scoperta di questo getto fornisce informazioni su come gli strati dell’atmosfera turbolenta di Giove interagiscono tra loro e su come Webb sia l’unico in grado di tracciare tali caratteristiche. Ulteriori osservazioni di Giove, sempre con Webb, permetteranno di determinare se la velocità e l’altitudine del getto cambiano nel tempo.
Questi risultati, recentemente pubblicati su Nature Astronomy, potrebbero essere d’aiuto al satellite Juice dell’Esa lanciato il 14 aprile 2023, che effettuerà osservazioni dettagliate del pianeta gassoso e delle sue tre grandi lune oceaniche – Ganimede, Callisto ed Europa – con una suite di strumenti di telerilevamento, geofisici e in situ. Juice si concentrerà sullo studio dell’atmosfera di Giove nella parte alta delle nubi. Indagherà su come le temperature, i modelli dei venti e la chimica stanno cambiando nell’atmosfera del pianeta, per capire come cambia il tempo e il clima su Giove, come funziona l’atmosfera quando non c’è una superficie solida, e cosa potrebbe rendere l’atmosfera superiore di Giove così inaspettatamente calda.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “An intense narrow equatorial jet in Jupiter’s lower stratosphere observed by JWST” di Ricardo Hueso, Agustín Sánchez-Lavega, Thierry Fouchet, Imke de Pater, Arrate Antuñano, Leigh N. Fletcher, Michael H. Wong, Pablo Rodríguez-Ovalle, Lawrence A. Sromovsky, Patrick M. Fry, Glenn S. Orton, Sandrine Guerlet, Patrick G. J. Irwin, Emmanuel Lellouch, Jake Harkett, Katherine de Kleer, Henrik Melin, Vincent Hue, Amy A. Simon, Statia Luszcz-Cook e Kunio M. Sayanagi
Simulando una kilonova in 3D
media.inaf.it/wp-content/uploa…
Illustrazione artistica dello scontro tra due stelle di neutroni. Crediti: Dana Berry SkyWorks Digital, Inc.
La fusione di due stelle di neutroni è uno degli avvenimenti più affascinanti del cosmo. La sequenza di eventi che porta alla coalescenza è questa: prima i due densi relitti stellari si avvicinano; poi iniziano a ruotare uno intorno all’altro in una sorta di balletto cosmico; infine si fondono. Il colossale scontro tra titani che ne consegue porta all’espulsione di grandi quantità di materia con le condizioni appropriate per produrre elementi chimici con nuclei instabili, il cui decadimento radioattivo libera l’energia che alimenta una gigantesca esplosione che gli astronomi chiamano kilonova. Attraverso sofisticate simulazioni magneto-idrodinamico in 3D, un team di ricercatori ha ora modellato per la prima volta questa sequenza di eventi, compresa l’emissione di luce associata al botto finale.
Il risultato della simulazione, spiegano i ricercatori, è un modello tridimensionale che, se osservato quasi perpendicolarmente al piano orbitale delle due stelle di neutroni, ha caratteristiche molto simili a quelle osservate nella kilonova At2017gfo, un’esplosione avvenuta a 140 milioni di anni luce di distanza da noi, alla periferia della galassia Ngc 4993. Probabilmente ve ne ricorderete perché la fusione delle due stelle di neutroni che l’ha prodotta è stata osservata nel 2017 per la prima volta sia nelle onde gravitazionali che nelle onde elettromagnetiche, aprendo così l’era dell’astronomia multimessaggera.
«Le nostre simulazioni sono in stretto accordo con le osservazioni della kilonova At2017gfo», dice a questo proposito Luke J. Shingles, ricercatore al Gsi Helmholtz Centre for Heavy Ion Research e primo autore dello studio pubblicato ilmese scorso su The Astrophysical Juornal Letters. «Ciò indica che a grandi linee abbiamo compreso ciò che è avvenuto durante l’esplosione e nei momenti successivi».
La simulazione 3D combina insieme diverse aree della fisica, permettendo di studiare il comportamento della materia in condizioni di elevata densità, le proprietà dei nuclei di elementi pesanti instabili e le interazioni atomo-luce, aggiungono i ricercatori. I futuri progressi in quest’area di ricerca ci aiuteranno a comprendere l’origine degli elementi più pesanti del ferro (come il platino e l’oro) che sono prodotti durante queste fusioni principalmente attraverso un rapido processo di cattura dei neutroni.
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “Self-consistent 3D Radiative Transfer for Kilonovae: Directional Spectra from Merger Simulations” di Luke J. Shingles, Christine E. Collins, Vimal Vijayan, Andreas Flörs, Oliver Just, Gerrit Leck, Zewei Xiong, Andreas Bauswein, Gabriel Martínez-Pinedo e Stuart A. Sim
Frb da record: è il più distante mai osservato
media.inaf.it/wp-content/uploa…
Rappresentazione artistica (non in scala) del percorso del lampo radio veloceFrb 20220610A, dalla lontana galassia in cui ha avuto origine fino alla Terra, in uno dei bracci a spirale della Via Lattea. La galassia sorgente di Frb 20220610A, individuata grazie al Very Large Telescope dell’Eso, sembra trovarsi all’interno di un piccolo gruppo di galassie interagenti. È così lontana che la sua luce ha impiegato otto miliardi di anni per raggiungerci, rendendo Frb 20220610A il lampo radio veloce più distante trovato finora. Crediti: Eso/M. Kornmesser
Un’equipe internazionale di astronomi ha individuato un’esplosione distante di onde radio cosmiche della durata di meno di un millisecondo. Questo “lampo radio veloce” (Frb, dall’inglese fast radio burst) è il più distante mai rilevato. La sua origine è stata individuata dal Vlt (Very Large Telescope) dell’Eso (Osservatorio Europeo Australe) in una galassia così lontana che la sua luce ha impiegato otto miliardi di anni per raggiungerci. Questo Frb è anche uno dei più energetici mai osservati: in una minuta frazione di secondo ha rilasciato l’equivalente dell’intera emissione del Sole in 30 anni. La scoperta dell’esplosione, chiamata Frb 20220610A, è stata effettuata nel giugno dello scorso anno dal radiotelescopio Askap, in Australia, e ha superato del 50 per cento il precedente record di distanza stabilito dallo stesso gruppo.
«Utilizzando la serie di parabole di Askap, siamo stati in grado di determinare con precisione da dove proveniva l’esplosione», dice Stuart Ryder, astronomo della Macquarie University, in Australia, e co-autore principale dello studio pubblicato oggi su Science. «Poi abbiamo usato [il Vlt dell’Eso] in Cile per cercare la galassia origine del lampo, scoprendo che è più antica e più lontana di qualsiasi altra sorgente di Frb trovata fino a oggi, e probabilmente all’interno di un piccolo gruppo di galassie in fusione».
La scoperta conferma che gli Frb possono essere utilizzati per misurare la materia “mancante” tra le galassie, fornendo un nuovo modo di “pesare” l’universo.
Gli attuali metodi di stima della massa dell’Universo danno risposte contrastanti e sfidano il modello standard della cosmologia. «Se contiamo la quantità di materia normale nell’universo – gli atomi di cui siamo tutti fatti – scopriamo che manca più della metà di ciò che dovrebbe esserci oggi», ricorda Ryan Shannon, professore alla Swinburne University Technology, in Australia, e co-autore dello studio. «Pensiamo che la materia mancante si nasconda nello spazio tra le galassie, ma potrebbe essere così calda e diffusa che è impossibile vederla usando le tecniche usuali».
«I lampi radio veloci», aggiunge Shannon, «percepiscono questo materiale ionizzato. Anche nello spazio quasi perfettamente vuoto possono “vedere” tutti gli elettroni, e questo ci permette di misurare quanta roba c’è tra le galassie».
Trovare Frb distanti è fondamentale per misurare con precisione la materia mancante dell’universo, come dimostrato dall’astronomo australiano Jean-Pierre (“J-P”) Macquart, ora deceduto, nel 2020. «J-P ha dimostrato che quanto più lontano è un lampo radio veloce, tanto più gas diffuso riesce a rivelare tra le galassie. Questa è ora conosciuta come la relazione di Macquart. Alcuni recenti lampi radio veloci sembravano non seguire questa relazione. Le nostre misure», spiega Ryder, «confermano che la relazione di Macquart vale fin oltre la metà dell’universo conosciuto».
«Anche se non conosciamo ancora la causa di queste massicce esplosioni di energia, l’articolo conferma che i lampi radio veloci sono eventi comuni nel cosmo e che saremo in grado di sfruttarli per rilevare la materia tra le galassie e comprendere meglio la struttura dell’universo», conclude Shannon.
Il risultato rappresenta il limite di ciò che è ottenibile oggi con i telescopi, anche se gli astronomi avranno presto gli strumenti per rilevare lampi ancora più vecchi e distanti, individuarne le sorgenti e misurare la materia mancante dell’universo. L’organizzazione Skao (Square Kilometre Array Observatory) sta attualmente costruendo due radiotelescopi, in Sud Africa e Australia, che saranno in grado di trovare migliaia di Frb, compresi quelli molto distanti che non possono essere rilevati con gli strumenti attuali. L’Elt (Extremely Large Telescope) dell’Eso, un telescopio di 39 metri in costruzione nel deserto cileno di Atacama, sarà uno dei pochi telescopi in grado di studiare le galassie in cui si originano lampi ancora più lontani di Frb 20220610A.
Fonte: comunicato stampa Eso
Per saperne di più:
- Leggi su Science l’articolo “A luminous fast radio burst that probes the Universe at redshift 1”, di S. D. Ryder, K. W. Bannister, S. Bhandari, A. T. Deller, R. D. Ekers, M. Glowacki, A. C. Gordon, K. Gourdji, C. W. James, C. D. Kilpatrick, W. Lu, L. Marnoch, V. A. Moss, J. X. Prochaska, H. Qiu, E. M. Sadler, S. Simha, M. W. Sammons, D. R. Scott, N. Tejos1 e R. M. Shannon
Siena, un nuovo atlante con 380mila galassie
Ngc 520, una collisione di due galassie iniziata più di 300 milioni di anni fa, è in realtà composta da due galassie a disco che alla fine si fonderanno per formare un sistema più grande e massiccio. Ngc 520 fu scoperta da William Herschel nel 1784 ed è una delle galassie più grandi e luminose del Siena Galaxy Atlas. Crediti: Ctio/ NoirLab/ Doe/ Nsf/ Aura; J. Moustakas (Siena College); T.A. Rector (University of Alaska Anchorage/Nsf’s NoirLab) & M. Zamani (Nsf’s NoirLab) & D. de Martin (Nsf’s NoirLab)
Gli astronomi cercano da tempo di mappare i cieli notturni, non solo per avere una visione il più possibile completa dell’universo in cui viviamo, ma anche per supportare ulteriori ricerche. I cataloghi di oggetti astronomici servono a molti scopi: possono aiutare gli scienziati a individuare modelli generali in una popolazione di oggetti, a scoprire nuovi fenomeni come ad esempio eventi astronomici transienti, e a identificare quelli che potrebbero essere i candidati migliori per osservazioni mirate. Tuttavia, queste risorse devono essere regolarmente aggiornate per tenere conto dei risultati ottenuti grazie ai continui miglioramenti tecnologici dei telescopi.
Ora è stato pubblicato un nuovo atlante con informazioni dettagliate su oltre 380mila galassie con un livello di precisione mai raggiunto prima. Si chiama Siena Galaxy Atlas (Sga) ed è una raccolta di dati provenienti da tre survey completate tra il 2014 e il 2017, note come Desi Legacy Surveys, effettuate per identificare le galassie target per la survey del Dark Energy Spectroscopic Instrument (Desi). I dati sono stati raccolti presso l’Osservatorio interamericano di Cerro Tololo (Ctio) e l’Osservatorio nazionale di Kitt Peak (Kpno), entrambi programmi del NoirLab della National Science Foundation (Nsf), e presso lo Steward Observatory dell’Università dell’Arizona.
Le Desi Legacy Surveys hanno utilizzato strumenti all’avanguardia sui telescopi gestiti da NoirLab: la Dark Energy Camera Legacy Survey (DeCaLS), effettuata utilizzando la Dark Energy Camera (DeCam) costruita dal Doe sul telescopio da 4 metri Víctor M. Blanco al Ctio in Cile; la Mayall z-band Legacy Survey (MzLS) con la fotocamera Mosaic3 sul telescopio da 4 metri Nicholas U. Mayall al Kpno; e la Beijing-Arizona Sky Survey (Bass) realizzata con la fotocamera 90Prime sul telescopio Bok da 2,3 metri, gestito dallo Steward Observatory e ospitato presso Kpno. I dati delle Desi Legacy Imaging Surveys, così come una copia dell’intero Siena Galaxy Atlas, vengono forniti alla comunità astronomica tramite la piattaforma scientifica Astro Data Lab e l’Astro Data Archive presso il Community Science and Data Center (Csdc) di NoirLab. Sga contiene anche dati aggiuntivi provenienti da una survey condotta dal satellite Wide-field Infrared Survey Explorer (Wise) della Nasa, rielaborati da Aaron Meisner, astronomo del NoirLab.
Queste survey hanno catturato immagini nelle lunghezze d’onda ottiche e infrarosse per mappare un’area totale di 20mila gradi quadrati – quasi la metà del cielo notturno, rendendola tra le più grandi survey sulle galassie. Riunendo questa ricchezza di informazioni in un unico posto, Sga offre dati precisi sulla posizione, la forma e le dimensioni di centinaia di migliaia di grandi galassie relativamente vicine. Oltre all’enorme numero di oggetti registrati, i dati nella raccolta Sga raggiungono anche un nuovo livello di accuratezza ed è la prima risorsa di questo tipo a fornire dati sui profili di luce delle galassie.
Mosaico ottico di 42 galassie del Siena Galaxy Atlas 2020 ordinate per diametro angolare crescente da sinistra in alto, a destra in basso. Le galassie vengono scelte casualmente da una distribuzione di probabilità uniforme nel diametro angolare. La barra bianca orizzontale nell’angolo inferiore sinistro di ciascun pannello rappresenta 1 minuto d’arco e i ritagli del mosaico vanno da 3,2 a 13,4 minuti d’arco. Questa figura illustra l’enorme gamma di tipologie, dimensioni, colori e profili di luminosità superficiale, struttura interna e ambienti delle galassie presenti nell’atlante. Crediti: Ctio/ NoirLab/ Doe/ Nsf/ Aura/ J. Moustakas
«Le grandi galassie vicine sono importanti perché possiamo studiarle in modo più dettagliato di qualsiasi altra galassia nell’universo; sono i nostri vicini cosmici», osserva John Moustakas, professore di fisica al Siena College a capo del progetto Sga. «Non solo sono straordinariamente belle, ma contengono anche la chiave per comprendere come si formano e si evolvono le galassie, inclusa la nostra, la Via Lattea».
Sga si basa su diversi cataloghi compilati nei secoli scorsi. L’iconico Catalogue des Nébuleuses et des Amas d’Étoiles (Catalogo delle nebulose e degli ammassi stellari), pubblicato nel 1774 dall’astronomo francese Charles Messier, fu una pietra miliare importante, così come lo fu il Nuovo Catalogo Generale delle Nebulose e degli Ammassi di Stelle (Ngc), pubblicato nel 1888 da John Louis Emil Dreyer. Più recentemente, nel 1991, gli astronomi hanno realizzato il Terzo Catalogo di Riferimento delle Galassie Luminose (Rc3). Negli ultimi due decenni sono stati pubblicati molti altri preziosi atlanti di galassie, ma la maggior parte di essi si basa sulle misurazioni su lastre fotografiche dell’Rc3, oppure mancano un numero significativo di galassie. Poiché Sga utilizza immagini digitali catturate con strumenti altamente sensibili, rappresenta un miglioramento sostanziale sia nella qualità che nella completezza dei dati.
«Precedenti compilazioni di galassie erano afflitte da posizioni, dimensioni e forme errate delle galassie e contenevano anche voci che non erano galassie ma stelle o artefatti», spiega Arjun Dey, astronomo del NoirLab coinvolto nel progetto. «Sga ripulisce tutto questo per gran parte del cielo. Fornisce inoltre le migliori misurazioni della luminosità delle galassie, qualcosa che non avevamo mai avuto prima in modo affidabile per un campione di queste dimensioni».
IC 4212 è una galassia spirale barrata situata nella costellazione della Vergine. Si trova vicino all’equatore celeste, il che significa che in alcuni periodi dell’anno è visibile almeno in parte da entrambi gli emisferi. Crediti: Ctio/ NoirLab/ Doe/ Nsf/ Aura; J. Moustakas (Siena College); T.A. Rector (University of Alaska Anchorage/Nsf’s NoirLab) & M. Zamani (Nsf’s NoirLab) & D. de Martin (Nsf’s NoirLab)
Questa risorsa versatile guiderà il progresso in numerosi rami dell’astronomia e dell’astrofisica aiutando gli scienziati a trovare i migliori campioni di galassie per l’osservazione mirata. Ad esempio, Sga migliorerà la ricerca su come i modelli di formazione stellare variano nelle diverse galassie, sui processi fisici alla base della vasta gamma di morfologie che le galassie mostrano e su come la distribuzione delle galassie è correlata al modo in cui la materia oscura si diffonde nell’universo. Agendo come una mappa, Sga aiuterà anche gli astronomi a individuare le sorgenti di segnali transitori come le onde gravitazionali e a comprendere gli eventi che ne danno origine. «Sga diventerà il più importante atlante galattico digitale per le grandi galassie», afferma Dey. Tuttavia, sottolinea, Sga non è riservato solo ai ricercatori accademici, ma è liberamente consultabile online per chiunque desideri conoscere meglio il nostro angolo di universo.
«Il rilascio pubblico di questi dati spettacolari contenuti nell’atlante avrà un impatto reale non solo sulla ricerca astronomica, ma anche sulla capacità del pubblico di visualizzare e identificare le galassie relativamente vicine», conclude Chris Davis, direttore del programma Nsf per NoirLab. «Gli astrofili più appassionati lo apprezzeranno particolarmente in quanto risorsa a cui rivolgersi per saperne di più su alcuni degli obiettivi celesti che osservano».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Siena Galaxy Atlas 2020” di John Moustakas, Dustin Lang, Arjun Dey, Stéphanie Juneau, Aaron Meisner, Adam D. Myers, Edward F. Schlafly, David J. Schlegel, Francisco Valdes, Benjamin A. Weaver, and Rongpu Zhou
- Esplora il Siena Galaxy Atlas 2020
Sopravvivere su Marte bevendo kombucha
Reel pubblicato sul profilo Instagram dell’Esa in cui si spiegano i risultati degli studi condotti sul Kombucha. Cliccare sull’immagine per vedere il reel su Instagram
Il kombucha è una bevanda con una tradizione millenaria in Cina e Giappone, dove veniva considerato un elisir di lunga vita e utilizzato come bevanda energetica dai Samurai. Come molti altri cibi e bevande della tradizione orientale, si è diffuso in Europa e negli Stati Uniti proprio in virtù delle proprietà benefiche cui viene associato: è un antiossidante, svolge un’azione antibatterica e, soprattutto, aiuta la digestione e nutre la flora intestinale, grazie ai probiotici che contiene. Qui, forse non servirà ai Samurai ma potrebbe far gioco agli astronauti: uno studio dell’Agenzia Spaziale Europea (Esa) ha dimostrato che i microrganismi presenti nel kombucha sono resistenti all’ambiente spaziale, poiché si proteggono dai raggi cosmici creando un biofilm e, molto probabilmente, sopravvivrebbero a un lungo viaggio non protetto nello spazio.
Questo superdrink rientra nella categoria degli alimenti fermentati e – così come crauti, miso, tempeh, kimchi e kefir – fa bene all’intestino e all’organismo in generale in quanto, appunto, ricco di probiotici. Il kombucha altro non è che un fermentato del tè, e la sua preparazione più semplice può tranquillamente essere fatta da chiunque in casa: basta unire una tazza di tè, zucchero, acqua fredda, un po’ di kombucha già pronto (un po’ come quando si fa il lievito madre o lo yogurt in casa) e infine il cosiddetto Scoby, una cultura simbiotica di batteri e lieviti. Dopo una fermentazione aerobica di almeno una settimana, ne risulterà una bevanda leggermente frizzantina e dal sapore tra il dolce e l’acidulo (tipo sidro di mela), a seconda dell’intensità che le si vuole dare.
Sulla Terra è stato dimostrato che i microrganismi presenti nel kombucha sono particolarmente resistenti: quando vengono sottoposti a condizioni difficili per la loro sopravvivenza, sono in grado di proteggersi creando uno strato protettivo viscido, chiamato in gergo biofilm. Per questo, gli scienziati hanno deciso di verificare la resistenza di questi batteri all’ambiente spaziale. Li hanno spediti sulla Stazione spaziale internazionale (Iss) dove, grazie alla piattaforma Expose, da anni gli astronauti conducono esperimenti sulla sopravvivenza di microbi e batteri in ambiente spaziale non protetto. I batteri del kombucha sono stati esposti alle radiazioni cosmiche dello spazio, senza protezione, per circa 18 mesi.
Dopo averli riportati sulla Terra, li hanno analizzati e hanno trovato che molti microbi sono sopravvissuti. I cianobatteri, in particolare, sono stati persino in grado di riparare il proprio Dna danneggiato dai raggi cosmici e di continuare la divisione cellulare anche dopo essere stati esposti alla radiazione.
«Esperimenti come questi», spiega un reel pubblicato ieri su Instagram dall’Esa, «possono aiutarci a comprendere come i biofilm possano proteggere da radiazioni cosmiche e temperature estreme. Forse, un giorno, potranno essere usati per schermare organismi in lunghi viaggi spaziali».
Ecco la causa del più grande terremoto marziano
Illustrazione del lander InSight. Crediti: Nasa/Jpl-Caltech
Marte è un pianeta vivo. Ce lo dimostrano la fisica, i movimenti e le tracce del suo passato rilevati costantemente dalle sonde e i lander internazionali che popolano e studiano il nostro vicino planetario. Il 4 maggio 2022 è stato registrato un martemoto di magnitudo 4.7 che ha scosso il Pianeta rosso per almeno sei ore. Il suo segnale sismico, poiché simile a quello di precedenti terremoti causati da impatti di meteoriti sul suolo marziano, ha inizialmente suggerito agli scienziati che l’evento – soprannominato ‘S1222a’ – fosse il risultato di una collisione. Tuttavia, uno studio pubblicato questa settimana su Geophysical Research Letters da un team di scienziati guidati da Benjamin Fernando dell’Università di Oxford, dopo mesi di ricerche, esclude l’impatto di un meteorite, suggerendo invece che il terremoto sia il risultato di enormi forze tettoniche all’interno della crosta di Marte.
S1222a è stato uno degli ultimi eventi registrati dal lander della Nasa InSight prima che la fine della sua missione fosse dichiarata, nel dicembre 2022. Durante la sua permanenza su Marte, InSight ha registrato almeno otto eventi di martemoti causati da impatti di meteoroidi. Due di questi, i più grandi, avevano lasciato come testimonianza del loro impatto crateri di circa 150 metri di diametro. Dunque, se l’evento S1222a si fosse formato a seguito di un impatto, il cratere avrebbe dovuto avere un diametro di almeno 300 metri. È così scattata la caccia al cratere. Sebbene le dimensioni di Marte siano più piccole di quelle della Terra, non avendo oceani la sua superficie – 144 milioni di km quadrati – ha un’estensione simile a quella del suolo terrestre. Fernando ha dunque chiesto il contributo delle agenzie spaziali europea (Esa), cinese (Cnsa), indiana (Isro) e degli Emirati Arabi Uniti – tutte con satelliti in orbita attorno al Pianeta rosso. Ogni gruppo di ricerca ha esaminato i dati dei propri satelliti per cercare un nuovo avvallamento o qualsiasi altro segno rivelatore di un impatto, ad esempio una nuvola di polvere apparsa nelle ore successive al terremoto.
Dopo mesi di ricerche, il team ha or annunciato che non è stato trovato alcun nuovo segno di impatto, concludendo che l’evento possa dunque essere stato causato dal rilascio di enormi forze tettoniche nella struttura interna di Marte. Ciò indicherebbe che il pianeta è sismicamente molto più attivo di quanto si ritenesse in precedenza. «Pensiamo ancora che Marte non abbia, oggi, alcuna tettonica a placche attiva», precisa Fernando, «quindi questo evento è stato probabilmente causato dal rilascio di stress all’interno della crosta del pianeta. Questi stress sono il risultato di miliardi di anni di evoluzione; compresi il raffreddamento e la contrazione di diverse parti del pianeta a ritmi diversi».
Agli scienziati non è ancora chiaro il motivo per cui alcune parti del Pianeta rosso sembrino avere stress più elevato di altre, ma risultati come questi potranno essere comunque molto utili per le future missioni spaziali, come spiega lo stesso Fernando: «Un giorno, queste informazioni potrebbero aiutarci a capire dove sarebbe sicuro per gli esseri umani vivere su Marte e quali zone, invece, sarebbe meglio evitare».
Per saperne di più:
- Leggi su Geophysical Research Letters l’articolo “A Tectonic Origin for the Largest Marsquake Observed by InSight” di Benjamin Fernando, et al.
Nubi al quarzo attorno a Wasp-17b
media.inaf.it/2023/10/18/nubi-…
Rendering artistico di Wasp17 b. Crediti: Nasa, Esa, Csa, and R. Crawford/Provided
Utilizzando il telescopio spaziale James Webb, un gruppo internazionale di ricercatori ha rilevato prove della presenza di nanocristalli di quarzo nelle nubi ad alta quota diWasp-17 b, un gioviano caldo a 1.300 anni luce dalla Terra. Il rilevamento, possibile unicamente grazie a Miri (Mid-Infrared Instrument), lo strumento nel medio infrarosso di Webb, segna la prima volta che particelle di silice (SiO2) sono state individuate nell’atmosfera di un esopianeta.
I cristalli di quarzo in questione sono larghi circa 10 nanometri (un milionesimo di centimetro), così piccoli che 10mila di essi potrebbero stare uno accanto all’altro su un capello umano. Le loro dimensioni e la loro composizione sono state riportate in un articolo pubblicato su Astrophysical Journal Letters.
«I dati di Hubble hanno effettivamente svolto un ruolo chiave nel porre dei limiti alla dimensione di queste particelle. Sappiamo che c’è silice dai dati Miri di Webb, ma avevamo bisogno delle osservazioni nel visibile e del vicino infrarosso di Hubble per definire il contesto, per capire quanto sono grandi i cristalli», spiega la coautrice Nikole Lewis, a capo del programma Webb Guaranteed Time Observation (Gto) progettato per aiutare a costruire una visione tridimensionale della calda atmosfera di Giove.
Con un volume più di sette volte quello di Giove e una massa inferiore alla metà di quella di Giove, Wasp-17 b è uno dei pianeti extrasolari più grandi e “gonfi” conosciuti. Questo, insieme al suo breve periodo orbitale di 3,7 giorni terrestri, rende il pianeta ideale per la spettroscopia di trasmissione: una tecnica che prevede la misurazione degli effetti del filtraggio e della diffusione dell’atmosfera di un pianeta sulla luce stellare per rilevare le caratteristiche della sua composizione.
Webb ha osservato il sistema Wasp-17 per quasi 10 ore, raccogliendo più di 1.275 misurazioni di luminosità nel medio infrarosso da 5 a 12 micron, mentre il pianeta transitava davanti alla sua stella. Sottraendo la luminosità alle singole lunghezze d’onda della luce che raggiungeva il telescopio quando il pianeta si trovava di fronte alla stella dalla luminosità della stella stessa, il gruppo di ricerca è stato in grado di calcolare la quantità di luce a ciascuna lunghezza d’onda bloccata dall’atmosfera del pianeta.
Ciò che è emerso è stato un bump inaspettato a 8,6 micron, spiegato dal fatto che le nubi erano composte da quarzo, piuttosto che da silicati di magnesio o altri possibili aerosol ad alta temperatura come l’ossido di alluminio.
Spettro di trasmissione dell’esopianeta Wasp-17 b, catturato dallo strumento Miri (Mid-Infrared Instrument) di Jwst il 12-13 marzo 2023. Si tratta della prima prova della presenza di quarzo (silice cristallina, SiO2) nelle nubi di un esopianeta. Lo spettro è stato realizzato misurando la variazione di luminosità a 28 lunghezze d’onda nel medio infrarosso mentre il pianeta transitava davanti alla stella. Per ogni lunghezza d’onda, la quantità di luce bloccata dall’atmosfera del pianeta (cerchi bianchi) è stata calcolata sottraendo la quantità di luce che ha attraversato l’atmosfera dalla quantità originariamente emessa dalla stella. La linea viola è il modello più adatto ai dati di Webb (Miri), Hubble e Spitzer (i dati di Hubble e Spitzer coprono lunghezze d’onda da 0,34 a 4,5 micron e non sono mostrati nel grafico). Lo spettro mostra una chiara caratteristica intorno a 8,6 micron, che gli astronomi ritengono sia causata da particelle di silice che assorbono parte della luce stellare che attraversa l’atmosfera. La linea gialla tratteggiata mostra come apparirebbe questa parte dello spettro di trasmissione se le nubi nell’atmosfera di Wasp-17 b non contenessero silice. Crediti: Nasa, Esa, Csa, R. Crawford (STScI), D. Grant (University of Bristol), H. R. Wakeford (University of Bristol), N. Lewis (Cornell University)
La capacità unica di Webb di misurare gli effetti estremamente deboli di questi cristalli sulla luce stellare – e da una distanza di oltre 11 milioni di miliardi di chilometri – sta fornendo informazioni critiche sulla composizione delle atmosfere degli esopianeti e nuove informazioni sul loro clima.
Nelle nubi del gioviano caldo, invece dei silicati ricchi di magnesio come olivina e pirosseno osservati su altri esopianeti, i ricercatori hanno trovato i loro elementi costitutivi: la silice pura necessaria per formare i grani di silicati più grandi, che si trovano nelle nane brune e negli esopianeti più freddi.
A differenza delle particelle minerali trovate nelle nuvole terrestri, i cristalli di quarzo rilevati nelle nubi di Wasp-17 b non vengono spazzati via da una superficie rocciosa, bensì hanno origine nell’atmosfera stessa. «Wasp-17 b è estremamente caldo – circa 1.480 gradi Celsius – e la pressione alla quale si formano i cristalli di quarzo in alto nell’atmosfera è solo circa un millesimo di quella che sperimentiamo sulla superficie terrestre. In queste condizioni, i cristalli solidi possono formarsi direttamente dal gas, senza passare prima attraverso una fase liquida», spiega il primo autore David Grant, dell’Università di Bristol.
«Quanto quarzo ci sia esattamente e quanto siano pervasive le nuvole sono due aspetti difficili da determinare, ma il team mira a fare proprio questo, combinando queste osservazioni di Wasp-17 b con altre osservazioni del sistema da parte di Jwst», conclude Lewis.
Ricordiamo che Wasp-17 b è uno dei tre pianeti obiettivo delle indagini Dreams – acronimo di Deep Reconnaissance of Exoplanet Atmospheres using Multi-instrument Spectroscopy – progettate per raccogliere una serie completa di osservazioni di un rappresentante di ciascuna classe di esopianeti: un gioviano caldo, un nettuniano caldo e un pianeta roccioso temperato.
Per saperne di più:
- Leggi su Astrophysical Journal Letters l’articolo “JWST-TST DREAMS: Quartz Clouds in the Atmosphere of WASP-17b” di David Grant, Nikole K. Lewis, Hannah R. Wakeford, Natasha E. Batalha, Ana Glidden, Jayesh Goyal, Elijah Mullens, Ryan J. MacDonald, Erin M. May, Sara Seager, Kevin B. Stevenson, Jeff A. Valenti, Channon Visscher, Lili Alderson, Natalie H. Allen, Caleb I. Cañas, Knicole Colón, Mark Clampin, Néstor Espinoza, Amélie Gressier, Jingcheng Huang, Zifan Lin, Douglas Long, Dana R. Louie, Maria Peña-Guerrero, Sukrit Ranjan, Kristin S. Sotzen, Daniel Valentine, Jay Anderson, William O. Balmer, Andrea Bellini, Kielan K. W. Hoch, Jens Kammerer, Mattia Libralato, C. Matt Mountain, Marshall D. Perrin, Laurent Pueyo, Emily Rickman, Isabel Rebollido, Sangmo Tony Sohn, Roeland P. van der Marel e Laura L. Watkins
I campioni di Bennu in 3D
media.inaf.it/2023/10/18/campi…
Queste due immagini, che a una prima occhiata potrebbero sembrare la stessa, se osservate attentamente presentano sottili differenze. Sono state infatti scattate spostando leggermente l’obiettivo in modo da creare quella che viene definita visione stereoscopica. In pratica, la possibilità di usare due immagini bidimensionali per crearne una terza, tridimensionale, che simuli la visione reale, emulando ciò che i nostri occhi fanno in maniera automatica sin dalla nascita. Ne ha parlato, in un blog pubblicato dalla Nasa, il celebre Brian May, coinvolto nel team scientifico di Osiris-Rex in quanto esperto di stereoscopia dal principal investigator della missione, Dante Lauretta, per “trovare opportunità di stereoscopia nella ricchezza di dati visivi acquisiti dalle telecamere della sonda su Bennu”.
Queste immagini stereoscopiche sono una coppia di primi piani di materiale dell’asteroide Bennu recuperato dalla missione Osiris-Rex della Nasa e consegnato alla Terra il 24 settembre 2023. Il materiale si trova sopra il Tagsam (Touch-and-Go Sample Acquisition Mechanism), lo strumento utilizzato per raccogliere il campione dall’asteroide nel 2020. Il campione e il Tagsam si trovano attualmente in una camera bianca all’interno dell’Astromaterials Curation Facility del Johnson Space Center della Nasa a Houston. Crediti: Erika Blumenfeld, Joseph Abersold per le immagini originali/Brian May, Claudia Manzoni per l’elaborazione stereo delle immagini.
Se non avete mai fatto questo giochino, basta che alziate lo sguardo e guardiate qualunque cosa abbiate davanti a voi alternando occhio destro e sinistro. Vi accorgerete che il punto di vista si sposta un po’, per effetto della distanza che separa i vostri occhi. Il cervello riceve le due immagini distinte e le elabora insieme in una visione unica, in cui aggiunge – proprio grazie alla sottile differenza, o parallasse – una componente importante: la profondità.
Questo, dunque, è il principio dietro la creazione delle immagini stereoscopiche. Per elaborarle in un’unica immagine è possibile usare uno stereoscopio, ovvero uno strumento che opera combinando le due immagini un po’ come fa il nostro cervello, oppure praticare la cosiddetta visione stereoscopica, ponendosi abbastanza vicino alle due immagini, rilassando la vista e incrociando o divergendo gli occhi a seconda della tecnica che si decide di provare. Fingendo, questo almeno dice la teoria, di guardare all’infinito oltre l’immagine. La visione stereoscopica richiede infatti che le immagini di destra e di sinistra vengano trasmesse separatamente agli occhi di destra e di sinistra, come avviene nella vita reale. In questo modo, le piccole differenze tra i componenti della coppia stereoscopica – note come differenze di parallasse – danno al nostro cervello la possibilità di percepire istantaneamente la profondità e la solidità dell’immagine. Si tratta però di una pratica un po’ faticosa per la vista e, anche se ci sono varie tecniche per tentare di praticarla, riuscirci è probabilmente una facoltà innata.
Ma torniamo a Bennu, o meglio ai suoi grani raccolti dal Tagsam e riportati qui sulla Terra. La loro visione stereoscopica, riprodotta mediante questi due scatti, permette di riprodurne la visione dal vivo. Le immagini stereoscopiche sono risultate fondamentali, nel caso di Bennu, per definire il luogo giusto in cui effettuare il campionamento. In questo caso, invece, le immagini non sono state scattate di proposito, ma sono state trovate fra le tante immagini scattate da varie angolazioni quando il Tagsam è giunto nei laboratori della Nasa.
«Le immagini stereoscopiche sono molto utili perché, se guardate con gli occhiali appositi, diventano una cosa sola e riescono a mostrare proprio la profondità», dice a Media Inaf Maurizio Pajola, ricercatore all’Inaf di Padova e membro del team scientifico di Osiris-Rex. «Nel caso della missione su Bennu, è stato pazzesco usarle per guardare il sito di atterraggio perché rivelano una serie di dettagli in più che guardando la sola immagine bidimensionale non si apprezzerebbero. Nel caso dei campioni arrivati sulla Terra, avere delle immagini tridimensionali consente, a distanza, a chi non si trova direttamente dove sono custoditi i campioni, di capire esattamente come sono distribuiti, qual è la loro forma quali le loro dimensioni. Sono informazioni utili a scegliere quali analizzare per primi».
Metalli in stratosfera dal rientro di velivoli spaziali
Le prime avvisaglie di uno strano cambiamento in atto nella composizione chimica della stratosfera sono arrivate dalle stelle cadenti. «Quando una stella cadente attraversa l’atmosfera», ricorda Dan Cziczo, direttore del Dipartimento di scienze della Terra, dell’atmosfera e planetarie del College of Science della Purdue Univesity, «di solito il meteoroide brucia, senza diventare una meteorite, e dunque senza raggiungere il suolo. La materia di cui è composta la stella cadente rimane così nell’atmosfera sotto forma di ioni. Questi formano dapprima un gas molto caldo, successivamente inizia a raffreddarsi e a condensarsi in molecole che cadono poi nella stratosfera. Le molecole si ritrovano, si uniscono e formano quello che chiamiamo “fumo di meteorite”. Di recente gli scienziati si sono accorti che l’impronta chimica di queste particelle meteoritiche stava iniziando a mostrare variazioni, e questo ci ha portato a chiederci: “Cosa è cambiato?” Certo non è cambiata la composizione delle meteoriti. Ma il numero di veicoli spaziali… quello sì».
Crediti: Sorvegliati spaziali/Inaf
È sorto dunque il sospetto che l’aumento di lanci spaziali – e soprattutto di rientri di velivoli dallo spazio – possa alterare in modo sensibile la stratosfera. Per verificarlo, nei mesi di febbraio e marzo 2023 un team di ricercatori guidato da Dan Murphy della Noaa (la National Oceanic and Atmospheric Administration statunitense), team del quale fa parte anche Cziczo, ha fatto alzare più volte in volo una flotta di aerei (fra i quali un WB-57, un P-3, un DC-8 e un ER-2) fino a 19 km di altitudine – circa il doppio della quota di crociera dei normali aerei di linea – equipaggiati sul muso della fusoliera con un sistema per la raccolta di campioni di aerosol. L’analisi chimica di questi campioni ha confermato il sospetto degli scienziati: l’aumento delle missioni spaziali sta avendo un impatto anche sulla composizione della stratosfera. Con conseguenze – per esempio sullo strato protettivo di ozono – ancora tutte da valutare e comprendere.
Diamo qualche cifra. Ricerche recenti condotte su dati raccolti in Antartide stimano che ogni anno circa 5200 tonnellate di polvere extraterrestre – derivante per l’80 per cento da comete e per il 20 per cento da asteroidi – giungano sulla Terra. La quantità che entra in atmosfera, e che lì resta, è assai superiore: la maggior parte della massa meteorica – si legge nello studio di Murphy e colleghi, pubblicato questa settimana su Pnas – viene infatti depositata ad altitudini comprese tra 75 e 110 km, perlopiù da un numero elevatissimo di meteoroidi submillimetrici.
Dan Cziczo (Purdue Universityt), coautore dello studio pubblicato su Pnas, a fianco di uno degli aerei utilizzati equipaggiati – sul muso della fusoliera – con lo strumento per la raccolta di campioni di aerosol in stratosfera. Crediti: Purdue University photo/John Underwood
Rispetto a questi ultimi, i veicoli spaziali che rientrano in atmosfera sono ovviamente molti di meno, anche se parliamo comunque di diverse centinaia d’ingressi. Ma hanno in media una massa assai maggiore: ognuno può arrivare a depositare alcune tonnellate, rispetto ai microgrammi di un singolo meteoroide. Considerando il solo alluminio, i dati raccolti durante la campagna di ricerca mostrano che le particelle con alluminio migliorato proveniente da veicoli spaziali contengono almeno il 70 per cento dell’alluminio rilevato complessivamente nelle particelle stratosferiche. E se il flusso di alluminio da meteoroidi è stimato attorno alle 130 tonnellate all’anno, 20 delle quali bruciate per ablazione, l’alluminio rilasciato per ablazione dai veicoli spaziali di rientro si aggira sulle 210 tonnellate annue. Per non parlare di elementi come il litio, il rame e il piombo: la loro presenza nella stratosfera è dovuta quasi interamente ai detriti spaziali, scrivono gli autori dello studio.
Un contributo, questo dei lanci spaziali al contenuto in metalli della stratosfera, che non potrà che aumentare. Da qui al 2030 si prevede di possano entrare in orbita altri 50mila satelliti. Satelliti che nel migliore dei casi, per evitare il proliferare di pericolosi detriti spaziali, a fine missione si distruggeranno completamente grazie a manovre di rientro controllato. Questo però implica che, nei prossimi decenni, fino alla metà delle particelle di acido solforico stratosferico – rispetto al 10 per cento attuale – finirà per contenere metalli provenienti dal rientro, sottolineano Murphy e il suo team, ricordando come queste particelle svolgano un ruolo fondamentale nella salvaguardia e nel mantenimento dello strato di ozono.
«I cambiamenti dell’atmosfera possono essere difficili da studiare e complessi da capire», conclude Cziczo. «Ma ciò che la nostra ricerca mostra è che l’impatto sul pianeta dell’occupazione umana e del volo spaziale umano può essere significativo, forse più significativo di quanto ci siamo immaginati».
Per saperne di più:
- Leggi su Proceedings of the National Academy of Sciences l’articolo “Metals from spacecraft reentry in stratospheric aerosol particles”, di Daniel M Murphy, Maya Abou-Ghanem, Daniel J Cziczo, Karl D Froyd, Justin Jacquot, Michael J Lawler, Christopher Maloney, John M C Plane, Martin N Ross, Gregory P Schill e Xiaoli Shen
Catturato il bagliore di una collisione planetaria
media.inaf.it/wp-content/uploa…
Rappresentazione artistica che mostra una visualizzazione dell’enorme corpo incandescente prodotto da una collisione planetaria. In primo piano, frammenti di ghiaccio e roccia si allontanano dalla collisione e in seguito si frapporranno tra la Terra e la stella ospite, che si vede sullo sfondo dell’immagine. Crediti: Mark Garlick
Uno studio pubblicato recentemente su Nature riporta l’evidenza osservativa di una collisione presumibilmente avvenuta tra due esopianeti giganti ghiacciati, che si sono scontrati attorno a una stella simile al Sole, creando un’esplosione di luce e pennacchi di polvere. I risultati mostrano il bagliore e la successiva nube di polvere, che si è spostata davanti alla stella oscurandola nel tempo.
Il team internazionale di astronomi si è costituito dopo che un appassionato, sui social, aveva fatto notare qualcosa di strano nella curva di luce della stella: circa tre anni prima che la stella iniziasse a spegnersi nella luce visibile, il sistema ha raddoppiato la sua luminosità alle lunghezze d’onda dell’infrarosso. «A essere sincero, questa osservazione mi ha totalmente sorpreso. Quando abbiamo inizialmente condiviso la curva di luce visibile di questa stella con altri astronomi, abbiamo iniziato a osservarla con una rete di altri telescopi», racconta Matthew Kenworthy dell’Università di Leiden, coautore dello studio. «Un astronomo sui social media ha fatto notare che la stella si era illuminata nell’infrarosso per un migliaio di giorni, prima di affievolirsi nell’ottico. Ho capito subito che si trattava di un evento insolito».
La rete di astronomi professionisti e amatoriali ha studiato intensamente la stella, monitorando anche le variazioni di luminosità nei due anni successivi. La stella è stata chiamata Asassn-21qj dal nome della rete di telescopi che per prima ha rilevato l’affievolimento della stella alle lunghezze d’onda visibili.
I ricercatori sono giunti alla conclusione che la spiegazione più probabile è che due esopianeti giganti di ghiaccio si siano scontrati, producendo il bagliore infrarosso rilevato dalla missione spaziale Neowise della Nasa. «I nostri calcoli e i modelli al computer indicano che la temperatura e le dimensioni del materiale incandescente, così come la quantità di tempo in cui il bagliore è durato, sono coerenti con la collisione di due esopianeti giganti di ghiaccio», riferisce Simon Lock, primo autore dello studio e ricercatore in Scienze della Terra presso l’Università di Bristol.
La nube di detriti in espansione risultante dall’impatto è transitata davanti alla stella circa tre anni dopo, causando una diminuzione della luminosità della stella stessa alle lunghezze d’onda visibili. Nei prossimi anni, si prevede che la nube di polvere inizierà a sparpagliarsi lungo l’orbita del resto della collisione e la dispersione di luce da questa nube potrebbe essere rilevata sia con i telescopi a terra che con Jwst. Gli astronomi intendono osservare da vicino cosa succederà in questo sistema. «Sarà affascinante osservare gli ulteriori sviluppi. Alla fine, la massa di materiale intorno a ciò che resta potrebbe condensarsi per formare un seguito di lune che orbiteranno intorno a questo nuovo pianeta», conclude Zoe Leinhardt dell’Università di Bristol, coautrice dello studio.
Per saperne di più:
- Leggi su Nature l’articolo “A planetary collision afterglow and transit of the resultant debris cloud” di Matthew Kenworthy, Simon Lock, Grant Kennedy, Richelle van Capelleveen, Eric Mamajek, Ludmila Carone, Franz-Josef Hambsch, Joseph Masiero, Amy Mainzer, J. Davy Kirkpatrick, Edward Gomez, Zoë Leinhardt, Jingyao Dou, Pavan Tanna, Arttu Sainio, Hamish Barker, Stéphane Charbonnel, Olivier Garde, Pascal Le Dû, Lionel Mulato, Thomas Petit & Michael Rizzo Smith
Ecco dove trovare giovani sistemi solari
51 Eridani b ripreso nel vicino infrarosso con il Gemini Planet Imager. Crediti: Gemini Observatory and J. Rameau (Udem) and C. Marois Nrc Herzberg
Eravamo ormai quasi convinti di abitare un sistema assolutamente fuori dal comune, in cui una serie di coincidenze evolutive più o meno probabili avevano portato alla formazione di alcuni pianeti rocciosi più internamente, di una Terra nella zona abitabile, e di alcuni pianeti giganti gassosi (o simil-gioviani) più esternamente. Un articolo appena uscito su Nature Communications, invece, cambia le carte in tavola: in un giovane gruppo di stelle vicino al Sistema solare, il Beta Pictoris moving group, almeno il 50 per cento delle stelle simili al Sole potrebbe ospitare un pianeta simil-gioviano. Attorno a tre di queste, ne sono già stati trovati quattro con massa poco superiore a quella di Giove.
Se dovessimo guardare il Sistema solare da fuori, da una stella poco lontana, certamente non vedremmo la Terra, non vedremmo Marte, né Mercurio o Venere. Vedremmo, forse, Giove e Saturno: pianeti giganti che si trovano a una distanza dal Sole un po’ oltre la linea dei ghiacci (la linea immaginaria oltre la quale l’acqua sopravvive al calore del Sole in forma di ghiaccio). Per questo, la prima cosa da fare per trovare sistemi simili al nostro attorno a stelle di massa simile al Sole, è cercare pianeti simil-gioviani, con massa e orbite simili a quelle di Giove e Saturno.
Finora però, statistiche alla mano, gli studi che cercavano questi sistemi mediante la tecnica delle velocità radiali dicevano il contrario: solo il 6 per cento circa delle stelle simili al Sole sembrava ospitare pianeti simili a Giove. Tuttavia, questa tecnica riesce a rilevare pianeti attorno a stelle vecchie almeno qualche miliardo di anni, per le quali è molto difficile risalire all’ambiente e alle condizioni di formazione. E che quindi, poco riescono a dirci sull’ambiente e sulle condizioni in cui si è formato il Sistema solare.
Ma il Beta Pictoris moving group è diverso: innanzitutto, perché si tratta di un’associazione di circa 150 stelle nate tutte in un unico episodio di formazione stellare circa 20 milioni di anni fa. Praticamente appena nate, considerando i tempi di vita delle stelle. E poi, perché si trova ad appena 115 anni luce da noi, nella direzione della costellazione del Pittore. Caratteristiche, queste, che lo rendono estremamente adatto ad essere osservato direttamente con strumenti avanzati come Sphere al Very Large Telescope in Cile, o Il Gemini Planet Imager, al telescopio Gemini Sud anch’esso in Cile.
media.inaf.it/wp-content/uploa…
Il gruppo di ricerca padovano che ha condotto lo studio, in una foto alla Specola di Padova (cliccare per ingrandire). Da sinistra: Alice Zurlo, Valerio Nascimbeni, Dino Mesa, Raffaele Gratton e Silvano Desidera. Crediti: Inaf Padova
Alcuni mesi fa, usando i dati di questi strumenti, lo stesso gruppo di ricercatori aveva pubblicato la scoperta di un quarto pianeta simil-gioviano attorno a una stella del gruppo Beta pictoris. Fino a quel momento, erano tre le stelle attorno a cui erano stati osservati simili a Giove poco oltre la linea dei ghiacci: la stessa Beta Pictoris (β Pic), AF Lec, e 51 Eri.
«Secondo i risultati del nostro nuovo studio, però, sarebbero molte di più», dice Raffaele Gratton, ricercatore all’Inaf di Padova e primo autore dello studio pubblicato su Nature Communications. «Innanzitutto, perché circa una trentina di stelle nel gruppo ha una massa che è almeno l’80 per cento di quella del Sole; poi, perché fra queste 17 avrebbero le caratteristiche giuste per ospitare pianeti simil-gioviani. Il fatto che non siano ancora stati trovati è una mera concomitanza di limiti fisici (pianeti non abbastanza massicci da essere rilevati, oppure configurazioni orbitali sfavorevoli) e tecnologici. La conclusione, secondo noi, è che questi pianeti sarebbero sì difficili da trovare in generale, ma sarebbero frequenti in sistemi come Beta Pictoris: giovani e poco densi».
Sistemi planetari simili al nostro si formerebbero quindi in ambienti poco densi, dove avrebbero il tempo per crescere indisturbati, senza il disturbo di molte stelle vicine. Il meccanismo preferito per la formazione dei pianeti dal disco proto-planetario, infatti, è l’accrescimento di gas e polvere su un nucleo centrale roccioso, un processo che richiede alcuni milioni di anni per formare pianeti massicci come Giove. L’ipotesi avanzata nello studio è che un disco proto-planetario possa sopravvivere così a lungo solo in ambienti poco densi, dove non ci sono stelle massicce vicine la cui perturbazione possa distruggere il disco prima che possa completare il processo.
«Il nostro studio mostra quindi la formazione di sistemi simili al nostro – dominati da pianeti giganti poco oltre la linea dei ghiacci – è molto comune e probabilmente è la norma in ambienti di bassa densità, dove il processo di formazione può procedere abbastanza indisturbato. Ci aspetteremmo, quindi, che anche il Sistema solare si sia formato in un ambiente a bassa densità», conclude Gratton. «Tuttavia, si pensa che solo una frazione abbastanza piccola delle stelle si formi in questo tipo di ambienti. Se si tiene conto di questo, in media solo una frazione di circa il 10 per cento delle stelle sembra ospitare sistemi simili al Sistema solare. Le osservazioni future, e in particolare quelle fornite dal prossimo rilascio dei dati del satellite Gaia, forniranno un quadro più chiaro, e comunque questo studio può orientare la futura ricerca di pianeti come la Terra».
Per saperne di più:
- Leggi su Nature Communications l’articolo “Jupiter-like planets might be common in a low-density environment”, di Raffaele Gratton, Dino Mesa, Mariangela Bonavita, Alice Zurlo, Sebastian Marino, Pierre Kervella, Silvano Desidera, Valentina D’Orazi ed Elisabetta Rigliaco
Viaggi nel tempo che migliorano il presente
Crediti: Andrey Grushnikov/Pixabay
Gli appassionati di Ritorno al futuro non potranno non cogliere la somiglianza di ciò che andiamo a descrivere con quanto accade nel secondo film. Mentre Doc e Marty stanno cercando di recuperare Jennifer nella sua futura casa, l’anziano Biff riesce a impossessarsi di una copia del grande almanacco sportivo contenente tutti i risultati tra il 1950 e il 2000. Poi consegna l’almanacco al sé stesso più giovane, modificando così il passato e creando un “1985 alternativo”, in cui diventa ricchissimo perché, scommettendo sul futuro già scritto, riesce ovviamente a vincere tutto.
Ecco, i ricercatori dell’Università di Cambridge hanno dimostrato che manipolando l’entanglement – una caratteristica della teoria quantistica che fa sì che le particelle siano intrinsecamente legate – sono in grado di simulare ciò che potrebbe accadere se si potesse viaggiare indietro nel tempo. In questo modo sarebbe possibile, in alcuni casi, modificare retroattivamente le azioni passate e migliorare i loro risultati nel presente. In altre parole, sarebbe possibile creare un “presente alternativo” migliore.
La possibilità che le particelle possano viaggiare all’indietro nel tempo è un argomento controverso tra i fisici, anche se gli scienziati hanno già simulato modelli di come potrebbero comportarsi tali loop se esistessero. Collegando la loro nuova teoria alla metrologia quantistica, che utilizza la teoria quantistica per effettuare misure altamente sensibili, il team di Cambridge ha dimostrato che l’entanglement può risolvere problemi che altrimenti sembrano impossibili.
«Immaginate di voler inviare un regalo a qualcuno: dovete spedirlo il primo giorno per essere sicuri che arrivi il terzo», dice l’autore principale David Arvidsson-Shukur, del Hitachi Cambridge Laboratory. «Tuttavia, ricevete la lista dei desideri di quella persona solo il secondo giorno. Quindi, in questo scenario che rispetta la cronologia, è impossibile sapere in anticipo cosa vorrà come regalo e assicurarsi di inviare quello giusto. Ora immaginate di poter cambiare ciò che avete inviato il primo giorno, avendo le informazioni della lista dei desideri ricevuta il secondo giorno. La nostra simulazione utilizza la manipolazione dell’entanglement quantistico per mostrare come sia possibile modificare retroattivamente le azioni precedenti per garantire che il risultato finale sia quello desiderato».
La simulazione si basa sull’entanglement quantistico, che consiste in forti correlazioni che le particelle quantistiche possono condividere, a differenza delle particelle classiche – quelle governate dalla fisica quotidiana – che non possono farlo. La particolarità della fisica quantistica è che se due particelle sono abbastanza vicine l’una all’altra da interagire, possono rimanere “connesse” anche quando sono separate. Questo è alla base dell’informatica quantistica: lo sfruttamento delle particelle connesse per eseguire calcoli troppo complessi per i computer classici.
«Nella nostra proposta, un fisico sperimentale connette intrinsecamente due particelle», spiega la coautrice Nicole Yunger Halpern, ricercatrice presso il National Institute of Standards and Technology e l’Università del Maryland. «La prima particella viene poi inviata per essere utilizzata in un esperimento. Una volta ottenute nuove informazioni, lo sperimentatore manipola la seconda particella per alterare effettivamente lo stato passato della prima particella, cambiando l’esito dell’esperimento».
«L’effetto è notevole, ma si verifica solo una volta su quattro», riferisce Arvidsson-Shukur. «In altre parole, la simulazione ha il 75 per cento di possibilità di fallire. Ma la buona notizia è che si sa quando fallisce. Se rimaniamo nell’analogia del regalo, una volta su quattro il regalo sarà quello desiderato (per esempio un paio di pantaloni), un’altra volta sarà un paio di pantaloni ma della taglia sbagliata, o del colore sbagliato, oppure sarà una giacca».
Per dare al loro modello una rilevanza tecnologica, i teorici lo hanno collegato alla metrologia quantistica, ossia alla metrologia che tiene conto delle correlazioni quantistiche. In un comune esperimento di metrologia quantistica, i fotoni – piccole particelle di luce – vengono fatti brillare su un campione di interesse e poi registrati con uno speciale tipo di telecamera. Affinché l’esperimento sia efficiente, i fotoni devono essere preparati in un certo modo prima di raggiungere il campione. I ricercatori hanno dimostrato che, anche se imparano a preparare al meglio i fotoni solo dopo che questi hanno raggiunto il campione, possono usare simulazioni di viaggi nel tempo per modificare retroattivamente i fotoni originali.
Per contrastare l’alta probabilità di fallimento, i teorici propongono di inviare un numero enorme di fotoni entangled, sapendo che alla fine alcuni porteranno le informazioni corrette e aggiornate. Poi userebbero un filtro per garantire che i fotoni “giusti” passino alla fotocamera, mentre il filtro respinge il resto dei fotoni “cattivi”.
«Torniamo alla nostra precedente analogia sui regali», spiega Aidan McConnell, che ha svolto questa ricerca durante il suo master al Cavendish Laboratory di Cambridge e ora è dottorando all’Eth di Zurigo. «Supponiamo che l’invio di regali sia poco costoso e che possiamo spedire numerosi pacchi il primo giorno. Il secondo giorno sappiamo quale regalo avremmo dovuto inviare. Quando il terzo giorno i pacchi arrivano, un regalo su quattro sarà corretto e lo selezioniamo dicendo al destinatario quali consegne buttare via».
«Il fatto che dobbiamo usare un filtro per far funzionare il nostro esperimento è piuttosto rassicurante», conclude Arvidsson-Shukur. «Il mondo sarebbe molto strano se la nostra simulazione di viaggio nel tempo funzionasse sempre. La relatività e tutte le teorie su cui stiamo costruendo la nostra comprensione dell’universo sarebbero fuori dalla finestra. Non stiamo proponendo una macchina per viaggiare nel tempo, ma piuttosto un’immersione profonda nei fondamenti della meccanica quantistica. Queste simulazioni non consentono di tornare indietro e modificare il proprio passato, ma permettono di creare un domani migliore risolvendo oggi i problemi di ieri».
Insomma, non è esattamente come salire su una DeLorean… ma anche così non sembra essere male.
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Nonclassical Advantage in Metrology Established via Quantum Simulations of Hypothetical Closed Timelike Curves” di David R. M. Arvidsson-Shukur, Aidan G. McConnell e Nicole Yunger Halpern
Una supernova tutta artificiale
Un’immagine prima (a sinistra) e dopo (a destra) della galassia in cui si è verificata Sn 2023tyk. La regione superiore sinistra della galassia, nel pannello a destra, appare bulbosa e deformata là dove la stella è esplosa. Crediti: Northwestern University
Per cercare oggetti transienti, improvvisi nuovi astri che si accendono in cielo come l’esplosione di una supernova, l’astronomo del Novecento usava le lastre fotografiche, l’astronomo di ieri guardava immagini al computer, e l’astronomo di oggi si fa aiutare dalla tecnologia. Un software confronta immagini dello stesso pezzo di cielo prese in epoche diverse alla ricerca di qualche luce nuova. Poi passa il testimone all’astronomo, che si occupa di capire se si tratti di qualcosa di vero o meno. L’astronomo di domani, invece, potrà andare tranquillamente a dormire e delegare tutto il processo all’Ai, l’intelligenza artificiale. Con un po’ di fortuna, il mattino seguente il Bright Transient Survey Bot (BtsBot) avrà identificato, confermato e classificato una supernova di tipo Ia in completa autonomia. È ciò che è successo il 7 ottobre scorso,
Negli ultimi sei anni, per ciascun candidato di supernova segnalato dai software di confronto di immagini, tra ispezioni visive e classificazione si stima che gli astronomi abbiano speso circa 2200 ore. Non solo: per sapere con certezza se un candidato sia una supernova occorre raccogliere e analizzare il suo spettro, un lavoro che spesso viene eseguito manualmente dagli astronomi al telescopio. Tutto tempo che i ricercatori potrebbero dedicare completamente alla scienza, ora che – da inizio ottobre, dopo il primo caso andato a buon fine – BtsBot è ufficialmente online.
«Grazie a questo nuovo strumento, l’intelligenza artificiale aiuta a classificare le supernove, eliminando un passaggio che richiede molto tempo di lavoro se affrontato dagli esseri umani», dice a Media Inaf Adam Miller, professore associato alla Northwestern University e a capo del team che ha sviluppato BtsBot. «Ma l’intelligenza artificiale non può (per ora) raccogliere un gran numero di supernove di tipo Ia e poi analizzare le loro curve di luce per dedurre la distanza di ciascuna di esse come mezzo per misurare la costante di Hubble, per fare un esempio. Gli esseri umani sono ancora necessari per analizzare e interpretare le osservazioni dopo che sono state classificate».
BtsBot è dotato di un algoritmo di apprendimento automatico che è stato allenato a riconoscere i casi interessanti usando più di 1.4 milioni di immagini storiche provenienti da quasi 16mila sorgenti, tra cui supernove confermate, stelle e galassie con brillamenti (flares) in corso e stelle periodicamente variabili. Per portare a termine il lavoro, comunque, l’algoritmo deve servirsi di una serie di altri strumenti, tutti completamente automatizzati. Il primo a entrare in gioco è lo Zwicky Transient Facility (Ztf), una fotocamera a grande campo montata all’Osservatorio di Monte Palomar, in California, che scansiona periodicamente il cielo boreale alla ricerca di fenomeni transienti. BtsBot setaccia i dati di Ztf in tempo reale, cercando i candidati di interesse, e quando ne trova uno chiede automaticamente a un piccolo telescopio robotico di 1.5m di diametro (anch’esso completamente automatizzato) a Monte Palomar, di fare lo spettro della sorgente. Infine, lo spettro viene inviato a un software al Caltech, SnIascore, che esegue la classificazione. La possibilità di usare telescopi completamente automatizzati è fondamentale, per il funzionamento di un simile processo di indagine.
«Negli ultimi 15 anni si è cercato di sviluppare telescopi robotici», spiega Miller. «Per entrambe le strutture usate da BtsBot, non ci sono esseri umani che manovrano il telescopio, ma è stato sviluppato un software per gestire tutti i dettagli meccanici (ad esempio, aprire la cupola del telescopio, spostare il telescopio e la cupola per osservare un bersaglio specifico, effettuare osservazioni, inviare i dati a un server dove le osservazioni vengono ridotte). Per queste strutture robotizzate, l’uomo crea il programma o scrive il software per farlo, ma non c’è un essere umano che si trovi fisicamente al telescopio o che fornisca comandi per ogni singolo passaggio».
Pochi giorni fa, l’intero processo è stato testato con successo su una supernova appena scoperta, Sn 2023tyk. Dopo averla identificata e averne fatto lo spettro, BtsBot ha decretato che si trattasse effettivamente di una supernova di tipo Ia, un’esplosione stellare in cui una nana bianca in un sistema stellare binario esplode dopo aver raggiunto una massa critica. E, sempre in maniera automatica, ha condiviso pubblicamente la scoperta con la comunità astronomica il 7 ottobre.
«Penso che l’intelligenza artificiale possa essere dannosa per l’astronomia e per gli astronomi solo se usata in modo improprio», dice a Media Inaf Nabeel Rehemtulla, dottorando alla Northwestern University che ha lavorato allo sviluppo e all’implementazione di BtsBot. «Quando usata in modo appropriato, invece, può portare grandi benefici. I potenziali effetti collaterali dannosi sono stati presi in considerazione durante lo sviluppo di BtsBot, e continuiamo a considerarli man mano che integriamo ulteriormente il software nei nostri flussi di lavoro. Una cosa a cui prestare attenzione, ad esempio, è la perdita di esperienza nel vagliare i candidati delle supernove, e l’introduzione di bias di selezione nei nostri campioni di supernove. Al momento, le prestazioni simulate non lasciano spazio all’iniezione di bias di selezione (BtsBot trova oltre il 99 per cento delle supernove rilevanti), e sto monitorando personalmente le azioni di BtsBot ogni mattina per verificare che le prestazioni reali corrispondano a quelle simulate, come previsto. I rischi di usare impropriamente l’Ai, e ottenere risultati sbagliati, c’è. Ad esempio, si potrebbe addestrare l’Ai su dati non del tutto rappresentativi di ciò che l’Ai vede in produzione; o si potrebbe non rispettare procedure adeguate di pulizia dei dati durante lo sviluppo. L’uso corretto dell’Ai in astronomia, e probabilmente nella maggior parte delle scienze, richiede un’attenzione meticolosa ai dettagli».
Negli alberi le tracce di un’antica tempesta solare
Anelli di accrescimento nel tronco di un albero subfossile sepolto nel fiume Drouzet, in Francia. Crediti: Cécile Miramont
Gli alberi ci parlano. Lo fanno soprattutto attraverso i propri fusti legnosi, dandoci informazioni preziose e lontane nel tempo, ad esempio sul cambiamento climatico, sulla salute dell’ambiente e, addirittura, sul nostro universo.
Analizzando gli anelli di accrescimento nei tronchi di pino silvestre (Pinus sylvestris) rinvenuti nelle Alpi francesi, un team internazionale di scienziati ha scoperto tracce di un’enorme tempesta solare avvenuta più di 14mila anni fa – la più grande mai registrata finora.
Un team di ricercatori del Collège de France, dei centri di ricerca francesi Cerege e Imbe e delle università di Aix-Marseille (Francia) e di Leeds (Regno Unito) ha misurato i livelli di radiocarbonio nei resti di antichi alberi sulle rive erose del fiume Drouzet, vicino a Gap, nelle Alpi francesi meridionali. I risultati, pubblicati sulla rivista Philosophical Transactions A: Mathematical, Physical and Engineering Sciences, rivelano nuove intuizioni sul comportamento estremo del Sole e sui possibili rischi per il nostro pianeta.
Gli autori dell’articolo hanno studiato i resti dei pini subfossili – cioè alberi il cui processo di fossilizzazione non è ancora completo – tagliandoli a fette e analizzandoli con il metodo del carbonio-14, ampiamente usato per datare campioni fossili degli ultimi 55mila anni. Dall’analisi degli anelli è emerso un picco senza precedenti nei livelli di radiocarbonio risalente a 14.300 anni fa. Il confronto di questo picco di radiocarbonio con le misurazioni del berillio, un elemento chimico trovato nelle carote di ghiaccio della Groenlandia, ha suggerito al team di ricerca l’idea che il picco sia stato causato da una massiccia tempesta solare collegata all’espulsione di enormi volumi di particelle energetiche nell’atmosfera terrestre.
«Il radiocarbonio viene costantemente prodotto nell’alta atmosfera attraverso una catena di reazioni avviate dai raggi cosmici», spiega l’autore principale dello studio, Edouard Bard, professore di evoluzione del clima e degli oceani al Collège de France e al Cerege. «Di recente, gli scienziati hanno scoperto che anche gli eventi solari estremi, come i brillamenti solari e le espulsioni coronali di massa, possono creare esplosioni a breve termine di particelle energetiche, registrate come enormi picchi nella produzione di radiocarbonio nel corso di un singolo anno».
Rappresentazione artistica di un’espulsione coronale di massa. Crediti: Nasa, Steel Hill
Tempeste solari così estreme, se si verificassero oggi, potrebbero avere conseguenze catastrofiche per la società tecnologica moderna, mettendo a repentaglio le infrastrutture per le telecomunicazioni, i sistemi satellitari e le reti elettriche – e con danni stimabili in miliardi di euro. È dunque fondamentale comprendere i rischi derivanti dal presentarsi di eventi simili per consentire alle società di prepararsi ad affrontarli, lavorando ad esempio su una maggiore resilienza nei sistemi di comunicazione ed energetici, e cercando di proteggerli da potenziali danni.
«Queste super tempeste potrebbero danneggiare in modo permanente i trasformatori delle reti elettriche, provocando enormi e diffusi blackout della durata di mesi», avverte Tim Heaton, professore di statistica applicata all’Università di Leeds. «Potrebbero anche danneggiare in modo permanente i satelliti su cui tutti noi facciamo affidamento per la navigazione Gps e le telecomunicazioni, rendendoli inutilizzabili. Creerebbero, inoltre, gravi rischi di radiazioni per gli astronauti».
Precedentemente erano state identificate nove tempeste solari estreme, note come eventi Miyake, avvenute negli ultimi 15mila anni: le più recenti si sarebbero verificate nel 993 d.C. e nel 774 d.C.. La tempesta appena identificata è, tuttavia, circa il doppio delle dimensioni di quelle precedenti, ed è la più grande che sia mai stata registrata.
Ci sono ancora molti misteri da scoprire sul comportamento del Sole. Non sappiamo, ad esempio, quali siano le cause di queste tempeste solari estreme, con quale frequenza possano verificarsi o se possiamo in qualche modo prevederle. Anche l’esatta natura degli eventi di Miyake è ancora poco conosciuta, poiché non sono mai stati osservati direttamente a livello strumentale.
«Le misurazioni strumentali dirette dell’attività solare sono iniziate solo nel XVII secolo, con il conteggio delle macchie solari. Oggi otteniamo anche registrazioni dettagliate grazie a osservatori a terra, sonde spaziali e satelliti», spiega Bard. «Tutte queste registrazioni strumentali a breve termine sono però insufficienti per una comprensione totale del Sole. Il radiocarbonio misurato negli anelli degli alberi, assieme al berillio nei ghiacci polari, rappresenta il modo migliore per comprendere il comportamento del Sole, andando più lontano nel tempo».
La più grande tempesta solare osservata dalla Terra e della quale si abbia testimonianza diretta risale al 1859: è il cosiddetto evento Carrington, causò enormi disagi, distruggendo le apparecchiature per il telegrafo, e diede origine a un’aurora boreale notturna a latitudini insolite, così luminosa che gli uccelli iniziarono a cantare, credendo fosse l’alba. Più recentemente, si ricorda il blackout del Quebec in Canada, avvenuto a causa di un tempesta solare nel 1989. Tuttavia, gli eventi di Miyake sarebbero stati di un ordine di grandezza superiore.
Per contrastare la potenza distruttiva di tali fenomeni, la Nasa da diversi anni lavora allo sviluppo di sistemi di allerta precoce (early warning system) in grado di avvisare prima che una tempesta solare colpisca la Terra. Il più recente di questi sistemi, chiamato Dagger, utilizza l’intelligenza artificiale per raccogliere e analizzare i dati da satelliti che monitorano continuamente il Sole – come Ace, Wind, Imp-8 e Geotail – per fornire un preavviso di almeno 30 minuti prima che si verifichi una tempesta solare, consentendo l’eventuale preparazione e messa in sicurezza dei sistemi terrestri.
Resti di alberi subfossili rinvenuti dai ricercatori nel fiume Drouzet. Crediti: Cécile Miramont
Studiare gli alberi, come fossero dei veri e propri archivi naturali di impronte di un passato lontano, consente, dunque, di raccogliere parametri e dati scientifici utilissimi, anche per adeguare la nostra risposta a eventuali futuri rischi e minacce solari.
«Trovare una tale collezione di resti di alberi ben conservati è stato davvero eccezionale», conclude Cécile Miramont, esperta di paleoambienti e paleoclimi all’Università di Aix-en-Provence. «Confrontando l’ampiezza degli anelli dei singoli alberi rispetto agli altri tronchi e allineandoli in un sistema di altri tronchi, siamo riusciti a creare una linea temporale più lunga utilizzando il metodo della dendrocronologia. Ciò ci ha permesso di scoprire informazioni preziose sui cambiamenti ambientali del passato e di misurare il radiocarbonio in un periodo di attività solare finora inesplorato».
Per saperne di più:
- Leggi su The Royal Society’s Philosophical Transactions A: Mathematical, Physical and Engineering Sciences l’articolo “A radiocarbon spike at 14 300 cal yr BP in subfossil trees provides the impulse response function of the global carbon cycle during the Late Glacial” di Edouard Bard, Cécile Miramont, Manuela Capano, Frédéric Guibal, Christian Marschal, Frauke Rostek, Thibaut Tuna, Yoann Fagault e Timothy J. Heaton.
Lava worlds: frizzanti mondi ribollenti
Gli astronomi li chiamammo “mondi di lava”. Sono super-Terre che orbitano molto vicino alle loro stelle ospiti, caratterizzate dalla presenza di oceani di magma mescolati a grandi quantità di gas volatili – da cui il nome di “super-Terre frizzanti” (fizzy super-Earths, in inglese) con cui sono anche chiamati. E, secondo uno studio pubblicato il mese scorso su The Astrophysical Journal, potrebbero contenere la chiave per comprendere come la Terra sia arrivata ad avere gli ingredienti necessari per la vita. Un team di scienziati guidato dalla Ohio State University, negli Usa, ha infatti condotto simulazioni al computer per esplorare l’evoluzione di questi mondi, trovando che alcuni di essi possono intrappolare nel mantello quantità rilevanti di sostanze chimiche necessarie alla vita.
media.inaf.it/wp-content/uploa…
Illustrazione artistica di un pianeta di Lava. Crediti: Nasa/Jpl-Caltech
Il mantello è la regione di un pianeta che si trova tra la crosta superficiale, il guscio esterno, e il nucleo, lo strato più interno. Nei mondi di lava, questa regione – generalmente la più massiccia della struttura d’un pianeta – è costituita prevalentemente da magma: una massa informe e caotica di roccia fusa che può raggiungere la superficie e formare oceani su larga scala.
Nel loro studio, Kiersten Boley, ricercatrice all’Ohio State University, e i suoi colleghi hanno condotto simulazioni al computer per esplorare cosa succede a questi pianeti quando, nell’arco di miliardi di anni, si raffreddano. Per farlo hanno utilizzato ExoPlex, un sofisticato software di modellazione della struttura interna degli esopianeti, a cui hanno dato in pasto come input diverse composizioni chimiche del magma – magmi anidri, idrati (con il 2.2 per cento di acqua) e carbonatici (con il 5.2 per cento di anidride carbonica) – e una gamma di temperature superficiali (da 1200 a 2200 gradi Celsius), valutando infine l’evoluzione del pianeta in ciascuna condizione considerata.
Le simulazioni hanno dimostrato che esiste più di un modo in cui un mondo di lava può raffreddarsi e solidificarsi, a seconda della composizione del magma e della presenza o meno di un’atmosfera. E almeno uno di questi prevede che grandi quantità di acqua e sostanze volatili – come quelle a base di ossigeno e carbonio, composti chimici chiave per la vita come la conosciamo – possono rimanere intrappolate all’interno dei pianeti.
«L’evoluzione dei pianeti rocciosi prevede l’attraversamento di uno stadio di oceano magmatico», spiega Boley. «Studiare i mondi di lava può darci qualche idea su ciò che potrebbe essere accaduto durante l’evoluzione di quasi tutti i pianeti terrestri»
Le tre strutture del mantello risultanti dalle simulazioni con il software di modellazione ExoPlex. Crediti: Kiersten M. Bole et al., Apj, 2023
Gli scenari venuti fuori dalle simulazioni sono in tutto tre, ciascuno associato a una differente struttura planetaria. Il primo scenario è rappresentativo di un pianeta il cui mantello è interamente costituito da magma. In questo caso, spiegano i ricercatori, l’oceano di lava potrebbe iniziare a raffreddarsi dall’alto verso il basso, con la roccia fusa che si solidifica in superficie ma continua a ribollire in profondità. Il secondo, spiegabile con un raffreddamento dal basso verso l’alto, prevede la presenza di un mantello caratterizzato da un oceano di lava sopra un letto di roccia solida. Il terzo scenario, infine, mostra un mantello a sandwich, composto da un oceano di magma (Mo) subito sotto la crosta superficiale, uno strato di roccia solida (s) nel mezzo e un oceano di magma basale (Mo) al confine con il nucleo. Mosmo, dunque: è così che gli autori hanno chiamato questa stratificazione.
Lo studio suggerisce che un mondo quattro volte più massiccio della Terra che presenti quest’ultima struttura può, su tempi scala lunghi, sequestrare grandi quantità di sostanze volatili, intrappolare più di 130 volte la massa d’acqua e 1000 volte la quantità di carbonio presenti attualmente sulla Terra. «Quando parliamo dell’evoluzione di un pianeta e del suo potenziale di sostenere la vita», aggiunge Boley, «la capacità di intrappolare molti elementi volatili all’interno del mantello potrebbe avere maggiori implicazioni per l’abitabilità».
I risultati delle simulazioni indicano anche che, per una data massa, esiste un intervallo di temperature superficiali in cui un pianeta avrà un oceano di magma basale che può sequestrare una quantità significativa di sostanze volatili disciolte. Inoltre, pianeti simili alla Terra con oceani di magma più grandi di circa 1.5 raggi terrestri sono solo modestamente più densi di un pianeta roccioso di massa equivalente.
«I pianeti di lava sono ben lontani dal diventare abitabili al punto da sostenere la vita, ma è importante comprendere i loro processi evolutivi», conclude Boley. «Questo studio chiarisce che misurare la loro densità non è esattamente il modo migliore per caratterizzare questi mondi quando si confrontano con esopianeti rocciosi, poiché un oceano di magma non aumenta né diminuisce in modo significativo la densità del pianeta».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Fizzy Super-Earths: Impacts of Magma Composition on the Bulk Density and Structure of Lava Worlds” di Kiersten M. Boley Wendy R. Panero, Cayman T. Unterborn, Joseph G. Schulze, Romy Rodríguez Martínez e Ji Wang
Il volo di Psyche
media.inaf.it/wp-content/uploa…
Al Kennedy Space Center, a bordo di un razzo Falcon Heavy di SpaceX, è appena partita la missione Psyche. Crediti: Nasa/SpaceX
Alle 16.19 (ora italiana) di oggi, venerdì 13 ottobre, le dieci del mattino in Florida, al Kennedy Space Center, a bordo di un razzo Falcon Heavy di SpaceX, è partita la missione Psyche. Nonostante la tempesta e il vento forte di ieri, nonostante il tempo non fosse dei migliori nemmeno oggi.
È la prima missione scientifica della Nasa a usufruire di un razzo pesante della compagnia di Elon Musk e, una volta fuoriuscita dall’atmosfera terrestre utilizzerà i suoi propulsori alimentati da una coppia di massicci pannelli solari per raggiungere la fascia principale degli asteroidi. Dovrà percorrere oltre 3.5 miliardi di chilometri per raggiungere 16 Psyche, un corpo roccioso largo circa 280 chilometri e ricco di metalli. Il cuore di uno dei planetesimi che ha contribuito alla formazione dei pianeti rocciosi del Sistema solare, pensano gli scienziati, oppure un oggetto primordiale con caratteristiche del tutto inedite.
Psyche è stato scoperto nel 1852 dall’astronomo italiano Annibale de Gasparis. Il numero 16 che precede il nome significa che è stato il sedicesimo asteroide scoperto, mentre Psyche deriva dalla mitologia greca, in cui era una fanciulla talmente bella da far innamorare perdutamente di sé Eros, il dio dell’amore, e da suscitare l’invidia della dea Afrodite.
«Questo lancio è motivo di orgoglio ed emozione», dice a Media Inaf Marcella Marconi, direttrice dell’Inaf di Capodimonte dove De Gasparis condusse i suoi studi. «Non solo per soddisfare un’altra curiosità scientifica sulle nostre origini, ma anche per rendere omaggio a un grande astronomo del passato con cui sarebbe stato bello condividere questo momento».
Questo grafico mostra, guardando da sopra il piano in cui giacciono i pianeti del Sistema solare, il percorso a spirale che seguirà la missione Psyche per raggiungere l’omonimo asteroide. Crediti: NASA/JPL-Caltech
Cosa sia esattamente 16 Psyche e quanto abbia a che fare con il nostro passato, saranno gli strumenti a bordo del satellite a dircelo: nelle dimensioni di un piccolo van ci sono un magnetometro, uno spettrometro a raggi gamma e neutroni e un imager multispettrale per studiare l’asteroide e la sua composizione. La missione comincerà a mandarci foto dell’asteroide non appena lo individuerà fra gli altri copri della fascia principale, ma per arrivarci impiegherà poco meno di sei anni. La sua orbita sarà una sorta di spirale, come potete vedere nell’infografica accanto, con una tappa intermedia a maggio 2026 che prevede una manovra di “assistenza gravitazionale” (detta più comunemente fionda gravitazionale) attorno a Marte.
Quel che sappiamo finora è che si tratta di un asteroide irregolare di forma simile a una patata. Se fosse tagliato a metà orizzontalmente all’equatore – immaginando un ovale schiacciato – misurerebbe circa 280 chilometri di diametro nel punto più largo e 232 chilometri in lunghezza. Ha una densità stimata tra i 3.400 e i 4.100 chilogrammi per metro cubo, un valore che deriva dal fatto che probabilmente l’asteroide è costituito da una miscela di roccia e metallo, dove quest’ultimo occupa dal 30 al 60 per cento del suo volume.
Se Psyche è davvero un nudo nucleo planetario, sarà come fare un viaggio al centro di Marte, o della Terra, e vederli com’erano quando si sono formati. Potrebbe essere stato privato dei suoi strati esterni da violente collisioni durante la prima formazione del Sistema solare. Oppure no. Non resta che attendere di vederlo da vicino, nel 2029.
«Il lancio è stato eccezionale», commenta Simone Marchi, ricercatore alla Space Science and Engineering Division del Southwest Research Institute di Boulder in Colorado, negli Stati Uniti, e Co-Investigator della missione Psyche, che ha assistito al lancio. «La cosa che mi ha colpito di più è stata la lunghezza della fiamma che dalla prospettiva con cui guardavo io era almeno tre o quattro volte la lunghezza del razzo. Una cosa immensa. Qualche minuto dopo abbiamo visto i booster rientrare e atterrare e la cosa che ha sorpreso tutti è la velocità elevatissima alla quale sono arrivati a terra: da quando li abbiamo visti spuntare in alta atmosfera a quando sono atterrati saranno passati quattro o cinque secondi al massimo, e all’ultimo momento hanno acceso il motore per decelerare. Poi, qualche secondo dopo ancora, sono arrivati i boom dovuti al rientro supersonico che sono sembrati delle cannonate e ci hanno colti tutti di sorpresa. Insomma, è andato tutto bene e ora non resta che sperare che lo stesso avvenga nelle prossime fasi, che saranno altrettanto importanti».
A caccia della prima meteorite sarda
Il bolide IT20231008T215330 ripreso dalla camera Prisma del Sardinia Radio Telescope. La traccia è molto breve perché la traiettoria era molto inclinata rispetto alla superficie terrestre. Crediti: Prisma/Inaf.
Fra i fireballprogenitori di meteoriti triangolati dalla rete Prisma, che nel 2020 e 2023 hanno portato al recupero delle meteoriti Cavezzo e Matera, ne mancava uno insulare. Con l’evento dell’8 ottobre 2023 alle 21:53:30 UT (23:53:30 ora locale), questa lacuna è stata colmata e l’isola fortunata è stata la Sardegna. Vediamo come sono andate le cose e dove si trova la zona in cui cercare la meteorite.
Tutto è iniziato con la ripresa del fireball in oggetto da parte di due camere Prisma, quella del Sardinia Radio Telescope e del Gennargentu. Anche con i dati di due sole camere si può triangolare e ricostruire la dinamica del meteoroide. In base ai risultati dei calcoli fatti dal team di Prisma, il fireball si è reso visibile a 78,3 chilometri di altezza e si è estinto a 28 chilometri. La traiettoria, percorsa con direzione da sud-est verso nord-ovest, era molto inclinata rispetto alla superficie terrestre – ben 77,6° –e i suoi 51,5 chilometri di lunghezza sono stati percorsi in soli 3,6 secondi, che è stata la durata complessiva della fase di fireball.
Quando un piccolo meteoroide entra in atmosfera generando un fireball, quello che conta per ricostruire la dinamica è soprattutto la velocità: all’inizio della traiettoria luminosa il meteoroide si muoveva a 16,5 km/s, tipica di un corpo di origine asteroidale, mentre alla fine la velocità era scesa a 4,2 km/s. In effetti l’orbita eliocentrica, calcolata a partire dalla posizione e dalla velocità del meteoroide prima dell’ingresso in atmosfera, ha il perielio all’altezza dell’orbita di Venere, mentre l’afelio cade appena oltre quella di Marte: si tratta di un’orbita asteroidale di tipo Apollo.
Una quota finale compresa fra 20 e 30 chilometri associata a una velocità finale vicina ai 3 km/s implica la sopravvivenza all’ablazione di una parte del meteoroide originario. In questo caso è stata stimata una massa iniziale di circa 0,5 kg e una finale di 160 ± 60 g, pari a una meteorite del diametro di circa 4-5 cm, un oggetto piccolo che però vale la pena cercare.
Dove può essere la meteorite? Dai calcoli risulta che la posizione del punto iniziale della fase di volo buio, si colloca alle coordinate geografiche Lat. 39,524704° N, Long. 9,381684° E. Questa posizione cade nella periferia del centro abitato di Armungia, paesino di 400 abitanti posto a 65 chilometri da Cagliari.
media.inaf.it/wp-content/uploa…
Lo strewn field (ellisse rossa), associato al fireball IT20231008T215330 cade a poca distanza del paesino di Armungia. Crediti: Prisma/Inaf.
Per identificare lo strewn field, ossia la zona dove andare alla ricerca della meteorite, bisogna tenere conto della direzione dei venti e della loro velocità al variare della quota rispetto alla superficie terrestre. Per ottenere il profilo atmosferico Prisma si è affidata, come sempre, a Raffaele Salerno del centro Meteo Expert. Il risultato ci dice che lo strewn field è di forma allungata e si trova a circa 1,1 km a nord-ovest del centro di Armungia. La zona è impervia e ricca di boschi, ma grazie all’alta inclinazione della traiettoria, lo strewn field per meteoriti con una massa nel range 50-200 g è lungo solo 800 m e largo ± 200 m, per una superficie totale di 320.000 m².
Vicino ad Armungia si trovano le meteoriti leggere, quelle da 50 g (Lat. 39,5246° N; Long. 9,3683° E), mentre all’estremità opposta si trovano le meteoriti più massicce, quelle da 200 g (Lat. 39,5308° N; Long. 9,3643°).
Se vi capita di passare nei boschi intorno ad Armungia, date un’occhiata al suolo alla ricerca di sassi di colore molto scuro, opachi e di qualche centimetro di diametro: potrebbe essere la meteorite. In questo caso non toccate niente, fate una foto con lo smartphone, prendete nota delle coordinate Gps e inviate il tutto via email al Project Office di Prisma (prisma_po@inaf.it): i nostri esperti vi risponderanno il prima possibile per dirvi se si tratta di una meteorite e come raccoglierla nel modo più corretto. In alternativa, potete chiamare direttamente il Coordinatore Nazionale di Prisma, Daniele Gardiol dell’Inaf Osservatorio di Astrofisica di Torino al numero 349 197 7591. Buona ricerca!
Un pallone da rugby di materia oscura
La galassia a spirale Eso 510-G13 in un’immagine del telescopio spaziale Hubble. Il fatto che la galassia ci appaia di taglio consente di apprezzare meglio la distorsione del disco. Crediti: Nasa and The Hubble Heritage Team (STScI/Aura)
Spesso ci immaginiamo le galassie a spirale come degli armoniosi sistemi di stelle, gas e polveri che orbitano ordinatamente seguendo traiettorie circolari all’interno di una piatta e regolare struttura a disco. Questo non è del tutto vero. Se le scrutiamo con attenzione, molte galassie a disco appaiono infatti deformi, come le ruote di certe biciclette, vittime innocenti delle retromarce disattente di qualcuno. Questo effetto è particolarmente evidente quando una galassia si mostra di taglio rispetto alla Terra, consentendoci di apprezzare la distorsione in tutta la sua evidenza. Sono moltissime le galassie storte, e neppure la nostra risulta esente da questa caratteristica.
Che il disco della Via Lattea avesse questa forma bizzarra non è un fatto nuovo. Fin dalla fine degli anni ‘50 gli astronomi avevano infatti notato come il disco di stelle della nostra galassia apparisse tutt’altro che piatto. Il perché di questa deformità era tuttavia avvolto nel mistero. In quanto inquilini del disco galattico possiamo infatti indagare questa struttura solo dall’interno, privati per costruzione di una visione di insieme, come quella che si gode dall’alto di un aeroplano quando si dispiegano gli innumerevoli dettagli della superficie terrestre.
Un gruppo di astronomi dell’Harvard-Smithsonian Center for Astrophysics di Cambridge in Massachusetts ha ora elaborato un modello che spiegherebbe la deformazione del disco della Via Lattea. Secondo lo studio, pubblicato su Nature Astronomy e guidato dallo studente di dottorato Jiwon Jesse Han, il responsabile sarebbe l’alone di materia oscura che circonda la nostra galassia. Il modello cosmologico attuale prevede infatti che le galassie risiedano all’interno di grandi aloni di materia oscura, molto più estesi delle galassie stesse, e rivelabili solo tramite gli effetti gravitazionali che generano sulla materia ordinaria. In particolare, il team di ricercatori ha mostrato come un alone di materia oscura inclinato e con una forma ellissoidale sarebbe in grado di spiegare “in maniera elegante”, citandoCharlie Conroy, secondo autore dello studio, la distorsione del disco galattico. Insomma, un colossale pallone da rugby che raccolga al suo interno la nostra galassia.
Propedeutico a questo risultato è stato uno studiodello scorso anno riguardante l’alone di stelle che, come una immensa nube di astri sparpagliati, pure circonda il disco galattico. Utilizzando i dati del satellite Gaia, i ricercatori hanno studiato i moti di migliaia di astri, scoprendo come l’alone stellare abbia una forma oblunga, con le stelle che si trovano addensate lungo direzioni privilegiate. L’alone di materia oscura avrebbe dunque la stessa forma ellissoidale, che conferirebbe al disco stellare la distorsione osservata.
media.inaf.it/wp-content/uploa…
Una rappresentazione artistica che mostra la struttura ellissoidale dell’alone stellare della Via Lattea. Anche l’alone di materia oscura potrebbe avere una forma simile. Crediti: Melissa Weiss, Harvard & Smithsonian’s Center for Astrophysics
Ci si chiede cos’abbia portato l’alone di materia oscura ad assumere questo aspetto, così lontano dalla classica immagine da libro di testo che rappresenta gli aloni come degli oggetti a simmetria sferica – dei palloni da calcio, più che da rugby. Secondo Han, le ragioni di questo fatto vanno ricercate nel passato della Via Lattea. In particolare, gli autori ipotizzano che solo la collisione con un’altra galassia abbia potuto deformare l’alone, che avrebbe altrimenti mantenuto una forma sferica, lasciando inalterato il disco stellare.
Come già ipotizzato da altri lavori, la Via Lattea avrebbe dunque interagito con altre galassie nel passato. I risultati del nuovo studio potrebbero essere d’aiuto nel capire meglio la storia della nostra galassia e le proprietà della materia oscura, che costituisce una delle componenti più elusive dell’universo.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “A tilted dark halo origin of the Galactic disk warp and flare“, di J. J. Han, C. Conroy e L. Hernquist
Su Bennu ci sono carbonio e acqua
media.inaf.it/wp-content/uploa…
La capsula di raccolta di Osiris-Rex (Tagsam) con i frammenti di asteroide trovati sull’esterno e già analizzati dalla Nasa. Crediti: NASA/Erika Blumenfeld & Joseph Aebersold
L’asteroide Bennu, i cui composti sono vecchi circa 4.5 miliardi di anni, è arrivato sulla Terra. Lo vedete nell’immagine: i suoi frammenti sono quei sassolini scuri sulla destra. Li ha raccolti la missione della Nasa Osiris-Rex il 20 ottobre 2020 a più di 331 milioni di chilometri dalla Terra, e li ha consegnati a noi dopo un viaggio circa tre anni. E (quelli che vedete) sono solo una piccola parte del bottino, che si trova invece all’interno della capsula di raccolta, che verrà aperta nelle prossime settimane. Le prime analisi dicono che questi frammenti di asteroide contengono un’elevata percentuale di carbonio e acqua.
«Bennu è un asteroide primitivo, e il fatto che sia ricco di composti del carbonio era in qualche modo atteso. Sono stati trovati anche minerali che contengono idrogeno e ossigeno, e questo è un aspetto degno di nota», dice a Media Inaf Maurizio Pajola, ricercatore all’Inaf di Padova e fra i primi italiani – assieme a Filippo Tusberti – che studierà i campioni di Bennu nelle prossime settimane. «Questi sono solo risultati preliminari, ma il potenziale di Osiris-Rex è davvero impressionante, se consideriamo quanto materiale ha raccolto e soprattutto se pensiamo all’enorme successo che hanno avuto le missioni giapponesi Hayabusa 1 e 2, raccogliendo rispettivamente pochi microgrammi e poco più di 5 grammi di materiale asteroidale. Un’altra cosa da sottolineare, poi, è la rapidità con la quale la Nasa ha effettuato queste prime analisi: siamo tutti impazienti di scoprire il resto».
Torniamo all’immagine: quella che vedete qui è la prima foto pubblicata dagli scienziati del Johnson Space Center della Nasa a Houston che mostra il materiale dell’asteroide dopo il suo arrivo a Terra lo scorso 24 settembre. Il campione di Osiris-Rex è il più grande campione di asteroide ricco di carbonio mai consegnato sulla Terra, e ha superato di gran lunga l’obiettivo minimo della raccolta di 60 grammi di materiale asteroidale. Ci si aspettano infatti fra i 150 e i 250 grammi di raccolta. Al Johnson Space Center, gli esperti stanno lavorando in stanze pulite appositamente costruite per la missione, e quando hanno aperto la prima volta la copertura del contenitore scientifico, hanno scoperto che c’era del materiale bonus dell’asteroide che copriva l’esterno della testa del campionatore (il Tagsam, quello che vedete in figura), la copertura del contenitore e la base. Sono quindi partiti proprio da questo per fare un’analisi preliminare sull’asteroide: l’hanno osservato con un microscopio elettronico a scansione, raccogliendo immagini infrarosse, di diffrazione dei raggi X e facendone una prima analisi chimica. Hanno anche utilizzato la tomografia computerizzata a raggi X per produrre il modello computerizzato 3D di una delle particelle, che ne ha evidenziato l’eterogeneità interna. Hanno trovato, dicevamo, materiale ricco di carbonio e molti minerali argillosi contenenti acqua.
«I risultati riguardano solo il materiale trovato all’esterno della capsula di raccolta Tagsam. Dalle prime analisi sui grani già vediamo che questi hanno forme e albedo differenti. A breve, e siamo tutti emozionatissimi, verrà aperta la ghiera che nasconde il materiale all’interno e che non lascia intravedere nulla, al momento. Non abbiamo idea di quale sia la massa totale, esattamente. E poi, il prossimo passo toccherà a noi, qui a Padova».
Pajola e Tusberti avranno infatti il compito di cominciare lo studio della cosiddetta size frequency distribution, che prevede di catalogare i frammenti in base alle loro dimensioni. Il materiale raccolto verrà disposto su appositi vassoi in modo che non ci siano strati sovrapposti, raggruppamenti né polvere, e si comincerà a contare i sassolini più grandi. Quest’analisi darà molte informazioni sia sul luogo del campionamento, e quindi sugli eventuali effetti di selezione del campionamento stesso, sia sui possibili effetti meccanici dell’ingresso in atmosfera, che potrebbe aver distrutto alcuni frammenti riducendoli in pezzi più piccoli. Nel corso dei prossimi due anni, il team scientifico della missione continuerà a caratterizzare i campioni, distribuendoli anche in altri istituti nel mondo.
«Sul rientro dei campioni in Italia, i tempi e i modi non sono ancora stati stabiliti. Verranno fatte delle call internazionali, un po’ come quando si richiede tempo al telescopio, ma sono sicuro che avremo dei campioni all’Inaf di Arcetri, a Firenze, dove abbiamo dei laboratori adeguati all’analisi. Qui a Padova, invece, facciamo esclusivamente l’analisi delle immagini perché non abbiamo i laboratori per accogliere e analizzare i campioni», dice Pajola. «Ci tengo poi a dire che il 70 per cento dei campioni non verrà toccato dalle analisi, ma rimarrà ai futuri ricercatori. Non abbiamo idea di quali tecniche riusciremo a sviluppare nei prossimi cinquanta o cent’anni; quindi, è giusto preservare parte del campione. Siamo comunque tutti eccitatissimi».
Origine comune per i lobi di Arrokoth
Secondo un nuovo studio guidato da Alan Stern, le grandi strutture a tumulo che dominano uno dei lobi di Arrokoth sono abbastanza simili da suggerire un’origine comune. Crediti: SwRI
Un nuovo studio pubblicato su Planetary Science Journal guidato da Alan Stern, del Southwest Research Institute e principal investigator della missione New Horizons della Nasa, avanza l’idea che i grandi tumuli – di circa 5 chilometri di larghezza – che dominano l’aspetto del lobo più grande di Arrokoth, siano abbastanza simili tra loro da suggerire un’origine comune.
Lo studio è basato sui dati della sonda spaziale New Horizons, che nel 2019 ha effettuato un sorvolo ravvicinato di Arrokoth. Ricordiamo che si tratta dell’oggetto transnettuniano più lontano dal Sole che sia mai stato visitato e ripreso da una sonda spaziale. Conosciuto anche come Ultima Thule, è un corpo primordiale del Sistema solare scoperto il 26 giugno 2014 dal telescopio spaziale Hubble, lungo 36 chilometri e composto da due planetesimi di 21 e 15 chilometri di diametro, chiamati rispettivamente Wenu e Weeyo, uniti lungo i loro assi principali a livello del “collo”, un restringimento evidente nella figura accanto.
Dai dati ottenuti dal sorvolo ravvicinato della New Horizons, Stern e coautori hanno identificato 12 tumuli sul lobo più grande di Arrokoth che hanno quasi la stessa forma, dimensione, colore e riflettività. Hanno anche identificato provvisoriamente altri tre tumuli sul lobo più piccolo dell’oggetto. «È sorprendente vedere questo oggetto così ben conservato, e la cui forma rivela direttamente i dettagli del modo in cui si è formato da una serie di elementi costitutivi tutti molto simili tra loro», afferma Will Grundy dell’Osservatorio Lowell, coautore dello studio.
Le osservazioni di Arrokoth suggeriscono che si sia formato da un assemblaggio di oggetti di dimensioni simili, radunatisi a bassa velocità in un’area locale sottoposta a collasso gravitazionale. Questi risultati supportano il modello di instabilità nel flusso della formazione dei planetesimi. Crediti: New Horizons/ Nasa/ Jhuapl/ SwRI/ James Tuttle Keane
La geologia di Arrokoth supporta il modello di instabilità del flusso di formazione planetesimale in cui le velocità di collisione di pochi chilometri all’ora hanno consentito agli oggetti di accumularsi “delicatamente” per costruire Arrokoth, in una zona della nebulosa solare soggetta a collasso gravitazionale.
«Le somiglianze, comprese le dimensioni e altre proprietà, delle strutture dei tumuli di Arrokoth suggeriscono nuove idee sulla sua formazione», afferma Stern. «Se i tumuli sono di fatto rappresentativi degli elementi costitutivi degli antichi planetesimi come Arrokoth, allora i modelli di formazione planetesimale dovranno spiegare la dimensione preferita per questi elementi costitutivi».
È molto probabile che alcuni degli obiettivi dei flyby della missione Lucy della Nasa verso gli asteroidi troiani di Giove e di Comet Interceptor dell’Esa, siano altri planetesimi incontaminati, che potrebbero contribuire alla comprensione dei meccanismi di accrescimento dei planetesimi in altre parti del Sistema solare primordiale, e confrontarli con i processi riscontrati da New Horizons nella fascia di Kuiper. «Sarà importante cercare strutture simili a tumuli sui planetesimi osservati da queste missioni» conclude Stern, «per vedere quanto comune sia questo fenomeno, come ulteriore guida alle teorie sulla formazione dei planetesimi».
Per saperne di più:
- Leggi su Planetary Science Journal l’articolo “The Properties and Origin of Kuiper Belt Object Arrokoth’s Large Mounds”, di S. A. Stern, O. L. White, W. M. Grundy, B. A. Keeney, J. D. Hofgartner, D. Nesvorný, W. B. McKinnon, D. C. Richardson, J. C. Marohnic, A. J. Verbiscer, S. D. Benecchi, P. M. Schenk, e J. M. Moore
Nel centro galattico, la fonte della giovinezza
Una vista a più lunghezze d’onda di Irs 13. Molte delle giovani stelle dell’ammasso sono oscurate dalla polvere (nell’immagine in blu) o mescolate alle stelle luminose (in rosso). In alto a sinistra è indicata la posizione di SgrA*, il buco nero supermassiccio al centro della nostra galassia. Crediti: Florian Peissker/Università di Colonia
Si chiama Irs 13, è un ammasso stellare e, secondo un recente studio pubblicato su The Astrophysical Journal, è significativamente più giovane del previsto, troppo perché possa essere spiegata la sua presenza a soli 0.13 parsec da Sagittarius A* – il buco nero supermassiccio che alberga nel cuore della nostra galassia, la Via Lattea.
Scoperto più di vent’anni fa, l’ammasso in questione è stato studiato in dettaglio da Florian Peissker, ricercatore all’Università di Colonia, e colleghi, che si sono concentrati in particolare su due delle regioni in cui può essere suddiviso l’agglomerato di stelle: Irs 13N e Irs 13E.
Combinando un’ampia varietà di dati d’archivio, ottenuti da vari telescopi nell’arco di circa due decenni – il Very Large Telescope (Vlt) in cima al Cerro Paranal, in Cile, e l’Atacama Large Millimeter/submillimeter Array (Alma) sull’altopiano di Chajnantor, sempre in Cile – i ricercatori non solo hanno trovato al loro interno un numero significativamente più elevato di stelle rispetto agli studi precedenti, ma hanno anche ottenuto prove convincenti che molte di esse sono nelle fasi iniziali della loro evoluzione. Oggetti stellari giovani (Young Stellar Object, in inglese), è così che li chiamano gli astronomi. Che c’è di strano? Nulla, se non fosse che, come accennato, queste baby stelle – l’età stimata è di circa 100mila anni – si trovano nelle immediate vicinanze del “nostro” buco nero supermassiccio, un luogo tutto fuorché adatto alla formazione stellare.
Questo risultato fa il paio con altre due recenti scoperte: il rilevamento, da parte di un team di ricercatori guidato dallo stesso Peißker, di X3a, una stella in fasce appartenente molto probabilmente all’ammasso Irs 13; e la scoperta, fatta da Jwst, della presenza nei dischi di polvere di alcuni oggetti stellari nel centro galattico di ghiaccio d’acqua, un altro indicatore indipendente della giovane età stellare.
La domanda a questo punto è: com’è possibile spiegare l’esistenza di queste giovani stelle? La risposta a questo paradosso della giovinezza, come lo chiamano gli astronomi, potrebbe essere nascosta nella turbolenta storia evolutiva di Irs 13, spiegano i ricercatori; una storia che a un certo punto avrebbe visto un’onda d’urto formarsi davanti all’ammasso in caduta verso il buco nero. Secondo i ricercatori, la formazione di una simile struttura non solo avrebbe impedito all’ammasso d’essere “catturato” dal potenziale gravitazionale di Sagittarius A* ma, causando l’aumento della sua densità, avrebbe anche acceso la formazione stellare.
L’esistenza di stelle inaspettatamente giovani nel centro galattico è un mistero vecchio di dieci anni, concludono i ricercatori. L’analisi di Irs 13 è il primo tentativo di spiegare la loro esistenza e svelare il mistero.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “The Evaporating Massive Embedded Stellar Cluster IRS 13 Close to Sgr A*. I. Detection of a Rich Population of Dusty Objects in the IRS 13 Cluster” di Florian Peißker, Michal Zajaček, Lauritz Thomkins, Andreas Eckart, Lucas Labadie, Vladimír Karas, Nadeen B. Sabha, Lukas Steiniger e Maria Melamed
Donne e astronomia: qual è la situazione oggi?
Elisabetta Caterina Koopmann-Hevelius è considerata una delle prime astronome. Originaria della Polonia, contribuì a migliorare il lavoro e le osservazioni fatte insieme al marito Johannes Hevelius. Crediti: Wikipedia.
Le prime donne che, nella storia, si avvicinarono all’astronomia si occuparono essenzialmente di osservare e catalogare gli astri, fare i calcoli e redigere tavole astronomiche. Con il passare del tempo, la situazione non cambiò molto e la maggior parte delle astronome che sono riuscite ad affermarsi erano spesso affiancate da un marito, un tutore, un fratello, un padre, insomma, da una figura maschile molto importante che consentiva loro di accedere all’istruzione negata dalle istituzioni. Spesso considerate come assistenti di chi ufficialmente aveva un incarico, nei libri di storia le astronome non vengono menzionate anche se hanno contribuito in modo tutt’altro che trascurabile. E oggi qual è la situazione delle astronome e, più in generale, delle donne che fanno scienza?
L’abbiamo chiesto a Francesca Primas, astronoma dell’European Southern Observatory (Eso), recentemente insignita del Nancy Grace Roman Award, il riconoscimento dell’Astronomical Society of the Pacific (Asp) assegnato “per il contributo significativo alla promozione dell’equità e dell’inclusione di genere in astronomia”. Questo è il primo anno che l’Asp assegna il riconoscimento dedicato a Nancy Grace Roman, icona nella storia della ricerca astronomica e dell’esplorazione spaziale, spesso chiamata la madre del telescopio spaziale Hubble. E a vincerlo è stata l’italiana Francesca Primas che riceverà il premio in occasione dell’ASP Awards Gala che si terrà l’11 novembre a San Francisco, negli Stati Uniti.
Dopo la laurea in fisica all’Università di Trieste, con una tesi in astrofisica stellare supervisionata da Margherita Hack e Paolo Molaro, Primas ha conseguito il dottorato di ricerca in Italia, lavorando per un certo tempo presso l’Università di Chicago negli Stati Uniti. Nel 1997, Primas è rientrata in Europa, all’Eso, dove oggi si occupa della valutazione delle richieste per l’uso scientifico dei telescopi da parte dell’Observing Programme Committee e di politiche della ricerca (science policy).
Studiando la formazione e l’evoluzione della Via Lattea e delle sue galassie satellite attraverso la storia della loro chimica, Primas è diventata negli anni un’astronoma di livello internazionale, oltre che una delle pioniere nella promozione dei pari diritti delle donne in astronomia, contro i pregiudizi di genere nella scienza.
Francesca, quindici anni fa hai iniziato ad analizzare le differenze di genere all’interno dell’Eso pubblicando il primo studio sulla situazione delle astronome. Cosa avete notato al tempo e cosa è cambiato oggi?
«Abbiamo analizzato la distribuzione di genere (uomo/donna) sia all’interno dell’Eso – quindi staff, assegnisti di ricerca, studenti – sia nei vari programmi e gruppi esterni che interagiscono con noi – ad esempio, i relatori e i docenti in visita – e, infine, abbiamo considerato la composizione dei vari comitati governativi dell’Eso. Nonostante questa iniziativa fosse solo una semplice “istantanea” della situazione in quel momento, i numeri parlavano molto chiaro. Le donne ricoprivano una percentuale molto ristretta, in ogni settore. C’erano comitati esterni composti interamente da uomini, la percentuale di donne invitate a parlare negli incontri settimanali più prestigiosi era sotto il 10%. Oggi la situazione è decisamente migliorata. Siamo ancora lontani dalla parità di genere, quasi in tutti gli aspetti, ma quello studio ha effettivamente spronato – talvolta anche con qualche malumore – i responsabili delle varie attività a riflettere sul loro modus operandi. Ad esempio, la percentuale delle speaker donne invitate al colloquio settimanale sono oggi tra il 35% e il 40%; le donne nello staff dell’Eso rappresentano circa un quarto dell’intera organizzazione; i comitati sono più bilanciati. Negli ultimi due anni, il comitato per il programma delle osservazioni (Opc), della cui composizione sono responsabile, ha raggiunto e mantenuto una quasi perfetta parità di genere. Personalmente, dopo quel primo studio, ho continuato a far parte di gruppi di lavoro e comitati internazionali, fino a rappresentare l’Eso in alcuni forum centrati sulle pari opportunità, sull’inclusione e sulla diversità. La nostra partecipazione, anche se marginale, nel progetto Horizon 2020 Gender Equality in the European Research Area (Genera) finanziato dalla Comunità Europea, ha portato alla creazione dell’Eso’s Diversity and Inclusion Committee, un comitato interno dedicato a queste tematiche».
L’astronoma dell’Eso Francesca Primas, premiata per aver promosso l’equità di genere, vincendo nel 2023 il premio inaugurale Nancy Grace Roman Award dell’Astronomical Society of the Pacific (ASP). Crediti: Eso
Parlando di difficoltà quotidiane e disparità legate al genere, secondo te, ci sono aspetti per cui il lavoro di una donna astronoma o che fa ricerca scientifica, differisce o si distingue dal lavoro in altri settori?
«Credo che ogni lavoro presenti sfide e difficoltà e che ce ne sono alcuni guidati che si fanno assecondando una passione. La ricerca scientifica è forse più immersiva, è difficile “staccare” del tutto, alla fine di una giornata lavorativa. C’è sempre una scadenza, un progetto, una conferenza per cui prepararsi o a cui partecipare. Se, da un lato, mi sono sempre considerata fortunata per essere riuscita a fare il mestiere che mi appassiona, dall’altro, questa passione permea l’intera esistenza».
Lavorando all’Eso – un’importante organizzazione europea, multiculturale e internazionale – come percepisci, dall’esterno, la situazione relativamente alle tematiche di parità di genere, inclusione e rispetto dei diritti, nel mondo scientifico e accademico italiano?
«Per dare una risposta corretta a questa domanda servirebbero dei numeri su cui basarsi, al momento non disponibili. Giusto per avere un’idea: la percentuale femminile globale nell’Unione Astronomica Internazionale (Iau) è il 22% circa, con forti differenze di età e carriera. Tra i membri italiani, le donne sono il 32%, una cifra di tutto rispetto. Ma si deve tener conto del fatto che non tutti gli astronomi e la astronome di una nazione sono iscritti all’Unione e, quindi, questo numero potrebbe non riflettere la situazione reale nella comunità astronomica italiana. Comunque, l’Italia si è sempre distinta, assieme alla Francia, per il numero relativamente alto di studentesse e ricercatrici rispetto agli altri Paesi, soprattutto per quanto riguarda il campo dell’astrofisica. Ho sempre avuto l’impressione che le giovani in Italia non siano state spaventate dall’intraprendere studi scientifici e tecnologici, tanto quanto invece succede altrove, dove magari l’abbandono di questi percorsi è maggiore. Nel mio caso, ricordo di non essermi mai chiesta se studiare fisica fosse qualcosa di adatto a una ragazza o costituisse un problema. Certo, poi si dovrebbe vedere come le donne avanzano nella carriera, con quale frequenza vengono promosse ai livelli superiori, quale visibilità o quali ruoli rappresentativi riescono a ottenere. E qui i numeri sono decisamente più bassi. Insomma, c’è ancora tanto da fare, per poter raggiungere un sistema più equo, e non mi riferisco solo all’Italia».
Come coordinatore del gruppo di lavoro “Women in Astronomy” presso l’Unione Astronomica Internazionale, in quali Paesi ti è capitato di riscontrare una situazione migliore o peggiore nel dibattito su queste tematiche di disuguaglianza o discriminazione e nell’applicazione di misure o buone pratiche per risolverle?
«Domanda interessante, ma di difficile risposta. In generale, direi che gli stati anglofoni (in primis, gli Stati Uniti) hanno affrontato queste tematiche molto tempo prima rispetto a noi. In Europa, gli stati nordici sono tuttora considerati all’avanguardia, poiché hanno politiche di genere molto progressiste. Tuttavia, non sembrano aver risolto la parità di genere, almeno nel mondo accademico. Tra le iniziative con impatto più rapido e consistente, cito spesso gli award-schemes, sistemi di accreditamento che premiano dipartimenti, istituti, università per le loro politiche di pari opportunità, ad esempio lo schema Athena Swan in Gran Bretagna o il progetto Juno dell’Institute of Physics (Iop). A seconda della valutazione, si raggiunge un livello – oro, argento o bronzo – che ha un periodo di validità limitato durante il quale bisogna continuare a migliorare per ottenere il livello successivo o confermare il livello raggiunto. Oltre che un modo per continuare a discutere di determinati temi e per riconoscere gli sforzi fatti, questi schemi si sono dimostrati una strategia vincente: con il passare del tempo anche quelle entità che sembravano non interessate all’inizio, hanno subito una spinta a partecipare. L’anno scorso siamo riusciti a riproporre uno schema simile all’interno del Big Science Business Forum, il congresso centrato sull’alta tecnologia e sull’innovazione che unisce a livello europeo le principali infrastrutture di ricerca e industria, al cui interno ha organizzato, per la prima volta, un evento dedicato alle “donne nella Big Science”. Tra l’altro, il prossimo congresso del 2024 si terrà a Trieste, la città dove mi sono laureata e ho iniziato la mia carriera di astronoma».
Sei stata inserita anche nella lista delle “AstroMom”, le mamme astronome. Quali sono, secondo te, le maggiori difficoltà che incontrano le mamme quando devono destreggiarsi tra professione e famiglia?
«È una vita molto piena, dove è fondamentale riuscire a mantenere un proprio equilibrio psico-fisico. E ciò non vale solo per le “mamme” ma per qualsiasi persona che abbia delle responsabilità assistenziali verso altri. L’unica grossa differenza tra queste varie responsabilità è che il periodo della maternità e dei figli piccoli si sovrappone spesso agli anni forse più critici per una una carriera nella ricerca scientifica, quando si deve lavorare sodo per vedersi confermato il posto di ricercatrice, soprattutto all’estero, o per ricevere una promozione. Bisogna essere organizzate e saper selezionare i progetti più importanti a cui dedicarsi. E poi sperare in sistemi di valutazione dei curriculum più inclusivi e che valorizzino il profilo globale della persona, non solo i soliti numeri di pubblicazioni, citazioni, presentazioni a congressi».
Una domanda sulla famiglia, che ti avranno fatto in tanti, ma che, in genere, viene raramente posta agli scienziati uomini. Tu hai due figli. Qual è stata la sfida più grande? Ci sono stati anche degli effetti positivi della maternità sulla carriera?
«Direi che la sfida più grande sia stata quella di riuscire a portare avanti la mia carriera di ricercatrice pur restando una mamma molto presente, che ha sempre messo i figli al primo posto. Questo ha portato a varie rinunce di cui però non mi sono mai pentita. La mia esperienza di madre-astronoma mi ha sicuramente aperto gli occhi su varie problematiche alle quali ho poi deciso di dedicare parte del mio tempo. Spero comunque di aver dato il giusto esempio ai miei figli, dimostrando che è possibile trovare un equilibrio tra vita privata e carriera. Anche se i miei figli potrebbero poi magari pensarla diversamente».
Nancy Grace Roman davanti a un modello in scala 1/6 del telescopio spaziale Hubble presso il Goddard Space Flight Center della Nasa. Crediti: Nasa
Pensando di riesaminare la situazione della parità di genere tra 15 anni, cosa ti auguri e cosa vorresti cambiasse rispetto a oggi?
«Vorrei che le percentuali di donne continuassero ad aumentare, anche e soprattutto nei ruoli decisionali, perché è lì che vengono prese le decisioni importanti. Desidererei che non ci fossero differenze di stipendio e che le donne avessero le stesse identiche possibilità di promozione. Potrà anche sembrare una cosa ovvia e sono convinta che sia già parte dei regolamenti in vari Paesi, ma i numeri mostrano altro. Vorrei che l’intero sistema accademico diventasse veramente inclusivo, non solo per quanto riguarda la varietà della sua comunità, ma anche per quanto riguarda le varie strategie di assunzione e valutazione. Ognuno è importante e ogni contributo è prezioso».
Hai un consiglio per le future astronome?
«Seguite la vostra passione, innanzitutto, focalizzandovi sui traguardi che desiderate raggiungere, e usando gli ostacoli che incontrerete a vostro vantaggio, come occasioni di riflessione e crescita personale o professionale».
Quando l’oro cade dal cielo
Schema che illustra il processo simulato dagli autori per spiegare l’abbondanza di metalli pesanti Hse nel mantello terrestre. Durante il lungo periodo di bombardamento, diversi planetesimi colpirebbero la Terra portando con sé anche materiali pesanti. (a) I metalli liquidi affonderebbero nell’oceano magmatico prodotto localmente dall’impatto prima di percolare nella zona parzialmente fusa sottostante. (b) La compressione fa sì che i metalli nella zona fusa si solidifichino e affondino. (c) Poi la convezione termica mescola e ridistribuisce i componenti del mantello impregnati di metallo in tempi geologici lunghi. Crediti: Southwest Research Institute
Su come si siano formate la Terra, la Luna e gli altri pianeti rocciosi del Sistema solare abbiamo le idee abbastanza chiare. Nel disco protoplanetario che circondava il Sole, pieno di polvere e planetesimi, frequenti e più o meno disastrose collisioni hanno permesso l’agglomerarsi di corpi rocciosi che sarebbero diventati poi i pianeti interni. Fra questi, c’è anche la Terra. Sulla quale, in seguito, altri impatti hanno contribuito ad arricchirla chimicamente, portando elementi che si sarebbero rivelati fondamentali alla vita, e che hanno creato le condizioni geofisiche giuste affinché questa si sviluppasse. Anche gli elementi pesanti, i metalli preziosi che troviamo nel mantello terrestre, sarebbero arrivati a bordo di corpi impattanti. Quale sia stata esattamente la modalità, però, è ancora incerto. Ci si aspetterebbe, infatti, che metalli pesanti simili al ferro – come l’oro, il renio e gli elementi del gruppo del platino – migrino tutti verso il nucleo, mentre invece ne troviamo in abbondanza nel mantello e nella crosta terrestre. Una possibile soluzione l’hanno descritta due ricercatori in un articolo pubblicato su Pnas.
«Questi elementi, che in inglese divulgativo di chiamano iron loving, e forse in italiano potremmo dire affini al ferro o siderofili, sono importati proprio per studiare l’evoluzione della Terra dopo la formazione della Luna», dice a Media Inaf Simone Marchi, ricercatore al Southwest research institute a Boulder, in Colorado, e autore dello studio assieme a Jun Korenaga. «L’abbondanza di questi elementi nel mantello e nella crosta terrestre indica che la Terra fu bombardata per un lungo periodo dopo la formazione del suo satellite. Tuttavia, il processo per cui questi elementi vengono trattenuti nel mantello e nella crosta terrestre rimane incerto».
Simulazioni di impatti che penetrano nel mantello terrestre hanno sempre mostrato che solo una piccola frazione del nucleo metallico di un planetesimo riesce a essere assimilata dal mantello terrestre, mentre la maggior parte dei metalli siderofili defluisce rapidamente verso il nucleo terrestre. L’idea degli autori, quindi, è che questi siano stati trasportati da un impatto successivo alla formazione del nucleo terrestre, e che abbiano incontrato, sotto l’oceano magmatico generato dall’impatto stesso, una zona parzialmente fusa in grado di bloccare la discesa dei metalli nel nucleo della Terra.
«Il problema è il seguente», spiega infatti Marchi: «il mantello terrestre non riesce a trattenere facilmente la particelle o i grumi metallici che arrivano con gli impatti. Il metallo tende a precipitare alla base del mantello velocemente. È un po’ come tirare dei sassi in uno stagno, e tentare di trattenerli sospesi senza farli precipitare. Il nuovo processo che abbiamo identificato richiede la distribuzione e assimilazione dei grumi metallici in una regione parzialmente fusa del mantello, cosicché la densità di questa regione sia solo minimamente più alta del resto. In sostanza, il metallo viene diluito e questo processo è più rapido della precipitazione. Infine, questa ampia zona precipita alla base del mantello, ma il metallo è cosi diluito da rimanere intrappolato, e viene poi trasportato verso l’alto in tutto il mantello e nella crosta grazie alla convezione».
Per capire in quali condizioni il mantello riesce a trattenere elementi pesanti come i metalli, gli autori hanno modellato il mescolamento di un planetesimo impattante con i materiali del mantello in tre fasi fluide: minerali silicati solidi, magma di silicati fuso e metalli liquidi. L’intero processo – riassunto anche dalle parole del ricercatore qui sopra – lo vedete riassunto nell’infografica a fianco. In pratica, quando un planetesimo si schianta sulla Terra crea un oceano di magma liquido localizzato in cui i metalli pesanti affondano sul fondo. Raggiungono quindi una regione parzialmente fusa sottostante attraverso cui il metallo riesce a percolare affondando lentamente verso il fondo del mantello. Durante questo processo il mantello fuso si solidifica, intrappolando il metallo. Infine, subentra la convezione: il calore proveniente dal nucleo terrestre provoca un lentissimo movimento di scorrimento dei materiali nel mantello solido e le correnti che ne derivano trasportano il materiale caldo dall’interno alla superficie del pianeta. Il mantello è quasi interamente solido anche se, in tempi geologici, si comporta come un fluido duttile e altamente viscoso, che mescola e ridistribuisce i materiali, compresi gli elementi altamente siderofili accumulati da grandi collisioni avvenute miliardi di anni fa.
«Per adesso ci siamo focalizzati sulla Terra», conclude Marchi, «ma il nostro lavoro dimostra come le simulazioni di impatti (come quelle che abbiamo fatto) e la geofisica vadano di pari passo per capire la formazione della Terra, e sicuramente lo stesso vale anche per gli altri pianeti».
Per saperne di più:
- Leggi su Proceedings of the National Academy of Sciences l’articolo “Vestiges of impact-driven three-phase mixing in the chemistry and structure of Earth’s mantle“, di Jun Korenaga e Simone Marchi
Niente fulmini su Venere
Rappresentazione artistica di Parker Solar Probe che sorvola Venere. Crediti: Nasa/ Johns Hopkins Apl
In uno studio pubblicato a fine settembre su Geophysical Research Letters, i fisici della Cu Boulder si sono addentrati nel dibattito di lunga data sulla presenza o meno di fulmini sul pianeta gemello della Terra, concludendo che probabilmente no, se fossimo su Venere non vedremmo fulmini solcare le sue spesse nubi o, per lo meno, non molto spesso.
Venere ha all’incirca le stesse dimensioni della Terra, ma la sua atmosfera densa e ricca di anidride carbonica ha portato a un effetto serra mostruoso. Di fatto, è uno dei corpi più misteriosi e inospitali del Sistema solare. Chiunque vi facesse visita dovrebbe affrontare temperature roventi di oltre 480 gradi centigradi e pressioni atmosferiche devastanti, 90 volte superiori alla pressione terrestre, al suolo. Nessun veicolo spaziale è mai sopravvissuto per più di qualche ora sulla superficie del pianeta.
Per esplorare questo mondo estremo, i ricercatori si sono rivolti a uno strumento scientifico che non è stato progettato per studiare il pianeta, ma che si sta rivelando molto utile nel farlo: Parker Solar Probe della Nasa, lanciato nel 2018 per una missione di sette anni per indagare la fisica della corona e del vento solare.
Proprio recentemente, il 21 agosto 2023, la sonda spaziale ha compiuto il sesto flyby di Venere. Nel corso di questa manovra, è arrivata a circa 4mila chilometri sopra la superficie del pianeta. Nel febbraio 2021, invece, era arrivata a una distanza di circa 2400 chilometri dalla superficie. I suoi strumenti hanno rilevato dozzine di quelle che gli scienziati chiamano whistler waves: impulsi di energia che, almeno sulla Terra, possono essere innescati da fulmini e che vengono rilevati nella banda radio Vlf. Il loro nome deriva dal fatto che il tono scende rapidamente in pochi secondi, quasi come una persona che fischia.
I dati del team hanno mostrato che queste onde su Venere potrebbero in realtà non avere origine dai fulmini, ma piuttosto da disturbi nei deboli campi magnetici che avvolgono il pianeta. I loro risultati concordano con uno studio del 2021, che non è riuscito a rilevare le onde radio generate dai fulmini provenienti da Venere.
Come si diceva all’inizio, quello dei fulmini su Venere è un dibattito di lunga data che risale al 1978, quando Pioneer Venus della Nasa entrò in orbita attorno al pianeta. Quasi immediatamente, la navicella spaziale iniziò a captare i segnali delle whistler waves a centinaia di chilometri sopra la sua superficie. Fu allora che a molti scienziati questi segnali ricordarono un fenomeno familiare proveniente dalla Terra: i fulmini. Se le whistler waves di Venere avessero un’origine simile, allora il pianeta potrebbe essere pieno di fulmini, in una misura circa sette volte superiore a quella cui siamo abituati sulla Terra. Gli scienziati hanno avvistato fulmini anche su Saturno e Giove.
Per trovare quei segnali, gli autori hanno utilizzato l’esperimento Fields di Parker Solar Probe, una serie di sensori di campo elettrico e magnetico che sporgono dal veicolo spaziale. Quando i ricercatori hanno analizzato una serie di queste whistler waves, tuttavia, hanno notato qualcosa di sorprendente: erano dirette nella direzione sbagliata. Sembrava che si stessero muovendo verso il pianeta, non nello spazio, come ci si aspetterebbe da un temporale. Il motivo non è affatto chiaro, anche se sospettano che abbia a che fare con il fenomeno della riconnessione magnetica, in cui le linee tortuose del campo magnetico che circondano Venere si separano e poi si ricompongono con risultati esplosivi.
Per ora, i ricercatori affermano che è necessario analizzare più whistler waves per escludere completamente i fulmini come causa. Avranno una nuova e ancora più promettente possibilità nel novembre 2024, quando Parker Solar Probe farà il suo ultimo passaggio vicino a Venere, scendendo a meno di 400 chilometri sopra la superficie, sfiorando la parte superiore della densa atmosfera del pianeta.
Per saperne di più:
- Leggi su Geophysical Research Letters l’articolo “Non-Lightning-Generated Whistler Waves in Near-Venus Space” di H. George, D. M. Malaspina, K. Goodrich, Y. Ma, R. Ramstad, D. Conner, S. D. Bale, S. Curry
La pulsar della Vela, la pulsar di Hulk
Illustrazione artistica di una pulsar che emette raggi gamma con energie dell’ordine delle decine di tera-elettrovolt. Crediti: Per il Deutsches Elektronen-Synchrotron (Desy), Science Communication Lab
È la radiazione più energetica dello spettro elettromagnetico, la stessa che nel film della Marvel ha portato lo scienziato Bruce Banner a trasformarsi in Hulk. Stiamo parlando dei raggi gamma. Proprio questa radiazione è l’oggetto di una pubblicazione apparsa di recente sulle pagine di Nature Astronomy, che annuncia la rilevazione della luce gamma a più alta energia mai emessa da una pulsar: 20 tera-elettronvolt, ovvero ventimila miliardi di volte l’energia dei fotoni di luce che riescono a vedere i nostri occhi.
Le pulsar sono stelle di neutroni, resti di stelle massicce esplose attraverso spettacolari esplosioni di supernova. Sono gli astri più piccoli, magnetizzati e densi dell’universo. «Queste stelle morte sono quasi interamente costituite da neutroni e sono incredibilmente dense: un cucchiaino del loro materiale ha una massa di oltre cinque miliardi di tonnellate, ovvero circa 900 volte la massa della Grande Piramide di Giza» spiega Oña Wilhelmi, scienziata del Deutsches Elektronen-Synchrotron (Desy) e coautrice della pubblicazione.
Ma non solo: sono anche le stelle a più rapida rotazione che si conoscano. A differenza di altre stelle di neutroni, le pulsar ruotano infatti a velocità vertiginose – fino a 700 volte al secondo – emettendo dai loro poli magnetici radiazione in tutto lo spettro elettromagnetico. Radiazione pulsata, è così che gli addetti ai lavori chiamano questi flash di luce osservabili a intervalli di tempo regolari. Secondo gli scienziati, la fonte di questa radiazione sono gli elettroni del plasma della magnetosfera di queste “trottole cosmiche”. Il processo che la produce è l’accelerazione degli elettroni lungo il loro cammino dalla magnetosfera verso la periferia delle pulsar.
«La magnetosfera delle pulsar è costituita da plasma e campi elettromagnetici che circondano e co-ruotano con la stella» dice a questo proposito Bronisław Rudak, professore di fisica al Dipartimento di Astrofisica del Centro Astronomico Nicolaus Copernicus (Camk Pan), in Polonia, anch’egli tra i firmatari dello studio. «Durante il loro viaggio verso l’esterno, gli elettroni acquisiscono energia e la rilasciano sotto forma di fasci di radiazioni».
Una tra le pulsar più studiate dagli astronomi è la pulsar della Vela. Situata nella omonima costellazione, la pulsar della Vela è la stella di neutroni rotante più luminosa nella banda radio dello spettro elettromagnetico e la sorgente persistente più brillante di raggi gamma.
Utilizzando Hess, uno dei principali osservatori per la rilevazione di raggi gamma ad altissima energia con un sistema di cinque telescopi atmosferici Cherenkov situati in Namibia, il team di astronomi, che include tra gli altri Roberta Zanin, associata Inaf e Project Scientist di Ctao – uno dei futuri osservatori per lo studio dei raggi gamma ad altissima energia – in questa sorgente ha rilevato una nuova componente di radiazione gamma. Detto in altri termini, hanno catturato fotoni di luce gamma con energie mai registrate prima d’ora, fino a decine di tera-elettronvolt.
«Si tratta di una radiazione che è circa 200 volte più energetica di tutta la radiazione rilevata fino ad ora da questo oggetto celeste», spiega Christo Venter, ricercatore della North-West University (Nwu), in Sud Africa, tra gli autori dello studio.
Arache Djannati-Atai, astrofisico all’Astroparticle & Cosmology laboratory (Apc), in Francia, anche lui nel team che ha guidato la ricerca, aggiunge: «Questo risultato mette alla prova la nostra precedente conoscenza delle pulsar e richiede un ripensamento del modo in cui funzionano questi acceleratori naturali». Secondo i ricercatori, infatti, lo schema tradizionale secondo il quale le particelle vengono accelerate lungo le linee del campo magnetico all’interno o poco fuori la magnetosfera delle pulsar non spiegherebbe l’emissione di radiazione così energetica. E non la spiegherebbe neppure la cosiddetta “riconnessione magnetica oltre il cilindro di luce”, un altro meccanismo di accelerazione di particelle che produce raggi gamma.
Qualunque sia la spiegazione, quel che è certo è che la pulsar della Vela ora detiene ufficialmente un nuovo record, concludono i ricercatori: è la pulsar i cui raggi gamma emessi sono i più energetici scoperti fino ad oggi. «Questa scoperta apre una nuova finestra di osservazione per il rilevamento di altre pulsar in grado di emettere radiazione gamma con un’energia dell’ordine delle decine di tera-elettronvolt con gli attuali telescopi per astronomia gamma, ma anche con i futuri osservatori per astronomia delle altissime energie, aprendo così la strada a una migliore comprensione dei processi di accelerazione di particelle in oggetti astrofisici altamente magnetizzati che generano i raggi gamma».
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Discovery of a radiation component from the Vela pulsar reaching 20 teraelectronvolts” di The H.E.S.S. Collaboration et al., R. Zanin, M. Kerr, S. Johnston, R. M. Shannon & D. A. Smith
Guarda il servizio video su MediaInaf Tv:
Una nuova valanga di informazioni da Gaia
Immagine dell’ammasso di Omega Centauri osservato da Gaia. Questa immagine combina i dati della release precedente con quella attuale mostrando come Omega Centauri sia davvero pieno di stelle.
Da quasi dieci anni il satellite europeo Gaia scruta costantemente il firmamento, mappandolo con una precisione senza precedenti. Infatti, le osservazioni e le informazioni raccolte dal veicolo spaziale ci hanno consentito di fare passi da gigante nella nostra comprensione dell’ambiente galattico. Eppure, i nuovi dati ci promettono di svelare dettagli ancor più straordinari andando ben oltre gli obiettivi iniziali di Gaia. Fondamentali in tutto questo sono i supporti forniti dall’Agenzia spaziale italiana e dall’Istituto nazionale di astrofisica.
Oggi, a poco più di un anno dalla pubblicazione del suo ultimo catalogo, che contiene le posizioni e le caratteristiche di quasi due miliardi di stelle, il satellite dell’Agenzia spaziale europea è pronto ad aprire una nuova finestra sulla nostra galassia, la Via Lattea. Gaia, infatti, è riuscita a determinare le posizioni, i movimenti sul piano del cielo e le parallassi di oltre mezzo milione di astri tutti contenuti in un solo ammasso stellare, Omega Centauri, il più grande ammasso globulare che può essere visto dalla Terra e un esempio di come può apparire un tipico ammasso di questa categoria. Queste zone, tra le più antiche dell’universo, sono dei veri e propri fossili cosmici e possono fornire preziose informazioni sull’origine della nostra galassia.
L’area di cielo occupata da Omega Centauri appare particolarmente affollata di stelle e per questo era rimasta inesplorata da Gaia. Piuttosto che concentrarsi solo sulle singole stelle, come in genere accadeva, Gaia ha attivato una modalità speciale per mappare veramente una zona di cielo più ampia che circonda il nucleo dell’ammasso ogni volta che l’ammasso è apparso in vista, permettendo così, alla fine del processo, di raccogliere preziose informazioni per ciascuna di 500 mila stelle presenti nell’ammasso.
«Questi nuovi dati ci permetteranno di fare per la prima volta una mappa completa ad alta risoluzione di Omega Centauri dal centro fino alle regioni più esterne, fornendoci informazioni importantissime sulla natura di questo ammasso» dice Antonella Vallenari, una dei due responsabili europei del consorzio che processa e analizza i dati di Gaia e astronoma all’Inaf di Padova. «Omega Centauri potrebbe essere la regione centrale di una galassia ingoiata dalla Via Lattea. Con queste osservazioni abbiamo superato le aspettative per Gaia, utilizzando per scopi scientifici una modalità speciale pensata per verificare il funzionamento degli strumenti a bordo del satellite. Questo rende questi dati ancora più entusiasmanti».
«Gaia continua a suscitare un enorme interesse scientifico grazie alla qualità, varietà e mole dei dati prodotti, che permettono di andare ben oltre quelli che sono gli obiettivi scientifici principali della missione» Commenta Gianluca Polenta responsabile dell’Asi Space science data center. «Ad esempio, a quasi 10 anni dal lancio, con la “Gaia Focused Product release” odierna, per la prima volta viene messa a disposizione la misura di Bande Interstellari Diffuse (Dibs) basata sugli spettri Gaia, permettendo di caratterizzare e studiare la distribuzione del mezzo interstellare della nostra galassia. Asi supporta quindi con impegno le attività di sfruttamento scientifico dei dati anche tramite Ssdc (Asi space science data center), che partecipa alle attività del Consorzio e mette a disposizione della comunità scientifica italiana e internazionale i dati della missione attraverso il portale dedicato GaiaPortal@Ssdc. Questo fornisce un assaggio di quello che sarà il contenuto della prossima quarta release dei dati Gaia prevista non prima della fine del 2025».
Rappresentazione della popolazione di asteroidi in Gaia Dr3. Crediti: Esa/Gaia
Oltre a ciò, Gaia è riuscita a determinare le posizioni e le orbite di più di 150.000 asteroidi nel Sistema solare con un’accuratezza mai vista prima e ha scovato oltre 380 potenziali lenti gravitazionali, nelle quali oggetti massicci, come stelle o galassie, agiscono proprio come delle lente di ingrandimento capaci di farci vedere scorci di universo lontanissimo.
Ma non è tutto. Gaia ha prodotto il più vasto catalogo delle velocità con cui le stelle si avvicinano o si allontanano da noi, essenziale per ricostruire il movimento in 3D delle stelle Inoltre questi nuovi dati permetteranno di studiare alcune stelle che variano la loro luminosità su un lungo lasso di tempo, il cui studio contribuirà a chiarire alcuni aspetti, poco noti ma fondamentali, della vita e dell’evoluzione stellare.
Per saperne di più:
- Leggi l’intervista su Media Inaf “Omega Centauri nell’occhio di Gaia“
- Leggi l’intervista su Media Inaf “Gaia traccia 150mila asteroidi al millisecondo d’arco“
- leggi su Astronomy & Astrophysics l’articolo “Gaia Focused Product Release: Radial velocity time series of long-period variables” della collaborazione Gaia
- leggi su Astronomy & Astrophysics l’articolo “Gaia Focused Product Release: Spatial distribution of two diffuse interstellar bands” della collaborazione Gaia
- leggi su Astronomy & Astrophysics l’articolo “Gaia Focused Product Release: Sources from service interface function image analysis. Half a million new sources in omega Centauri” della collaborazione Gaia
- leggi su Astronomy & Astrophysics l’articolo “Gaia Focused Product Release: Asteroid orbital solution. Properties and assessment” della collaborazione Gaia
Contributo italiano a Gaia
L’Italia partecipa molto attivamente al Data Processing and Analysis Consortium (Dpac), il consorzio pan-europeo che si occupa di elaborare e analizzare i dati raccolti dal satellite e trasformarli in un catalogo a disposizione dell’intera comunità astronomica mondiale. L’Istituto nazionale di astrofisica vede coinvolte nel Dpac ricercatori e ricercatrici presso le sedi di Bologna, Catania, Milano, Firenze, Napoli, Padova, Roma, Teramo e Torino (dove risiede il management nazionale). Torino ospita anche uno dei sei centri di elaborazione dati della missione Gaia, presso Altec S.P.A., interamente dedicato alla validazione astrometrica sotto la supervisione scientifica dell’Inaf. L’Asi finanzia e supporta tutta queste attività insieme a quelle dedicate alla validazione e allo sfruttamento scientifico dei dati rilasciati presso il proprio Space Science Data Center (Ssdc).
Contributo industriale
Leonardo ha fornito diversi equipaggiamenti hi-tech: dal sensore d’assetto ai prismi per lo strumento Brpp che misura il colore dei corpi celesti, dai pannelli fotovoltaici e sistemi di distribuzione della potenza al sottosistema di micropropulsione ad azoto per controllare i movimenti del satellite durante la mappatura stellare. Thales Alenia Space (jv Thales/Leonardo) ha fornito il trasponditore in banda X e il modulo di interconnessione del satellite così come l’Unità Distribution Clock (Cdu). Cruciale inoltre il Data Processing Center Italiano finanziato dall’Asi e realizzato in Altec (jv Thales Alenia Space/Asi). Anche Telespazio (jv Leonardo/Thales) contribuisce a Gaia con sistemi di controllo e di pianificazione della missione e con servizi di telecomunicazioni, radar e telemetria.
Omega Centauri nell’occhio di Gaia
Antonella Vallenari astronoma dell’Inaf di Padova e co-responsabile del consorzio che processa e analizza i dati di Gaia, qui fotografata presso la Sala delle Figure dell’Osservatorio di Padova
A poco più di un anno dalla pubblicazione del suo ultimo catalogo contenente due miliardi di stelle, il satellite europeo Gaia torna a far parlare di sé con la pubblicazione di nuovi ed esaltanti risultati che ci promettono di svelare dettagli ancor più straordinari della nostra galassia come, ad esempio, la misura di più di mezzo milione di stelle nascoste nel cuore dell’ammasso globulare Omega Centauri. Cosa ha scoperto Gaia in questo ammasso? Lo abbiamo chiesto ad Antonella Vallenari astronoma dell’Inaf di Padova e co-responsabile del consorzio che processa e analizza i dati di Gaia.
Gaia pubblica oggi una nuova release di dati, quali sono le ultime novità?
«Per questa nuova release lo sguardo di Gaia si concentra su alcuni dati specifici. Ad esempio, siamo riusciti, per la prima volta, a determinare le posizioni, i moti e le parallassi delle stelle nel centro di un ammasso globulare, quello di Omega Centauri, ovvero un’area di cielo particolarmente densa di stelle fino a oggi impossibile da osservare con il satellite europeo. Studiare questi oggetti è di fondamentale importanza perché sono dei veri e propri fossili galattici e ci possono raccontare l’origine della nostra galassia. Oltre a questo, abbiamo prodotto il più completo catalogo di stelle variabili a lungo periodo finora realizzato. Si tratta di stelle che cambiano la loro luminosità su tempi scala molto lunghi, e siamo riusciti a vedere le variazioni di velocità delle atmosfere. Grazie a questi dati potremmo ottenere importantissime informazioni sulla vita e sull’evoluzione delle stelle con ricadute in molti campi dell’astrofisica, da una migliore comprensione della fine della vita di stelle come il nostro Sole fino a studi sull’espansione dell’universo. Nell’ambito del Sistema solare abbiamo osservato e misurato le posizioni, e di conseguenza le orbite, di 150mila asteroidi con una accuratezza mai vista, circa 20 volte superiore a quella dei dati precedenti. Ma le novità non si fermano qui. Gaia ha scovato oltre 380 potenziali lenti gravitazionali, nelle quali oggetti massicci, come le galassie, agiscono proprio come delle lenti di ingrandimento capaci di farci vedere scorci di universo lontanissimo, consentendoci di capire come si evolva il nostro. Infine, Gaia ha osservato anche quelle che si chiamano bande interstellari diffuse, visibili come deboli segnali, sovrapposti a quelli generati dalle stelle, che non sono altro che delle righe molto deboli che si trovano all’interno degli spettri delle stelle e che sono prodotte dal gas interstellare che troviamo diffuso fra noi e la stella di riferimento. Queste bande sono prodotte da molecole ricche di carbonio, ma la loro origine è ancora misteriosa».
Soffermiamoci su Omega Centauri e sugli ammassi globulari: cosa sono questi oggetti e perché è così importante studiarli?
«Gli ammassi globulari non sono altro che un insieme di centinaia di migliaia di stelle, tutte quante coeve ed estremamente vecchie. È proprio la loro età che li rende così affascinanti ed interessanti. Infatti, tali oggetti sono come dei veri e propri fossili della Via Lattea e il loro studio ci può fornire importantissime informazioni per comprendere l’origine e l’evoluzione della Galassia. La particolarità di Omega Centauri è che all’interno dell’ammasso sono presenti stelle con età e caratteristiche chimiche molto diverse tra loro. Questo ci fa pensare che probabilmente questo ammasso sia in realtà il centro di una galassia nana che, in epoche passate, è caduta all’interno della nostra galassia diventandone parte, cioè parte delle stelle originarie di Omega Centauri si sono mischiate con quelle della nostra galassia».
È la prima volta che Gaia osserva il centro di un ammasso globulare?
«Si perché osservare il centro di un ammasso globulare, come quello di Omega Centauri, non è un’operazione semplice. Infatti, tali regioni sono così densamente popolate di stelle che per le ottiche di Gaia è stato finora quasi impossibile riuscire a distinguere le singole stelle presenti. Potremmo dire che in queste regioni il satellite dell’Agenzia spaziale europea è quasi cieco e vede solo le stelle più brillanti».
Immagine dell’ammasso di Omega Centauri osservato da Gaia. Questa immagine combina i dati della release precedente con quella attuale mostrando come Omega Centauri sia davvero pieno di stelle.
Cosa ha “visto” Gaia osservando il centro di Omega Centauri?
«Applicando un particolare metodo osservativo, l’occhio di Gaia è riuscito a entrare nelle regioni centrali dell’ammasso determinando le posizioni e le magnitudini di circa mezzo milione di nuove stelle. Questi nuovi dati, uniti a quelli presenti nella precedente release relativi alle regioni esterne dello stesso ammasso, ci ha permesso di ottenere una visione globale ed estremamente dettagliata di tutte le regioni di Omega Centauri, dal centro fino alla periferia. Grazie a queste nuove osservazioni potremmo studiare più nel dettaglio questo ammasso aggiungendo un nuovo tassello nella storia e nell’evoluzione della Via Lattea».
La stessa tecnica potrà essere applicata anche per studiare altri ammassi simili a questo?
«In teoria sì, in pratica no. Si tratta di una metodologia molto complessa e che richiede un enorme sforzo da parte del satellite, e pertanto non possiamo permetterci di osservare tutti gli ammassi della Via Lattea. Per questa ragione ci siamo concentrati solo su nove regioni ben precise, di cui quasi tutte sono ammassi globulari come Omega Centauri, a cui si aggiungono alcune zone presenti nelle Nubi di Magellano e il centro della galassia. Si tratta di regioni molto importanti per capire la storia, le caratteristiche e l’evoluzione della nostra galassia e delle galassie satelliti».
Cosa ci sia aspetta da Gaia per il prossimo futuro?
«Finora abbiamo analizzato solo parte dei dati di Gaia. Il prossimo catalogo, la Dr4, che verrà pubblicato non prima della fine del 2025, conterrà tutte le osservazioni fatta dal satellite europeo negli ultimi 5 anni di lavoro. Questo sarà un catalogo enorme che conterrà le parallassi, i moti propri, la fotometria, gli spettri, per miliardi di stelle. Purtroppo, però, il 2025 sarà anche l’anno, in cui Gaia esaurirà tutto il suo combustibile. Questo segnerà la fine delle osservazioni del satellite perché non sarà più possibile fare quelle piccole variazioni nell’orbita di Gaia, per mantenerla in una configurazione costante. Però noi continueremo l’analisi dei dati per scoprire tutto quello che Gaia ci ha regalato in questi anni di instancabile lavoro. Infine, nel 2030 verrà pubblicato l’ultimo grande catalogo contenente tutto quello che Gaia ha osservato durante tutti i sui anni di lavoro».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Gaia Focused Product Release: Sources from service interface function image analysis. Half a million new sources in omega Centauri” di Gaia Focused Product Release: Sources from service interface function image analysis. Half a million new sources in omega Centauri di Gaia Collaboration: K. Weingrill, A. Mints, J. Castañeda, Z. Kostrzewa-Rutkowska, M. Davidson, F. De Angeli, J. Hernández, F. Torra, M. Ramos-Lerate, C. Babusiaux, M. Biermann, C. Crowley, D. W. Evans, L. Lindegren, et al. (Gaia Collaboration)
Gaia traccia 150mila asteroidi al millisecondo d’arco
Aldo Dell’Oro, ricercatore all’Inaf di Arcetri, responsabile per Gaia del trattamento dei segnali di asteroidi. Crediti: Inaf/Dell’Oro
Nella Focused Product Release di Gaia (Gaia Fpr) resa pubblica oggi dall’Agenzia spaziale europea (Esa) è inclusa una sezione dedicata agli oggetti del Sistema solare, e in particolare alla determinazione delle orbite di decine di migliaia di asteroidi. Fra gli autori dello studio che riporta i risultati, pubblicato su Astronomy & Astrophysics, ci sono anche due ricercatori dell’Istituto nazionale di astrofisica, Alberto Cellino dell’Inaf di Torino e Aldo Dell’Oro dell’Inaf di Arcetri. Dell’Oro, in particolare, all’interno del Data Processing and Analysis Consortium (Dpac) di Gaia è il responsabile del trattamento dei segnali di asteroidi al livello dei singoli Ccd che compongono la parte astrometrica del piano focale di Gaia.
Dell’Oro, Gaia non è una missione astrometrica, pensata per mappare le stelle della Via Lattea? Cosa c’entrano gli asteroidi?
«È vero, Gaia è stata ideata per studiare le stelle della nostra galassia e la sua struttura, e non i piccoli corpi del Sistema solare. Tuttavia nelle “reti” di Gaia cadono inevitabilmente anche questi corpi i cui dati, come ha dimostrato questo recente studio, sarebbe stato un vero peccato se non fossero stati raccolti. Con la Data Release 3 (Dr3) erano stati pubblicati i dati Gaia di 156801 asteroidi, 31 satelliti planetari e 1320 oggetti non identificati, ricavati delle osservazioni effettuate all’interno di una finestra temporale di 34 mesi. Ora, con la Focused Product Release, sono stati riprocessati i dati di 156792 asteroidi compresi nella Dr3 ma sfruttando un intervallo temporale di osservazioni di 66 mesi. La selezione degli oggetti è vincolata dalla sensibilità dello strumento (fino alla magnitudine 20 o poco più) e dal modo in cui scansiona la sfera celeste. Questo porterà alla fine a osservare diverse centinaia di migliaia di asteroidi».
Perlopiù asteroidi già noti, dunque?
«Sì, d’altronde fin dall’inizio sapevamo che il contributo di Gaia alla scoperta di nuovi asteroidi sarebbe stato solo marginale. Invece, come si è verificato, il meglio lo avrebbe dato in termini di precisione e omogeneità nei dati astrometrici, fotometrici e spettrofotometrici».
Rappresentazione della popolazione di asteroidi in Gaia Dr3, i cui dati sono stati ora riprocessati per la Focused Product Release. Crediti: Esa/Gaia
Di che livelli di precisione parliamo?
«Gaia è in grado di misurare la posizione degli asteroidi con un errore inferiore a un millesimo di secondo d’arco, almeno per gli oggetti più brillanti della magnitudine 18. Per oggetti più deboli si va da un millesimo a un centesimo di secondo d’arco. Per fare un paragone, con il metodo delle occultazioni stellari si arriva, per le poche migliaia di oggetti possibili, a incertezze di poco meno del decimo di arcosecondo, ma generalmente con le usuali misure Ccd si hanno errori di qualche decimo di secondo d’arco. La cosa più impressionante è però emersa dal confronto tra i dati orbitali determinati da Gaia e quelli presenti nei maggiori database. Per fare un esempio, i valori dei semiassi maggiori delle orbite determinati da Gaia e quelli forniti dal Jet Propulsion Laboratory (Jpl) della Nasa differiscono in media di una frazione di pochi milliardesimi. Questo test, descritto in dettaglio nell’articolo di accompagnamento alla Focused Product Release, ha avuto lo scopo di verificare la qualità dei dati Gaia. Ma mentre i dati del Jpl sono il frutto dell’elaborazione di migliaia di osservazioni accumulate in molti decenni, o anche per più di un secolo, Gaia ha riprodotto i medesimi risultati osservando gli asteroidi per poco più di cinque anni. Si tenga inoltre presente che un singolo asteroide può essere osservato da Gaia al massimo poche decine di volte.
Quali sono i vantaggi di avere misure così precise?
«È questa estrema precisione nella misurazione delle singole posizioni di un asteroide che permette di utilizzare i dati Gaia per scoprire effetti “fini” nel moto di questi oggetti, che indirettamente ci forniscono informazioni sulla dimensione, forma e rotazione dei corpi o sulla presenza di satelliti (asteroidi binari). E che inoltre ci permettono di misurare l’effetto delle perturbazioni non gravitazionali come l’effetto Yarkovsky, ma per molti più casi rispetto a come è possibile fare con l’aiuto di osservazioni radar di asteroidi near-Earth. In particolare quando le misure radar non sono possibili, come per gli oggetti della fascia principale».
Fra tutte queste decine di migliaia di future orbite che avete determinato, ne avete notate alcune che si avvicinano pericolosamente a quella terrestre?
«Per ora nel catalogo Gaia sono presenti i dati orbitali di più di quattrocento asteroidi near-Earth. Tra questi si trovano anche esempi di Potentially Hazardous Asteroids (Pha), come (4179) Toutatis, (4769) Castalia o l’interessante oggetto attivo (3200) Phaethon, ritenuto la sorgente dello sciame meteorico delle Geminidi. Sono oggetti che più di altri possono avvicinarsi al nostro pianeta (meno di 0.05 unità astronomiche) e che devono essere costantemente monitorati. I dati Gaia aiuteranno sicuramente gli specialisti nel calcolo sempre più preciso delle effemeridi e nella valutazione del rischio d’impatto».
Possiamo comunque dormire sonni tranquilli?
«Direi di sì. L’allarmismo non fa un buon servizio al complesso di tutte le attività di monitoraggio del rischio asteroidi, un campo di ricerca molto serio che richiede molta organizzazione e competenze specifiche. Dobbiamo però essere consapevoli di tutte le caratteristiche dell’ambiente circumterrestre e che la Terra ha già “interagito” con questi corpi in passato e lo farà sicuramente in futuro».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Gaia Focused Product Release: Asteroid orbital solution. Properties and assessment”, di Gaia Collaboration, P. David, F. Mignard, D. Hestroffer, P. Tanga, F. Spoto, J. Berthier, T. Pauwels, W. Roux, A. Barbier, A. Cellino, B. Carry, M. Delbo, A. Dell’Oro, C. Fouron, L. Galluccio, S.A. Klioner, N. Mary, K. Muinonen , C. Ordénovic, I. Oreshina-Slezak, Ch. Panem, J.-M. Petit, J. Portell, W. Thuillot and the full Gaia collaboration
Guarda il video sulla popolazione di asteroidi nella Dr3 di Gaia:
Osservati in real time gli eccitoni di Hubbard
Nei materiali noti come isolanti antiferromagnetici di Mott, gli elettroni (sfere) sono organizzati in una struttura reticolare di atomi in modo tale che i loro spin puntino verso l’alto (blu) o verso il basso (rosa) in uno schema alternato. Questo è uno stato stabile in cui l’energia è ridotta al minimo. Quando il materiale viene colpito dalla luce, un elettrone salterà verso un sito atomico vicino, lasciando un buco carico positivamente dove una volta risiedeva (sfera scura). Se l’elettrone e la lacuna si allontanano ulteriormente l’uno dall’altro, la disposizione degli spin tra di loro viene disturbata – gli spin non puntano più in direzioni opposte rispetto a quelli vicini come visto nel secondo pannello – e questo costa energia. Per evitare questa perdita energetica, l’elettrone e la lacuna preferiscono rimanere vicini l’uno all’altro. Questo è il meccanismo di legame magnetico alla base dell’eccitone di Hubbard. Crediti: Caltech
Nell’arte, lo spazio vuoto in un dipinto può essere importante quanto il dipinto stesso. Qualcosa di simile vale per i materiali isolanti, dove gli spazi vuoti lasciati dagli elettroni svolgono un ruolo cruciale nel determinare le proprietà del materiale stesso.
Quando un elettrone carico negativamente viene eccitato dalla luce, se ne va lasciando una lacuna positiva. Poiché la lacuna e l’elettrone hanno carica opposta, sono attratti l’uno dall’altro e formano un legame. La coppia risultante, piuttosto effimera, è nota come eccitone.
Gli eccitoni sono una parte fondamentale di molte tecnologie, inclusi i pannelli solari, i fotorilevatori e i sensori, nonché i diodi emettitori di luce presenti nei televisori e negli schermi digitali. Nella maggior parte dei casi, le coppie di eccitoni sono legate da forze elettriche o elettrostatiche, note anche come interazioni di Coulomb. Ora, in un nuovo studio pubblicato su Nature Physics, i ricercatori del Caltech riferiscono di aver rilevato eccitoni che non sono legati dalle forze di Coulomb ma piuttosto dal magnetismo. Quello riportato nello studio è il primo esperimento per rilevare come si formano in tempo reale questi eccitoni, chiamati eccitoni di Hubbard, dal nome del defunto fisico John Hubbard.
«Utilizzando una sonda spettroscopica avanzata, siamo stati in grado di osservare in tempo reale la generazione e il decadimento degli eccitoni legati magneticamente, gli eccitoni di Hubbard», afferma il primo autore Omar Mehio, ricercatore presso il Kavli Institute della Cornell University. «Nella maggior parte degli isolanti, elettroni e lacune con carica opposta interagiscono tra loro proprio come un elettrone e un protone si legano per formare un atomo di idrogeno», spiega Mehio. «Tuttavia, in una classe speciale di materiali noti come isolanti di Mott, gli elettroni e le lacune fotoeccitate si legano invece attraverso interazioni magnetiche».
I risultati potrebbero avere applicazioni nello sviluppo di nuove tecnologie legate agli eccitoni (in un ambito che si definisce eccitonica), in cui gli eccitoni verrebbero manipolati attraverso le loro proprietà magnetiche. «Gli eccitoni di Hubbard e il loro meccanismo di legame magnetico dimostrano un drastico allontanamento dai paradigmi dell’eccitonica tradizionale, creando l’opportunità di sviluppare un intero ecosistema di nuove tecnologie che sono fondamentalmente non disponibili nei sistemi eccitonici convenzionali», afferma Mehio. «Avere eccitoni e magnetismo fortemente intrecciati in un unico materiale potrebbe portare a nuove tecnologie che sfruttano entrambe le proprietà».
Per creare gli eccitoni di Hubbard, i ricercatori hanno applicato la luce a un tipo di materiale isolante noto come isolante antiferromagnetico di Mott. Fa parte di una classe di materiali magnetici in cui gli spin degli elettroni sono allineati secondo uno schema ripetitivo e stabile. La luce eccita gli elettroni che saltano verso altri atomi, lasciandosi dietro delle lacune. «In questi materiali, quando un elettrone o una lacuna si muove attraverso il reticolo, lascia sulla sua scia una serie di eccitazioni magnetiche», dice Mehio. «Immaginate di legare un’estremità di una corda elastica attorno a un vostro amico e l’altra estremità attorno a voi stessi. Se il vostro amico scappa, sentirete la corda tirarvi in quella direzione e inizierete a seguirlo. Questo scenario è analogo a ciò che accade tra un elettrone fotoeccitato e la lacuna in un isolante di Mott. Con gli eccitoni di Hubbard, la stringa di eccitazioni magnetiche tra la coppia svolge lo stesso ruolo della corda che vi collega al vostro amico».
Per dimostrare l’esistenza degli eccitoni di Hubbard, i ricercatori hanno utilizzato un metodo chiamato spettroscopia al terahertz ultraveloce nel dominio del tempo, che ha permesso loro di cercare le firme di breve durata degli eccitoni su scale di energia molto bassa. «Gli eccitoni sono instabili perché gli elettroni vogliono tornare nelle lacune», spiega David Hsieh, ricercatore del Caltech e coautore dello studio. «Abbiamo un modo per sondare la breve finestra temporale prima che avvenga questa ricombinazione, e questo ci ha permesso di vedere che un fluido di eccitoni di Hubbard viene temporaneamente stabilizzato».
Per saperne di più:
- Leggi su Nature Physics l’articolo “A Hubbard exciton fluid in a photo-doped antiferromagnetic Mott insulator” di Omar Mehio, Xinwei Li, Honglie Ning, Zala Lenarčič, Yuchen Han, Michael Buchhold, Zach Porter, Nicholas J. Laurita, Stephen D. Wilson & David Hsieh
Se tutti i quasar si somigliassero, nello spettro
media.inaf.it/wp-content/uploa…
Impressione artistica di un quasar
Si pensa che la stragrande maggioranza delle galassie abbia un buco nero supermassiccio al centro. In alcune di queste, questo esercita la sua influenza gravitazionale in silenzio e senza dare nell’occhio, come un burattinaio che muove le stelle che lo circondano; in altre, invece, la sua presenza è tutt’altro che discreta e si manifesta con energetici getti di materiale che provengono da un disco di accrescimento che lo alimenta e ne causa quest’emissione violenta.
Le galassie che ospitano questi buchi neri si definiscono attive, o Agn (acronimo di active galactic nuclei, nuclei galattici attivi). Tra queste, le più luminose sono i quasar. Per spiegare il meccanismo di emissione della radiazione dal nucleo attivo, e tutti i processi che scaturiscono dall’accrescimento di materiale del disco di accrescimento, gli astrofisici si affidano da circa 30 anni a un modello che hanno chiamato unificato, o standard. Tuttavia, un recente articolo uscito su Nature Astronomy mette in crisi alcuni fenomeni previsti dal modello standard proponendo una visione alternativa rispetto alle caratteristiche di questi oggetti.
Le galassie attive, dicevamo, hanno proprietà osservative diverse rispetto alle galassie normali. L’accrescimento di materiale dal disco al buco nero centrale produce enormi quantità di radiazioni, dalle lunghezze d’onda ottiche a quelle ultraviolette. L’emissione ultravioletta (Uv) estrema, in particolare, proviene dalle regioni più energetiche del disco ed è la protagonista di una delle caratteristiche fondamentali del modello standard. Secondo la teoria, infatti, la distribuzione di energia osservata nell’Uv varierebbe a seconda della luminosità del quasar e sarebbe anche coinvolta nella produzione di righe di emissione molto larghe nello spettro.
«Secondo gli autori di questo articolo la dipendenza dalla luminosità dello spettro Uv dei quasar è dovuta semplicemente a un effetto di selezione osservativa, ovvero al fatto che è più semplice osservare l’emissione Uv dei quasar più luminosi. Se si corregge questa cosa, invece, tutti i quasar tornano uguali», spiega Angela Bongiorno, ricercatrice all’Inaf di Roma non coinvolta nello studio. «La conseguenza più importante di questa tesi è il fatto che dobbiamo ripensare al modello standard che spiega la fisica di questi oggetti, e secondo il quale l’emissione Uv dovrebbe dipendere dalla luminosità».
Inoltre, sempre secondo il modello standard, l’emissione Uv del disco di accrescimento ionizza le righe larghe dello spettro, e se l’emissione cambia al variare della luminosità del quasar, allora anche le righe cambiano con questa. La correlazione (osservata) tra larghezza delle righe e luminosità del quasar è quello che gli astronomi chiamano effetto Baldwin. Va da sé, quindi, che una diretta conseguenza della tesi riportata in questo studio – ossia che l’emissione del disco non cambia al variare della luminosità – è che occorre trovare un’altra spiegazione all’effetto Baldwin.
Quello standard, comunque, non è l’unico modello proposto per spiegare la fisica di questi oggetti. Uno studio del 2014, ad esempio, propone che il disco possa raggiungere una temperatura massima oltre la quale si generano forti venti che accrescono nubi di materiale attorno al disco e provocano, a cascata, tutti gli altri effetti osservativi noti.
«Il risultato di questo articolo è sicuramente molto interessante perché mette in discussione il modello standard del disco di accrescimento che prevede che l’emissione ultravioletta dei quasar vari con la luminosità, cosa che spiega anche il Baldwin effect», ripete infatti Angela Bongiorno, che conclude: «Questo risultato va però confermato con lo studio di campioni più grandi di quasar osservati in banda Uv e questo sarà possibile con i prossimi satelliti Uv come ad esempio Ultrasat».
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “A universal average spectral energy distribution for quasars from the optical to the extreme ultraviolet” di Zhen-Yi Cai & Jun-Xian Wang