Mancava la nebulosa Trifida fra le Apod
«Ho scelto di inviare questa immagine ad Apod perché avevo visto nel loro archivio immagini un po’ datate di questa nebulosa, per cui gliel’ho mandata. Poi non ci ho più pensato».
La Nebulosa Trifida nell’immagine scattata da Alessandro Cipolat Bares e selezionata dalla Nasa come Apod il 9 luglio 2025. Crediti: Alessandro Cipolat Bares
Non il desiderio di comparire o di veder riconosciuto il proprio scatto fra molti, dietro l’invio dell’immagine della nebulosa Trifida che ieri, 9 luglio, è stata scelta dalla Nasa come immagine astronomica del giorno. Alessandro Cipolat Bares voleva piuttosto “svecchiare gli archivi” dell’agenzia, con questo scatto ripreso lo scorso agosto sotto il cielo del Kalahari in Namibia, dove si trovava proprio per osservare il cielo.
«Questa ripresa è stata fatta durante uno dei miei periodici viaggi astronomici, sotto un cielo tra i più bui del pianeta, dove la Via Lattea illumina letteralmente la notte, tanto che gli antichi abitanti del Kalahari la chiamavano “la spina dorsale della notte”. È una esperienza stupenda per chi adora la meraviglia del cielo notturno. Le notti perfettamente serene e limpide consentono di osservare e fotografare oggetti in tranquillità, il periodo che trascorro in Namibia è sempre quello invernale, per il cielo australe, da giugno ad agosto, con notti serene, limpide e in assenza di umidità».
Nota anche come M20, la nebulosa Trifida si trova a circa cinquemila anni luce di distanza, in direzione della costellazione del Sagittario, ricca di nebulose. Si tratta di una regione di formazione stellare che si trova nel piano della nostra galassia, e condensa in sé tre diversi tipi di nebulose: quelle a emissione rosse, dominate dalla luce degli atomi di idrogeno, le nebulose a riflessione blu, in cui la luce è prodotta dalla polvere che riflette la luce stellare, e le nebulose oscure coperte da dense nubi di polvere. A conferirle questo nome però è la regione a emissione rossa, che sembra divisa in tre parti dalle bande di polvere. Complessivamente, la nebulosa ha un diametro di circa 40 anni luce e in cielo copre quasi l’area di una luna piena, ma è troppo debole per essere vista a occhio nudo.
Al momento dello scatto, Cipolat Bares si trovava presso la Tivoli Southern Sky Guest Farm, una fattoria attrezzata con osservatori astronomici e strumenti per osservare e riprendere, noleggiabili sul posto. Vive da una dozzina d’anni in Valle d’Aosta, è in pensione e si occupa principalmente di volontariato in ambito sociale e sanitario. «Vivendo qui, questa mia passione per l’astrofotografia è in perfetto equilibrio con la natura che mi circonda. Ovviamente ho tutto il tempo per dedicarmi a questo, passo le notti intere sia ad osservare che a fotografare, soprattutto presso l’Osservatorio astronomico della Regione autonoma Valle d’Aosta, a Saint -Barthélemy, sia in altri luoghi sperduti e bui in alta quota. Per fortuna abbiamo ancora dei luoghi (oltre a Saint -Barthélemy) molto bui e facilmente raggiungibili per noi che viviamo qui».
La passione per il cielo di Cipolat Bares risale agli anni della gioventù, una passione che lo ha portato dapprima a dedicarsi allo studio e alla lettura di articoli e testi di astronomia, e poi è sfociata dagli anni ‘80 nell’osservazione e nella ripresa fotografica degli oggetti del cielo. L’immagine della nebulosa Trifida è stata scattata lo scorso agosto con un astrografo da 155 mm di diametro e un sensore Cmos a colori, ed elaborata poi con un software dedicato (Pixinsight).
«Data la caratteristica del cielo, perfettamente buio e trasparente, diversissimo dal nostro, la ripresa di oggetti celesti abbastanza luminosi non richiede molte ore di integrazione», spiega l’astrofotografo. «In questo caso è stata sufficiente “solo” un’ora e mezza circa di posa totale».
Volevo essere un Grb, non sono altro che un Fxt
Disponendo in ordine di lunghezza d’onda le emissioni cosmiche che hanno scelto di vivere un giorno da leoni più che cent’anni da pecora, i cosiddetti fenomeni transienti, incontriamo a un’estremità eventi come gli Frb – i fast radio burst, lampi radio veloci – e all’estremità opposta i potentissimi Grb – i gamma ray burst, lampi di raggi gamma: le esplosioni più potenti del cosmo, Big Bang a parte. Un gradino al di sotto di quest’ultimi, dunque alle frequenze dei raggi X, ci si imbatte in un fenomeno ancora poco conosciuto, tanto che su Wikipedia ancora non ha una voce tutta per sé: i fast X-ray transient (Fxt), transienti X veloci.
Sono eventi rari e assai difficili da osservare, gli Fxt: avvengono a distanze enormi e durano da pochi secondi a poche ore. Per studiarli è stato lanciato nel 2024 un telescopio ad hoc, l’Einstein Probe, dell’Accademia cinese delle scienze.
Questa sequenza di immagini mostra la luce in dissolvenza della supernova Sn 2025kg, che ha fatto seguito al transiente veloce a raggi X Ep 250108a, una potente esplosione di raggi X rilevata dall’Einstein Probe all’inizio del 2025. Utilizzando una combinazione di telescopi, tra cui l’Osservatorio Internazionale Gemini e il telescopio Soar, un team di astronomi ha studiato l’evoluzione del segnale di Ep 250108a/Sn 2025kg per scoprire i dettagli della sua origine. La loro analisi rivela che i transienti X veloci possono derivare dalla morte esplosiva “fallita” di una stella massiccia. Crediti: International Gemini Observatory / NoirLab / Nsf / Aura
Quando dunque, nel gennaio scorso, il telescopio a occhio d’aragosta Wxt dell’Einstein Probe ha intercettato il transiente X veloce Ep 250108A, che con i suoi 2.8 miliardi di anni luce di distanza da noi era all’epoca l’Fxt più vicino mai scoperto, alcuni fra i più grandi telescopi terrestri si sono immediatamente voltati in quella direzione, per capire cosa mai avesse potuto produrlo. Fra loro, i due telescopi gemelli dell’Osservatorio Gemini: il Gemini North, nell’emisfero boreale, e il Gemini South, in quello australe. Equipaggiati, per l’occasione, il primo con uno spettrografo in banda ottica (Gmos) e il secondo con uno spettrografo per il vicino infrarosso (Flamingos 2). E dotato anch’esso di uno strumento per il vicino infrarosso si è mosso anche Soar, il Southern Astrophysical Research Telescope di Cerro Tololo, in Cile.
Ciò che hanno scoperto è riportato ora in due articoli – entrambi con numerosi coautori dell’Inaf – già accettati per la pubblicazione da ApJ Letters: all’origine di queste potenti emissioni di raggi X potrebbe esserci la “morte esplosiva fallita” di una stella massiccia. Una supernova, dunque. Simile a quelle associate ai Grb. Ma con una differenza importante: nel caso degli Fxt, i due potenti getti collimati caratteristici di un normale Grb non riescono a sfondare gli strati esterni della stella morente, rimanendo così come intrappolati al suo interno. Soffocati alla nascita, insomma. O meglio: interagendo con gli strati esterni della stella decelerano, e la loro energia cinetica viene convertita – appunto – in raggi X. Quelli rilevati dall’Einstein Probe.
«La nostra analisi dimostra definitivamente che gli Fxt possono avere origine dalla morte esplosiva di una stella massiccia», riassume la prima autrice di uno dei due articoli, Jillian Rastinejad, della Northwestern University (Usa). «Inoltre, avvalora l’esistenza di un legame causale tra le “supernove da Grb” e le “supernove da Fxt”: nelle prime l’emissione dei getti ha successo, nelle seconde invece i getti escono debolmente o rimangono intrappolati».
«Questa scoperta», conclude il primo autore dell’altro articolo, Rob Eyles-Ferris, della University of Leicester (Regno Unito), «prelude a una comprensione più ampia della varietà dei modi in cui le stelle massicce possono morire e alla necessità di indagini più approfondite sull’intero panorama dell’evoluzione stellare».
Per saperne di più:
- Leggi il preprint dell’articolo in uscita su The Astrophysical Journal Letters “The kangaroo’s first hop: the early fast cooling phase of EP250108a/SN 2025kg”, di Rob A. J. Eyles-Ferris et al.
- Leggi il preprint dell’articolo in uscita su The Astrophysical Journal Letters “EP 250108a/SN 2025kg: Observations of the most nearby Broad-Line Type Ic Supernova following an Einstein Probe Fast X-ray Transient”, di J. C. Rastinejad Ferris et al.
Guarda il video (in inglese) sul canale YouTube del NoirLab:
Webb scruta le polveri delle stelle di Wolf-Rayet
A frugare tra i segreti della polvere si è messo un gruppo internazionale di ricercatori guidati da Noel Richardson, professore di fisica e astronomia all’Embry-Riddle Aeronautical University, in Arizona. La polvere cosmica, diversa da quella che tanto ci tedia nelle nostre abitazioni, è costituita prevalentemente da silicati, grafite e da aggregati ricchi di carbonio. In luoghi polverosi nascono le stelle, così come ricchi di polveri sono i dischi protoplanetari, da cui pianeti come il nostro hanno preso forma. Non si conosce ancora bene come e quando venga prodotta tutta la polvere che c’è nell’universo, e anche alcuni dettagli sulla sua composizione chimica sfuggono agli astronomi. Che, per penetrarne i segreti, hanno messo gli occhi su un gruppo di stelle evolute dalle caratteristiche peculiari, chiamate stelle di Wolf-Rayet.
«Le stelle di Wolf-Rayet sono essenzialmente stelle massicce altamente evolute che non presentano nessuna traccia di idrogeno», dice Richardson, primo autore di uno studio sulla polvere che avvolge questi oggetti celesti uscito ieri su The Astrophysical Journal. «Hanno perso l’idrogeno nella parte esterna della stella, fondendo l’elio nel nucleo, il che significa che si stanno avvicinando alla fine del loro ciclo vitale».
Quando i venti prodotti da queste stelle prossime alla fine collidono con quelli generati da stelle massicce situate nei paraggi, si vengono a formare delle strutture concentriche ricche di polvere a base di carbonio. Sinora, questi gusci polverosi erano stati osservati su grande scala in un’unica stella di Wolf-Rayet, chiamata Wr-140. Nelle immagini ad alta risoluzione ottenute con lo strumento Miri del James Webb Space Telescope, si vedono chiaramente ben 17 gusci che circondano il sistema binario di Wr-140. Adesso i ricercatori hanno puntato il più potente telescopio al mondo verso altre quattro stelle di Wolf-Rayet. Scoprendo che anche queste ultime sono accerchiate da strutture concentriche ricche di polvere.
La stella di Wolf-Rayet Wr-140 immortalata dal James Webb Space Telescope. La stella è circondata da 17 gusci di polvere, catturati dallo strumento Miri di Webb. Crediti: Nasa, Esa, Csa, StScI, Nasa-Jpl, Caltech
«Non solo abbiamo scoperto che la polvere in questi sistemi è longeva e si diffonde nello spazio, ma abbiamo anche scoperto che questo non riguarda solo un sistema», aggiunge Richardson. “Longeva”, in questo caso, significa che la polvere è in vita da 130 fino a oltre 300 anni, in alcuni sistemi binari.
Tra i coautori della ricerca c’è Ryan Lau, dell’Nsf NoirLab di Tucson, in Arizona, secondo cui il nuovo studio «ha confermato che stiamo osservando in altri sistemi lo stesso schema di gusci di polvere ancora in vita che abbiamo osservato intorno a Wr-140. Queste osservazioni dimostrano che la polvere prodotta dalle stelle di Wolf-Rayet può sopravvivere al difficile ambiente stellare». Ciò significa che bisogna tenere conto della polvere generata attraverso questo canale quando si vuole stimare il contenuto totale di polvere nelle galassie.
Per un’analisi accurata delle polverose strutture, fondamentale è stato rimuovere gli artefatti che spesso costellano le immagini di Webb e che possono inficiare lo studio delle sorgenti astrofisiche, lavoro meticoloso svolto dalla studentessa Corey Kehl dell’Embry-Riddle. «Credo che essere coinvolti nella ricerca sia l’epitome di cosa significhi essere uno scienziato, soprattutto un fisico», dice Kehl. «Vedi i principi per cui hai lavorato così duramente come studente universitario davvero in azione».
Le nuove osservazioni di Miri che ritraggono quattro stelle di Wolf-Rayet in sistemi binari. Come per Wr-140, anche in questi casi sono visibili diversi gusci di polvere che attorniano le stelle. Crediti: Nasa, Esa, Csa, Richardson et al.
Ultimo tassello: gli spettri. Oltre a confermare la presenza della polvere, gli spettri sono necessari per rivelare la composizione chimica dei grani e provarne a prevedere le sorti. Per il futuro gli scienziati sperano di ottenerli per rispondere ad alcune domande attualmente insolute. «Dove va a finire questa polvere?» si chiede Lau. «Vogliamo capire esattamente qual è la sua chimica. Per farlo, dobbiamo analizzare gli spettri per identificare la composizione specifica dei grani – le proprietà fisiche – e farci un’idea del contributo chimico al mezzo interstellare».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Carbon-rich Dust Injected into the Interstellar Medium by Galactic WC Binaries Survives for Hundreds of Years” di Noel D. Richardson, Micaela Henson, Emma P. Lieb, Corey Kehl, Ryan M. Lau, Peredur M. Williams, Michael F. Corcoran, J. R. Callingham, André-Nicolas Chené, Theodore R. Gull, Kenji Hamaguchi, Yinuo Han, Matthew J. Hankins, Grant M. Hill, Jennifer L. Hoffman, Jonathan Mackey, Anthony F. J. Moffat, Benjamin J. S. Pope, Pragati Pradhan, Christopher M. P. Russell, Andreas A. C. Sander, Nicole St-Louis, Ian R. Stevens, Peter Tuthill, Gerd Weigelt e Ryan M. T. White
Il grande vuoto che allenta la tensione
Al National Astronomy Meeting (Nam) della Royal Astronomical Society, attualmente in corso a Durham, due astronomi del Regno Unito domani pomeriggio presenteranno il loro ultimo studio, pubblicato su Monthly Notices of the Royal Astronomical Society, secondo il quale la Terra e l’intera Via Lattea potrebbero trovarsi all’interno di un enorme vuoto cosmico, in cui lo spazio si espande più velocemente rispetto alle regioni circostanti dell’universo. Se fosse davvero così, la loro teoria rappresenterebbe una potenziale soluzione alla cosiddetta tensione di Hubble.
Se ci trovassimo in una regione con densità inferiore alla media, come quella indicata dal punto verde, la materia si allontanerebbe da noi a causa della maggiore gravità esercitata dalle regioni circostanti più dense, come mostrato dalle frecce rosse. Crediti: Moritz Haslbauer e Zarija Lukic
La costante di Hubble, proposta per la prima volta da Edwin Hubble nel 1929 per descrivere la velocità di espansione dell’universo, può essere determinata a partire dalla distanza degli oggetti celesti e dalla loro velocità di allontanamento da noi. Oppure, per determinarla si può usare il fondo cosmico a microonde (Cmb). Il problema è che le misurazioni basate sul Cmb – sull’universo primordiale, quindi, molto distante nel tempo e nello spazio – forniscono un valore della costante inferiore rispetto a quello ottenuto osservando l’universo locale. È proprio questa fastidiosa discrepanza a essere nota come tensione di Hubble.
«Una possibile soluzione a questa discrepanza è che la nostra galassia si trovi vicino al centro di un grande vuoto locale», spiega Indranil Banik dell’Università di Portsmouth. «Ciò causerebbe un’attrazione gravitazionale della materia verso l’esterno del vuoto, a maggiore densità, tale per cui “il vuoto si svuota” nel tempo. Man mano che il vuoto si svuota, la velocità degli oggetti che si allontanano da noi sarebbe maggiore rispetto a quella che si avrebbe se il vuoto non ci fosse. Questo dà quindi l’impressione di un tasso di espansione locale più rapido».
«La tensione di Hubble è in gran parte un fenomeno locale, con scarse prove che il tasso di espansione non sia in linea con le aspettative della cosmologia standard più indietro nel tempo», continua Banik. «Quindi una soluzione locale come un vuoto locale è un modo promettente per risolvere il problema».
Le oscillazioni acustiche barioniche (Bao) – il “suono del Big Bang” – supportano l’idea di un vuoto locale. Crediti: Gabriela Secara, Perimeter Institute
Affinché l’idea regga, la Terra e il Sistema solare dovrebbero trovarsi vicino al centro di un vuoto di circa un miliardo di anni luce di raggio e con una densità di circa il 20 per cento inferiore alla media dell’universo nel suo complesso. Effettivamente, il conteggio diretto delle galassie nel vicino infrarosso supporta tale ipotesi, poiché la densità dell’universo locale sembra essere inferiore rispetto a quella delle regioni limitrofe. Tuttavia, l’esistenza di un vuoto così vasto e profondo è controversa, poiché non si accorda facilmente con il modello cosmologico standard, secondo il quale la materia, su scale così grandi, dovrebbe essere distribuita in modo più uniforme.
Nonostante ciò, i nuovi dati presentati nello studio mostrano che l’eventualità di un vuoto locale ben si accorda con le oscillazioni acustiche barioniche (Bao), il “suono” del Big Bang. «Queste onde sonore hanno viaggiato solo per un breve periodo prima di congelarsi sul posto una volta che l’universo si è raffreddato abbastanza da permettere la formazione di atomi neutri», dice il ricercatore. «Fungono da righello standard, la cui dimensione angolare può essere usata per tracciare la storia dell’espansione cosmica. Un vuoto locale distorce leggermente la relazione tra la scala angolare del Bao e il redshift, poiché le velocità indotte da un vuoto locale e il suo effetto gravitazionale aumentano leggermente il redshift a causa dell’espansione cosmica».
«Considerando tutte le misurazioni delle Bao disponibili negli ultimi 20 anni, abbiamo dimostrato che un modello con un vuoto è circa cento milioni di volte più probabile rispetto a un modello senza vuoti, i cui parametri sono stati definiti per adattarsi alle osservazioni della radiazione cosmica di fondo effettuate dal satellite Planck: la cosiddetta cosmologia omogenea di Planck».
Il passo successivo è quindi confrontare il modello di vuoto locale con altri metodi utilizzati per stimare la storia dell’espansione dell’universo, come gli orologi cosmici. Questo approccio si basa sull’osservazione di galassie che hanno smesso di formare nuove stelle. Analizzando i loro spettri, è possibile determinare il tipo di stelle presenti e la loro distribuzione. Poiché le stelle più massicce hanno una vita più breve, la loro assenza nelle galassie più antiche offre un indicatore utile per stabilirne l’età. Sarà quindi possibile combinare l’età di una galassia con il suo spostamento verso il rosso, che indica quanto si è espanso l’universo durante il tempo impiegato dalla luce per raggiungerci. E questo confronto permetterà di ricostruire la storia dell’espansione dell’universo.
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “Testing the local void hypothesis using baryon acoustic oscillation measurements over the last 20 yr” di Indranil Banik e Vasileios Kalaitzidis
Tutto il cielo in infrarosso con Spherex
Lanciata lo scorso 12 marzo, la missione Spherex (Spectro-Photometer for the History of the Universe, Epoch of Reionization and Ices Explorer) della Nasa ha iniziato a fornire i primi dati scientifici, pubblicandoli su base settimanale su un archivio ad accesso libero e permettendo così a chiunque di utilizzarli per esplorare i segreti dell’universo.
Il telescopio spaziale raccoglierà dati su centinaia di milioni di oggetti cosmici, consentendo studi praticamente in ogni campo dell’astronomia: dall’universo primordiale fino alle origini della vita. Spherex mapperà l’intero cielo in ben 102 lunghezze d’onda nell’infrarosso: un enorme salto rispetto alle quattro bande utilizzate dalla precedente missione Wise (Wide-field Infrared Survey Explorer) della Nasa. I dati raccolti vengono resi pubblici nell’archivio entro 60 giorni da ciascuna osservazione: un intervallo che consente al team di elaborare i dati grezzi, per rimuovere eventuali artefatti, correggere effetti strumentali e allineare le immagini con precisione alle coordinate astronomiche.
Immagine della Vela Molecular Ridge catturata da Spherex parte del primo rilascio pubblico dei dati della missione. La macchia gialla sul lato destro dell’immagine è la nebulosa di emissione Rcw 36, una nube di gas e polvere interstellare che brilla in alcune lunghezze d’onda infrarosse a causa della radiazione delle stelle vicine. Crediti: Nasa/Jpl-Caltech
Durante la sua missione primaria, della durata di due anni, Spherex realizzerà una mappatura completa del cielo due volte l’anno, generando così un totale di quattro mappe all-sky. Al termine del primo anno di attività, il team prevede di rilasciare la prima mappa completa in tutte le 102 lunghezze d’onda.
Grazie alla tecnica della spettroscopia, il telescopio è in grado di identificare le firme di specifiche molecole, consentendo lo studio della distribuzione dell’acqua ghiacciata e delle molecole organiche nelle Via Lattea. Inoltre i dati permetteranno di indagare la fisica dell’espansione successiva al Big Bang e di misurare nel tempo la luce emessa da tutte le galassie dell’universo.
Oltre alla scienza per cui Spherex è stato progettato, se combinato con altre missioni il telescopio apre la strada a un numero ancora maggiore di studi astronomici. I suoi dati possono infatti essere usati per selezionare gli oggetti da osservare in dettaglio con il telescopio spaziale James Webb della Nasa, migliorare i parametri degli esopianeti rilevati dal satellite Tess (Transiting Exoplanet Survey Satellite), sempre della Nasa, e contribuire agli studi su materia e energia oscura in sinergia con la missione Euclid dell’Esa e il futuro telescopio spaziale Nancy Grace Roman della Nasa.
I dati di Spherex sono pubblicati su Irsa (Nasa/Ipac Infrared Science Archive), l’archivio dell’Ipac, centro per l’astrofisica e la scienza planetaria presso il Caltech di Pasadena. Irsa raccoglie anche osservazioni mirate e mappe all-sky a diverse lunghezze d’onda condotte da altre missioni spaziali, offrendo cosi agli utenti un contesto più ampio per lo studio dell’universo.
La missione Spherex incarna lo spirito della scienza aperta, promuovendo la collaborazione all’interno della comunità scientifica internazionale grazie alla condivisione pubblica dei dati e delle procedure di analisi, rendendo la ricerca più trasparente, accessibile e riproducibile da parte di tutti.
Per saperne di più:
- Vai alla pagina dello Spherexx Science Data Center
Guarda su MediaInaf Tv il servizio video del 2022 su Spherex:
A caccia di nane oscure nel cuore della Via Lattea
media.inaf.it/2025/07/07/a-cac…
Nane oscure, le hanno chiamate. Nane come le nane brune, le cosiddette “stelle fallite”, troppo piccole per innescare una fusione nucleare, oggetti a metà strada fra un grosso pianeta e una stella vera e propria. E oscure come la materia oscura, l’inafferrabile sostanza di cui si pensa sia fatto il 25 per cento dell’universo. Non sappiamo se esistono, ma se riuscissimo a trovarne una, dice uno studio guidato da Djuna Croon della Durham University e pubblicato oggi su Journal of Cosmology and Astroparticle Physics, vorrebbe dire che la materia oscura – al contrario di quella che pare suggerire la tendenza più recente sull’argomento – non è fatta di particelle ultra leggere, come gli assioni o i neutrini sterili, bensì di particelle di grande massa. Particelle come le Wimp, un tempo in auge quali candidate per spiegare la materia oscura ma ultimamente passate un po’ di moda, dopo che gli innumerevoli tentativi di catturarne almeno una sono andati tutti a vuoto.
Rappresentazione artistica di una nana oscura. Crediti: Sissa Medialab / Adobe Illustrator
Dunque può valer la pena cercarle, queste nane oscure – in inglese, dark dwarfs. Partendo dalla regione in cui è più probabile che ce ne siano, ovvero là dove la materia oscura è più densa e abbondante. Nel cuore della Via Lattea, per esempio. È lì, vicino al centro della nostra galassia, che una normale nana bruna, dicono Croon e colleghi, ha più possibilità – a patto che la materia oscura sia fatta di particelle di grande massa – di diventare una nana oscura. A compiere la metamorfosi sarebbero, in particolare, le nane brune in fase di raffreddamento con massa inferiore al 7,5 per cento della massa del Sole.
«Le nane brune», spiega uno dei coautori dello studio, Jeremy Sakstein, della University of Hawaii, «catturano la materia oscura che le aiuta a diventare nane oscure. Più materia oscura c’è in giro, più se ne può catturare. E più materia oscura finisce all’interno della stella, più energia sarà prodotta dalla sua annichilazione».
Già, perché poi se la ricerca vuole avere qualche speranza di successo occorre anzitutto vederle, queste nane oscure. E a tradirne la presenza sarebbe proprio l’energia prodotta dall’interazione della materia oscura con sé stessa. «La materia oscura interagisce gravitazionalmente, quindi potrebbe essere catturata dalle stelle e accumularsi al loro interno. Se ciò accade», dice Sakstein, «potrebbe anche interagire con sé stessa e annichilirsi, rilasciando energia che scalda la stella». Un processo fisico diverso, dunque, da quello che fa brillare una stella normale, una stella come il Sole, la cui luce è emessa principalmente a seguito dei processi di fusione nucleare in corso al suo interno, che generano grandi quantità di calore ed energia.
Ma come distinguere una nana oscura da una normalissima nana bruna? Grazie a una firma particolarissima, un tratto distintivo, una sorta di “sintomo patognomico”: la presenza del litio, e in particolare del litio-7, l’isotopo più diffuso, quello usato anche per le batterie delle auto elettriche e degli smartphone. Il litio-7 brucia molto facilmente, dunque nelle stelle ordinarie – come una nana rossa, ma anche una normale nana bruna – si consuma rapidamente. Non però nelle nane oscure. «Se si riuscisse a trovare un oggetto che potrebbe essere una nana oscura», propone Sakstein, «potremmo quindi cercare la presenza di questo isotopo del litio, che dovrebbe essere assente se fossimo davanti a una nana bruna o a un oggetto simile».
Insomma, se voleste cimentarvi nella caccia alle nane oscure il suggerimento è quello di perlustrare il centro della Via Lattea e di concentrarsi su oggetti molto freddi, simili a nane brune ma con la riga del litio-7 nello spettro. E se ne trovaste una? Avremmo una prova convincente del fatto che la materia oscura è fatta di Wimp, come dicevamo all’inizio?
«Avremmo una prova ragionevolmente forte. Con i candidati di materia oscura più leggeri, come per esempio gli assioni, non credo che si possa ottenere qualcosa come una nana oscura: non si accumulano all’interno delle stelle», spiega Sakstein. «Trovare una nana oscura ci fornirebbe una prova convincente del fatto che la materia oscura è pesante e che interagisce fortemente con sé stessa ma solo debolmente con il Modello standard. Questo include le Wimp, ma anche altri modelli più esotici».
«Osservare una nana oscura non ci direbbe in modo definitivo che la materia oscura è fatta di Wimp», conclude Sakstein, «ma significherebbe che è fatta o di Wimp o di qualcosa che, a tutti gli effetti, si comporta come una Wimp».
Per saperne di più:
- Leggi su Journal of Cosmology and Astroparticle Physics l’articolo “Dark Dwarfs: Dark Matter-Powered Sub-Stellar Objects Awaiting Discovery at the Galactic Center”, di Djuna Croon, Jeremy Sakstein, Juri Smirnov e Jack Streeter
Così il timbro d’una stella ne tradisce l’età
Si può scoprire l’età di una stella osservando come “risuona”. Lo ha dimostrato un gruppo internazionale di ricerca guidato da studiosi dell’Università di Bologna che si è concentrato su una gigante rossa – una stella che si trova in una fase avanzata della sua evoluzione e caratterizzata da un raggio circa 10 volte quello solare – all’interno di un sistema binario. Grazie all’osservazione delle eclissi e delle variazioni di velocità dovute al moto orbitale, i ricercatori hanno determinato la massa della gigante rossa usando la legge di gravitazione universale di Newton. Allo stesso tempo però, i ricercatori hanno anche calcolato la sua massa, e quindi la sua età, utilizzando l’astrosismologia: un metodo che permette di rivelare le proprietà delle stelle a partire dall’analisi delle loro risonanze naturali.
Illustrazione del sistema binario a eclisse Kic 10001167. A sinistra, la variazione della luce osservata nel tempo mostra le eclissi periodiche delle due stelle. A destra, le orbite delle due componenti (una gigante rossa e una stella nana) viste dall’alto, insieme alle variazioni della loro velocità lungo la linea di vista. Combinando questi dati, curve di luce e velocità radiali, gli astronomi possono determinare con grande precisione la massa delle stelle (animazione prodotta con il programma Phoebe 2)
I risultati – pubblicati venerdì scorso su Astronomy & Astrophysics – sono sorprendenti: le due misurazioni della massa della stella, quella “tradizionale” e quella realizzata con l’astrosismologia, differiscono di appena l’1,4 per cento.
«Per la prima volta siamo riusciti a confrontare con un alto livello di accuratezza una stima dell’età sismica di una stella con una misura indipendente basata sulla sua orbita», dice Jeppe Sinkbæk Thomsen, dottorando al Dipartimento di fisica e astronomia “Augusto Righi” dell’Università di Bologna e primo autore dello studio. «Questi risultati ci dicono che l’astrosismologia è un metodo affidabile per misurare la massa e quindi l’età delle stelle della nostra galassia».
Misurare la massa di una stella solitaria nello spazio è molto complicato: se non ci sono altre stelle che le orbitano attorno, infatti, non è possibile utilizzare il metodo “tradizionale” basato sulle leggi della gravità. Ma esiste un altro modo, del tutto diverso, che sfrutta le minuscole variazioni di luce causate da oscillazioni interne: è proprio da queste che si ricavano informazioni preziose sulla struttura della stella.
«Le stelle vibrano in modo simile a strumenti musicali: al loro interno si propagano onde acustiche che fanno oscillare l’intera struttura», spiega Andrea Miglio, professore al Dipartimento di fisica e astronomia “Augusto Righi” dell’Università di Bologna, tra gli autori dello studio. «Queste oscillazioni risuonano a frequenze diverse a seconda delle proprietà interne della stella, proprio come il suono di uno strumento dipende dalla sua forma, dalle dimensioni e dal materiale. Studiando queste frequenze, possiamo determinarne la massa e quindi stimarne l’età».
youtube.com/embed/e7fUIYWBY-g?…
Le oscillazioni stellari, con frequenze intorno ai 20 milionesimi di hertz (una oscillazione circa ogni 14 ore), sono state moltiplicate per circa 6,5 milioni per portarle nel dominio udibile: il risultato è una nota di 130 Hz, corrispondente al Do2, la stessa suonata da clarinetto e sassofono nell’animazione che potete vedere e ascoltare avviando il video qui sopra. Sebbene clarinetto e sassofono suonino entrambi la stessa nota fondamentale (Do2), i loro spettri sono diversi: è la firma unica del loro timbro, che dipende dalla forma e dalla struttura interna. Lo stesso vale per le stelle: anche loro vibrano, e le oscillazioni interne generano lievi variazioni di luminosità che possiamo misurare con telescopi come Kepler.
Analizzando la distribuzione delle frequenze — il “timbro stellare” — è dunque possibile dedurre massa, raggio ed età. Il risultato ottenuto dagli autori dello studio conferma l’accuratezza del metodo dell’astrosismologia, con implicazioni che vanno ben oltre la ricostruzione dell’età di una singola stella. Grazie a questo metodo di indagine è possibile infatti analizzare migliaia di antiche stelle della nostra galassia e ricostruire così l’evoluzione della Via Lattea nel corso di miliardi di anni.
Fonte: Unibo Magazine
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Advancing accuracy in age determinations of old-disk stars using an oscillating red giant in an eclipsing binary”, di J. S. Thomsen, A. Miglio, K. Brogaard, J. Montalbán, M. Tailo, W. E. van Rossem, G. Casali, D. Jones, T. Arentoft, L. Casagrande, D. Sebastian, G. Buldgen, A. Triaud, M. Matteuzzi, A. Stokholm, M. N. Lund, B. Mosser, P. F. L. Maxted, J. Southworth, J. T. Gadeberg, N. Koivisto, Z. Gray, V. Pinter, K. Matilainen, A. A. Djupvik, J. Jessen-Hansen, F. Grundahl, D. Slumstrup e S. Frandsen
Quando le stelle piccole fanno le cose in grande
Gli esopianeti simili alla Terra potrebbero essere molto più comuni di quanto si pensasse, soprattutto attorno a stelle di piccola massa. È quanto evidenzia uno studio pubblicato su Astronomy & Astrophysics e guidato da Adrian Kaminski del Heidelberg-Königstuhl Observatory, in Germania, che ha analizzato 15 stelle nane di tipo M, le più numerose della nostra galassia. La ricerca ha rivelato quattro nuovi esopianeti e fornito nuovi indizi sulla possibilità di vita oltre il Sistema solare.
L’Osservatorio di Calar Alto ad Almería. Crediti: Centro Astronómico Hispano en Andalucía/Santos Pedraz
Il team, composto da ricercatori provenienti da Europa, Asia e America, ha utilizzato i dati raccolti dallo spettrografo Carmenes (Calar Alto high-Resolution search for M dwarfs with Exoearths with Near-infrared and optical Echelle Spectrographs), in funzione dal 2015 presso l’Osservatorio di Calar Alto, ad Almería, in Spagna. I nuovi esopianeti scoperti mostrano caratteristiche diverse: il più massiccio ha una massa pari a 14 volte quella terrestre e un’orbita di 3,3 anni, mentre gli altri tre sono di dimensioni più simili alla Terra – tra 1,03 e 1,52 masse terrestri – e completano la loro orbita in pochi giorni.
Secondo gli autori, le stelle con massa inferiore a 0,16 volte quella del Sole ospitano in media due pianeti piccoli, con masse inferiori a tre volte quella terrestre. La frequenza con cui questi piccoli pianeti si formano attorno a stelle di massa molto ridotta è sorprendentemente alta. Al contrario, pianeti più grandi risultano molto più rari in questi sistemi, suggerendo che le stelle meno massicce tendano a creare sistemi planetari compatti e popolati principalmente da mondi rocciosi.
Le stelle di piccola massa, conosciute come nane M, rappresentano la categoria stellare più comune nel nostro vicinato galattico. Con masse comprese tra 0,05 e 0,5 volte quella del Sole, costituiscono circa il 75 per cento delle stelle più vicine alla Terra. La loro abbondanza, unita a caratteristiche fisiche favorevoli alla rilevazione di pianeti, le rende obiettivi particolarmente interessanti per la ricerca di mondi abitabili. «Queste stelle sono meno massicce e più fredde delle stelle come il Sole e questo fa sì che sia più facile trovare pianeti piccoli, potenzialmente rocciosi, nella cosiddetta zona abitabile, cioè a una distanza dalla loro stella che permette la presenza di acqua liquida», spiega Jesus Maldonado, ricercatore all’Inaf di Palermo, esperto in ricerca esoplanetaria e non direttamente coinvolto nello studio. «In altre parole, se vogliamo cercare vita al di là del Sistema solare, le stelle M sono possibilmente una delle nostre migliori opzioni», aggiunge.
Mappa della sensibilità di rilevamento di Carmenes, media delle singole mappe relative ai 15 obiettivi stellari di questo studio. I segni azzurri indicano gli 11 pianeti inclusi nell’analisi della frequenza di occorrenza, mentre la mappa a colori mostra le probabilità di rilevamento nei diversi punti della griglia periodo-massa. Le linee continue rappresentano le masse associate ai valori di semi-ampiezza della velocità radiale (Rv) pari alla radice quadrata media delle Rv calcolata sulla serie temporale (linea blu), all’incertezza media delle Rv (linea magenta) e alla mediana delle incertezze delle Rv. Crediti: A&A
Di conseguenza, le nane M sono diventate oggetto di numerose campagne osservative, e negli ultimi anni sono stati scoperti molti pianeti di piccole dimensioni in orbita attorno a esse. «Ad esempio, i sette pianeti attorno alla stella Trappist-1, o il pianeta attorno a Proxima Centauri», prosegue Maldonado. «Questo studio presenta i nuovi risultati del progetto Carmenes, che è stato specificamente costruito per studiare i sistemi planetari intorno alle nane M. Mentre tanti lavori precedenti si sono concentrati sulle nane M più massicce, la novità di questo studio è che si concentra sulle stelle di massa più bassa all’interno della categoria delle nane M».
Ma non solo. Secondo Maldonado, infatti, il risultato più importante di questo studio è che il numero, la frequenza o la probabilità di trovare pianeti intorno a una stella dipenderebbe proprio dalla massa della stella stessa. «Cioè, le stelle M più piccole e più fredde hanno più pianeti piccoli su orbite ravvicinate rispetto alle nane M più massicce. Questo è un risultato notevole che ci aiuta a capire come si formano i pianeti e dove cercare i pianeti potenzialmente abitabili», conclude.
Lo studio segna, dunque, un passo importante verso la costruzione di una mappa più dettagliata della distribuzione dei pianeti abitabili nella nostra galassia. Grazie ai risultati di Carmenes e di molti altri progetti dedicati allo studio delle stelle nane M, nei prossimi anni potremo comprendere meglio come la formazione e l’evoluzione dei pianeti – siano essi rocciosi o gassosi – dipendano dalle proprietà della stella attorno a cui orbitano.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “The CARMENES search for exoplanets around M dwarfs“, di A. Kaminski, S. Sabotta, J. Kemmer, P. Chaturvedi, R. Burn, J. C. Morales, J. A. Caballero, I. Ribas, A. Reiners, A. Quirrenbach, P. J. Amado, V. J. S. Béjar, S. Dreizler, E. W. Guenther, A. P. Hatzes, Th. Henning, M. Kürster, D. Montes, E. Nagel, E. Pallé, V. Pinter, S. Reffert, M. Schlecker, Y. Shan, T. Trifonov, M. R. Zapatero Osorio and M. Zechmeister.
Le rocce marziane, una tomba per l’atmosfera
media.inaf.it/2025/07/04/il-bu…
Perché state leggendo questa notizia dalla Terra e non da Marte? Che cosa è successo su Marte per renderlo così diverso dalla Terra, e così diverso da com’era un tempo? Quest’ultima domanda credo se la siano fatta almeno una volta tutti gli appassionati di planetologia, così come gli studenti ai quali viene presentato il Pianeta rosso. Ora, uno studio pubblicato su Nature e guidato Edwin Kite dell’Università di Chicago propone una interessante spiegazione.
Il rover Curiosity della Nasa ha scattato questa foto mentre risaliva il Monte Sharp, una montagna marziana. Uno studio propone una nuova spiegazione del perché Marte sia oggi un deserto arido, nonostante le molte somiglianze con la Terra. Crediti: Nasa/Jpl-Caltech/Msss
Lo studio si basa sui risultati ottenuti grazie al rover Curiosity annunciati lo scorso aprile, quando la Nasa ha riportato il ritrovamento di rocce ricche di minerali carbonatici. «Per anni ci siamo posti questo enorme interrogativo senza risposta: perché la Terra è riuscita a mantenere la sua abitabilità, mentre Marte l’ha persa?», comenta Kite. «I nostri modelli suggeriscono che i periodi di abitabilità su Marte siano stati l’eccezione piuttosto che la regola, e che Marte, in generale, tenda ad autoregolarsi come pianeta desertico».
Marte ha una composizione molto simile a quella della Terra: è un pianeta roccioso, ricco di carbonio e acqua, abbastanza vicino al Sole da essere riscaldato ma non bruciato. Eppure, oggi è un freddo deserto, mentre la Terra pullula di vita. Sulla superficie marziana osserviamo valli scavate da antichi fiumi e letti di laghi ormai prosciugati, a testimonianza del fatto che, in passato, il pianeta ha avuto un clima abbastanza caldo da ospitare acqua liquida. «Fortunatamente, Marte conserva una traccia di quella “catastrofe ambientale” nelle rocce della sua superficie», spiega Kite. «Oggi stiamo vivendo un’età dell’oro per la scienza marziana: due rover alimentati al plutonio esplorano la superficie, mentre una flotta internazionale di sonde orbita attorno al pianeta, permettendoci di indagare a fondo le tracce del suo passato».
Secondo il modello sviluppato da Kite, i periodi in cui era presente acqua liquida su Marte sarebbero iniziati con l’aumento della luminosità solare. Tuttavia, a differenza della Terra, che è rimasta abitabile nel tempo, le condizioni su Marte tendono a diventare sempre più desertiche.
«Quando si tratta di mantenere un pianeta mite e temperato, non è sufficiente partire da condizioni iniziali favorevoli: servono meccanismi in grado di garantire una stabilità nel tempo, rispondendo ai cambiamenti sia interni sia esterni al pianeta. Gli scienziati ritengono che la Terra ci riesca grazie a un sistema finemente bilanciato, capace di spostare il carbonio dall’atmosfera alle rocce e viceversa. L’anidride carbonica presente nell’atmosfera contribuisce a riscaldare il pianeta, ma temperature più elevate accelerano anche le reazioni chimiche che intrappolano il carbonio nelle rocce, contrastando così l’aumento della temperatura. Col tempo, il carbonio ritorna nell’atmosfera attraverso le eruzioni vulcaniche. Nell’arco di milioni di anni, questo ciclo avrebbe contribuito a mantenere la Terra relativamente stabile e ospitale per la vita.
Secondo i ricercatori, anche su Marte potrebbe essersi verificato un ciclo simile a quello terrestre, ma con un effetto autolimitante. Questo ciclo si fonda sull’aumento molto lento della luminosità solare nel tempo, pari a circa l’8 per cento ogni miliardo di anni. Con l’incremento dell’energia solare, ipotizzano gli scienziati, l’acqua liquida avrebbe cominciato a scorrere sulla superficie di Marte. Tuttavia, la presenza stessa dell’acqua avrebbe favorito il deposito dell’anidride carbonica nelle rocce – proprio come avviene sulla Terra – riportando così il pianeta a uno stato freddo e arido.
«A differenza della Terra, dove ci sono sempre vulcani in attività, Marte è attualmente vulcanicamente dormiente e il tasso medio di degassamento è molto basso», spiega Kite. «In queste condizioni, non si raggiunge un vero equilibrio tra l’anidride carbonica emessa e quella assorbita. Anche quando c’è un po’ d’acqua liquida, il sistema tende comunque a rimuovere anidride carbonica dall’atmosfera attraverso la formazione di carbonati».
Il gruppo di ricerca ha sviluppato modelli dettagliati che mostrano come queste oscillazioni climatiche potrebbero verificarsi su Marte. Secondo le simulazioni, il pianeta attraverserebbe brevi periodi in cui l’acqua liquida è presente in superficie, intervallati da lunghi periodi desertici della durata di circa 100 milioni di anni. È superfluo dire che un intervallo di abitabilità così breve rappresenta una condizione sfavorevole per lo sviluppo e la sopravvivenza della vita.
La spiegazione, come si diceva prima, è stata resa possibile grazie alla scoperta di rocce ricche di carbonato sulla superficie di Marte da parte del rover Curiosity. Si trattava di un tassello mancante del puzzle da anni, hanno spiegato gli scienziati. Perché ci fosse acqua liquida, Marte doveva un tempo possedere un’atmosfera più densa, ricca di gas serra come l’anidride carbonica. Ma oggi l’atmosfera è estremamente rarefatta, il che lascia aperto il mistero: dove è finito tutto quel carbonio? «Da anni cercavamo una tomba per l’atmosfera», afferma Kite.
La spiegazione più semplice è che il carbonio sia stato assorbito dalle rocce, come accade sulla Terra. Tuttavia, i primi test effettuati dal rover non avevano rilevato alcuna traccia significativa di rocce ricche di carbonato. È stato necessario il lungo viaggio di Curiosity fino al Monte Sharp, per individuare finalmente questi depositi carbonatici. Ora, i prossimi test aiuteranno a capire se il carbonato è effettivamente diffuso su larga scala, come ipotizzano i ricercatori.
Per saperne di più:
- Leggi su Nature l’articolo “Carbonate formation and fluctuating habitability on Mars” di Edwin S. Kite, Benjamin M. Tutolo, Madison L. Turner, Heather B. Franz, David G. Burtt, Thomas F. Bristow, Woodward W. Fischer, Ralph E. Milliken, Abigail A. Fraeman & Daniel Y. Zhou
Michela Imblack, per studiare i buchi neri intermedi
Michela Mapelli è stata ricercatrice presso l’Inaf dal 2011 al 2017, poi prof.ssa ordinaria a tempo determinato presso l’Università di Innsbruck (2017-2018) e prof.ssa associata presso l’Università di Padova (2018-2023). Dal 2023 è prof.ssa di Fisica Computazionale nel programma d’eccellenza tedesco Structures e fa parte dell’Istituto di Astrofisica Teorica dell’Università di Heidelberg e dell’Interdisciplinary Center for Scientific Computing.
Si può dire che sia cresciuta a pane e buchi neri Michela Mapelli, l’astrofisica italiana che da poco ha vinto l’Erc Advanced Grant, il finanziamento più cospicuo e importante della categoria Erc. Dopo aver vinto il premio Merac come miglior ricercatrice all’inizio della carriera nel 2015 e un Erc Consolidator Grant sui buchi neri nel 2017, la scienziata del nero ne ha fatto quasi uno stile di vita: «Una volta ho ricevuto questo commento: “ti vesti sempre di nero, studi buchi neri, sei quasi sempre di umore nero… ma un po’ di colori nella vita no?”. In realtà il mio colore preferito è il rosso, ma da ex-pittrice dilettante so che va usato con parsimonia. La camicia bianca della foto è perché per le interview (Erc, o altre) e gli eventi ufficiali il dress code consiglia il bianco».
Media Inaf l’ha raggiunta in bilico fra un trasloco e una conferenza, per intervistarla sul suo nuovo progetto Imblack, che vuole studiare i buchi neri di massa intermedia per colmare un vero e proprio “buco” di conoscenze nel mondo astrofisico.
Per tanti anni i buchi neri di massa intermedia – Imbh, più massicci di quelli stellari, meno di quelli supermassicci al centro delle galassie – sono stati “inafferrabili” per le survey elettromagnetiche, con candidati incerti e controversi. Il 21 maggio 2019 gli interferometri Ligo e Virgo hanno rilevato il primo Imbh tramite osservazioni di onde gravitazionali: GW190521, un evento di fusione tra due buchi neri in cui il prodotto della fusione ha una massa di circa 142 masse solari, superando così la soglia critica oltre la quale un buco nero viene classificato come di massa intermedia. A questo evento ne sono seguiti altri, e anche gli osservatori elettromagnetici stanno finalmente vedendo nuovi candidati – come, ad esempio, il buco nero di più di 8mila masse solari al centro dell’ammasso globulare Omega Centauri.
Gli astrofisici sostengono che nel prossimo decennio la nostra conoscenza dei buchi neri di massa intermedia farà un salto di qualità: questi oggetti sono infatti fra gli obiettivi principali degli osservatori di onde gravitazionali di prossima generazione, terrestri (Einstein Telescope, Cosmic Explorer) e spaziali (Lisa, TianQin). Dal punto di vista della conoscenza teorica, invece, arriva il progetto Imblack: «Ho saputo del finanziamento il 2 giugno, molto tardi rispetto all’interview (che è stata il 19 marzo). Non sono riuscita a festeggiare perché ero troppo su di giri: tipo Forrest Gump, sono dovuta andare a farmi una lunga corsa/camminata per scaricare la tensione. Ho festeggiato con alcuni amici colleghi il giorno della press release (il 17 giugno) in un deposito degli autobus prima e poi in un ristorante indiano a Seoul».
Mapelli, i complimenti, per lei, sono doppi: è il secondo ERC che vince. Se lo aspettava?
«No, per niente. Tanto è stata spensierata e leggera la vittoria del primo Erc (di tipo consolidator, nel 2017), quanto sono state sofferte la scrittura e la preparazione dell’interview questa volta. Penso che nel 2017 ero semplicemente giovane e stupida. Questa volta per farmi coraggio mi sono stampata e appesa in ufficio una copia del diagramma di Dunning-Kruger. Ho anche sofferto di sindrome dell’impostore recentemente. Penso sia importante scriverlo per tutti i colleghi, giovani e meno giovani, che stanno vivendo la stessa esperienza: la sindrome dell’impostore è terribile ma si può superare e ci siamo passati in tanti. È importante parlare di salute mentale in un lavoro competitivo e stressante come il nostro».
Da quanto tempo stava lavorando a questo progetto, e soprattutto a questa richiesta di finanziamento?
«Sui buchi neri di massa intermedia ci lavoro letteralmente da 22 anni, dai tempi della mia tesi di laurea. Quanto a questa richiesta di finanziamento, il primo schema del progetto l’ho buttato giù di getto sulla whiteboard dell’ufficio durante le vacanze di natale 2023, quindi circa 8 mesi prima della sottomissione».
Il progetto che lei ha proposto si chiama Imblack e riguarda i buchi neri di massa intermedia. Perché?
«I buchi neri di massa intermedia tra quelli di origine stellare e i buchi neri supermassicci sono fondamentali per capire la formazione di questi ultimi. Pressoché tutti i modelli di formazione dei buchi neri supermassicci passano attraverso la fase di massa intermedia, ma pochissimo sappiamo su questa fase. Finalmente abbiamo qualche riscontro osservativo, sia elettromagnetico che di onde gravitazionali. Il progetto farà leva su entrambi. Nel futuro gli osservatori di terza generazione per le onde gravitazionali ci daranno praticamente tutti i dati che vogliamo sui buchi neri di massa intermedia. Ma anche se avessi questi dati domani, non riuscirei a dare un’interpretazione teorica perché i modelli sono abbondantemente indietro rispetto ai dati. Imblack si propone di cambiare la situazione e di darci modelli che possano essere veramente predittivi. Genereremo un set di modelli di evoluzione di stelle molto massicce, di collisioni stellari a catena e di fusioni gerarchiche di buchi neri in ammassi stellari densi lungo la storia cosmica. Confronteremo i nuovi modelli con i dati di Ligo-Virgo-Kagra e i candidati elettromagnetici. Questo ci permetterà di porre dei limiti ai modelli e di fare predizioni per gli osservatori gravitazionali di terza generazione».
Si tratta di modelli “nuovi” nel senso che non sono mai stati proposti né esplorati?
«Ovviamente i modelli non vengono mai fuori dal nulla, siamo sempre seduti sulle spalle di giganti, che hanno costruito la teoria passo dopo passo. Però ci sono tante cose che facciamo ancora in modo veramente approssimato, al limite dell’accettabile. Per esempio le collisioni stellari. Nelle simulazioni a N-corpi di ammassi stellari le collisioni tra stelle sono simulate così: quando due particelle stellari sono troppo vicine tra di loro, le rimpiazziamo con una particella sola di massa pari più o meno alla massa totale delle due particelle, assumendo che questo sia il risultato della collisione. Non possiamo calcolare in maniera autoconsistente né la perdita di massa durante il processo di fusione né la struttura della collisione. Questo approccio, detto delle sticky sphere è veramente una semplificazione estrema e su questo approccio si basano tutti (o quasi tutti) i modelli di formazione di buchi neri di massa intermedia. Imblack farà i primi modelli idrodinamici di collisioni a catena e li completerà con modelli idrostatici intelligenti».
Il progetto Imblack mira ad acquisire informazioni sulla formazione dei buchi neri di massa intermedia. Visualizzazione artistica, realizzata con l’ausilio dell’intelligenza artificiale, utilizzando GPT4o. Crediti: Sebastian Stapelberg
Come si farà a capire quale modello di formazione è il più probabile? È possibile che ce ne sia più di uno ugualmente valido?
«È molto probabile che più di un canale sia all’opera. Per capirlo useremo modelli di statistica Bayesiana di popolazione che ci permettono di analizzare i dati combinando più modelli e cercando di capire quali sono assolutamente necessari e in che proporzioni. È un lavoro certosino, ma è tempo di farlo e abbiamo gli strumenti per farlo, grazie al lavoro del mio gruppo e dei nostri collaboratori in questi ultimi anni».
Quali sono i piani per i prossimi anni, quindi? Dove fonderà questo nuovo gruppo di ricerca per lo studio dei buchi neri di massa intermedia e quante persone verranno coinvolte?
«Dove troveremo le condizioni migliori per lavorare in un ambiente positivo e inclusivo. Dopo aver cercato di rimanere in Italia per tanti anni (anche in Inaf), ho accettato un lavoro all’Università di Heidelberg, in Germania. Qui ad Heidelberg ho avuto molti riconoscimenti per il mio lavoro e mi sento veramente welcome. Ma chissà, l’Erc è un grant che garantisce portabilità completa, e non è ancora tempo di fare piani sul dove, ma piuttosto sul chi e sul come. La mia esperienza con il consolidator grant Demoblack è che trovare le persone giuste è una chiave fondamentale per il successo: sono stata generalmente molto fortunata a trovare le persone giuste. E mando un ringraziamento allo staff dell’Inaf di Padova e dell’Università di Padova che mi hanno permesso di lavorare così bene e con tanto entusiasmo in questi anni, nonostante il covid. E ovviamente ringrazio i miei giovani collaboratori scientifici».
Dopo essere stata ricercatrice all’Inaf è diventata professoressa ad Heidelberg. Come vede il suo futuro accademico? Pensa mai di rientrare in Italia?
«Boh, per il momento sono un po’ pessimista sulla situazione italiana, purtroppo. Abbiamo sparso una frazione notevole dei nostri talenti in giro per il mondo senza prendere in cambio i talenti degli altri paesi. Se facciamo eccezione per alcuni (importanti) programmi speciali, non c’è un vero piano per creare eccellenze. Facciamo ancora leva (dirò una cosa impopolare) su misure del tipo “stabilizzazioni a pioggia” invece di puntare all’eccellenza scientifica. In confronto ad altri paesi, non abbiamo una robusta politica per il Dei (diversity, equity, inclusion) e non abbiamo una fondazione scientifica nazionale tipo la Dfg tedesca o la Fwf austriaca. Per chiudere però con una nota positiva, sono molto contenta di come si stanno muovendo i miei colleghi italiani su progetti tipo Einstein Telescope».
Su Encelado, un oceano più alcalino del previsto
Encelado è uno degli obiettivi principali nella ricerca di vita nel Sistema solare. Le osservazioni effettuate dalla sonda Cassini durante il suo tour del sistema di Saturno hanno mostrano che la piccola luna, sotto la sua pelle ghiacciata e in corrispondenza del polo Sud lunare, nasconde un vasto oceano di acqua salmastra, considerato potenzialmente abitabile.
Illustrazione dell’interno di Encelado, che mostra un oceano globale di acqua liquida situato tra il nucleo roccioso e la crosta di ghiaccio. Crediti: Jpl
Due ricercatori del Southwest Research Institute (Usa), Christopher R. Glein e Ngoc Truong, hanno ora stimato il pH di questa immensa massa d’acqua, concludendo che il suo valore è significativamente più alcalino di quanto si pensasse in precedenza. I risultati dello studio in uscita su Icarus hanno importanti implicazioni per la comprensione delle condizioni di abitabilità e della geochimica interna della luna.
Il pH (o potenziale idrogenionico) è una misura dell’acidità o basicità di una soluzione acquosa. Si tratta di un parametro geochimico importante, il cui valore influenza la presenza delle specie chimiche disciolte e la solubilità dei minerali in soluzione, nonché le reazioni che vi avvengono, incluse quelle rilevanti per sostenere il metabolismo di eventuali forme di vita.
Le precedenti stime del pH dell’oceano di Encelado si sono basate su modelli di geochimica oceanica e sull’interpretazione dei dati di Cassini. Da queste indagini, su una scala che va da zero (che indica la massima acidità) a 14 (che indica la massima alcalinità) il valore di pH risultante si aggira intorno a 8-9, dunque leggermente alcalino.
La scoperta di fosfati nei grani di ghiaccio dei pennacchi di Encelado – getti che emergono dal sottostante oceano attraverso le fratture della crosta chiamate strisce di tigre – è stata fondamentale per meglio comprendere la chimica della luna, fornendo un nuovo “strumento” per una stima più accurata del pH.
Le principali specie di fosfato in una soluzione acquosa sono l’acido fosforico H3PO4, lo ione diidrogenofosfato (H2PO4–), lo ione idrogenofosfato (HPO42-) e lo ione fosfato (PO43-). I chimici si riferiscono spesso all’insieme di queste molecole come sistema fosfato: le reazioni che comportano la loro dissociazione in acqua, partono dell’acido fosforico e culminando con l’anione fosfato. Poiché la distribuzione di queste specie chimiche dipende fortemente dal pH della soluzione, sono spesso considerate come una sorta di cartina al tornasole. Il rapporto tra lo ione idrogeno fosfato e lo ione fosfato, in particolare, è considerato un indicatore diretto del pH.
Rappresentazione artistica che mostra i processi che influenzano la composizione chimica della materia espulsa dai pennacchi della luna, proveniente dal sottostante oceano. Alcuni di questi processi, come la speciazione dei fosfati, sono descritti nello studio. Crediti: Christopher R. Glein e Ngoc Truong, 2025
Nel loro studio, Glein e Truong hanno implementato questo rapporto nei modelli geochimici, ottenendo una nuova stima del pH dell’oceano di Encelado. I risultati della ricerca hanno rivelato un pH della massa d’acqua sotto-superficiale compreso tra 10.1 e 11.6, un valore più alcalino di quello precedentemente calcolato.
Poiché questa stima tiene conto dati relativi ai pennacchi di Encelado, i ricercatori si sono chiesti se tale valore rappresenti davvero il pH dell’oceano profondo o solo quello delle goccioline espulse dalle strisce di tigre con i pennacchi. È possibile infatti che il pH dell’oceano sia in realtà diverso, intervenendo qualche processo a modificarlo. In effetti, spiegano i ricercatori, un processo che potrebbe aumentare il pH dell’oceano di Encelado c’è, ed avviene anche sulla Terra. Si tratta del degassamento dell’anidride carbonica disciolta (CO2).
Con il degassamento l’aumento del pH avviene perché l’anidride carbonica in acqua si comporta come un acido debole e la sua rimozione rende la soluzione più basica. Su Encelado l’acqua oceanica potrebbe degassare, portando la CO2 in prossimità della superficie e aumentando così il pH dell’oceano. E in effetti, aggiungono i ricercatori, la CO2 è uno dei principali gas rilevati nel pennacchio. Comprendere questo processo è dunque fondamentale per collegare il pH misurato nelle goccioline eruttate al reale pH delle acque più profonde dell’oceano.
Utilizzando un modello che assume un equilibrio tra i gas disciolti nell’oceano e la fase gassosa sovrastante la crosta ghiacciata della luna, i ricercatori hanno concluso che, sebbene avvenga, il processo è troppo limitato per causare aumenti significativi del pH dell’oceano, confermando che il valore stimato sulla base delle soluzioni saline del pennacchio è rappresentativo dell’acqua dell’oceano profondo.
La domanda che si sono posti a questo punto gli scienziati è cosa possa causare un pH così alcalino. L’ipotesi più probabile è una forte interazione dell’acqua con le sottostanti rocce, chimicamente molto basiche. Processi come la serpentinizzazione e l’alterazione acquosa di rocce peralcaline potrebbero essersene alla base, osservano gli scienziati.
Quanto alle implicazioni del pH per l’abitabilità, i ricercatori sottolineano che, sebbene possa influenzare aspetti rilevanti come la disponibilità di ammoniaca libera e l’abbondanza di metalli di transizione necessari per le funzioni di eventuali catalizzatori biologici, esso non preclude la possibilità di sostenere la vita: l’oceano potrebbe ancora supportare reazioni come la metanogenesi idrogenotrofa, una via biochimica attraverso la quale alcune specie di microrganismi producono metano utilizzando idrogeno e anidride carbonica come fonte di energia.
Questi risultati, concludono i ricercatori, suggeriscono una geochimica interna di Encelado più dinamica del previsto, con forti interazioni roccia-acqua e un ambiente che resta energeticamente favorevole allo sviluppo della vita. La revisione del pH motiva a riconsiderare molte ipotesi precedenti sull’abitabilità della luna, ridefinendo i criteri con cui si cercano segni di vita in ambienti oceanici extraterrestri.
Per saperne di più:
- Leggi su arXiv il preprint dell’articolo “Phosphates reveal high pH ocean water on Enceladus” di Christopher R. Glein e Ngoc Truong
Una nuova cometa interstellare
Dopo 1I/’Oumuamua e la cometa 2I/Borisov, è stata individuata una nuova cometa interstellare che si sta avvicinando al Sole. La cometa è stata scoperta dal telescopio cileno del progetto Atlas alle 05 Utc del 1 luglio 2025 quando era di magnitudine apparente +18. La scoperta non era facilissima perché, anche se luminosa, la cometa è nei fitti campi stellari della costellazione del Sagittario, in piena Via Lattea.
Nel cerchietto rosso è mostrata la cometa interstellare 3I/Atlas ripresa dal telescopio “Cassini” della Stazione Astronomica di Loiano di Inaf Oas la sera del 2 luglio 2025, bassa sull’orizzonte sud. Notare il campo stellare molto affollato. Crediti: Albino Carbognani e Manuel Barbetta
Inizialmente la cometa era considerata un asteroide, infatti è stata inserita nella Neo Confirmation Page del Minor Planet Center con la designazione A11pl3Z, immediatamente confermata da decine di altri osservatori. Le osservazioni hanno però indicato la presenza di una piccolissima coda lunga solo tre secondi d’arco che identifica il nuovo oggetto interstellare come una cometa.
Nella notte del 2 luglio è uscita la circolare Mpec 2025-N12 con il nome definitivo per la cometa: 3I/Atlas. Al momento sappiamo che questa cometa si muove su un’orbita retrograda inclinata di 175° sul piano dell’eclittica (quindi percorsa in senso orario), altamente iperbolica, con un’eccentricità di circa 6, molto superiore a quella di ‘Oumuamua e della Borisov. Un’orbita iperbolica è aperta e non chiusa su sé stessa come le orbite ellittiche che i pianeti descrivono attorno al Sole. Un’iperbole è proprio il tipo di traiettoria che ci si aspetta venga seguita da un oggetto che non appartiene al Sistema solare proveniente dallo spazio interstellare.
L’orbita iperbolica della cometa Atlas con indicata la posizione attuale nel Sistema solare. Crediti: Jpl
Nella sua invisibile fase di avvicinamento al Sole che dura da milioni di anni, la 3I/Atlas è rimasta sempre nella costellazione del Sagittario, poco a sud del piano galattico, in avvicinamento con una velocità di circa 68 km/s. Ora la cometa Atlas è poco all’interno dell’orbita di Giove a circa 4,4 unità astronomiche dal Sole e a 3,4 dalla Terra. Il perielio dell’orbita iperbolica verrà raggiunto il prossimo 29 ottobre a una distanza dal Sole di 1,34 unità astronomiche quando la cometa sfreccerà con una velocità di ben 77 km/s. La minima distanza dalla Terra verrà raggiunta invece il 19 dicembre con l’oggetto nella costellazione del Leone a una distanza di 1,8 unità astronomiche.
Peccato che non sia ancora pronta la missione Comet Interceptor congiunta fra Esa e Jaxa che, una volta lanciata e parcheggiata in L2, avrà il compito di aspettare una cometa a lungo periodo oppure una cometa interstellare per seguirla e studiarla durante il passaggio al perielio.
Pianeti che si fanno male da soli
Un pianeta artefice del proprio destino. Un pianeta che si sta praticamente rovinando da solo. Il suo nome è Hip 67522 b e orbita così vicino alla sua stella da scatenare violente esplosioni di energia, che stanno corrodendo la sua atmosfera anno dopo anno. Il primo caso finora scoperto in cui un pianeta influenza attivamente la sua stella, e non il contrario come si è sempre pensato.
Gli astronomi, utilizzando la missione Cheops dell’Agenzia Spaziale Europea, hanno individuato un esopianeta che sembra emettere esplosioni di radiazione dalla stella attorno alla quale orbita. Queste enormi esplosioni stanno spazzando via la spessa atmosfera del pianeta, causandone il restringimento anno dopo anno. L’infografica spiega questo processo. Crediti: Esa
Ma cominciamo facendo le dovute presentazioni. Protagonisti di questa storia sono una giovane stella, Hip 67522, che ha solo 17 milioni di anni – il Sole, per confronto, ne ha 4,5 miliardi. Rispetto al Sole è anche un po’ più fredda, e molto più attiva. Ruota infatti su sé stessa molto più velocemente, generando un campo magnetico molto intenso. Attorno a lei, due pianeti. Il più vicino – il cui nome ufficiale è appunto Hip 67522 b – impiega solo sette giorni per compiere un’orbita completa attorno alla stella. È grande come Giove ma ha una densità bassissima, simile allo zucchero filato. Ma la vera peculiarità, nonché la scoperta riportata in un articolo pubblicato oggi su Nature, è che muovendosi attorno alla stella, le passa così vicino da “stimolare” il suo campo magnetico. In altre parole, Hip 67522 b punzecchia la stella a ogni orbita, e come risultato viene colpito dalla sua reazione.
È dalla scoperta del primo esopianeta negli anni ’90 che gli astronomi si chiedono se alcuni di questi possano orbitare abbastanza vicino da disturbare il campo magnetico della loro stella innescando dei brillamenti. Per rispondere a questa domanda, gli autori dello studio avevano inizialmente usato il satellite Tess per individuare stelle con brillamenti potenzialmente innescati da pianeti. E quando hanno osservato Hip 67522, hanno subito sospettato di aver trovato qualcosa di interessante: Hip 67522 b è infatti il pianeta più giovane a orbitare tanto rapidamente attorno alla sua stella.
Per sapere con certezza se i brillamenti osservati fossero davvero innescati dal pianeta, però, hanno deciso di coinvolgere il telescopio spaziale Cheops, in grado di osservare singole stelle con estrema precisione. Cheops è riuscito a rilevare altri brillamenti provenienti dalla stella (15 in tutto), mentre il pianeta le transitava davanti. E proprio il fatto che i brillamenti si vedano durante il transito planetario, affermano gli autori, suggerisce che siano provocati dal pianeta stesso.
Una precisazione: il fatto che una stella emetta energia sotto forma di brillamenti non è una novità. Anche il Sole rilascia regolarmente energia sotto forma di quei fenomeni che chiamiamo “meteo spaziale”, e che possono causare aurore e danneggiare tecnologia spaziale. Ma finora si era sempre pensato che l’energia viaggiasse solo dalla stella al pianeta. Hip 67522 b, orbitando estremamente vicino, potrebbe esercitare un’influenza magnetica attiva sulla stella ospite.
Come funziona questa strana danza? Hip 67522 b, passando vicino alla stella, disturba il suo campo magnetico e genera brillamenti potentissimi – vere e proprie esplosioni di energia. I brillamenti sono diretti verso il pianeta stesso, che riceve sei volte più radiazione di quanta ne riceverebbe altrimenti. La diretta conseguenza di questa situazione è che l’irraggiamento ad alta energia sta erodendo la sua atmosfera, facendogli perdere massa a un ritmo molto più rapido del previsto. Se continuerà così, in circa 100 milioni di anni Hip 67522 b potrebbe ridursi fino a diventare simile a Nettuno.
Quello scoperto nel sistema planetario di Hip 67522 è un fenomeno completamente nuovo, teorizzato più di trent’anni fa ma mai osservato prima d’ora. La prima cosa da fare, quindi, sarà osservare altri sistemi simili per capire se questo fenomeno è comune; la seconda, proseguire con osservazioni a diverse lunghezze d’onda (Cheops riesce a osservare solo a lunghezze d’onda del visibile e del vicino infrarosso), per capire quale e quanta energia viene rilasciata e quanto possa essere dannosa per il pianeta – ad esempio ultravioletti e raggi X sarebbero particolarmente dannosi per l’esopianeta.
«Questo studio si inserisce in una linea di ricerca – quella dell’interazione magnetica tra stella e pianeta – che finora ha portato a scarsi risultati, nonostante le predizioni teoriche già da diversi anni diano indicazioni a favore», commenta Gaetano Scandariato, responsabile nazionale di Cheops e ricercatore all’Inaf di Catania. «Cheops si è rivelato un ottimo strumento in quanto ha permesso, a differenza di Tess, di programmare le osservazioni in maniera opportuna. Nello specifico, Cheops ha puntato il suo sguardo verso Hip 67522 in alcuni intervalli temporali durante i quali, estrapolando le osservazioni Tess, è stato più probabile osservare dei flare stellari. Inoltre, nonostante le sue ridotte dimensioni, Cheops permette di ottenere misure fotometriche ultra-precise, che hanno consentito agli autori dello studio di osservare un flare che sarebbe stato impossibile vedere nei dati Tess. Infine, vale la pena sottolineare la versatilità di Cheops: è uno strumento progettato principalmente per migliorare la precisione con cui misuriamo le dimensioni dei pianeti extrasolari, ciò nonostante, ha permesso anche di esplorare altri campi della fisica stellare ed esoplanetaria. L’articolo appena pubblicato su Nature ne è un esempio lampante».
Per saperne di più:
- Leggi su Nature l’articolo “Close-in planet induces flares on its host star“, di Ekaterina Ilin, Harish K. Vedantham, Katja Poppenhäger, Sanne Bloot, Joseph R. Callingham, Alexis Brandeker e Hritam Chakraborty
La materia oscura nel mirino di Webb
Il telescopio spaziale James Webb punta i suoi occhi su uno degli oggetti celesti più studiati per comprendere la materia oscura: l’Ammasso Proiettile. Situato nella costellazione della Carena, a 3,8 miliardi di anni luce dalla Terra, è il risultato della collisione avvenuta miliardi di anni fa tra due enormi ammassi di galassie. Le nuove osservazioni di Webb, condotte con la Near Infrared Camera (NIRCam), forniscono dettagli senza precedenti. Le immagini, altamente precise ed estremamente dettagliate di una porzione significativa dell’Ammasso Proiettile, hanno permesso ai ricercatori di perfezionare la mappa della massa dell’intero sistema, inclusa quella porzione invisibile nota come materia oscura, che non emette, riflette o assorbe luce.
La regione centrale del Bullet Cluster, formata da due grandi ammassi di galassie, è stata osservata dal telescopio Webb in infrarosso e da Chandra nei raggi X. Nell’immagine, le galassie e le stelle appaiono visibili, il gas caldo in rosa e la materia oscura, mappata con precisione, in blu. Crediti: Nasa, Esa, Csa, StscI, Cxc.
Tutte le galassie sono composte da stelle, gas, polvere e materia oscura, legate insieme dalla gravità. L’Ammasso del Proiettile è formato da due enormi ammassi di galassie, anch’essi legati dalla forza gravitazionale che, a loro volta, agiscono come lenti gravitazionali: amplificano e distorcono la luce proveniente dalle galassie ancora più lontane, poste sullo sfondo. Queste distorsioni offrono un potente strumento per dedurre la distribuzione della massa invisibile presente nel sistema. Per comprendere l’effetto, si può immaginare uno stagno pieno d’acqua limpida con sassolini sul fondo. Senza vento, l’acqua è invisibile, ma quando si increspa, distorce la vista dei sassolini: l’acqua agisce quindi come una lente. Nello spazio, la materia oscura gioca il ruolo dell’acqua e i sassolini rappresentano le galassie di fondo. Le distorsioni osservate permettono di mappare ciò che normalmente resta nascosto.
Nello studio, pubblicato su The Astrophysical Journal Letters, il team ha analizzato migliaia di galassie per stimare con precisione la massa complessiva – visibile e invisibile – dei due ammassi in collisione. Significativa è stata la mappatura della luce intra-cluster, cioè la luce emessa da stelle non più legate a singole galassie, che si sono rivelate ottimi traccianti della distribuzione di materia oscura.
Le immagini di Webb sono state combinate con i dati dell’osservatorio a raggi X Chandra della Nasa. Il gas caldo è visibile in rosa, mentre la materia oscura, invisibile agli strumenti tradizionali, è stata mappata grazie alla lente gravitazionale ed è rappresentata in blu. L’analisi rivela una struttura allungata e asimmetrica nell’ammasso di sinistra, un possibile indizio di più collisioni successive avvenute nella storia del sistema. Uno dei risultati più significativi riguarda il comportamento della materia oscura durante la collisione: se questa interagisse con sé stessa, si osserverebbe uno scostamento tra la posizione delle galassie e quella della loro massa invisibile associata. Invece, le osservazioni indicano che la materia oscura interagisce solo gravitazionalmente, restringendo ulteriormente il campo delle ipotesi teoriche sulla sua natura.
Il sistema è talmente esteso che le immagini di Webb ne mostrano solo una parte. Nel prossimo futuro, i ricercatori avranno a disposizione immagini ancora più ampie nel vicino infrarosso, grazie al telescopio spaziale Nancy Grace Roman della Nasa, il cui lancio è previsto entro maggio 2027.
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “A High-Caliber View of the Bullet Cluster through JWST Strong and Weak Lensing Analyses“, di S. Cha, B. Y. Cho, H. Joo, W.Lee, K. HyeongHan, Z. P. Scofield, K. Finner, e M. James Jee
Levitazione magnetica per la materia oscura
Apparato sperimentale usato per svolgere lo studio della materia oscura. Crediti: Rice University
La materia oscura, il mistero nascosto ai nostri occhi che potrebbe costituire la gran parte della massa totale dell’universo. E se ci fossero delle nuove tecniche per svelarne i segreti? È la domanda che si sono posti Christopher Tunnell e Dorian Amaral della Rice University (Stati Uniti). I due fisici hanno messo a punto un esperimento che per la prima volta consente la ricerca diretta di materia oscura ultra leggera utilizzando una particella a levitazione magnetica. La materia oscura super leggera, ovvero con la minima massa teorizzata per la materia oscura, potrebbe comportarsi come un’onda continua, un’onda che può esercitare forze ritmiche rilevabili solo attraverso strumentazione quantistica ultra sensibile.
In collaborazione con fisici della Leiden University, il team di Amaral e Tunnell ha sospeso un microscopico magnete di neodimio all’interno di un involucro superconduttore raffreddato a temperature prossime allo zero assoluto. La configurazione dell’esperimento è stata progettata per rilevare sottili oscillazioni che si ritiene siano causate dalle onde di materia oscura che attraversano la Terra. L’esperimento si concentra sulla rilevazione, in una banda di frequenza ristretta intorno a 26.7 Hz, delle forze derivanti dalle interazioni della materia oscura che differiscono in base ai numeri barionici e leptonici, numeri quantici conservati nella fisica delle particelle che rimangono costanti nelle interazioni tra particelle, all’interno di un modello teorico noto come B−L.
I ricercatori hanno monitorato il magnete levitato con incredibile precisione, utilizzando sensori in grado di rilevare movimenti inferiori al diametro di un atomo di idrogeno. Nonostante la sensibilità dell’apparato, in grado di rilevare forze paragonabili al peso di un singolo virus, non sono state trovate prove del segnale previsto. Tuttavia, questo risultato ha permesso ai fisici di escludere un’interazione specifica tra materia oscura e materia ordinaria. «Ogni volta che non troviamo materia oscura, perfezioniamo la mappa. È come cercare una chiave persa in casa: quando non la trovi in un posto, sai che devi cercarla altrove», dice Tunnell.
Sulla base di queste scoperte, il team di ricerca ha proposto un esperimento di nuova generazione volto a migliorare la sensibilità delle rilevazioni e ad ampliare la ricerca sulla materia oscura. Lo hanno chiamato Polonaise (Probing Oscillations using Levitated Objects for Novel Accelerometry In Searches of Exotic physics), in omaggio alla danza tradizionale polacca nella quale i due autori si cimentarono in occasione di una protesta per il clima, quando s’incontrarono e realizzarono che questa misurazione era possibile. La nuova configurazione incorporerà magneti più pesanti, una levitazione più stabile e una copertura di frequenza più ampia. L’esperimento è progettato per sondare aree del panorama teorico che gli attuali rilevatori non hanno ancora esplorato, cercando di identificare forze ultra deboli negli ambienti il più possibile indisturbati.
«Il nostro futuro equipaggiamento non solo ascolterà più attentamente, ma sarà anche ottimizzato per sentire cose che non abbiamo mai nemmeno provato ad ascoltare», promette Tunnell. E Amaral aggiunge: «Non stiamo solo testando una teoria, stiamo gettando le basi per un’intera classe di misurazioni. La levitazione magnetica ci fornisce uno strumento fondamentalmente nuovo per porre all’universo grandi domande».
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “First Search for Ultralight Dark Matter Using a Magnetically Levitated Particle”, di Dorian W. P. Amaral, Dennis G. Uitenbroek, Tjerk H. Oosterkamp e Christopher D. Tunnell
Venere svelata da due satelliti meteo
L’atmosfera di Venere è tra le più estreme del Sistema solare: è incredibilmente densa, esercita una pressione al suolo 92 volte superiore a quella terrestre ed è avvolta da nubi di acido solforico. Similmente a quella terrestre, questo spesso strato di gas mostra cambiamenti a lungo termine della temperatura, soprattutto nei suoi strati superiori. Lo studio di tali variazioni è fondamentale per comprendere le dinamiche della circolazione atmosferica e i fenomeni a essa strettamente correlati. Utilizzando due satelliti meteorologici giapponesi, un team di scienziati dell’Università di Tokyo è riuscito a monitorare queste variazioni, stimando la temperatura delle nubi su scale di giorni e anni. I risultati della ricerca sono stati pubblicati di recente sulla rivista Earth, Planets and Space.
Venere vista dai satelliti Himawari. L’immagine mostra il pianeta così come osservato dai satelliti metereologici. Utilizzando i dati degli imager a bordo, i ricercatori sono riusciti a ottenere informazioni sulla sua atmosfera. Crediti: Nishiyama et al., 2025
I satelliti in questione sono Himawari-8 e Himawari-9. Lanciati rispettivamente nel 2014 e nel 2016, i due veicoli spaziali sono stati sviluppati e messi in orbita per monitorare fenomeni atmosferici globali della Terra grazie ai loro advanced himawari imager, strumenti in grado di acquisire immagini nel medio infrarosso dell’intero disco terrestre a intervalli di 10 minuti. Sebbene progettati principalmente per l’osservazione meteorologica terrestre, questi satelliti hanno tuttavia un raggio d’azione che include anche lo spazio adiacente alla Terra, riuscendo occasionalmente a catturare immagini della Luna, di pianeti e stelle.
Tra il 2015 e il 2025, per pura coincidenza, i due satelliti hanno più volte immortalato Venere vicino al bordo terrestre. Il team di ricerca guidato dallo scienziato Gaku Nishiyama ha colto questa opportunità, utilizzando le immagini per studiare l’atmosfera superiore del pianeta.
Per ottenere informazioni sui cambiamenti a lungo termine della temperatura dell’atmosfera venusiana, i ricercatori hanno innanzitutto creato un archivio di dati estraendo dai dataset raccolti dai due satelliti tutte le immagini che ritraevano Venere. Esaminando l’archivio, Nishiyama e colleghi hanno trovato un totale di 437 occorrenze, ossia 437 immagini in cui Venere appariva dietro la Terra come un puntino sullo sfondo.
Tenendo conto del rumore di fondo, hanno quindi stimato la radianza di Venere – una misura della quantità di energia luminosa emessa da un corpo celeste. Successivamente, sulla base di questa misura, hanno calcolato la cosiddetta temperatura di brillanza, ovvero la temperatura del corpo celeste corrispondente alla radiazione emessa. In questo modo sono riusciti a tracciare la variazione temporale della temperatura delle nubi durante i periodi in cui il pianeta, la Terra e il satellite geostazionario si trovavano allineati. I valori ottenuti sono stati infine analizzati su scala giornaliera e annuale e confrontati tra loro per studiare la variabilità di due fenomeni atmosferici: le maree termiche – movimenti di masse d’aria provocate dal riscaldamento dell’atmosfera da parte del Sole – e le onde su scala planetaria o onde di Rossby – perturbazioni atmosferiche risultanti dalla rotazione planetaria.
Grafico che mostra le variazioni della temperatura di Venere dal 2016 al 2025. Crediti: Nishiyama et al, 2025
Su scala annuale, i risultati delle indagini hanno rivelato una significativa variazione temporale della temperatura di brillanza a varie ore locali dal 2015 a oggi, in particolare sul lato diurno di Venere, suggerendo un cambiamento nelle ampiezze delle maree termiche diurne. Secondo i ricercatori, queste variazioni potrebbero essere correlate a cambiamenti nella stabilità dell’atmosfera venusiana e potenzialmente a variazioni dell’albedo e della velocità del vento negli strati alti dell’atmosfera. Su scala giornaliera, invece, lo studio ha rivelato una diminuzione dell’ampiezza delle onde di Rossby nel tempo e con l’aumentare dell’altitudine, con le ampiezze più basse osservate oltre i 68 chilometri.
Questi risultati dimostrano che i satelliti meteorologici possono fungere da occhi aggiuntivi per accedere all’atmosfera venusiana dallo spazio e integrare le future osservazioni da Terra e dallo spazio, sottolineano i ricercatori. L’utilizzo di questi set di dati migliorerà la nostra capacità di monitorare le temperature di Venere nel tempo, contribuendo a una comprensione più approfondita dei complessi processi che si verificano nell’atmosfera del pianeta.
«Credo che il nostro approccio abbia aperto con successo una nuova strada per il monitoraggio a lungo termine e multibanda dei corpi del Sistema solare», conclude Nishiyama. «La prospettiva di poter accedere a un’ampia gamma di condizioni geometriche, svincolata dalle limitazioni delle osservazioni da Terra, è chiaramente entusiasmante. Ci auguriamo che questo studio ci permetta di valutare le proprietà fisiche e compositive, così come la dinamica atmosferica, del pianeta, e di contribuire a una comprensione più approfondita dell’evoluzione planetaria in generale».
Per saperne di più:
- Leggi su Earth, Planets and Space l’articolo “Temporal variation in the cloud-top temperature of Venus revealed by meteorological satellites” di Gaku Nishiyama, Yudai Suzuki, Shinsuke Uno, Shohei Aoki, Tatsuro Iwanaka, Takeshi Imamura, Yuka Fujii, Thomas G. Müller, Makoto Taguchi, Toru Kouyama, Océane Barraud, Mario D’Amore, Jörn Helbert, Solmaz Adeli, Harald Hiesinger
La supernova che esplose due volte
Ottenuta per la prima volta la prova visiva di una stella che ha incontrato la propria fine con una doppia esplosione. Studiando i resti secolari della supernova Snr 0509-67.5 con il Vlt (Very Large Telescope) dell’Eso (Osservatorio Europeo Australe), hanno trovato strutture che confermano come la stella abbia subito un paio di forti esplosioni. Pubblicata oggi, questa scoperta mostra sotto una nuova luce alcune delle esplosioni più importanti dell’universo.
Questa immagine, scattata con il Very Large Telescope (Vlt) dell’Eso, mostra il resto della supernova Snr 0509-67.5. Si tratta dei resti in espansione di una stella esplosa centinaia di anni fa in una doppia detonazione – la prima prova fotografica che le stelle possono morire con due esplosioni. I dati sono stati acquisiti con lo strumento Multi-Unit Spectroscopic Explorer (Muse) del Vlt. Muse consente agli astronomi di mappare la distribuzione di diversi elementi chimici, qui visualizzati in colori diversi. Il calcio è rappresentato in blu ed è disposto in due gusci concentrici. Questi due strati indicano che la stella ormai morta è esplosa con una doppia detonazione. Crediti: Eso
La maggior parte delle supernove risulta dalla morte esplosiva di stelle massicce, ma una varietà importante ha origine da oggetti poco appariscenti. Le nane bianche, piccoli nuclei stellari inattivi rimasti dopo che stelle come il Sole hanno esaurito il combustibile nucleare, possono produrre quella che gli astronomi chiamano supernova di tipo Ia.
«Le esplosioni delle nane bianche svolgono un ruolo cruciale in astronomia», spiega Priyam Das, dottorando all’Università del Nuovo Galles del Sud a Canberra, in Australia, a capo dello studio su Snr 0509-67.5 pubblicato oggi su Nature Astronomy. Gran parte della nostra conoscenza sull’espansione dell’universo si basa sulle supernove di tipo Ia, che rappresentano anche la principale fonte di ferro sul nostro pianeta, compreso il ferro presente nel nostro sangue. «Eppure, nonostante la loro importanza», aggiunge Das, «l’annoso enigma dell’esatto meccanismo che ne innesca l’esplosione rimane irrisolto».
Tutti i modelli che spiegano le supernove di tipo Ia partono da una nana bianca in una coppia di stelle. Se le stelle in orbita sono abbastanza vicine, la nana bianca può rubare materiale alla compagna. Nella teoria più consolidata sull’origine delle supernove di tipo Ia, la nana bianca accumula materia dalla compagna fino a raggiungere una massa critica, punto in cui si verifica una singola esplosione. Tuttavia, studi recenti hanno suggerito che almeno alcune supernove di tipo Ia potrebbero essere spiegate meglio da una doppia esplosione, innescata prima che la stella abbia raggiunto questa massa critica.
Ora, alcuni astronomi hanno catturato una nuova immagine che dimostra come l’intuizione fosse corretta: almeno alcune supernove di tipo Ia esplodono attraverso un meccanismo di “doppia detonazione”. In questo modello alternativo, la nana bianca forma attorno a sé una coltre di elio, rubato alla compagna, che può diventare instabile e incendiarsi. Questa prima esplosione genera un’onda d’urto che si muove intorno alla nana bianca e verso l’interno, innescando una seconda detonazione nel nucleo della stella, che infine crea la supernova.
Finora, non c’erano prove chiare e visive di una nana bianca con una doppia detonazione. Recentemente, alcuni astronomi hanno previsto che questo processo avrebbe creato un disegno distintivo – una sorta d’impronta digitale – nei resti ancora luminosi della supernova, visibile molto tempo dopo l’esplosione iniziale. La ricerca suggerisce che i resti di una tale supernova dovrebbero contenere due diversi gusci di calcio.
Rappresentazione artistica del resto di supernova Snr 0509-67,5. Le osservazioni del Very Large Telescope (Vlt) dell’Eso mostrano che si tratta dei resti in espansione di una stella morta con una doppia detonazione centinaia di anni fa. Crediti: Eso
E ora hanno trovato questa impronta digitale nei resti di una supernova. Ivo Seitenzahl, che ha guidato le osservazioni e che, al momento dello studio, lavorava presso l’Istituto tedesco di studi teorici di Heidelberg, afferma che questi risultati mostrano «una chiara indicazione che le nane bianche possono esplodere ben prima di raggiungere il famoso limite di massa di Chandrasekhar e che il meccanismo della “doppia detonazione” si verifica effettivamente in natura». L’equipe ha identificato gli strati di calcio (in blu nell’immagine) nel resto di supernova Snr 0509-67.5 osservandolo con lo strumento Muse (Multi Unit Spectroscopic Explorer) installato sul Vlt dell’Eso. Ciò fornisce una solida prova che una supernova di tipo Ia può verificarsi prima che la nana bianca raggiunga la massa critica.
Le supernove di tipo Ia sono fondamentali per la nostra comprensione dell’universo. Si comportano in modo molto coerente e la loro luminosità prevedibile, a prescindere dalla distanza, aiuta gli astronomi a misurare le distanze nello spazio. Utilizzandole come metro di misura cosmico, gli astronomi hanno scoperto l’accelerazione dell’espansione dell’universo, una scoperta che è valsa il premio Nobel per la fisica nel 2011. Studiare come esplodono ci aiuta a capire perché hanno una luminosità così prevedibile.
Das cita un’ulteriore motivazione per studiare queste esplosioni. «Questa prova tangibile di una doppia detonazione non solo contribuisce a risolvere un mistero di lunga data, ma offre anche uno spettacolo visivo», dice, descrivendo la «struttura splendidamente stratificata» che una supernova può creare. Per lui, «svelare il meccanismo che produce un’esplosione cosmica così spettacolare è incredibilmente gratificante».
Fonte: press release Eso
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “MUSE observations that affirm the path to detonation of a Type Ia supernova in a supernova”, di Priyam Das, Ivo R. Seitenzahl, Ashley J. Ruiter, Friedrich K. Röpke, Rüdiger Pakmor, Frédéric P. A. Vogt, Christine E. Collins, Parviz Ghavamian, Stuart A. Sim, Brian J. Williams, Stefan Taubenberger, J. Martin Laming, Janette Suherli, Ralph Sutherland e Nicolas R. Segovia
Guarda l’animazione (in inglese) sul canale YouTube dell’Eso:
Ska-Low, la prima pulsar non si scorda mai
Dopo la prima immagine arrivata lo scorso marzo, proseguono i test di collaudo (commissioning, in inglese) del radiotelescopio Ska-Low, attualmente in fase di costruzione in Australia. Operando in modalità interferometrica – ossia come un unico telescopio – le prime quattro stazioni di antenne a bassa frequenza hanno da poco catturato il loro primo segnale proveniente da una pulsar. Nome in codice: Psr J0835-4510, meglio nota come la pulsar della Vela. Si tratta di una delle sorgenti più brillanti e vicine alla Terra di questo tipo e situata nella costellazione meridionale delle Vele. Un oggetto ben conosciuto dagli astronomi, perfetto per testare l’efficacia del nascente Osservatorio Ska (Skao), che una volta terminato sarà il più grande radiotelescopio al mondo, con migliaia di antenne log-periodiche in Australia occidentale e centinaia di antenne a parabola in Sudafrica.
media.inaf.it/wp-content/uploa…
Tra gli oggetti più estremi dell’universo, le pulsar sono stelle di neutroni super compatte – immaginate un oggetto che starebbe dentro una sfera grande quanto il grande raccordo anulare di Roma. Ruotando vorticosamente, emettono un fascio di onde radio che investe l’osservatore a ogni rotazione, come un faro… ma nel cosmo. Quando questi segnali incrociano la Terra durante la loro rotazione, la stella di neutroni diventa visibile come una sorgente radio pulsante e quindi osservabile dai telescopi. Il loro ritmo incredibilmente regolare le rende dei veri e propri “orologi cosmici”, utili per una vasta gamma di esperimenti, come la ricerca di onde gravitazionali o i test della relatività di Einstein.
La pulsar della Vela, formatasi circa 12mila anni fa in seguito dell’esplosione di una supernova di tipo II, è una stella di neutroni che ruota su sé stessa fino a 11 volte al secondo, emettendo impulsi radio regolari ogni 89 millisecondi. A oltre 950 anni luce dal Sole, la pulsar della Vela è l’oggetto persistente più luminoso nel cielo dei raggi gamma ad alta energia.
Per fare il punto sullo stato di costruzione e sul collaudo del radiotelescopio Ska-Low e per capire l’importanza di osservazioni come quella della pulsar Vela, Media Inaf ha intervistato Giulia Macario, Ska-Low commissioning scientist in Australia e associata presso l’Inaf di Arcetri.
Giulia Macario, Ska-Low commissioning scientist, di fronte a una delle stazioni del radiotelescopio australiano Ska-Low dell’Osservatorio Ska. Il commissioning è una fase cruciale del progetto: serve a mettere a punto la sensibilità e il corretto funzionamento del telescopio, che sarà operativo per la comunità scientifica a partire dal 2027. Attualmente, nel sito australiano di Skao sono già state installate oltre 6.400 antenne, pari a circa il 5 per cento della configurazione finale, che prevede 131.072 antenne distribuite su un’area di 74 km. I componenti del telescopio arrivano da vari Paesi: le antenne e le schede di elaborazione vengono prodotte in Italia, mentre i sistemi di amplificazione sono forniti dal Regno Unito.
Macario, osservare la pulsar della Vela con le prime quattro stazioni di Ska-Low è considerato un traguardo importante per il vostro team. Perché?
«Le pulsar sono stelle di neutroni rotanti e magnetizzate che emettono luce in tutto lo spettro elettromagnetico, e sono particolarmente brillanti alle basse frequenze radio. Sono state scoperte proprio con radiotelescopi a bassa frequenza. La scoperta, attribuita alla celebre astronoma Jocelyn Bell nel 1967, avvenne a 81.5 MHz e le prime osservazioni di questi oggetti sono state realizzate con radiotelescopi operanti a bassa frequenza. Ska-Low rivoluzionerà lo studio delle pulsar, perché sarà capace di osservarne e scoprirne moltissime in grande dettaglio, specialmente nell’emisfero australe. L’alta luminosità e la vicinanza della pulsar della Vela ne fanno una sorgente ideale per i primi test osservativi di Ska-Low. Negli ultimi 18 mesi, abbiamo già osservato e analizzato dati di circa 50 pulsar ottenuti con le singole stazioni. Ognuna di queste osservazioni permette di verificare che la sensibilità di ogni stazione di Ska-Low sia in accordo con quella prevista dalle simulazioni elettromagnetiche. La detezione di questa pulsar è particolarmente significativa perché rappresenta la prima vera e propria osservazione interferometrica di una pulsar con Array Assembly 0.5 (Aa0.5), la prima versione dell’intero telescopio Ska-Low attualmente in fase di commissioning (quattro stazioni Ska-Low nel ramo sud del telescopio, separate da una massima distanza di poco meno di 6 chilometri)».
Qual è il significato tecnico di questa rilevazione?
«Ska-Low è uno strumento incredibilmente complesso e questi test, sia utilizzando le singole stazioni indipendentemente che tutte insieme in modalità interferometrica, sono essenziali per verificare che l’intero il sistema e la sequenza di processi funzionino come atteso – dalla preparazione dell’osservazione, alla prima ricezione del segnale, fino alla post-elaborazione dei dati ottenuti. È un traguardo molto importante per il team e per Skao. Ed è affascinante pensare che il popolo Wajarri possa aver osservato a occhio nudo l’esplosione della supernova progenitrice della pulsar Vela, giorno e notte, circa 12mila anni fa».
Qual è il valore scientifico del vostro risultato?
«Le pulsar rappresentano laboratori astrofisici fondamentali per testare la relatività generale e la fisica della materia a densità estreme. La sensibilità senza precedenti raggiungibile con Ska-Low, insieme alla rapidità con cui il telescopio sarà capace di osservare diverse e ampie regioni di cielo (quasi in tempo reale) consentiranno studi in questo ambito a un livello di dettaglio impossibile da raggiungere con altri telescopi. Lo studio delle pulsar è uno degli obiettivi scientifici principali di Ska-Low. I progressi ottenuti dal team di commissioning, sia utilizzando le singole stazioni che l’intero array, sono largamente basati su risultati e conoscenze tecniche precedentemente acquisite con il Murchison Widefield Arraye con le stazioni prototipo del radiotelescopio australiano. L’osservazione interferometrica della pulsar della Vela con tutte e quattro le stazioni di Aa0.5 è particolarmente importante perché è una prima verifica delle capacità dell’intero sistema di catturare il segnale di una pulsar in modalità interferometrica. Una vera e propria prima luce del telescopio in modalità non-imaging, tanto importante quanto la sua prima immagine interferometrica arrivata lo scorso marzo».
media.inaf.it/wp-content/uploa…
Dal punto di vista tecnico, quali altri aspetti state testando?
«Queste osservazioni sono fondamentali non solo per testare la sensibilità delle sue singole stazioni, confrontando i risultati con dati provenienti da altri radiotelescopi e dalla letteratura, ma anche per verificare le capacità del cosiddetto sistema di beamforming del telescopio. Saremo in grado, inoltre, di contribuire alla individuazione e risoluzione di eventuali problematiche del sistema, nei vari livelli del complesso percorso che il segnale radioastronomico compie prima di poter essere analizzato».
Quali sono i prossimi passi nei test?
«Il prossimo obiettivo della costruzione e del commissioning di Ska-Low si chiama Array Assembly 1 (Aa1). È la seconda fase del progetto, in cui l’interferometro sarà composto da ben 16 stazioni (oltre 4.600 antenne) nei tre gruppi di antenne del ramo sud – circa il 3.5 per cento di quello che sarà il telescopio completo. Le antenne sono già state installate e Aa1 sarà pronto per i primi test entro la fine di questo mese».
Quali osservazioni avete in programma?
«Il team osserverà quotidianamente sia la pulsar della Vela che altre pulsar, per testare in modo sistematico le capacità di pulsar timing in vista della cosiddetta fase di science verification, che avrà inizio con l’Array Assembly 2 (AA2) nel 2027.I test del team di collaudo scientifico sono numerosi, per verificare svariati aspetti del sistema. Oltre alle osservazioni delle pulsar, è attualmente in corso una campagna di osservazioni di calibratori (sorgenti radio brillanti, tipicamente extragalattiche, selezionate dal catalogo Mwa Gleam). Queste serviranno a costruire modelli di cielo sempre più accurati man mano che il telescopio diventa più esteso, e quindi sensibile e con maggiore risoluzione angolare. I dati acquisiti sono anche fondamentali per contribuire allo sviluppo e alla messa a punto delle SKA-Low Science Data Pipelines per il processamento dei dati di Ska-Low, dal dato grezzo fino ai prodotti utili alla comunità astronomica, nonché ad affinare le tecniche di calibrazione e imaging. Nuove e stimolanti sfide si presenteranno nei prossimi mesi, ma anche entusiasmanti risultati».
In che modo Ska-Low aiuterà la comunità scientifica a studiare fenomeni estremi come i buchi neri o le onde gravitazionali, e perché questo telescopio sarà unico al mondo per questo tipo di studi?
«Ska-Low sarà così sensibile da essere in grado di rilevare segnali radio a bassa frequenza che nessun altro radiotelescopio riesce a captare. Permetterà di osservare regioni attorno ai buchi neri, seguire e monitorare gli effetti degli eventi delle onde gravitazionali, studiare le grandi strutture cosmiche in gran dettaglio. È questo che rende Ska-Low unico: la sua sensibilità senza precedenti nella banda di frequenze 50-350 MHz, oltre alla sua flessibilità e capacità di esplorare il cielo molto rapidamente. Ska-Low sarà in grado di cronometrare le pulsar al millisecondo con una precisione superiore a un decimilionesimo di secondo, permettendo di rilevare ritardi minimi nei segnali causati dal passaggio di onde gravitazionali. Cronometrando con precisione una rete di pulsar distribuite nella Via Lattea, Ska-Low diventerà un vero e proprio osservatorio galattico di onde gravitazionali, aprendo una nuova finestra sull’universo».
L’evoluzione dei dischi galattici osservata da Webb
Molte galassie, compresa la nostra, presentano un disco stellare piatto, esteso e in rotazione. Queste galassie a disco sono solitamente composte da due componenti principali: un disco sottile e uno spesso. Il disco sottile ospita stelle più giovani e ricche di metalli, mentre il disco spesso è popolato da stelle più antiche e povere di metalli. Queste due componenti rappresentano una sorta di archivio fossile, che conserva preziose informazioni sull’evoluzione galattica: ci aiutano a comprendere come le galassie formino nuove stelle, accumulino elementi fondamentali per la vita, come l’ossigeno e il carbonio, e si trasformino nel tempo fino ad assumere le forme che osserviamo oggi.
Fino a poco tempo fa, i dischi sottili e spessi erano stati identificati solo nella Via Lattea e in alcune galassie vicine. Distinguere la sottile struttura di una galassia lontana vista di taglio era semplicemente impossibile. Tutto è cambiato nel 2021 con il lancio del James Webb Space Telescope (Jwst), il più grande e potente telescopio spaziale attualmente in funzione.
Un team internazionale di ricercatori ha analizzato 111 immagini ottenute dal Jwst, raffiguranti galassie lontane viste di taglio. Questo particolare allineamento ha reso possibile osservare le strutture verticali dei dischi galattici. Takafumi Tsukui, dell’Università di Tohoku e a capo del gruppo di ricerca, ha spiegato che osservare galassie così distanti equivale a utilizzare una macchina del tempo: ci consente di studiare come le galassie abbiano costruito i loro dischi nel corso della storia dell’universo. «Grazie alla straordinaria nitidezza del Jwst», dice Tsukui, «siamo riusciti a identificare dischi sottili e spessi in galassie ben al di fuori del nostro universo locale, alcune delle quali risalgono fino a 10 miliardi di anni fa».
Le immagini illustrano la formazione sequenziale del disco rivelata in questo studio: le galassie con solo un disco spesso dominano le epoche primordiali (pannello inferiore), mentre le galassie che presentano sia dischi sottili che spessi appaiono più comunemente nelle epoche successive dell’universo (pannello superiore). Crediti: Nasa, Esa, Csa, T. Tsukui
Lo studio ha messo in luce una tendenza costante: nell’universo primordiale, molte galassie sembrano aver posseduto un unico disco spesso, mentre nelle epoche successive è emersa con maggiore frequenza una struttura a doppio strato, con l’aggiunta di un disco sottile. Questo indica che, nel corso dell’evoluzione cosmica, le galassie avrebbero inizialmente formato un disco spesso, seguito dalla comparsa del disco sottile al suo interno. Tuttavia, nelle galassie più massicce, il disco sottile sembra essersi formato prima, suggerendo un’evoluzione più complessa e probabilmente legata alla loro maggiore capacità di accrescere materia e formare stelle in tempi più rapidi.
Secondo lo studio, le galassie delle dimensioni della Via Lattea avrebbero iniziato a formare il loro disco sottile circa 8 miliardi di anni fa. Questa stima è coerente con le cronologie ricostruite per la nostra stessa galassia, in cui è possibile determinare l’età delle stelle e tracciare con precisione le fasi della sua evoluzione.
Per ricostruire la sequenza di formazione, dal disco spesso a quello sottile, e le relative linee temporali, il team non si è limitato ad analizzare la distribuzione delle stelle, ma ha anche studiato il moto del gas – la materia prima da cui si formano le stelle – utilizzando i dati dell’Atacama Large Millimeter/ submillimeter Array (Alma), oltre a confrontarsi con osservazioni terrestri già presenti in letteratura. L’insieme di queste informazioni ha contribuito a delineare uno scenario evolutivo coerente e supportato da più fonti indipendenti: nell’universo primordiale, i dischi galattici erano ricchi di gas e caratterizzati da un’elevata turbolenza. In queste condizioni dinamiche, l’intensa formazione stellare portava alla nascita di dischi stellari spessi. Con il tempo, lo sviluppo di questi dischi stellari contribuiva a stabilizzare il gas presente, riducendo progressivamente la turbolenza. Una volta che il disco di gas diventava più calmo e stabile, al suo interno si formava un disco stellare sottile. Nelle galassie più massicce, questa transizione avveniva più rapidamente, grazie alla loro maggiore efficienza nel convertire il gas in nuove stelle, portando così alla formazione precoce del disco sottile.
Il team spera che i risultati di questo studio possano contribuire a collegare le osservazioni delle galassie vicine e quelle delle galassie lontane, affinando così la nostra comprensione dei processi alla base della formazione dei dischi galattici nel corso della storia cosmica.
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “The emergence of galactic thin and thick discs across cosmic history” di Takafumi Tsukui, Emily Wisnioski, Joss Bland-Hawthorn e Ken Freeman
Con Tianwen‑3, la Cina in cerca di vita su Marte
Negli ultimi sei decenni, oltre 40 missioni di esplorazione spaziale hanno notevolmente migliorato la nostra comprensione della storia climatica e della diversità chimica di Marte. Gli orbiter hanno mappato la distribuzione globale di minerali idrati, mentre i lander e i rover hanno individuato metano, molecole organiche e ghiaccio d’acqua nel sottosuolo, tutti elementi che suggeriscono che il pianeta fosse un tempo potenzialmente abitabile.
Un ritratto di Marte ottenuto dal telescopio spaziale Hubble. L’immagine è stata realizzata a partire da una serie di esposizioni effettuate il 27 agosto 2003 utilizzando la Wide Field and Planetary Camera. Crediti: Nasa, J. Bell (Cornell U.) e M. Wolff (Ssi); K. Noll e A. Lubenow ( STScI ); M. Hubbard (Cornell U.); R. Morris ( Nasa /Jsc); P. James (U. Toledo); S. Lee (U. Colorado); T. Clancy, B. Whitney e G. Videen (Ssi); Y. Shkuratov (Kharkov U.)
Nonostante questi progressi nella ricostruzione della storia passata e presente di Marte, la questione se la vita sul pianeta esista o sia mai esistita rimane ancora irrisolta. Una missione che nei prossimi anni tenterà di rispondere a questo interrogativo è la missione di recupero di campioni Tianwen-3, dell’agenzia spaziale cinese (Cnsa). Il concetto della missione, dalla selezione del carico utile alla strategia di analisi dei campioni, comprese le misure per prevenire contaminazioni esobiologiche sulla Terra, è descritto in un articolo pubblicato lo scorso 19 giugno su Nature Astronomy.
Annunciata per la prima volta nel giugno del 2022 e ufficialmente confermata dalla Cnsa il 27 giugno 2024, la missione, il cui lancio è previsto nel 2028, prevede di raccogliere almeno 500 grammi di suolo marziano e riportarlo sulla Terra nel 2031, per cercare tracce di possibili organismi viventi o biofirme.
Il profilo della missione è illustrato nell’infografica che vedete in basso. Per raggiungere i suoi obiettivi, Tianwen-3 prevede il lancio di due moduli distinti: uno è l’Orbiter-Returner-Combination (Orc), costituito da un orbiter e da un veicolo di ritorno dei campioni; l’altro è il Lander-Ascender-Combination (Lac), che include un lander, un veicolo di risalita e un piccolo drone.
Ecco i principali passaggi della missione: una volta sulla superficie marziana, il lander acquisirà campioni di superficie con un braccio robotico, mentre un trapano in grado di raggiungere i due metri di profondità preleverà campioni dal sottosuolo. A supporto delle operazioni, come detto, ci sarà un piccolo aeromobile, che servirà per il campionamento di rocce in aree più distanti. I campioni raccolti saranno quindi confezionati e caricati sul veicolo di risalita posto nella parte superiore del lander. Dopo alcuni mesi trascorsi su Marte, comincerà la seconda fase della missione: il ritorno dei campioni. In questa fase, il veicolo di risalita decollerà dal dorso del lander, trasferendo i campioni al veicolo di ritorno posto in orbita, che infine li riporterà sulla Terra.
Sebbene il suo principale obiettivo sia cercare segni di vita su Marte, la missione Tianwen-3 ha anche altri scopi. Indagare il clima marziano, esplorare l’abitabilità in relazione ai processi di evoluzione geologica del pianeta e valutare i pericoli ambientali e le risorse per le future missioni con equipaggio sono tra questi.
Per raggiungere tali obiettivi, gli scienziati hanno proposto un carico utile composto da diversi strumenti scientifici, selezionati in base alle finalità della missione e alle capacità di carico del razzo Lunga Marcia 5, il lanciatore che porterà i veicoli oltre l’atmosfera terrestre. Per il lander sono previsti il Mars Subsurface Penetrating Radar, grazie al quale sarà possibile ottenere informazioni sulla struttura del sottosuolo di Marte, selezionare i siti e monitorare le operazioni di perforazione, e il Raman and Fluorescence Analyzer, per misurazioni microscopiche in situ di materiali superficiali e la determinazione della composizione di silicati, ossidi, composti organici e minerali idrati. Per quanto riguarda l’orbiter, il payload include il Precipitating Energetic Neutral Atom and Aurora Analyzer, per studiare gli atomi neutri energetici e la loro relazione con le aurore protoniche marziane, e il Mars Orbiter Vector Magnetometer, per misurare il campo magnetico del pianeta. Il Mid-Infrared Hyperspectral Imager e la Mars Martian Multispectral Camera costituiranno invece il carico utile del veicolo di ritorno del campione. Il primo strumento permetterà di determinare il rapporto deuterio/idrogeno nell’atmosfera di Marte, fornendo dati importanti sulla sua composizione. Il secondo sarà utilizzato principalmente per monitorare e prevedere le tempeste di polvere marziane, garantendo la sicurezza delle operazioni di atterraggio sulla superficie e la successiva ascesa del veicolo di risalita.
Schema della missione di ritorno del campione della China National Space Administration, Tianwen-3. Crediti: Zengqian Hou et al., Nature Astronomy, 2025
Poiché la missione Tianwen-3 non dispone di un rover mobile ma solo di un lander e di un piccolo drone con un’autonomia di circa cento metri, la scelta del sito di atterraggio della missione è cruciale. L’area selezionata deve favorire la comparsa e la conservazione di eventuali prove di tracce di vita, richiedendo la presenza simultanea di elementi vitali, un solvente adatto, fonti di energia sostenibili e condizioni climatiche favorevoli, tutti presenti per un periodo di tempo sufficientemente lungo, spiegano i ricercatori. La scelta dei siti, inoltre, deve soddisfare specifici requisiti tecnici: un’altitudine di tre chilometri rispetto all’ellissoide (la rappresentazione approssimata della forma di Marte), una latitudine compresa tra 17 e 30 gradi nord, una pendenza non superiore a 8 gradi e un’abbondanza di rocce non superiore al dieci per cento, sono alcuni di questi.
Da un’analisi preliminare condotta su 86 siti, gli scienziati hanno selezionato una decina di siti come candidati prioritari. Tra questi figurano i crateri McLaughlin, Oyama e Becquerel; le regioni di Oxia Planum, Mawrth Vallis e Isidis Planitia; nonché le aree di Nili Fossae, Kasei Valles e Simud Valles. Si tratta di ambienti che offrono una ricca varietà di contesti geologici, comprendendo formazioni antiche, con ambienti idrotermali e sedimentari – sia superficiali che sotterranei – in grado di preservare potenziali biosignature.
Le missioni spaziali sono classificate in diverse categorie in base al rischio di contaminazione e all’interesse astrobiologico del corpo celeste di destinazione. Le categorie, definite dalle politiche di protezione planetaria, come quelle stabilite dal Cospar (Committee on Space Research), vanno dalla categoria I (rischio minimo, nessun interesse per la vita) alla categoria V (massimo rischio, ritorno di campioni). La missione Tianwen-3 è classificata come una “missione di ritorno del campione di Classe V restrittiva”, una sottocategoria della Categoria V, dove restrictive indica il livello più elevato di preoccupazione per la protezione della biosfera terrestre. Queste missioni richiedono misure rigorose per impedire che forme di vita potenzialmente viventi (presumibilmente microrganismi) vengano contaminate dalla biosfera terrestre (la cosiddetta forward contamination) ma soprattutto misure per proteggere la Terra da un’invasione di eventuali forme di vita marziane (backward contamination).
In quest’ottica, le procedure di valutazione del rischio biologico, così come le operazioni di apertura, manipolazione, conservazione e analisi iniziale dei campioni, devono svolgersi in un ambiente altamente controllato. Per garantire tali condizioni, gli scienziati della Cnsa prevedono di realizzare un Mars Sample Laboratory nella periferia di Hefei, in Cina, dove i campioni saranno sottoposti a test di valutazione del rischio biologico, prima di proseguire con le analisi dettagliate in camere bianche isolate.
L’esplorazione di Marte è un’impresa collettiva per tutta l’umanità. Con la missione Tianwen-1 la Repubblica Popolare Cinese è diventata il terzo paese, dopo Stati Uniti e Unione Sovietica, ad atterrare con successo su Marte e il secondo a farlo con un rover. Con Tianwen-3 punta ora a diventare il primo paese a riportare sulla Terra campioni marziani – potenzialmente biologicamente attivi.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “In search of signs of life on Mars with China’s sample return mission Tianwen-3” di Zengqian Hou, Jizhong Liu, Fuchuan Pang, Yuming Wang, Yiliang Li, Mengjiao Xu, Jianya Gong, Kun Jiang, Zhizhong Kang, Yangting Lin, Jia Liu, Yang Liu, Yang Li, Liping Qin, Zhenfeng Sheng, Chi Wang, Juntao Wang, Guangfei Wei, Long Xiao, Yigang Xu, Bingkun Yu, Renhao Ruan, Chaolin Zhang, Yu-Yan Sara Zhao e Xin Zou
Asteroide 2024 YR4: l’impatto dei cloni
media.inaf.it/2025/06/30/aster…
Il 30 giugno è l’Asteroid Day, la giornata mondiale di sensibilizzazione sul rischio impatto degli asteroidi con la Terra. Si è scelta questa data perché il 30 giugno 1908 si verificò quella che ora è nota come la catastrofe di Tunguska: un asteroide roccioso con un diametro stimato di 50-80 metri cadde in una remota regione della Siberia, in prossimità del fiume Podkamennaja Tunguska, rilasciando un’energia stimata di 10-15 Mt e radendo al suolo 2150 km² di taiga siberiana. Qua però vogliamo parlarvi dell’asteroide 2024 YR4, un asteroide che i lettori di Media Inaf conoscono bene. In breve, scoperto il 27 dicembre 2024 dal telescopio cileno del progetto Atlas (Asteroid Terrestrial-impact Last Alert System), l’asteroide 2024 YR4 il 18 febbraio di quest’anno ha raggiunto una probabilità massima del 3,1 per cento di colpire la Terra il 22 dicembre 2032. Successivamente, grazie alle osservazioni fatte con il Vlt dell’Eso e con il James Webb Telescope, i parametri dell’orbita sono stati determinati con una migliore accuratezza e la probabilità d’impatto con la Terra si è praticamente ridotta a zero. Persiste invece una probabilità del 4,3 per cento che possa colpire la Luna per la stessa data. Che cosa potrebbe accadere in questo caso? Stiamo parlando di un evento che con una probabilità del 95,7 per cento non si verificherà, ma nel campo della difesa planetaria è interessante esplorare scenari anche poco probabili.
Il corridoio d’impatto lunare dell’asteroide 2024 YR4. I pallini gialli sono tutti i possibili punti d’impatto calcolati in base all’orbita più recente. Crediti: Wiegert et al., 2025.
Il corridoio d’impatto lunare di 2024 YR4 cade nell’emisfero sud della Luna: inizia dal cratere Janssen, passa a nord di Tycho, costeggia il bordo sud del Mare Humorum, passando sopra il cratere Doppelmayer e si perde verso il Mare Orientale. La sera del 22 dicembre 2032 la Luna avrà una fase 0,68 decrescente e c’è una piccola probabilità che l’impatto avvenga nell’emisfero in ombra, nel qual caso diventerebbe ben visibile dalla Terra anche con un piccolo binocolo.
Se l’asteroide 2024 YR4 colpisse davvero la Luna questo avverrebbe alla velocità di 13 km/s e, considerate le dimensioni di 60 metri per l’asteroide, si formerebbe un cratere da impatto di circa 1 km di diametro. Un cratere da 1 km di diametro sulla Luna si forma in media ogni 5000 anni, quindi sarebbe un evento del tutto eccezionale misurato nella scala di una vita umana. La formazione di un cratere porta all’espulsione, in tutte le direzioni, di rocce e polveri i così detti ejecta. Una parte di questo materiale avrebbe una velocità superiore alla velocità di fuga della Luna e si perderebbe nello spazio. Ci si aspetta che, al più, solo lo 0,2% del materiale scavato possa sfuggire alla gravità lunare, equivalente a circa centomila tonnellate di materiale. In questo scenario, solo una frazione degli ejecta emessi nello spazio raggiungerebbe la Terra. Quanto sia la percentuale è difficile dirlo perché dipende dal punto esatto di impatto che, al momento non è noto. In ogni caso, la percentuale può arrivare fino al 12 per cento degli ejecta emessi nello spazio se l’impatto avvenisse nell’emisfero rivolto verso la Terra. Sapremo se l’asteroide colpirà davvero la Luna e dove, solo quando farà il passaggio ravvicinato con la Terra nel dicembre 2028, l’ultimo prima della fatidica data del 2032.
Nel caso di un impatto e con gli ejecta emessi nello spazio nella direzione della Terra, questi cadranno dall’altezza dell’orbita lunare e quindi, dopo qualche giorno di viaggio, arriveranno sul nostro pianeta con una velocità pari a quella di fuga della Terra, dell’ordine di 11 km/s. Si tratta di una velocità più modesta rispetto a quella media dei piccoli meteoroidi sporadici che si dissolvono in atmosfera generando le meteore sporadiche, che si muovono con velocità dell’ordine di 20 km/s. Di conseguenza, le meteore generate dalla polvere e dai piccoli frammenti lunari che si disintegreranno in atmosfera saranno più deboli di quelle che si possono vedere in una qualsiasi notte dell’anno, anche se il loro numero sarà da 10 a 1000 volte il fondo naturale di micrometeoroidi. Non si può escludere la presenza di qualche meteoroide più grande, di qualche centimetro di diametro. In questo caso si genererebbe un piccolo fireball, ma niente che l’atmosfera della Terra non possa eliminare rapidamente: nulla potrà arrivare sulla superficie terrestre perché il cratere di 2024 YR4 sarà piccolo ed ejecta di grosse dimensioni non si possono formare. A parte aumentare il fondo sporadico delle meteore per qualche giorno, gli ejecta lunari potrebbero colpire i satelliti in orbita terrestre. Tali impatti potrebbero sì danneggiare i satelliti, ma sono sufficientemente piccoli da non causarne la frammentazione, quindi non peggiorerebbe il problema degli space debris.
Questo ipotetico scenario che vi abbiamo descritto, nel 95,7 per cento dei casi non si realizzerà, in ogni caso non costituirà un pericolo per la Terra. Tuttavia, questi risultati dimostrano che la difesa planetaria, anche in vista del prossimo ritorno dell’uomo sulla Luna, dovrebbe essere estesa anche allo spazio cislunare senza limitarsi esclusivamente allo spazio circumterrestre.
Per saperne di più:
- Leggi su arXiv la bozza dell’articolo “The Potential Danger to Satellites due to Ejecta from a 2032 Lunar Impact by Asteroid 2024 YR4” di Paul Wiegert et al., (Submitted to the AAS journals).
- Leggi su Media Inaf:
- Sulle montagne russe con 2024 YR4
- L’asteroide 2024 YR4 non fa più paura
- L’asteroide 2024 YR4 è di classe Tunguska
L’arte del vento su Marte
Un paesaggio marziano dai toni caldi, attraversato da vortici di polvere e segnato da tracce di antiche eruzioni vulcaniche. È l’affascinante scenario immortalato dalla sonda Mars Express dell’Agenzia Spaziale Europea (Esa), che ha ripreso con la sua fotocamera ad alta risoluzione, la High Resolution Stereo Camera (Hrsc), una porzione della regione di Arcadia Planitia, a nord-ovest del massiccio vulcanico di Tharsis, che ospita i vulcani più alti dell’intero Sistema solare. Si ritiene che questa zona marziana ospiti ghiaccio d’acqua in prossimità della superficie, che la renderebbe un sito ideale per l’atterraggio di future missioni sul Pianeta Rosso.
Immagine di Arcadia Planitia su Marte, catturata da Mars Express nel novembre 2024 e diffusa lo scorso 26 giugno 2025. Si distinguono creste scolpite dal vento, flussi lavici e quattro “dust devils” in movimento sulla superficie. Cliccando sull’immagine si va alla versione animata presente sul sito dell’Esa. Crediti: Esa/Dlr/Fu Berlin
In orbita dal 2003, la sonda Mars Express continua a inviare immagini e dati fondamentali, che permettono agli scienziati di fare luce sui segreti del Pianeta rosso. Tra le aree osservate, l’Arcadia Planitia si distingue per il suo paesaggio relativamente piatto, modellato da antiche colate laviche solidificate che risalgono fino a tre miliardi di anni fa.
A un primo sguardo, l’immagine potrebbe sembrare sfocata. In realtà, è la sottile atmosfera marziana, carica di minuscole particelle sollevate dal vento, a creare una leggera foschia che attenua i contorni del paesaggio. Il vento gioca un ruolo importante su Marte, rimodellando costantemente il paesaggio, trasportando la sabbia da un luogo all’altro. Sebbene Marte sia un mondo molto diverso dal nostro, lì osserviamo spesso fenomeni come i diavoli di polvere (dall’inglese, dust devils), che si trovano tipicamente nei deserti aridi del nostro pianeta.
Nell’immagine, diffusa il 26 giugno scorso, si distinguono chiaramente quattro piccoli diavoli di polvere che si muovono rapidamente sulla superficie, lasciando scie luminose e ombre rosate. Il fenomeno è ben noto su Marte, dove la forte escursione termica tra giorno e notte crea le condizioni ideali per questi vortici effimeri ma potenti, capaci di raggiungere velocità di 45 m/s e altezze fino a 8 chilometri – non lontana dall’altezza del Monte Everest. La parte superiore dell’immagine mostra anche formazioni rocciose note come yardang, che somigliano a graffi, allungati e paralleli, scolpiti nel tempo dal vento marziano che modella il paesaggio con uno scalpello invisibile. Le variazioni di colore tra le diverse aree – dalle sfumature più scure a quelle più rossastre – rivelano differenze nella composizione del suolo, che può essere più ricco di silicati o di ferro a seconda della zona.
Questa immagine mostra dove è situata, su Marte, la regione Arcadia Planitia (riquadro bianco tratteggiato). L’area delineata dal riquadro bianco pieno più grande all’interno del riquadro tratteggiato indica l’area ripresa dalla High Resolution Stereo Camera a bordo dell’orbiter Mars Express dell’Esa il 10 novembre 2024. Il riquadro bianco più piccolo mostra la parte della superficie mostrata in questa nuova versione di immagini. Crediti: infografica: Esa; immagine di sfondo: Nasa/Usgs, Esa/Dlr/Fu Berlin; immagine del riquadro: Nasa/Mgs/Mola Science Team
Ma non è solo la sua colorata e turbolenta bellezza a rendere speciale la zona di Arcadia Planitia. Questo sito è stato scelto tra i più promettenti per la caccia all’acqua su Marte. Nell’immagine si osserva, infatti, un cratere da impatto di circa 15 chilometri di diametro, circondato da strutture stratificate di materiali: un indizio che il sottosuolo conteneva una significativa quantità di ghiaccio al momento dell’impatto. E poiché il cratere appare ben conservato, si ritiene che l’evento sia relativamente recente in termini geologici. I modelli climatici di Marte indicano che l’acqua ghiacciata potrebbe ancora trovarsi a meno di un metro di profondità in alcune zone del pianeta, comprese le medie latitudini dove si trova Arcadia Planitia. Proprio per questo motivo, quest’area è considerata una delle principali candidate per future missioni robotiche e, potenzialmente, per possibili esplorazioni umane.
Per esplorare l’immagine in dettaglio e osservare i fenomeni descritti, è possibile consultare la versione interattiva pubblicata sul sito dell’Esa.
Scoperta galassia fossile a tre miliardi di anni luce
Nel corso della storia del cosmo, le galassie tendono a crescere ed evolvere attraverso la fusione con altre galassie. Ma esistono dei rari esemplari che si comportano come una capsula del tempo: queste galassie, dette fossili o relitti (in inglese, relic), si sono formate molto rapidamente nelle primissime fasi dell’universo, producendo la quasi totalità delle loro stelle in meno di tre miliardi di anni dopo il Big Bang, e da allora sono rimaste praticamente intatte. Alle osservazioni si presentano con un aspetto denso e compatto, popolate da stelle ricche di elementi pesanti, e senza alcun segno di formazione stellare in corso.
Un nuovo studio ha ora osservato la galassia relic più lontana mai scoperta: un fossile cosmico, rimasto immutato per circa 7 miliardi di anni. Si chiama Kids J0842+0059 ed è la prima galassia fossile massiccia confermata al di fuori dell’universo locale, attraverso osservazioni spettroscopiche e immagini ad alta risoluzione.
La galassia relic Kids J0842+0059, osservata con il Vst nell’ambito della survey Kids (a sinistra) e con il Large Binocular Telescope (a destra). Crediti: C. Tortora/Inspire/Vst/Eso/Lbt
La scoperta, realizzata da un team internazionale di ricercatori e ricercatrici guidato dall’Istituto nazionale di astrofisica (Inaf), è stata resa possibile grazie al Large Binocular Telescope (Lbt), telescopio gestito da Italia, Germania e Stati Uniti sulla sommità del Monte Graham, in Arizona. I risultati sono pubblicati nell’edizione di luglio della rivista Monthly Notices of the Royal Astronomical Society.
«Abbiamo scoperto una galassia ‘perfettamente conservata’ da miliardi di anni, un vero reperto archeologico che ci racconta come nascevano le prime galassie e ci aiuta a capire come si è evoluto l’universo fino ad oggi», spiega Crescenzo Tortora, ricercatore Inaf e primo autore del lavoro. «Le galassie fossili sono come i dinosauri dell’universo: studiarle ci permette di comprendere in quali condizioni ambientali si sono formate e come si sono evolute le galassie più massicce che vediamo oggi».
La galassia, che osserviamo com’era circa tre miliardi di anni fa, era stata inizialmente identificata nel 2018 all’interno del progetto Kids (Kilo Degree Survey), una survey pubblica dello European Southern Observatory (Eso) realizzata dal telescopio italiano Vst (Vlt Survey Telescope) che si trova all’Osservatorio di Paranal, in Cile. Le immagini Kids hanno fornito una stima della massa e delle dimensioni della galassia, le cui proprietà sono state ulteriormente caratterizzate mediante osservazioni con lo strumento X-Shooter sul Very Large Telescope dell’Eso, anch’esso in Cile. Tutte le sue caratteristiche sembravano indicare che si trattasse di una galassia fossile: dalla massa stellare, pari a circa cento miliardi di masse solari, alla formazione stellare, assente per gran parte della vita della galassia, fino alle dimensioni, più compatte rispetto a quelle di galassie con pari massa stellare.
Sulle dimensioni e la struttura della galassia, tuttavia, restavano alcune incertezze. Per confermare la compattezza della galassia, sono state cruciali nuove osservazioni realizzate con il Large Binocular Telescope, in grado di ottenere immagini molto più nitide grazie al sistema Soul di ottica adattiva, che compensa in tempo reale gli effetti della turbolenza atmosferica. Le osservazioni della galassia Kids J0842+0059 raccolte con Lbt hanno un grado di dettaglio dieci volte superiore rispetto ai dati della survey Kids: sono le immagini più dettagliate di una galassia relic a questa distanza e consentono di studiarne forma e dimensioni come mai prima d’ora.
L’interferometro di Lbt, negli Stati Uniti. Crediti: Phil Hinz/LBTI
«I dati del Large Binocular Telescope ci hanno permesso di confermare che Kids J0842+0059 è effettivamente compatta e quindi una vera galassia relic, con una forma simile a Ngc 1277 e alle galassie compatte che osserviamo nelle prime fasi dell’universo», spiega la coautrice Chiara Spiniello, ricercatrice all’Università di Oxford, associata Inaf e principal investigator del progetto Inspire, che ha contribuito alla caratterizzazione delle proprietà di questa galassia. Fino ad oggi, Ngc 1277 era uno dei pochi prototipi confermati di questa rara classe di galassie. «È la prima volta che riusciamo a farlo con dati di così alta risoluzione per una galassia relic così distante».
L’esistenza di galassie relic massicce come Kids J0842+0059 oppure Ngc 1277 dimostra che alcune galassie possono formarsi rapidamente, restare compatte, e poi rimanere inerti per miliardi di anni, sfuggendo alla crescita che ha interessato la maggior parte delle loro controparti attraverso fusioni con altre galassie.
«Studiare questi fossili cosmici ci aiuta a ricostruire la storia di formazione dei nuclei delle galassie massicce odierne, che — a differenza delle galassie relic — hanno subito processi di fusione, accrescendo materia proprio attorno a quelle prime galassie (compatte) dalle quali si sono originate», conclude Tortora. «Con tecnologie all’avanguardia come l’ottica adattiva e il supporto di telescopi come Lbt, possiamo migliorare la nostra comprensione di questo tipo di galassie. Nel futuro prossimo, inoltre, faremo un passo in avanti, puntando a cercare, confermare e studiare nuove galassie relic attraverso i dati di qualità e risoluzione unica del telescopio spaziale Euclid».
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “Inspire: INvestigating Stellar Populations In RElics – IX. KiDS J0842 + 0059: the first fully confirmed relic beyond the local Universe”, di C. Tortora, G. Tozzi, G. Agapito, F. La Barbera, C. Spiniello, R. Li, G. Carlà, G. D’Ago, E. Ghose, F. Mannucci, N. R. Napolitano, E. Pinna, M. Arnaboldi, D. Bevacqua, A. Ferrè-Mateu, A. Gallazzi, J. Hartke, L. K. Hunt, M. Maksymowicz-Maciata, C. Pulsoni, P. Saracco, D. Scognamiglio e M. Spavone
Un possibile esopianeta tutto per Webb
Un team internazionale guidato dal Centre National de la recherche Scientifique (Cnrs) ha individuato una debole sorgente infrarossa all’interno del disco di detriti che circonda la giovane stella Twa 7, grazie al coronografo installato sul Mid-Infrared Instrument (Miri) del telescopio spaziale James Webb. Lo studio, pubblicato su Nature, mostra che i dati raccolti sono compatibili con la presenza di un pianeta con una massa simile a quella di Saturno in orbita attorno alla stella.
L’osservazione, condotta il 21 giugno 2024, ha utilizzato la tecnica dell’imaging ad alto contrasto, che permette di attenuare la luce della stella centrale per individuare gli oggetti più deboli nelle sue vicinanze. Una volta applicato questo filtro, è emersa una debole sorgente infrarossa all’interno di una lacuna nel disco di polvere, precisamente in uno dei tre anelli gia noti da osservazioni da Terra.
Immagine del disco attorno alla stella TWA 7 acquisita con lo strumenti Miri del telescopio spaziale James Webb. Crediti: Jwst
Le caratteristiche osservate – luminosità, colore, distanza dalla stella e posizione nel disco – sono coerenti con le previsioni teoriche per un pianeta giovane, freddo e con una massa simile a quella di Saturno, capace di modellare la struttura del disco di detriti circostante. Secondo le analisi iniziali l’oggetto, denominato Twa 7b, potrebbe avere una massa pari a circa 0.3 volte quella di Giove (ossia circa 100 masse terrestri) e una temperatura stimata attorno ai 320 Kelvin (corrispondente a circa 47 gradi Celsius). La sua posizione in corrispondenza della lacuna nel disco suggerisce un’interazione dinamica tra il pianeta e l’ambiente circostante.
I dischi di detriti, composti da polvere e materiale roccioso, si osservano attorno sia a stelle giovani che mature, ma risultano più evidenti nei sistemi più giovani, grazie alla loro maggiore luminosità infrarossa. Presentano spesso anelli o lacune visibili, che si ritiene siano dovute alla presenza di pianeti in formazione. Tuttavia, un pianeta osservato direttamente all’interno di un disco di detriti non era mai stato identificato fino ad ora.
Twa 7, conosciuta anche come CE Antilae, è una giovane stella di tipo M, con un’eta stimata di circa 6,4 milioni di anni, situata a circa 111 anni luce dalla Terra. Il suo disco, orientato quasi frontalmente rispetto alla nostra linea di vista, la rende un oggetto ideale per le osservazioni nel medio infrarosso ad alta sensibilità condotte dal Webb.
Gli autori sottolineano che l’identificazione della sorgente come esopianeta non è stata ancora confermata. Se si trattasse davvero di un pianeta legato alla stella, ci si aspetterebbe che condivida il moto proprio di Twa 7. Tuttavia, i dati attualmente disponibili non permettono di verificare questa ipotesi. Un’altra ipotesi è che la sorgente sia in realtà una galassia di fondo non fisicamente associata alla stella. Secondo le analisi però, questa eventualità risulta poco probabile, pur non potendo essere esclusa del tutto.
Se confermata, la scoperta di Twa 7b segnerebbe un traguardo importante per il James Webb, che otterrebbe la sua prima immagine diretta di un esopianeta e, al tempo stesso, del più leggero mai rilevato con questa tecnica. Questo risultato rappresenta un nuovo passo avanti nella ricerca e nell’imaging diretto di esopianeti di piccola massa, potenzialmente più simili alla Terra che ai giganti gassosi. Il telescopio James Webb ha il potenziale per spingersi ancora oltre in futuro: gli scienziati sperano infatti di riuscire a ottenere immagini di pianeti con appena il 10 per cento della massa di Giove, rafforzando le prospettive per le prossime generazioni di telescopi spaziali e terrestri.
Per saperne di più:
- Leggi su Nature l’articolo “Evidence for a sub-Jovian planet in the young TWA 7 disk” di A. M. Lagrange, C. Wilkinson, M. Mâlin, A. Boccaletti, C. Perrot, L. Matrà, F. Combes, H. Beust, D. Rouan, A. Chomez, J. Milli, B. Charnay, S. Mazevet, O. Flasseur, J. Olofsson, A. Bayo, Q. Kral, A. Carter, K. A. Crotts, P. Delorme, G. Chauvinism, P. Thebault, P. Rubini, F. Kiefer, A. Radcliffe, J. Mazoyer, T. Bodrito, S. Stasevic & M. Langlois.
Su Marte, un buon punto da cui partire
Erica Luzzi, geologa planetaria e ricercatrice presso il Mississippi Mineral Resources Institute, prima autrice dello studio pubblicato sul Journal of Geophysical Research: Planets. Crediti: E. Luzzi
Per approfondire ulteriormente la notizia appena pubblicata sulle sorgenti d’acqua che potrebbero supportare le future missioni di esplorazione su Marte, vi proponiamo l’intervista rilasciata a Media Inaf dalla prima autrice dello studio pubblicato su Journal of Geophysical Research: Planets, Erica Luzzi. Con un’esperienza internazionale maturata lavorando alla Nasa, partecipando a campagne dell’Esa e collaborando con diverse università in Europa e negli Stati Uniti, Luzzi ha contribuito a campagne sul campo in ambienti estremi e ha pubblicato numerosi studi sulla geologia marziana, sugli analoghi di Encelado e sulla mappatura delle risorse per future missioni di esplorazione umana.
La ricerca, lo ricordiamo, rivela la posizione di quella che potrebbe costituire una potenziale fonte d’acqua per le future esplorazioni umane, presentando l’analisi geomorfologica di un’area al confine tra Arcadia Planitia e la parte settentrionale della Amazonas Planitia, situata alle medie latitudini di Marte.
Luzzi, avete identificato ghiaccio d’acqua vicino alla superficie di Marte, in una zona potenzialmente favorevole per future missioni umane. Come avete fatto a scoprirlo e cosa rende questa scoperta così cruciale per l’esplorazione del Pianeta rosso?
«Quest’area era già stata identificata come candidate landing site in un conference abstract da Golombek et al. 2021, ma nessuna analisi di dettaglio era mai stata fatta. Innanzitutto abbiamo condotto un’indagine geomorfologica e morfometrica delle forme tipicamente periglaciali rinvenute nell’area di studio. Tra queste la più indicativa è rappresentata dai thermal contraction polygons, delle fratture poligonali causate dalla contrazione termica di terreni che contengono ghiaccio. La dimensione di questi poligoni è proporzionale alla profondità del ghiaccio, pertanto dato il diametro dei 9mila poligoni che abbiamo misurato, stimiamo che al momento della formazione dei poligoni il ghiaccio era quasi superficiale, con una profondità nell’ordine delle decine di centimetri. Per assicurarci che questo ghiaccio sia presente anche oggi, abbiamo esaminato un catalogo di crateri da impatto recenti che hanno esposto ghiaccio quasi superficiale. Questa evidenza, che consideriamo come ground truth, ci fornisce un’informazione certa in grado di confermare le osservazioni da immagini satellitari. Uno di questi crateri si trova adiacente alla nostra area di studio, e il ghiaccio che ha esposto si trova a 50-60 cm dalla superficie. Pertanto, vista l’ampia distribuzione delle forme periglaciali e la confermata presenza attuale di ghiaccio nella zona, stimiamo che un vasto deposito di ghiaccio sia presente vicino la superficie».
Nel vostro studio parlate anche delle implicazioni astrobiologiche della presenza di ghiaccio. Quanto è realistica, secondo voi, la possibilità che questi depositi possano contenere tracce di vita passata o presente?
«È impossibile dirlo con certezza, ma il ghiaccio è sicuramente un ottimo mezzo per preservare biomarker, specialmente considerando che la superficie di Marte è ricca in perclorati che durante eventuali analisi distruggono le molecole organiche. Il ghiaccio può proteggere eventuali biomarker dall’azione distruttiva dei perclorati. Inoltre sulla Terra sono state trovate forme di vita batteriche all’interno del ghiaccio, quindi non si esclude che questo possa accadere anche su Marte. Tuttavia, siamo lontani dall’avere certezze in termini astrobiologici. Possiamo limitarci a dire che il ghiaccio sarebbe un buon posto in cui cercare».
Il prossimo passo è l’invio di missioni robotiche per analisi più dettagliate. Quali sono le sfide tecnologiche e operative principali per arrivare a una conferma definitiva sul terreno?
«Il grande lato positivo di questo candidate landing site è proprio che il ghiaccio è quasi superficiale, pertanto le prime missioni robotiche non necessiterebbero di drill a grande scala per perforare in profondità. Sicuramente i perclorati restano un problema per le analisi di molecole organiche, il planning dell’estrazione deve tenere conto di evitare contaminazioni del ghiaccio con i perclorati. Inoltre, essendo la zona quasi completamente piatta in termini di topografia, il landing stesso non pone sfide particolarmente difficili, si tratta di una zona ideale per far atterrare missioni sia robotiche che umane. Una criticità potrebbe essere rappresentata dalla sublimazione spinta che attualmente domina l’atmosfera marziana a queste latitudini, per cui l’eventuale estrazione di ghiaccio dovrebbe essere anche rapida oltre che incontaminata, evitando quindi prolungata esposizione dei campioni di ghiaccio con l’atmosfera».
Per saperne di più:
- Leggi su Journal of Geophysical Research: Planets l’articolo “Geomorphological Evidence of Near-Surface Ice at Candidate Landing Sites in Northern Amazonis Planitia, Mars” di Erica Luzzi, Jennifer L. Heldmann, Kaj E. Williams, Giacomo Nodjoumi, Ariel Deutsch, Alexander Sehlke
- Leggi su Media Inaf la news “Sorgenti d’acqua per futuri esploratori marziani“
Sorgenti d’acqua per futuri esploratori marziani
Uno studio guidato da Erica Luzzi, geologa planetaria e ricercatrice presso il Mississippi Mineral Resources Institute, pubblicato sul Journal of Geophysical Research: Planets, rivela quella che potrebbe costituire una potenziale fonte d’acqua per le future esplorazioni umane.
L’articolo presenta l’analisi geomorfologica di un’area al confine tra Arcadia Planitia e la parte settentrionale della Amazonas Planitia, situata alle medie latitudini di Marte. Studi recenti hanno infatti indicato la presenza di volumi sostanziali di ghiaccio in eccesso in prossimità della superficie presso Arcadia Planitia, rendendo questa regione un promettente candidato per future esplorazioni umane e robotiche. Lo studio si concentra su tre specifici siti di atterraggio candidati, denominati AP-1, AP-8 e AP-9.
Posizione dei siti di atterraggio candidati AP-1, AP-8 e AP-9 (cerchi rossi) e del cratere da impatto esposto al ghiaccio (rombo azzurro). Mappa di base: mosaico Ctx (Context Camera) fornito dal Murray Lab (Dickson et al., 2018); in alto a destra: globo del Mars Orbiter Laser Altimeter (Mola) per il contesto. Crediti: Luzzi et al. (2025)
Gli autori hanno identificato un’ampia varietà di morfologie associate alla presenza di ghiaccio. In particolare, hanno mappato e misurato circa 9mila poligoni da contrazione termica, stimando che il ghiaccio sottostante si trovi a una profondità di poche decine di centimetri dalla superficie – una profondità sufficientemente ridotta da renderlo potenzialmente accessibile per un futuro utilizzo delle risorse in situ.
Il terreno poligonale è onnipresente in tutte le regioni dei siti di atterraggio candidati per AP. Nell’area di studio sono stati identificati due diversi tipi di terreno poligonale: il terreno poligonale nodoso (Kpt) e il terreno poligonale liscio (Spt). Entrambi presentano poligoni a centro alto, ossia caratterizzati da centri rialzati e margini depressi (a differenza dei poligoni a centro basso, che presentano un centro depresso e margini depressi e rialzati). I due tipi di terreno possono essere distinti per il fatto che il primo è caratterizzato da una superficie poligonale a basso albedo e nodosa. I nodi sono posizionati casualmente al centro di alcuni poligoni a centro alto, generando morfologie a cupola. Il secondo è caratterizzato da una superficie poligonale liscia, a bassa albedo, caratterizzata da una densa popolazione di creste arcuate.
Kpt, caratterizzato da un aspetto nodoso. Il quadrato nero indica la posizione del pannello (b). (b) Vista ravvicinata dei poligoni a centro alto e dei nodi presenti al centro di alcuni poligoni con una distribuzione casuale. (c) Spt, caratterizzato da creste arcuate. Il quadrato nero indica la posizione del pannello (d). (d) Vista ravvicinata dei poligoni a centro alto presenti nell’Spt, dove i nodi sono meno comuni. Immagine HiRISE ESP_052490_2200. Crediti: HiRISE/Nasa, Luzzi et al (2025)
Sempre grazie alle immagini satellitari ad alta risoluzione acquisite dallo strumento HiRISE, i ricercatori hanno anche individuato recenti crateri da impatto che hanno messo a nudo del ghiaccio, confermando come effettivamente si trovi vicino alla superficie in diversi punti intorno ai siti di atterraggio candidati. Tuttavia, alcuni di questi impatti non hanno rivelato la presenza di ghiaccio, suggerendo che la sua distribuzione o abbondanza a queste latitudini risulti discontinua e non omogenea.
Lo studio del ghiaccio presente vicino alla superficie è fondamentale per affrontare importanti questioni scientifiche legate al clima, alla geologia e all’astrobiologia nelle medie latitudini di Marte. «Se vogliamo inviare esseri umani su Marte, abbiamo bisogno dell’acqua – non solo per bere, ma anche per il propellente e per molteplici applicazioni», spiega Luzzi. «Trovarla vicino alla superficie è vantaggioso, perché possiamo estrarla e utilizzarla con maggiore facilità. Questo approccio è noto come utilizzo delle risorse in situ ed è una strategia chiave per qualsiasi missione di esplorazione spaziale. Le medie latitudini rappresentano il compromesso ideale: ricevono abbastanza luce solare per garantire energia, ma sono sufficientemente fredde da conservare il ghiaccio sotto la superficie. Per questo motivo, si configurano come candidati ideali per futuri siti di atterraggio».
«Per la Luna, ci vorrebbe circa una settimana per andare e tornare dalla Terra per rifornirsi», spiega Giacomo Nodjoumi, dello Space Science Data Center dell’Agenzia Spaziale Italiana e coautore dello studio. «Ma per Marte, parliamo di mesi. Dobbiamo quindi essere pronti ad affrontare lunghi periodi senza la possibilità di ricevere rifornimenti dalla Terra. Le risorse più critiche sono l’ossigeno per respirare e l’acqua da bere. Ed è proprio questo che rende il nostro sito di atterraggio candidato particolarmente promettente».
Esempi di diverse geometrie di poligoni, inclusi pentagoni, esagoni, rettangoli e forme più irregolari, nonché morfologie lisce rispetto a quelle nodose. (a) Vista dall’alto e (b) proiezione della stessa scena che mostra i contorni delle diverse geometrie. Immagine HiRISE ESP_060811_2205. (c) Vista 3D che evidenzia la differenza tra poligoni lisci e centrati in alto (HC) e poligoni nodosi e centrati in alto (K). (d) Vista dall’alto della stessa scena riportata nel pannello (c) che mostra la morfologia più pronunciata dei poligoni K rispetto ai poligoni HC. Immagine HiRISE e DEM colorato sovrastante ESP_052490_2200. Crediti: Nasa/HiRISE, Luzzi et al (2025)
«Lo studio ha anche importanti implicazioni in ambito astrobiologico», sottolinea Luzzi. «Sulla Terra, il ghiaccio è in grado di preservare biomarcatori di eventuali forme di vita passata e può persino ospitare comunità microbiche. Per questo motivo, studiarlo su Marte potrebbe aiutarci a capire se il pianeta sia mai stato abitabile».
Sarà necessaria una missione dedicata per determinare se le formazioni individuate siano costituite esclusivamente da ghiaccio d’acqua o se contengano anche altri materiali. «Non potremo mai esserne certi finché non avremo un rover, un lander o un essere umano sul posto in grado di effettuare misurazioni dirette», conclude Nodjoumi. «Abbiamo indizi concreti che suggeriscono si tratti di ghiaccio d’acqua, ma finché non ci arriveremo e non lo analizzeremo, non potremo esserne sicuri al cento per cento».
L’esplorazione umana del Pianeta rosso è ancora lontana, ma questo studio contribuisce a individuare con maggiore precisione i luoghi in cui potrebbero essere compiuti i primi passi.
Per saperne di più:
- Leggi su Journal of Geophysical Research: Planets l’articolo “Geomorphological Evidence of Near-Surface Ice at Candidate Landing Sites in Northern Amazonis Planitia, Mars” di Erica Luzzi, Jennifer L. Heldmann, Kaj E. Williams, Giacomo Nodjoumi, Ariel Deutsch, Alexander Sehlke
L’enigma che viene dall’Antartide
Un pallone in volo sull’Antartide, spesse coltri di ghiaccio, raggi cosmici e segnali radio che vanno oltre le nostre attuali conoscenze in fisica delle particelle. Questi sono i protagonisti del mistero che potrebbe segnare l’inizio di una nuova era nella comprensione di fenomeni finora inesplorati. Le strane emissioni sono state captate dall’Antarctic Impulsive Transient Antenna (Anita), una rete di antenne sospese in stratosfera a circa 40 chilometri di altitudine. Il sistema è progettato per rilevare impulsi radio generati dall’interazione di raggi cosmici e neutrini ad altissima energia con il ghiaccio antartico, ma i segnali registrati vanno ben oltre le aspettative degli scienziati.
Gli insoliti impulsi radio sono stati rilevati dall’esperimento Antarctic Impulsive Transient Antenna (Anita), una serie di strumenti che volano su palloni aerostatici sopra l’Antartide e che sono progettati per rilevare le onde radio dei raggi cosmici che colpiscono l’atmosfera. Crediti: Stephanie Wissel / Penn State.
Cercando di fare luce su quanto accaduto, gli scienziati dell’esperimento Anita hanno collaborato con altri grandi osservatori, come l’Osservatorio Pierre Auger in Sud America, che ha analizzato dati raccolti in più di quindici anni. A questo importante sforzo internazionale partecipa anche un gruppo di ricercatori italiani, che stanno contribuendo allo sviluppo di nuove tecnologie per il rilevamento e all’interpretazione di questi segnali.
Per capire meglio cosa è successo in Antartide, abbiamo intervistato i professori associati all’Università degli Studi dell’Aquila, Denise Boncioli e Francesco Salamida, co-autori dello studio che la collaborazione Pierre Auger – di cui sono rispettivamente Science Coordinator e Detector Coordinator – ha pubblicato su Physical Review Letters in risposta all’osservazione degli eventi rilevati da Anita.
Salamida, cosa sono quei segnali anomali osservati da Anita in Antartide e perché hanno destato così tanto interesse nella comunità scientifica?
[Salamida] «Anita misura gli eventuali segnali radio emessi durante una “cascata” di particelle generata dall’interazione di un raggio cosmico primario – una particella molto energetica proveniente dallo spazio – che intercetta gli elementi chimici presenti nell’atmosfera o sulla crosta terrestre con diversi angoli. A seconda della direzione possiamo aspettarci determinate caratteristiche e quindi dedurre informazioni sul raggio cosmico primario: questo è quello che l’Osservatorio Pierre Auger, progettato per rivelare raggi cosmici ad altissima energia, cerca di investigare. In particolare, l’emissione radio nelle cascate di particelle può essere dovuta a effetti geomagnetici, relativi al fatto che nella cascata sono presenti elettroni e positroni accelerati in direzioni opposte a causa del campo magnetico terrestre. Nel caso di Anita, gli impulsi radio che giungono da direzioni sopra l’orizzonte sono interpretati come emissione diretta dalle cascate di particelle che non intercettano la superficie del ghiaccio o della Terra. La maggioranza degli impulsi sono riflessi dalla superficie del ghiaccio e mostrano una inversione di polarità. Ma alcuni impulsi, invece, sono misurati da direzioni sotto l’orizzonte e non mostrano le caratteristiche di impulsi riflessi. Per questo sono ritenuti anomali e non trovano spiegazione all’interno del modello standard delle particelle».
Rivelatore di fluorescenza dell’Osservatorio Pierre Auger. Crediti: S. Saffi /Esa
Dunque questi segnali anomali non sono ancora stati spiegati?
[Salamida] «Non riusciamo a spiegarne l’origine. La tipologia di segnali rivelata implicherebbe una traversata molto lunga all’interno della Terra da parte di neutrini tau, con una probabilità di sopravvivenza estremamente bassa, incompatibile con le aspettative teoriche. Inoltre, i neutrini responsabili di questi segnali dovrebbero essere stati misurati anche da altri esperimenti, come IceCube o Auger, cosa che non succede».
Anita va quindi contro ogni previsione. Avete delle ipotesi per spiegare il tutto?
[Salamida] «Alcune ipotesi propongono l’esistenza di particelle esotiche, come neutrini sterili o particelle di materia oscura, che potrebbero aver viaggiato all’interno del nostro pianeta dando poi origine a particelle di tipo tau vicino alla crosta terrestre. La direzione degli impulsi suggerirebbe che i neutrini abbiano viaggiato per uno spazio molto ampio dentro la Terra, prima di interagire, il che potrebbe succedere solo se il flusso di queste particelle è più intenso delle previsioni attuali. In tal caso però, un flusso del genere sarebbe stato quasi sicuramente osservato anche dall’esperimento IceCube o da Auger. I segnali potrebbero essere dovuti a cascate che si sviluppano da sotto la superficie terrestre, verso l’alto, a causa del decadimento della particella leptonica di tipo tau, a sua volta prodotto dall’interazione di un neutrino tau sotto la superficie terrestre. Ma, alla fine, tutte queste ipotesi richiedono una fisica diversa, estensioni significative di ciò che sappiamo oggi, e non hanno ancora trovato conferme altrove».
Anita è stato posizionato in Antartide perché ci sono poche possibilità di interferenze da parte di altri segnali. Per catturare i segnali di emissione, il rivelatore radio trasportato da un pallone aerostatico viene inviato a sorvolare tratti di ghiaccio, catturando le cosiddette docce di ghiaccio. Crediti: Stephanie Wissel / Penn State.
Dalle Ande all’Antartide. Qual è la differenza principale tra l’esperimento Anita, che vola su un pallone aerostatico sopra il ghiaccio del Polo Sud, e gli studi dell’Osservatorio Pierre Auger, che invece è sulle montagne dell’Argentina in Sud America? Come si complementano questi due esperimenti?
[Boncioli] «L’Osservatorio Pierre Auger, di cui sono Science Coordinator, è in funzione nella zona di Malargue-Mendoza su un altopiano a ridosso delle Ande, in Argentina. Si estende su una superficie di circa 3mila chilometri quadrati con migliaia di detector di superficie e utilizza varie tecniche per investigare le caratteristiche dei raggi cosmici di energie altissime, tra cui rivelatori Cherenkov, telescopi di fluorescenza, rivelatori di muoni e antenne radio. Auger può ricavare informazioni sulla direzione di arrivo delle particelle cosmiche, la loro energia e natura. L’esperimento Pierre Auger ha analizzato 15 anni di dati per cercare di capire se anche lì si potessero trovare segnali simili a quelli di Anita. Grazie a ciò, è stato possibile implementare delle procedure per selezionare le cascate di particelle distinguendo quelle che giungevano da direzioni sotto o sopra l’orizzonte. Con questa precisa selezione, siamo riusciti a stabilire un limite superiore all’osservazione di queste cascate di raggi cosmici, che Anita con i propri risultati viola».
L’Antartide è un ambiente estremamente difficile. Quali sono state le principali sfide tecniche e logistiche nell’allestire e far volare Anita sopra il ghiaccio?
[Boncioli] «Far volare Anita sopra l’Antartide è stata una sfida significativa sia dal punto di vista logistico sia tecnico. Il lancio del pallone stratosferico richiede condizioni meteorologiche particolarmente stabili, che si verificano solo durante l’estate australe. Inoltre, l’intera strumentazione deve essere progettata per operare a temperature estremamente basse (fino a -50 °C) e a pressioni molto ridotte, garantendo al contempo stabilità, autonomia energetica e capacità di comunicazione con le basi a terra. Ogni missione è limitata nel tempo, circa 30 giorni, quindi il sistema deve essere completamente affidabile e in grado di raccogliere e trasmettere grandi quantità di dati senza possibilità di intervento diretto. Dal punto di vista scientifico, rivelare neutrini a energie ultra elevate è estremamente difficile per la loro natura elusiva: interagiscono raramente con la materia, e per osservarne gli effetti occorre che attraversino lunghi tratti di ghiaccio o roccia prima di produrre una particella tau che emerga e dia origine a una cascata rilevabile. Ciò richiede grande precisione nella ricostruzione dell’origine e della polarizzazione dei segnali radio. In ambienti come l’Antartide, inoltre, bisogna anche distinguere i segnali reali da disturbi atmosferici, riflessi anomali o interferenze provenienti da attività umane. Anita ha avuto bisogno di condizioni estreme con strumentazione sofisticata, per cercare segnali rarissimi e deboli, che richiedono un’analisi accuratissima per poter essere distinti da un vasto fondo di segnali più comuni».
Quando i raggi cosmici colpiscono le molecole dell’atmosfera terrestre, si frammentano in una pioggia di particelle secondarie che perdono la maggior parte della loro energia prima di raggiungere il suolo. I rilevatori sulla Terra cercano queste tracce rivelatrici.Immagine di Aspera/Novapix/L. Bret
Perché è così difficile rilevare i neutrini ultra energetici?
[Boncioli] «La difficoltà di osservare i neutrini, in generale, è dovuta al fatto che la probabilità di interagire con il resto della materia è molto bassa, e di conseguenza è necessario che le altre particelle – quelle che interagiscono più facilmente – vengano assorbite. Per capire meglio il fenomeno basta considerare che un miliardo di neutrini attraversa un’unghia del pollice ogni secondo, ma raramente interagiscono con la materia. Se li riveliamo, vuol dire che hanno percorso enormi distanze senza essere influenzati da nulla. Noi, in particolare, cerchiamo di osservare i neutrini ultra-energetici attraverso la cascata di particelle che essi potrebbero generare attraversando “qualcosa”, che sia l’atmosfera, il ghiaccio, la roccia o il mare. Per essere sicuri che attraversino più materia possibile, quindi, selezioniamo le cascate di particelle il più possibile orizzontali o quelle che arrivano dopo aver attraversato una parte di Terra, cioè da sotto l’orizzonte».
Come si fa a distinguere un segnale radio prodotto da un neutrino da quelli causati da altre particelle o fenomeni ambientali?
[Salamida] «Per distinguere un segnale radio generato da un neutrino occorre l’analisi congiunta di diversi aspetti del segnale. In primis, la direzione di provenienza: i neutrini possono produrre segnali provenienti da sotto l’orizzonte, dopo aver attraversato la Terra. Questi segnali hanno geometrie incompatibili con quelle dei raggi cosmici ordinari. In secondo luogo, si studia la polarizzazione e, ad esempio, segnali riflessi dalla superficie del ghiaccio mostrano una inversione di polarità che permette di identificare impulsi che non possono essere spiegati come derivanti da riflessioni. Poi registriamo la forma d’onda e la durata dei segnali provenienti da neutrini, segnali molto brevi – dell’ordine di nanosecondi – e coerenti. Esperimenti come Anita operano in Antartide proprio per ridurre al minimo le interferenze radio originate dall’attività umana. Combinando questi criteri con simulazioni dettagliate si possono isolare i candidati neutrino con un’elevata affidabilità».
In che modo il contributo italiano si inserisce in questo progetto internazionale?
[Boncioli] «Nel contesto della ricerca sui neutrini ultraenergetici il contributo italiano si inserisce in modo rilevante. Diversi gruppi di ricerca dell’Istituto Nazionale di Fisica Nucleare e di varie università (tra cui L’Aquila, Roma Tor Vergata, Milano Bicocca, Torino, Napoli e il Gran Sasso Science Institute) partecipano attivamente all’esperimento Auger, contribuendo sia alla parte strumentale che all’analisi dei dati. In particolare nell’ambito dell’analisi radio, i ricercatori italiani hanno lavorato alla selezione e classificazione dei segnali associati a cascate atmosferiche molto inclinate, cruciali per l’identificazione di possibili eventi da neutrino tau. Hanno contribuito allo sviluppo di metodi di ricostruzione della direzione e dell’energia, necessari per distinguere eventi di origine ordinaria da eventi potenzialmente anomali. Ricercatori e ricercatrici del nostro Paese sono stati tra i principali responsabili dell’analisi dei 15 anni di dati di Auger usata per determinare il limite superiore al flusso di neutrini tau emergenti e hanno avuto un ruolo importante nella modellizzazione teorica, nella validazione dei risultati tramite simulazioni Monte Carlo, e nella stesura e revisione del contributo scientifico».
Denise Boncioli e Francesco Salamida, docenti dell’Università degli Studi dell’Aquila e rispettivamente Science Coordinator e Detector Coordinator nella collaborazione internazionale dell’Osservatorio Pierre Auger. Crediti: Univaq
Ci sarà un nuovo esperimento, Pueo (Payload for Ultrahigh Energy Observations) che rappresenta un’evoluzione significativa rispetto ad Anita. Cosa vi aspettate di scoprire?
[Salamida] «Pueo promette di cambiare radicalmente la ricerca sui neutrini ultraenergetici. Grazie a un design completamente ripensato, introdurrà diverse innovazioni tecnologiche utilizzando un numero molto maggiore di antenne, disposte su più livelli e con copertura angolare più ampia, per migliorare la precisione nella ricostruzione della direzione dei segnali. Pueo utilizzerà elettronica avanzata e sistemi di trigger capaci di analizzare in tempo reale la forma d’onda e la polarizzazione degli impulsi, riducendo gli eventi falsi positivi. In aggiunta, sensibilità aumentata di oltre un ordine di grandezza rispetto ad Anita e migliori sistemi di trasmissione e archiviazione dei dati consentiranno di testare modelli di fisica oltre il modello standard, di verificare o di confutare definitivamente l’esistenza di eventi anomali simili a quelli osservati da Anita e al contempo riusciranno a rivelare neutrini a energie mai raggiunte prima, risolvere alcuni dei misteri aperti da Anita e aprendo una nuova finestra sull’universo ad altissima energia».
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Search for the Anomalous Events Detected by ANITA Using the Pierre Auger Observatory” di A. Abdul Halim, P. Abreu, M. Aglietta, I. Allekotte,K. Almeida Cheminant, A. Almela, R. Aloisio, J. Alvarez-Muñiz, J. Ammerman Yebra, G. A. Anastasi, L. Anchordoqui, B. Andrada,7 S. Andringa, L. Apollonio, C. Aramo,P. R. Araújo Ferreira,E. Arnone, J. C. Arteaga Velázquez, P. Assis,G. Avila, E. Avocone, A. Bakalova, F. Barbato, A. Bartz Mocellin, J. A. Bellido, C. Berat, M. E. Bertaina, G. Bhatta, M. Bianciotto, P. L. Biermann, V. Binet,K. Bismark, T. Bister, J. Biteau, J. Blazek, C. Bleve, J. Blümer, M. Boháčová, D. Boncioli, et al.
Integral svela il segreto del litio nella Via Lattea
Un team internazionale di astronomi a guida dell’Istituto Nazionale di Astrofisica (Inaf) ha osservato direttamente per la prima volta la produzione di berillio-7 durante l’esplosione di una nova (dal latino stella nova, a indicare un nuovo astro apparso all’improvviso nel cielo). Il berillio-7 è un isotopo instabile che decade nel corso di circa 53 giorni, trasformandosi in un altro elemento, il litio: la sua identificazione rappresenta un passo decisivo verso la comprensione della genesi del litio nell’universo. La scoperta, basata su osservazioni del satellite Integral dell’Agenzia Spaziale Europea (Esa) e pubblicata sulla rivista Astronomy & Astrophysics, fornisce una prova diretta e indipendente del ruolo cruciale delle nove come “fabbriche di litio”, il terzo elemento più leggero della tavola periodica.
Rappresentazione artistica di un sistema binario, progenitore di una nova classica, dove la componente primaria, una nana bianca, accresce materia da una compagna evoluta. Crediti: Nasa/Esa L. Hustak (STScI)
Il segnale osservato nei raggi gamma è associato all’esplosione della stella V1369 Centauri, registrata nel dicembre 2013. Grazie all’analisi dettagliata dei dati raccolti dallo spettrometro Spi, a bordo del satellite europeo, il gruppo di ricerca ha identificato una debole ma significativa emissione gamma con energia di 478 KeV, emessa dal berillio-7 prima del suo decadimento, e considerata la firma inequivocabile della presenza di questo elemento tra i prodotti dell’esplosione. Una volta terminato il processo di decadimento, tutto il berillio prodotto si trasformerà in litio, con un’abbondanza calcolata perfettamente compatibile con quella stimata dalle osservazioni ottiche della stessa nova effettuate nel 2015.
Una nova è un sistema binario in cui una nana bianca – il prodotto finale della vita di una stella come il Sole – sottrae idrogeno alla propria compagna, un’altra stella di piccola massa. Quando l’idrogeno si accumula sulla superficie della nana bianca, innesca una serie di reazioni termonucleari, provocando un’esplosione in grado di aumentare la luminosità del sistema fino a 100mila volte. Nonostante tempi evolutivi brevi, dell’ordine di giorni o settimane, questi eventi, che si verificano circa 30 volte l’anno nella Via Lattea, espellono quantità significative di gas, contribuendo all’evoluzione chimica della nostra galassia.
L’origine del litio rappresenta da decenni un problema aperto dell’astrofisica. Sebbene sia noto che una piccola parte del litio presente nell’universo odierno si sia formata nei primi minuti dopo il Big Bang, l’abbondanza osservata nelle stelle più antiche della Via Lattea è molto più bassa di quanto previsto dai modelli cosmologici (enigma noto come il “problema del litio primordiale”), mentre quella nelle stelle giovani è sorprendentemente più alta (“problema del litio galattico”).
Animazione che mostra la differenza in luminosità tra la quiescenza e la fase brillante di una nova classica, in questo caso, dell’esplosione recente della Nova Velorum 2025, scoperta da J. Seach and A. Pearce il 25 giugno 2025. Crediti: E. Guido e M. Rocchetto (Spaceflux)
«Osservazioni ottiche precedenti avevano stimato la quantità tipica di berillio-7 prodotta dalle esplosioni di nove», commenta Luca Izzo, primo autore dell’articolo e ricercatore Inaf. «Inizialmente, la distanza stimata di V1369 Centauri rendeva improbabile la rilevazione della riga a 478 keV. Ma grazie al satellite Gaia, abbiamo scoperto che la nova era molto più vicina (circa 3200 anni luce) di quanto stimato in precedenza, rendendo possibile la rilevazione da parte di Integral. Analizzando i dati di Integral, raccolti circa 25 giorni dopo l’esplosione, abbiamo trovato un eccesso alla frequenza di 478 keV. Misure accurate dell’intensità di questa riga indicano una quantità di berillio-7 che, una volta decaduto in litio, risulta perfettamente coerente con l’abbondanza di litio misurata tramite osservazioni spettroscopiche nell’ottico e nel vicino ultravioletto, sia in questa nova che, più in generale, in altre nove in cui è stato rilevato litio».
«Il problema dell’origine del litio ha sfidato gli astrofisici per decenni. Già cinquant’anni fa, teorici come Arnould, Norgaard e Starrfield ipotizzarono che le novae potessero essere la sua sorgente principale», afferma Massimo della Valle, tra gli autori del lavoro e associato Inaf. «Francesca D’Antona e Francesca Matteucci recepirono per prime questa intuizione nei loro modelli di evoluzione chimica della Via Lattea, mostrando che il contributo delle novae era essenziale. L’osservazione della riga a 478 keV è la prova dell’esistenza del berillio-7 negli inviluppi delle novae. Sebbene il rapporto segnale/rumore sia modesto, il fatto che l’emissione sia stata osservata in coincidenza temporale con l’esplosione della nova, esattamente all’energia prevista e con l’intensità attesa, rende altamente improbabile una coincidenza casuale, portando la significatività statistica ben oltre i 3 sigma».
Per saperne di più:
- Leggi l’articolo “Possible evidence for the 478 keV emission line from 7Be decay during the outburst phases of V1369 Cen”, di Izzo L., Siegert T., Jean P., Molaro P., Bonifacio P., Della Valle M. e Parsotan T., pubblicato online sulla rivista Astronomy & Astrophysics.
Licheni che sopravvivono a condizioni estreme
La questione se la Terra sia l’unico pianeta a ospitare la vita affascina l’umanità da millenni. Negli ultimi anni, gli scienziati si sono concentrati sugli esopianeti simili alla Terra, ritenuti i più promettenti. Tuttavia, molti di essi orbitano attorno a stelle che emettono radiazioni molto più intense rispetto a quelle presenti nel nostro sistema. Ora, un nuovo studio fornisce prove che la vita, così come la conosciamo, potrebbe essere in grado di prosperare anche in condizioni particolarmente estreme, come quelle indotte da queste radiazioni.
Pubblicata il 12 giugno sulla rivista Astrobiology, la ricerca dimostra che i licheni del deserto del Mojave sono sopravvissuti per tre mesi a livelli di radiazione solare finora considerati letali. Il lichene comune oggetto dello studio, Clavascidium lacinulatum, ha mostrato evidenti danni causati dalle radiazioni, ma è riuscito a riprendersi e a replicarsi. Questi risultati suggeriscono quindi che la vita fotosintetica, ossia la vita di organismi che utilizzano il processo della fotosintesi per produrre energia, potrebbe essere possibile anche su pianeti esposti a un’intensa radiazione stellare.
Clavascidium lacinulatum, o lichene a scaglie marroni, è una presenza comune nel deserto del Mojave. Crediti: Bob O’Kennan tramite iNaturalist
«Lo studio è nato da una curiosa osservazione», racconta Henry Sun, Professore Associato di Microbiologia presso il Dri e autore della ricerca. «Stavo camminando nel deserto quando ho notato che i licheni che crescono lì non sono verdi, ma neri. Eppure sono fotosintetici e contengono clorofilla, quindi ci si aspetterebbe che fossero verdi. Così mi sono chiesto quale fosse il pigmento che indossavano. Quel pigmento si è rivelato essere la miglior protezione solare al mondo».
La vita sulla Terra si è evoluta per resistere alle radiazioni ultraviolette Uva e Uvb, emesse dal Sole. I raggi Uvc, molto più pericolosi, vengono invece filtrati dall’atmosfera terrestre e non raggiungono la superficie. Proprio per la loro elevata letalità, i raggi Uvc vengono utilizzati per sterilizzare aria, acqua e superfici, eliminando microrganismi come virus e batteri.
Gli scienziati si sono chiesti se molti dei pianeti simili alla Terra scoperti negli ultimi anni possano effettivamente ospitare la vita. Gran parte di questi esopianeti orbita attorno a stelle di tipo M o F, che soprattutto durante le eruzioni stellari possono emettere intense radiazioni Uvc, potenzialmente letali per la vita così come la conosciamo.
Per cercare di ottenere una risposta, i ricercatori hanno prelevato esemplari di lichene dal deserto del Mojave e li hanno esposti per tre mesi consecutivi alla luce di una lampada Uvc in un ambiente di laboratorio controllato. Sorprendentemente, circa la metà delle cellule algali presenti nel lichene è rimasta vitale e ha ripreso a replicarsi una volta reidratata.
Per comprendere come ciò sia stato chimicamente possibile, gli scienziati hanno collaborato con i chimici dell’Università del Nevada, Reno, conducendo due esperimenti che hanno dimostrato come gli acidi prodotti dai licheni funzionino come l’equivalente naturale degli additivi usati per rendere la plastica resistente ai raggi Uv.
Henry Sun raccoglie licheni nel deserto del Mojave.Crediti: Henry Sun/Dri
Gli scienziati hanno analizzato lo strato protettivo del lichene tagliandone una sezione trasversale e hanno scoperto che la parte superiore era più scura, in modo simile all’abbronzatura della pelle umana. Il lichene è composto da alghe o cianobatteri che vivono in simbiosi con funghi. Quando le cellule algali sono state separate dai funghi e dal loro strato protettivo, l’esposizione alla stessa radiazione Uvc le ha uccise in meno di un minuto.
La scoperta che il lichene abbia sviluppato uno strato protettivo contro la radiazione Uvc è stata sorprendente, poiché tale protezione non è strettamente necessaria per la sua sopravvivenza: l’atmosfera terrestre, infatti, filtra naturalmente i raggi Uvc sin dall’epoca in cui i licheni hanno fatto la loro comparsa. Questo strato protettivo rappresenta quindi un vantaggio aggiuntivo, un “bonus” evolutivo non essenziale ma potenzialmente cruciale in contesti estremi.
Parte dei danni causati dall’esposizione a intense radiazioni solari deriva da reazioni chimiche che coinvolgono l’atmosfera, in particolare la produzione di ozono, che si forma quando ossigeno, monossido di azoto e radiazioni Uv interagiscono. Per valutare l’efficacia della protezione del lichene in diverse condizioni atmosferiche, i ricercatori lo hanno collocato in una camera priva di ossigeno e lo hanno esposto alla luce Uvc. Sorprendentemente, il danno da radiazioni si è ulteriormente ridotto.
«Siamo giunti alla conclusione che lo strato superiore del lichene – una pellicola spessa meno di un millimetro, se vogliamo – assicura che tutte le cellule sottostanti siano protette dalle radiazioni», continua Sun. «Questo strato agisce come stabilizzatore fotografico e protegge persino le cellule dalle reazioni chimiche dannose causate dalle radiazioni, inclusa quella reattiva dell’ossigeno».
Lo studio fornisce prove che altri pianeti oltre la Terra potrebbero essere abitabili. Secondo gli scienziati, potrebbero ospitare colonie di microrganismi simili ai licheni del deserto del Mojave: organismi “abbronzati”, praticamente immuni ai raggi Uvc.
«Questo lavoro rivela la straordinaria tenacia della vita anche nelle condizioni più estreme, ricordandoci che, una volta innescata, la vita tende a persistere», conclude Tejinder Singh del Goddard Space Flight Center. «Esplorando questi limiti, ci avviciniamo sempre di più alla comprensione di dove la vita possa essere possibile, oltre questo pianeta che chiamiamo casa».
Per saperne di più:
- Leggi su Astrobiology l’articolo “UVC-Intense Exoplanets May Not Be Uninhabitable: Evidence from a Desert Lichen” di Tejinder Singh, Christos D. Georgiou, Christopher S. Jeffrey, Matthew J. Tucker, Casey S. Philbin, Tanzil Mahmud, Christopher P. McKay, and Henry J. Sun
Con la super risoluzione, tracce di mondi in fasce
Quand’è che è possibile iniziare a cogliere i primi segni di un pianeta in formazione attorno a una giovane stella? Per capirlo, un team di ricerca guidato da Ayumu Shoshi dell’Università di Kyushu e dell’Academia Sinica ha rianalizzato i dati presenti nell’archivio di Alma relativi a 78 dischi protoplanetari nella regione di formazione stellare di Ofiuco, a 460 anni luce di distanza da noi, utilizzando una tecnica – nota come super-resolution imaging with sparse modeling (imaging a super risoluzione con modellazione sparsa) – in grado di aumentare a posteriori la risoluzione delle immagini. Oltre la metà delle immagini prese in esame hanno così raggiunto una risoluzione oltre tre volte superiore a quella di partenza, come si può vedere dall’animazione qui sotto. E da quello che le immagini mostrano emerge che i segnali di formazione planetaria attorno a stelle neonate potrebbero apparire prima del previsto.
Le immagini dei dischi protoplanetari nella regione di formazione stellare di Ofiuco a confronto, con e senza il ricorso alla tecnica di imaging a super risoluzione con modellazione sparsa. La risoluzione di ciascuna immagine è indicata dall’ellisse bianca in basso a sinistra di ogni riquadro: più l’ellisse è piccola, più la risoluzione è elevata. La linea bianca in basso a destra indica invece la scala e corrisponde a 30 unità astronomiche. Lo stadio evolutivo delle procede da sinistra a destra. Crediti: Alma (Eso/Naoj/Nrao), A. Shoshi et al.
I pianeti si formano in dischi composti da gas e polvere molecolare a bassa temperatura – i dischi protoplanetari – che si trovano attorno alle protostelle, stelle ancora in fase di formazione. I pianeti nascenti sono troppo piccoli per essere osservati direttamente, ma la loro gravità può dare origine a strutture come anelli o spirali – strutture che è possibile distinguere, queste sì, nel disco protoplanetario. Tuttavia, a causa del numero limitato di dischi protoplanetari sufficientemente vicini alla Terra da poter essere osservati ad alta risoluzione, è difficile risalire a quando queste strutture sono apparse per la prima volta.
È proprio per superare queste limitazioni che gli autori dello studio hanno fatto ricorso all’imaging a super risoluzione. Il metodo di imaging adottato consente la ricostruzione dell’immagine partendo da un presupposto più accurato rispetto all’approccio convenzionale comunemente usato in radioastronomia, permettendo così di arrivare a una risoluzione più elevata pur utilizzando gli stessi dati osservativi. In questo studio, in particolare, è stato utilizzato un software di pubblico dominio chiamato Priism (Python module for Radio Interferometry Imaging with Sparse Modeling), sviluppato da un team di ricerca giapponese.
Le nuove immagini ad alta risoluzione così ottenute mostrano strutture ad anello o a spirale in 27 dei 78 dischi analizzati. Combinando il nuovo campione con precedenti studi su una diversa regione di formazione stellare, gli autori dello studio hanno scoperto che le sottostrutture caratteristiche presenti nel disco emergono – in dischi più grandi di 30 unità astronomiche (un’unità astronomica è la distanza tra la Terra e il Sole) attorno a stelle nelle fasi iniziali della formazione stellare – appena poche centinaia di migliaia di anni dopo la nascita della stella. Ciò suggerisce che i pianeti inizino a formarsi in una fase molto più precoce di quanto si pensasse in precedenza, quando il disco possiede ancora abbondanti gas e polveri. In altre parole, concludono gli autori, i pianeti crescono insieme alle loro giovanissime stelle ospiti.
Per saperne di più:
- Leggi su Publications of the Astronomical Society of Japan l’articolo “ALMA 2D super-resolution imaging survey of Ophiuchus Class I/flat spectrum/II disks. I. Discovery of new disk substructures Open Access”, di Ayumu Shoshi, Masayuki Yamaguchi, Takayuki Muto, Naomi Hirano, Ryohei Kawabe, Takashi Tsukagoshi e Masahiro N Machida
Biomass, ecco le prime immagini
Lanciato meno di due mesi fa e attualmente nella fase di commissioning (o messa a punto degli strumenti per la campagna scientifica), Biomass ha già raccolto la sua prima serie di immagini.
«Biomass è dotato di una tecnologia spaziale innovativa, quindi ne abbiamo monitorato attentamente le prestazioni in orbita e siamo molto lieti di annunciare che tutto funziona senza intoppi e che le sue prime immagini sono a dir poco spettacolari, e sono solo un piccolo assaggio di ciò che ci aspetta», annuncia Michael Fehringer, responsabile del progetto Biomass all’Esa.
La foresta in Bolivia vista da Biomass. In nero, il fiume Beni, in verde le foreste pluviali e in blu-viola le praterie. L’immagine si estende per circa 90 km in lunghezza lungo la traiettoria di volo del satellite Biomass e per 60 km in larghezza, con il nord orientato a destra. Crediti: Esa
Prima di vederle insieme, però, spendiamo due parole su questo satellite. Partiamo dal nome, che già racchiude il soggetto e l’obiettivo della missione: biomass misurerà la biomassa legnosa – la materia organica che proviene da piante e animali e che si trova principalmente in tronchi, rami e fusti – allo scopo di valutare la quantità di carbonio immagazzinata. Per farlo, il satellite si avvale di un radar ad apertura sintetica in banda P (fra 225 e 480 MHz), il cui segnale è in grado di penetrare le chiome degli alberi e giungere fino al terreno. Le prime immagini non rientrano nel programma scientifico della missione e non forniscono ancora dati utili, ma – ha commentato la direttrice dei Programmi di osservazione della Terra dell’Esa Simonetta Cheli – mostrano che il satellite Biomass è pronto a mantenere le sue promesse. Vediamole insieme.
Confronto fra la foresta boliviana vista da Biomass (in basso) e vista da Copernicus Sentinel-2 nell’ottico (in alto). Grazie al suo radar in banda P, Biomass riesce a penetrare le chiome degli alberi e vedere il suolo. Crediti: Esa
La prima immagine mostra una parte della Bolivia, uno stato che ha subito una significativa deforestazione in favore dell’espansione agricola, classificandosi tra i paesi con il più alto tasso di perdita di foresta primaria a livello mondiale. L’immagine è stata creata utilizzando i diversi canali di polarizzazione dello strumento radar, e ogni colore rivela caratteristiche distinte del paesaggio: il verde rappresenta principalmente la foresta pluviale, il rosso le pianure alluvionali e le zone umide ricoperte di foreste, e il blu-viola indica le praterie, mentre le aree nere sono fiumi e laghi. Avrete notato com’è particolare il percorso di questo fiume, che sembra un tratto disegnato con la china. Si chiama Beni, scorre dalle Ande attraverso le pianure boliviane a nord-est verso il Brasile. Ma soprattutto, il suo corso è del tutto naturale: nel bacino amazzonico, infatti, alcuni fiumi scorrono liberi e non essendo ostacolati dalle dighe, sono liberi di serpeggiare.
Acquisita il 22 maggio 2025, questa immagine offre una vista suggestiva della foresta pluviale amazzonica nel Brasile settentrionale. Nella parte meridionale dell’immagine, le tonalità rosa e rosse rivelano la presenza di zone umide, evidenziando la capacità di Biomass di penetrare la fitta vegetazione e di individuare le caratteristiche fino al suolo della foresta. La predominanza di toni rossi lungo il fiume indica pianure alluvionali boscose, mentre l’area settentrionale, raffigurata in un verde intenso, rivela una topografia più accidentata e una copertura forestale densa e continua. L’immagine si estende per circa 100 km lungo la traiettoria di volo del satellite Biomass (lunghezza) e 60 km in larghezza, con il nord orientato verso l’alto. Crediti: Esa
La seconda immagine riprende la prima per farne un confronto con la stessa area vista dal satellite Copernicus Sentinel-2. Sebbene le due appaiano visivamente simili, l’immagine di Biomass offre molte più informazioni utili a quantificare le riserve di carbonio delle foreste. Ciò è dovuto principalmente al suo radar in banda P, che come dicevamo può penetrare le chiome e caratterizzare l’intera struttura forestale. Al contrario, l’immagine ottica di Sentinel-2 cattura solo le chiome.
Questa immagine di Biomass raffigura una foresta tropicale su alcune isole indonesiane. Si tratta della foresta pluviale di Halmahera, situata in un territorio montuoso, in gran parte di origine vulcanica. Diversi vulcani rimangono attivi nella zona, tra cui il Monte Gamkonora, visibile vicino alla costa settentrionale in questa immagine. L’immagine si estende per circa 120 km lungo la traiettoria di volo del satellite Biomass (lunghezza) e 60 km in larghezza, con il nord orientato verso la cima. Crediti: Esa
Arriviamo alla terza immagine, che in ordine di acquisizione da parte del satellite è in realtà la prima. Si tratta ancora della foresta pluviale amazzonica, ma questa volta sul Brasile settentrionale. Nella parte meridionale dell’immagine le tonalità rosa e rosse rivelano la presenza di zone umide, e mettono in luce la capacità di Biomass di penetrare nella fitta vegetazione e di individuare le caratteristiche fino al suolo della foresta. La predominanza di toni rossi lungo il fiume indica pianure alluvionali boscose, mentre l’area settentrionale, raffigurata in un verde intenso, rivela una topografia più accidentata e una copertura forestale densa e continua.
Biomass ha catturato questa immagine sul Gabon, in Africa. Il fiume Ivindo, vitale per la salute della foresta pluviale, è chiaramente visibile in questa suggestiva immagine. A parte il fiume e gli affluenti, l’immagine è prevalentemente verde, a rappresentare la fitta foresta. Crediti: Esa
Cambiamo continente con la quarta immagine, e ci spostiamo sulle isole indonesiane. Si tratta della foresta pluviale di Halmahera, situata in un territorio montuoso e in gran parte di origine vulcanica. Ci sono ancora diversi vulcani attivi nella zona, tra cui il Monte Gamkonora, visibile vicino alla costa settentrionale in alto nell’immagine. Questa vista dimostra un’altra potenzialità del radar in banda P, ovvero la rilevazione di caratteristiche topografiche.
Sudamerica, Indonesia, e infine Africa. Nella quinta immagine siamo in Gabon, e sorvoliamo il fiume Ivindo, vitale per la salute della foresta pluviale. Oltre al fiume e agli affluenti, l’immagine è prevalentemente verde, a rappresentare una fitta foresta.
Questa immagine mostra la straordinaria struttura di una parte del deserto del Sahara in Chad. Questa immagine copre parte dei Monti Tibesti, una catena montuosa nel Sahara centrale, situata principalmente nell’estremo nord del Chad. Crediti: Esa
Le ultime due immagini, infine, mostrano ambienti diversi del pianeta, che non rientrano fra i primi target di Biomass, ma che il satellite riesce comunque ad esplorare. Il suo radar infatti dovrebbe essere in grado di penetrare la sabbia asciutta fino a cinque metri di profondità, consentendo così di mappare e studiare le caratteristiche geologiche del sottosuolo nei deserti, come i resti di antichi letti di fiumi e laghi. Cosa che consente innanzitutto di studiare il clima del passato, ma anche a prospezionare le risorse idriche fossili nelle regioni desertiche. La sesta immagine, in alto, mostra quindi la straordinaria struttura di una parte del deserto del Sahara. Si vedono in particolare i Monti Tibesti, una catena montuosa del Sahara centrale, situata principalmente nell’estremo nord del Chad.
Questa immagine mostra una porzione dei vasti Monti Transantartici Antartici con il ghiacciaio Nimrod che sfocia nella piattaforma di ghiaccio di Ross. L’immagine si estende per circa 140 km lungo la traiettoria di volo del satellite Biomass (lunghezza) e 50 km in larghezza, con il nord orientato verso il basso. Crediti: Esa
Concludiamo questa carrellata vicino ai poli: sopra i vasti Monti Transantartici, in cui si vede il ghiacciaio Nimrod, che sfocia nella piattaforma di Ross. Di nuovo grazie al radar di Biomass, è possibile penetrare il ghiaccio in profondità, alla ricerca di preziose informazioni sulla velocità del ghiaccio e sulla sua struttura interna, capacità che i radar a lunghezza d’onda più corta non possono raggiungere efficacemente.
Cercasi Planet Nine disperatamente
La ricerca di un ulteriore pianeta nel Sistema solare è iniziata con la scoperta casuale di Urano ad opera di William Herschel nel 1781. Studiando il moto di Urano ci si accorse che appariva perturbato da un corpo sconosciuto e nel 1846, grazie al lavoro del matematico Urbain Le Verrier, fu trovato il pianeta Nettuno. Il moto di Urano continuava ad apparire perturbato anche tenendo conto dell’azione di Nettuno, da qui la ricerca di un ulteriore corpo perturbatore da parte degli astronomi Percival Lowell e William Pickering, che venne chiamato Pianeta X. La scoperta di Plutone nel 1930, grazie all’infaticabile lavoro osservativo dell’astronomo Clyde Tombaugh, aveva lasciato l’amaro in bocca: non poteva essere lui il perturbatore di Urano, era un corpo troppo piccolo. Nel 1992 si scoprì che le ulteriori perturbazioni nel moto di Urano erano dovute a un valore errato dello 0,5 per cento della massa di Nettuno e che non c’era nessun Pianeta X. La ricerca di un nuovo pianeta nel Sistema solare attraversò un lungo periodo di quiescenza fino al 20 gennaio 2016, quando venne pubblicato su The Astronomical Journal un famoso articolo dal titolo “Evidence for a distant giant planet in the solar system” a firma di Batygin & Brown. Si tratta di un articolo teorico che ha come punto di partenza l’orientamento orbitale dei corpi noti più distanti appartenenti alla fascia di Kuiper, la fascia asteroidale che si trova oltre l’orbita di Nettuno. Considerando i trans-Nettuniani remoti ossia i corpi con semiasse maggiore più grande di 250 au (corpi che non sono perturbati gravitazionalmente da Nettuno), nel paper si esaminano sette oggetti (fra cui Sedna), che hanno orbite ellittiche grosso modo tutte orientate e inclinate nello stesso modo. Nell’articolo gli autori mostrano che un simile allineamento casuale è molto improbabile e che deve esistere un qualche motivo fisico per la sua esistenza.
Rappresentazione artistica di Planet Nine. Crediti: Nasa
Nel paper di Batygin & Brown si dice che una possibile spiegazione per questo allineamento delle orbite potrebbe essere la presenza di un pianeta con una massa di circa dieci volte quella terrestre, posto su un’orbita abbastanza eccentrica, avente un raggio medio di circa 700 au e che verrebbe percorsa in circa 18mila anni. Il valore di dieci masse terrestri per la massa di questo ipotetico pianeta lo fa ricadere nella classe dei pianeti chiamati genericamente super-Terre. Nell’articolo il pianeta viene chiamato Planet Nine, ma viene indicato anche come Planet X. Tuttavia, diversi studi successivi sostengono che il raggruppamento degli oggetti trans-nettuniani remoti derivi semplicemente da un bias osservativo.
Alla luce di queste interpretazioni contrastanti, un recente articolo di Batygin et al., pubblicato nel 2024, ha presentato i risultati di una nuova simulazione sulle orbite dei Tno (oggetto transnettuniani) a lungo periodo. Gli autori correggono per i bias osservativi e confrontano il risultato della loro simulazione con la distribuzione del perielio di 17 Tno a lungo periodo tratti dal database del Minor Planet Center. Il risultato mostra che la distribuzione del perielio di questi Tno contrasta in modo significativo con lo scenario senza Planet Nine: in poche parole, il pianeta ci deve essere. Diversi articoli teorici hanno anche fornito ulteriori previsioni sulle caratteristiche di questo fantomatico pianeta. La simulazione più aggiornata suggerisce che Planet Nine si trovi su un’orbita avente un semiasse maggiore di 380 au, con una distanza del perielio di 300 au e una massa pari a circa sei masse terrestri.
Dall’ottico all’infrarosso
Data la posta in gioco, ci sono diversi team di ricercatori che stanno andando a “caccia” di Planet Nine, sia nell’ottico, sia nell’infrarosso, finora con scarso successo. Ad esempio, nessun traccia del pianeta è stata trovata nei dati del satellite Wise (Wide-field Infrared Survey Explorer) e Neowise, mentre l’analisi dei dati nelle onde millimetriche ottenute dell’Atacama Cosmology Telescope ha fornito dieci possibili candidati che andranno verificati. Le stime ci dicono che Planet Nine ha una temperatura compresa tra -220 e -245 °C, con un picco di emissione nel lontano infrarosso fra 50 e 100 micron. Inoltre, in base al periodo orbitale di circa 7500 anni si può stimare un moto proprio medio dell’ordine di 0,5 arcsec/giorno. Per vedere uno spostamento sensibile del pianeta sulla sfera celeste bisogna aspettare circa un mese, così che possa spostarsi di 10-15 arcsec. Con queste caratteristiche, per poterlo rilevare bisogna avere a disposizione dati della stessa zona della sfera celeste ripresi a distanza di mesi e nel lontano infrarosso, dove c’è il picco di emissione del pianeta stesso.
Rappresentazione artistica del telescopio spaziale Akari. Crediti: Jaxa
A questo scopo, recentemente è stata fatta una ricerca all’interno del database del satellite infrarosso giapponese Akari che, dotato di un telescopio raffreddato con elio liquido di 68,5 cm di diametro, fece una survey nel lontano infrarosso fra il febbraio 2006 e l’agosto 2007. Questa missione ha esaminato tutto il cielo in quattro bande fotometriche centrate alle lunghezze d’onda di 65, 90, 140 e 160 micron con una risoluzione angolare che va da 1 a 1,5 minuti d’arco. Le bande in cui ha osservato Akari corrispondono al probabile picco di emissione infrarossa di Planet Nine e la risoluzione è sufficiente per mettere in evidenza il moto del pianeta nell’arco di circa sei mesi. Per la ricerca è stata usata una versione speciale del catalogo di Akari alla lunghezza d’onda di 90 micron, con incluse tutte le sorgenti, anche quelle molto deboli e in movimento, che nelle release ufficiale erano state tolte. Da questo nuovo catalogo le sorgenti stazionarie sono state tolte confrontando la loro posizione con quelle presenti in altri cataloghi, così come gli oggetti già noti del Sistema solare. Tolti i raggi cosmici sono rimaste solo 13 sorgenti, di cui tre con un elevato moto proprio che sono risultati nuovi asteroidi. Dei dieci candidati rimasti, otto sono stati eliminati perché non più presenti a distanza di un anno entro una distanza angolare paragonabile al moto proprio di Planet Nine, così ne sono rimaste solo due. Per confermare se una di queste sorgenti infrarosse che si sono mosse sia effettivamente Planet Nine bisognerebbe determinarne l’orbita. Tuttavia, due sole posizioni distinte sono insufficienti, pertanto sono necessarie osservazioni di follow-up che potranno essere condotte utilizzando il telescopio Subaru, che ha un diametro di 8,2 metri ed è sulla cima del Mauna Kea, nell’Isola di Hawaii.
Se fosse effettivamente scoperto, Planet Nine potrebbe giustificare diverse cose. Ad esempio, perché i Tno a lungo periodo nella fascia di Kuiper sono, in media, inclinati di circa 20° rispetto al piano dell’eclittica; perché queste orbite a lungo periodo hanno un raggruppamento nei loro orientamenti; perché esistono corpi minori fra le orbite dei pianeti giganti che orbitano in senso retrogrado; e, infine, perché esistono Tno le cui orbite intersecano quella di Nettuno. La presenza di Planet Nine potrebbe far sembrare il nostro Sistema solare anche un po’ più “normale” rispetto agli altri: nei sistemi planetari extrasolari sono infatti molto comuni le super Terre, pianeti con una massa compresa fra 2 e 10 volte quella della Terra ossia più grandi della Terra ma più piccoli di Nettuno. Nel Sistema solare questa tipologia di pianeti è assente e Planet Nine contribuirebbe a colmare questa lacuna. La caccia continua.
Per saperne di più:
- Leggi su Publications of the Astronomical Society of Australia l’articolo “A far-infrared search for planet nine using AKARI all-sky survey” di Amos Y.A. Chen et al.
Polvere lunare, un respiro di sollievo
media.inaf.it/2025/06/25/regol…
Mentre la Nasa si prepara a riportare gli astronauti sulla Luna per la prima volta dopo oltre 50 anni, un nuovo studio della University of Technology di Sydney (Uts, Australia) annuncia una notizia rassicurante: la polvere lunare è meno dannosa per le cellule polmonari umane di quanto si temesse in precedenza e decisamente meno tossica rispetto all’inquinamento atmosferico che respiriamo ogni giorno sulla Terra.
Pubblicato sulla rivista Life Sciences in Space Research, la ricerca ha analizzato l’impatto di simulanti di nuova generazione della polvere lunare su cellule polmonari umane, confrontandolo con quello delle particelle inquinanti raccolte da una strada trafficata di Sydney. Le analisi mostrano che, sebbene la polvere lunare tagliente e abrasiva possa agire come irritante fisico, non provoca l’infiammazione o i gravi danni cellulari osservati con la polvere urbana terrestre.
«È importante distinguere tra un irritante fisico e una sostanza altamente tossica», osserva Michaela Smith, prima autrice dello studio e dottoranda all’Uts. «I nostri risultati suggeriscono che, sebbene la polvere lunare possa causare un’irritazione immediata delle vie respiratorie, non sembra rappresentare un rischio per malattie croniche a lungo termine come la silicosi, che è causata da materiali come la polvere di silice».
Immagine al microscopio di campioni di simulante di polvere lunare. Crediti: Michaela B. Smith
La salute degli astronauti era una preoccupazione già dopo le prime missioni Apollo, durante le quali i membri dell’equipaggio riportarono problemi respiratori. In effetti, la principale via di esposizione alla polvere lunare si verificava dopo le attività extraveicolari. «Quando gli astronauti rientravano nel modulo di atterraggio, la polvere fine che si era attaccata alle loro tute spaziali rimaneva sospesa nell’aria della cabina e veniva successivamente inalata, causando problemi respiratori, starnuti e irritazioni agli occhi», spiega Smith.
L’esperimento si è concentrato sulle particelle di polvere fine, ovvero quelle più piccole di 2,5 micrometri, abbastanza piccole da superare le difese naturali del corpo e penetrare in profondità nelle vie respiratorie. L’esposizione ai simulanti lunari ha provocato nelle cellule polmonari analizzate una risposta infiammatoria molto più contenuta rispetto a quella osservata con le particelle urbane. Inoltre, non sono stati rilevati segnali significativi di stress ossidativo, un importante indicatore di tossicità cellulare. Il meccanismo principale di danno associato alla polvere lunare sembra dunque essere meccanico, piuttosto che chimico, legato alla forma irregolare e ai bordi affilati delle particelle.
Sebbene i risultati indichino un rischio ridotto, la Nasa sta comunque sviluppando nuove soluzioni ingegneristiche per limitare l’esposizione alla polvere lunare. Tra queste, il design delle nuove tute spaziali, che saranno appese esternamente ai rover e non entreranno mai nelle cabine abitabili. «L’astronauta vi entra e ne esce dall’interno e la tuta non entrerà mai dentro il veicolo, il che impedisce alla tuta polverosa di contaminare l’ambiente interno della cabina», dice Smith.
La ricerca condotta all’Uts rafforza dunque la fiducia nella possibilità di vivere e lavorare sulla Luna in vista delle prossime missioni Artemis e apre la strada a nuovi studi su come l’ambiente spaziale influisca sulla salute umana.
Per saperne di più:
- Leggi su Life Sciences in Space Research l’articolo “Lunar dust induces minimal pulmonary toxicity compared to Earth dust”, di Michaela B Smith, Joshua Chou, Dikaia Xenaki, Xu Bai, Hui Chen e Brian G G Oliver
Gli alogeni e il destino della crosta lunare
In una notte limpida, la Luna che vediamo in cielo è la stessa che osservavano i primi esseri umani comparsi sulla Terra. Da miliardi di anni, ci mostra sempre la stessa faccia: un volto segnato da grandi distese scure, i cosiddetti “mari”, e da altipiani chiari. Si ritiene che la Luna si sia formata circa 4,5 miliardi di anni fa, in seguito a un colossale impatto tra la Terra e un corpo celeste delle dimensioni di Marte, noto come Theia. L’energia liberata da questa collisione avrebbe generato un oceano di magma che avvolse sia la Terra sia la giovane Luna. Il successivo raffreddamento di questo magma avrebbe dovuto dare origine a una Luna solida e relativamente omogenea, con una crosta simile su tutta la superficie. Tuttavia, non è andata così. L’emisfero rivolto verso di noi, chiamato lato visibile della Luna, è molto diverso dalla sua metà opposta, il lato nascosto. Quest’ultimo è caratterizzato da un paesaggio più chiaro e montuoso, con pochissime tracce dei mari scuri presenti invece sul lato visibile.
Circa 4,5 miliardi di anni fa, la Luna era coperta da un oceano di magma. La solidificazione dovrebbe aver prodotto una crosta ricca di plagioclasio. Questa appare solo nel nascosto della Luna, mentre il lato vicino è in gran parte coperto da scuro basalto. Crediti: Jiejun Jing
I “mari” lunari scuri, o maria in latino, sono composti da magmi basaltici diffusi, eruttati per lo più circa 3,5 miliardi di anni fa sul lato vicino, con pochissime eruzioni sul lato lontano. Ciò evidenzia una storia evolutiva distinta per questi due emisferi. Perché e come è successo? Secondo uno studio pubblicato su Nature Communications, il segreto che ha trasformato la Luna in due mondi così diversi potrebbe essere sepolto nelle minuscole quantità di alogeni (ad esempio, fluoro e cloro) presenti nei campioni lunari.
Le concentrazioni di alogeni nei minerali lunari offrono quindi una finestra preziosa sull’evoluzione della Luna. Tuttavia, la nostra comprensione di come questi elementi vengano incorporati nei minerali e nelle rocce fuse è ancora limitata, e ciò ne ha ostacolato l’applicazione nei modelli evolutivi.
Per superare questo ostacolo, un team di ricercatori del Geodynamics Research Center dell’Università di Ehime (Giappone), in collaborazione con colleghi dell’Università di Münster (Germania) e della Vrije Universiteit di Amsterdam (Paesi Bassi), ha condotto esperimenti in condizioni di alta pressione e alta temperatura che hanno permesso di ottenere nuovi dati fondamentali su come il cloro si distribuisce tra i minerali lunari e il magma con cui coesistono.
Integrando le abbondanze di alogeni misurate in campioni di crosta lunare con modelli dell’evoluzione dell’interno lunare, i ricercatori hanno scoperto che i campioni provenienti dal lato visibile della Luna sono sorprendentemente ricchi di cloro. Al contrario, le rocce del lato nascosto non mostrano lo stesso arricchimento. I ricercatori forniscono prove che collegano questo arricchimento all’incorporazione di composti gassosi del cloro da parte delle rocce lunari vicine. Una scoperta, questa, che contribuisce a spiegare perché i due emisferi lunari abbiano seguito percorsi evolutivi così diversi.
Questa scoperta indica l’esistenza di un vapore diffuso ricco di cloruri – con il cloro probabilmente presente sotto forma di composti metallici – soprattutto sul lato visibile della Luna, suggerendo che la presenza di tale vapore potrebbe essere direttamente collegata alla dicotomia tra i due emisferi lunari. Considerando che il cloro è un elemento altamente volatile, è possibile che questo metasomatismo in fase di vapore sia stato innescato da eventi di degassamento – provocati da impatti o eruzioni – associati alle vaste distese di basalti che compongono i maria lunari nella regione del Procellarum Kreep. Al contrario, le rocce crostali provenienti dal lato nascosto della Luna, che non mostrano arricchimenti in cloro, sembrano essersi formate da magmi originati nell’interno lunare circa 4,3 miliardi di anni fa. Attraverso la modellazione del rapporto tra fluoro e cloro, i ricercatori hanno identificato un tipo particolare di roccia crostale lunare – la cosiddetta Mg-suite – proveniente probabilmente da un mantello profondo che conterrebbe tracce residue dell’antico oceano magmatico lunare formatosi circa 4,5 miliardi di anni fa, poco dopo la nascita della Luna.
I vapori ricchi di cloro, rilasciati durante eruzioni vulcaniche o generati dall’evaporazione causata da impatti, hanno avuto un ruolo cruciale nel modellare il lato visibile della Luna. Queste attività hanno alterato in modo significativo la chimica della superficie, contribuendo alla sua evoluzione unica. Al contrario, il lato nascosto della Luna è rimasto al riparo da tali processi. La sua crosta, non influenzata dai vapori vulcanici, ha conservato una composizione più primitiva, preservando preziose informazioni sull’antico oceano magmatico lunare, formatosi poco dopo la nascita del nostro satellite. Questa scoperta sottolinea l’importanza scientifica delle missioni lunari più recenti, che hanno rivolto la loro attenzione proprio al lato lontano della Luna, svelando nuovi indizi sull’origine e l’evoluzione del nostro satellite naturale.
Per saperne di più:
- Leggi su Nature Communications l’articolo “Halogen abundance evidence for the formation and metasomatism of the primary lunar crust” di Jie-Jun Jing, Jasper Berndt, Hideharu Kuwahara, Stephan Klemme & Wim van Westrenen
Onde gravitazionali: rivelazioni rivoluzionarie
Matteo Barsuglia, “La rivoluzione delle onde gravitazionali”, Hoepli, 2025, 206 pagine, 19,90 euro
Nel panorama dei tagli draconiani proposti dall’amministrazione Trump per tutte le istituzioni scientifiche che ricevono fondi federali, una delle più colpite è la National Science Foundation, che ha il torto di occuparsi di ricerca fondamentale, finanziando esperimenti che non sembrano avere alcuna utilità pratica. Se tagli di questa entità fossero avvenuti dieci anni fa, dubito che le onde gravitazionali sarebbero state rivelate. L’esperimento Ligo (per Laser Interferometer Gravitational Observatory) avrebbe potuto essere etichettato come sperpero del denaro pubblico, la campagna di osservazione cancellata e il personale licenziato. La decisione avrebbe potuto essere facilmente spiegata sulla base della mancanza di risultati.
Ligo è un esperimento complesso e costoso proposto nel 1983 per rivelare le onde gravitazionali ed entrato in funzione nel 2005 senza, però, produrre alcun risultato nei corso dei dieci anni successivi. Dopo tutto, Einstein stesso era convinto che le onde gravitazionali fossero impossibili da rivelare perché al di là delle capacità degli strumenti di misura. Si tratta di minuscole increspature che viaggiano alla velocità della luce allungando lo spazio in una direzione e comprimendolo in direzione perpendicolare. Sono prodotte a seguito di catastrofi cosmiche che coinvolgono corpi celesti di grande massa, ma la distorsione è ben più piccola delle dimensioni di un protone e questo pone sfide tecnologiche al limite del possibile. Chissà se, sapendo tutto questo, lo studente Matteo Barsuglia avrebbe fatto domanda per uno stage estivo al progetto Virgo, uno stage che gli ha cambiato la vita, spingendo la sua ricerca proprio verso la mission impossible che ora ci fa vivere nel suo libro La rivoluzione delle onde gravitazionali.
I primi rivelatori basati sul principio della barra risonante risalgono agli anni ‘60. Il passaggio di un’onda gravitazionale avrebbe fatto oscillare una barra di alluminio che avrebbe continuato a vibrare dopo il passaggio dell’onda, rendendo la misurazione più facile. Rimane vero, però, che rivelare un’onda che ritmicamente stira e comprime di pochissimo lo spazio è un compito difficilissimo perché qualsiasi effetto terrestre, il traffico su una lontana autostrada, un treno, persino le onde dell’oceano distante chilometri, hanno un effetto più grande di quello causato dal passaggio di un’onda gravitazionale. Isolare da ogni effetto esterno i rivelatori era, ed è, una sfida estremamente difficile. Per questo si pensò di utilizzare la tecnica degli interferometri laser molto distanti tra loro per selezionare solo i segnali che venivano registrati da entrambi.
Nel frattempo, i radioastronomi avevano fornito prove inconfutabili dell’esistenza delle onde gravitazionali prodotte da stelle di neutroni che danzano in un sistema binario, ma si trattava di una evidenza indiretta. Gli interferometri laser, invece, volevano rilevare direttamente la distorsione, nonostante il rumore sismico e antropico del nostro pianeta fosse preponderante. Questo non aveva dissuaso un folto gruppo di scienziati che avevano deciso di dedicarsi alla caccia dell’increspatura infinitesimale. Così negli Stati Uniti era nato Ligo, composto da due rivelatori posti il più distante possibile, uno nello stato di Washington e uno in Louisiana, in modo che i disturbi di uno fossero diversi dai disturbi dell’altro. In Europa era nata la collaborazione Ego (European Gravitational Observatory), che vedeva Italia e Francia giocare un ruolo prominente per costruire un interferometro nella campagna vicino a Pisa. Lo strumento era stato chiamato Virgo, con riferimento all’ammasso della Vergine.
Ligo e Virgo unirono le forze nel 2007 al fine di migliorare il potenziale di scoperta grazie ad una migliore localizzazione degli eventi resa possibile da una sorta di triangolazione tra gli strumenti. Tuttavia il tempo passava e i risultati non c’erano. Per alcuni era una sfida a fare sempre meglio, per altri era demoralizzante. Barsuglia racconta che uno dei suoi colleghi teneva sulla scrivania una copia del Deserto dei tartari perché si sentiva come il protagonista che passava la vita ad aspettare il nemico che non arrivava mai.
Invece, per fortuna, nel 2015 lo strumento Ligo, reso più sensibile da diverse migliorie tecnologiche, ha iniziato la sua prima campagna osservativa con un botto neanche tanto metaforico. Un segnale talmente forte che gli stessi sperimentatori facevano fatica a credere fosse reale. La fusione di due buchi neri di 30 masse solari ciascuno, avvenuta 1,3 miliardi di anni fa, ha travolto gli scienziati. Ma la notizia doveva essere tenuta segreta: mille fisici dovevano coordinarsi per scrivere un articolo epocale senza lasciare che nulla trapelasse. Poi è arrivato il momento della conferenza stampa trionfale alla National Science Foundation a Washington, dove Barsuglia partecipa in rappresentanza del contributo francese a Virgo che, purtroppo, ancora non funziona. Finalmente inizia a operare nell’agosto 2017 e contribuisce a un altro risultato epocale: la rivelazione dell’onda gravitazionale causata dalla fusione di sue stelle di neutroni che emettono anche un segnale gamma seguito da uno ottico localizzato nella galassia Ngc 4993. Questa volta l’articolo della scoperta viene scritto da un gruppo più numeroso: tra fisici gravitazionali, astronomi gamma, astronomi X e astronomi ottici il conteggio degli autori arriva a 3600. Per la cronaca, ci sono anch’io, ed è uno dei miei articoli più citati.
Un ponte di gas tra quattro ammassi di galassie
Più di un terzo della materia ordinaria dell’universo – quella visibile che costituisce stelle, pianeti, galassie e la vita stessa – risulta mancare all’appello. Pur non essendo ancora stata osservata direttamente, questa materia è considerata indispensabile per far funzionare correttamente i nostri modelli. Tali modelli suggeriscono che potrebbe risiedere in lunghe strutture di gas, o filamenti, che collegano le regioni più dense dello spazio. Anche se in passato sono già stati individuati alcuni filamenti, risulta difficile analizzarne le proprietà: sono infatti tipicamente deboli, il che rende complicato isolare la loro luce da quella emessa da galassie, buchi neri e altri oggetti circostanti.
Mentre la materia oscura e l’energia oscura costituiscono rispettivamente circa il 25 e il 70 per cento dell’universo osservabile, la materia ordinaria – quella che forma tutto ciò che possiamo vedere, dalle stelle alle galassie, dai pianeti alle persone – rappresenta solo circa il 5 per cento. Di questa (piccola) percentuale, le stelle costituiscono appena il 7 per cento; il gas freddo interstellare che permea le galassie, ossia la materia prima per la formazione stellare, ammonta a circa l’1,8 per cento, mentre il gas caldo e diffuso negli aloni che circondano le galassie rappresenta circa il 5 per cento. Il gas ancora più caldo che riempie gli ammassi di galassie – le più grandi strutture cosmiche tenute insieme dalla gravità – ne costituisce un ulteriore 4 per cento. Nel corso degli anni, gli scienziati sono riusciti a individuare una buona parte di materia barionica intergalattica, soprattutto la sua componente fredda (circa il 28 per cento) e la sua componente calda (circa il 15 per cento). Tuttavia, manca all’appello circa un terzo di materia barionica. Crediti: Esa, Space Science, Xmm/Newton
Ora, una nuova ricerca è riuscita a individuare e caratterizzare con precisione un singolo filamento di gas caldo che si estende tra quattro ammassi di galassie nel vicino universo. «Per la prima volta, i nostri risultati corrispondono fedelmente a quanto previsto dal nostro principale modello cosmologico, cosa che non era mai accaduta prima», afferma Konstantinos Migkas dell’Osservatorio di Leiden, nei Paesi Bassi, primo autore dello studio. «Sembra che le simulazioni abbiano sempre avuto ragione».
Con una temperatura superiore ai 10 milioni di gradi, il filamento contiene circa dieci volte la massa della Via Lattea e collega quattro ammassi di galassie: due da un lato e due dall’altro. Tutti e quattro gli ammassi appartengono al Superammasso di Shapley, un insieme di oltre 8mila galassie che costituisce una delle strutture più massicce dell’universo locale. Il filamento si estende in diagonale attraverso il superammasso per circa 23 milioni di anni luce, una distanza equivalente ad attraversare la Via Lattea da un capo all’altro per circa 230 volte.
Questa immagine mostra il nuovo filamento scoperto, che collega quattro ammassi di galassie: due situati a un’estremità e due all’altra. Gli ammassi sono visibili come punti luminosi nella parte inferiore e superiore del filamento (quattro punti bianchi circondati da un alone colorato). Tra questi punti si estende una banda di colore viola, che risalta nettamente contro lo sfondo nero del cielo: si tratta del filamento di gas caldo, mai osservato prima, che emette deboli raggi X e che potrebbe contenere parte della materia “mancante” dell’universo. La banda viola rappresenta i dati raccolti dal telescopio Suzaku. Grazie alle osservazioni di Xmm-Newton, gli astronomi sono riusciti a identificare e rimuovere tutte le possibili sorgenti “contaminanti” X presenti nel filamento, come i buchi neri supermassicci, isolando così un segnale puro di materia “mancante”. Queste sorgenti contaminanti appaiono qui come punti luminosi distribuiti lungo il filamento e sono state accuratamente eliminate dall’analisi. Crediti: Esa/Xmm-Newton and Isas/Jaxa
Konstantinos e i suoi colleghi hanno caratterizzato il filamento combinando osservazioni ai raggi X effettuate dai telescopi Xmm-Newton e Suzaku con l’analisi di dati ottici raccolti da altri telescopi. I due telescopi a raggi X si sono rivelati partner ideali. Suzaku ha mappato la debole emissione a raggi X del filamento su un’ampia regione dello spazio, mentre Xmm-Newton ha individuato con grande precisione le sorgenti “contaminanti” a raggi X, ossia i buchi neri supermassicci situati all’interno del filamento. «Grazie a Xmm-Newton abbiamo potuto identificare e rimuovere questi contaminanti cosmici, così da essere certi di osservare esclusivamente il gas nel filamento», aggiunge il coautore Florian Pacaud dell’Università di Bonn, in Germania. «Il nostro approccio si è dimostrato davvero efficace e conferma che il filamento è esattamente come previsto dalle migliori simulazioni su larga scala dell’universo».
Questa immagine rappresenta una simulazione della “ragnatela cosmica”, la vasta rete di filamenti che si estende in tutto l’universo. Stelle, galassie e ammassi di galassie nascono nei nodi più densi di questa ragnatela e rimangono collegati da vasti fili che si estendono per molti milioni di anni luce. L’inquadratura è centrata su un ammasso di galassie. I colori cambiano da sinistra a destra, rappresentando la densità di materia oscura (a sinistra, in blu-viola) e la densità di gas (a destra, in rosso-arancio). Crediti: Esa, Illustris
Oltre a rivelare un enorme e inedito filamento di materia che attraversa l’universo locale, la scoperta mostra come alcune delle strutture più dense ed estreme dell’universo – gli ammassi di galassie – siano collegate tra loro a distanze colossali. Inoltre, getta nuova luce sulla natura stessa della “rete cosmica”, la vasta e invisibile ragnatela di filamenti che costituisce l’impalcatura dell’universo e su cui si fonda la distribuzione di tutta la materia visibile.
«Questa ricerca è un ottimo esempio di collaborazione tra telescopi e stabilisce un nuovo punto di riferimento per individuare la luce proveniente dai deboli filamenti della rete cosmica», conclude Norbert Schartel, scienziato del progetto Xmm-Newton. «Ancora più fondamentale, rafforza il nostro modello cosmologico standard e convalida decenni di simulazioni: sembra proprio che la materia “mancante” possa davvero nascondersi in sottili filamenti difficili da osservare, intrecciati attraverso l’universo».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Detection of pure warm-hot intergalactic medium emission from a 7.2 Mpc long filament in the Shapley supercluster using X-ray spectroscopy” di K. Migkas, F. Pacaud, T. Tuominen and N. Aghanim
Le prime immagini del Vera Rubin Observatory
Il Vera C. Rubin Observatory, situato a oltre 2.600 metri di altitudine sul Cerro Pachón, in Cile, è pronto a rivoluzionare l’astronomia moderna. A dimostrarlo, le nuove immagini che verranno svelate oggi al mondo e che mostrano le regioni di formazione stellare Laguna e Trifida, rispettivamente a 4000 e 5000 anni luce da noi, nella costellazione del Sagittario, le galassie dell’ammasso della Vergine, a circa 60 milioni di anni luce e molto altro ancora. In meno di dieci ore di osservazioni, il potente telescopio ha già catturato una moltitudine di galassie e stelle nella nostra galassia, la Via Lattea, nonché moltissimi asteroidi nel nostro “vicinato cosmico”, il Sistema solare. Queste immagini e video, che verranno presentate in Italia durante il Watch Party nella Sala Piersanti Mattarella del Palazzo dei Normanni a Palermo, sono solo un assaggio delle straordinarie scoperte che questo osservatorio all’avanguardia potrà realizzare.
Questa immagine combina 678 scatti distinti realizzati dal Vera C. Rubin Observatory in poco più di sette ore di osservazione. Unendo così tante immagini, emergono in modo chiaro dettagli altrimenti deboli o invisibili, come le nubi di gas e polveri che costituiscono la Nebulosa Trifida (anche nota come M 20 o NGC 6514, in alto a destra) e la Nebulosa Laguna (anche nota come M 8 o Ngc 6523), entrambe situate a diverse migliaia di anni luce dalla Terra. Crediti: Nsf-Doe Vera C. Rubin Observatory
Frutto di una vasta collaborazione scientifica internazionale, il Vera C. Rubin Observatory è stato progettato per realizzare la più estesa mappatura continua del cielo australe mai tentata grazie alla Legacy Survey of Space and Time (Lsst), una campagna osservativa che, ogni notte per i prossimi dieci anni, raccoglierà una quantità di dati sull’universo senza precedenti (nello specifico circa 20 terabyte a notte).
Dal 2017 l’Italia partecipa attivamente al progetto attraverso l’Istituto nazionale di astrofisica (Inaf), che rappresenta il nostro paese nella comunità scientifica internazionale del Vera C. Rubin Observatory e coordina il contributo italiano all’analisi scientifica dei dati. L’Inaf svolge un ruolo fondamentale anche nella gestione e nell’analisi di questa enorme mole di dati, garantendo alla comunità scientifica italiana l’accesso a questa straordinaria risorsa, promuovendo il contributo nazionale all’analisi e all’interpretazione dei dati, alla formazione di giovani ricercatori e ricercatrici, al raggiungimento di importanti risultati scientifici che apriranno nuove sfide, e allo sviluppo di tecnologie avanzate.
Questa immagine mostra una piccola sezione della vista complessiva dell’ammasso della Vergine ottenuta dal Vera C. Rubin Observatory. Sono visibili due prominenti galassie a spirale (in basso a destra), tre galassie in fase di fusione (in alto a destra), diversi gruppi di galassie lontane, molte stelle appartenenti alla Via Lattea e altro ancora. Crediti: Nsf-Doe Vera C. Rubin Observatory
«L’Osservatorio Vera C. Rubin ci consentirà di aggiungere profondità e dinamismo all’osservazione dell’universo», dice Roberto Ragazzoni, presidente Inaf. «Con questo telescopio di classe 8 metri in grado di mappare continuamente il cielo australe ogni tre giorni, entriamo nell’epoca dell’astro-cinematografia, esplorando una nuova dimensione: quella del tempo, con la quale ci aspettiamo di studiare il cosmo con una nuova prospettiva, che oggi è possibile grazie anche all’uso di nuove tecnologie informatiche per trattare una mole di dati altrimenti imperscrutabile. L’Istituto nazionale di astrofisica, con le sue ricercatrici e ricercatori, anche in questa occasione coglie l’opportunità di partecipare a questo nuovo importante progetto».
Al centro del progetto c’è la fotocamera astronomica più grande mai costruita: 3.200 megapixel, capace di riprendere ogni notte enormi porzioni del cielo australe con sensibilità e risoluzione eccezionali. Ogni immagine copre un’area del cielo grande come 45 volte la luna piena e per ammirarla in tutta la sua risoluzione servirebbero 400 monitor televisivi da 4K. Grazie a un design innovativo, il Rubin Observatory sarà in grado di puntare una nuova porzione di cielo in meno di cinque secondi, osservando l’intero cielo australe in circa 3-4 notti. Nel corso del prossimo decennio, l’osservatorio sarà dunque in grado di riprendere ogni regione del cielo circa 800 volte, creando così un vero e proprio “film” del cosmo ad altissima risoluzione.
L’immagine, scattata nel maggio 2025, mostra il bagliore dell’atmosfera all’orizzonte e, in basso a destra, la galassia della Piccola Nube di Magellano. La fascia centrale della nostra Galassia, la Via Lattea, sembra emergere direttamente dal Rubin Observatory Nsf–Doe. Crediti: RubinObs/NoirLab/Slac/Doe/Nsf/Aura/Paulo Assunção Lago
«Il Vera C. Rubin Observatory e il suo primo progetto Lsst sono un’opportunità unica per la nuova generazione», commenta Sara (Rosaria) Bonito, la quale rappresenta l’Inaf nel Board of Directors della Lsst Discovery Alliance del Vera C. Rubin Observatory ed è co-chair della Transients and Variable Stars Science Collaboration (Tvssc). «È una grande eredità per chiunque voglia avvicinarsi alle discipline scientifiche, offrendo uno strumento rivoluzionario per l’astrofisica e le nuove tecnologie per l’interpretazione dei dati. L’astrofisica che si potrà fare con Rubin è estremamente diversificata: una singola campagna osservativa ci permetterà di rispondere a temi scientifici molto vasti, che riguardano la nostra galassia ma anche la materia oscura, il nostro Sistema solare e anche i fenomeni più imprevedibili che si verificano nel cielo. Differenti gruppi di ricerca da tutto il mondo con differenti competenze hanno contribuito all’ottimizzazione della strategia osservativa e allo sviluppo di metodologie di analisi dati interdisciplinari. Il progetto coinvolge modelli teorici, big data e data science per indagare ambiti che vanno dalle esplosioni di supernove ai nuclei galattici attivi, fino alle stelle in formazione».
La survey Lsst, che avrà inizio nei prossimi mesi, permetterà di rilevare oggetti estremamente deboli fino a oggi difficili da osservare, ma fondamentali per affrontare questioni chiave della cosmologia e dell’astrofisica moderna: la natura della materia e dell’energia oscura, la struttura a grande scala del cosmo, l’evoluzione delle galassie, l’archeologia galattica, la formazione stellare, i fenomeni transienti e la sorveglianza di oggetti potenzialmente pericolosi. L’osservatorio porta il nome di Vera C. Rubin, astrofisica statunitense i cui studi sulla rotazione delle galassie rappresentano una delle prime prove a favore dell’esistenza della misteriosa materia oscura.
Uno degli ambiti di ricerca che beneficerà maggiormente di questa impresa è lo studio delle stelle variabili, oggetti che cambiano luminosità nel tempo. L’osservatorio sarà in grado di osservare oltre cento milioni di stelle variabili, permettendo studi senza precedenti sui meccanismi che regolano queste variazioni. Questi fenomeni possono derivare da processi interni alle stelle stesse – come pulsazioni dovute a instabilità termiche – oppure da fattori esterni, come eclissi da parte di stelle o pianeti compagni. Grazie alla sua precisione fotometrica, il Rubin Observatory permetterà di esplorare la struttura interna delle stelle.
Non solo: l’osservatorio sarà anche testimone di milioni di esplosioni stellari, eventi catastrofici legati alla morte delle stelle. Analizzando la luce proveniente da alcune di queste esplosioni, le supernove di tipo Ia, sarà inoltre possibile stimare le distanze di galassie lontanissime, esplorando la storia di espansione dell’universo e la sua accelerazione, che si pensa sia causata dalla misteriosa energia oscura.
Il telescopio all’interno della cupola del Vera C. Rubin Observatory. Crediti: Nsf-Doe Vera C. Rubin Observatory
«Rubin è dotato della camera digitale più grande mai costruita per l’astronomia, che ha già ottenuto un altro record mondiale, quello della sua lente ottica più grande al mondo», sottolinea Bonito. «Nonostante le sue dimensioni, è un telescopio molto veloce. Se qualcosa nel cielo si muove o cambia, Rubin lo rileverà e distribuirà l’informazione in tempo reale a tutto il mondo. Questo significa che potremo osservare fenomeni transienti in azione, rendendo possibili nuove scoperte astrofisiche, spesso inaspettate».
«Rubin produrrà un vero e proprio film multicolore del cielo, lungo un’intera decade. Un film che ci permetterà di vedere l’universo come mai prima: non solo attraverso immagini statiche, ma in evoluzione dinamica», conclude Bonito.
Capofila di questa imponente impresa sono il National Science Foundation (Nsf) e il Dipartimento dell’energia degli Stati Uniti (Doe), in collaborazione con il NoirLab e lo Slac National Accelerator Laboratory.
Guarda la live da Palermo su MediaInaf Tv:
Imago Vocis premiato alla Biennale di Venezia
Alberto Colombo Sormani, ricercatore all’Inaf di Roma
Un ponte tra scienza e arte, tra le profondità dello spazio e il suono della voce umana. È questa l’idea al centro di Imago Vocis, il progetto divulgativo ideato da Alberto Colombo Sormani dell’Inaf di Roma, che si è aggiudicato il prestigioso premio College Regia under 30 della Biennale di Venezia.
Il lavoro – attualmente in fase di sviluppo e previsto in scena nel 2026 – parte da un accostamento tanto inaspettato quanto potente: quello tra le onde gravitazionali, che increspano il tessuto dello spazio-tempo, e le vibrazioni della voce, che modellano l’aria per dare forma al pensiero. Abbiamo raggiunto Alberto per farci raccontare meglio questa visione, il processo creativo e ciò che possiamo aspettarci dallo spettacolo.
Innanzitutto complimenti per questo riconoscimento! La prima curiosità che ho è: cosa ti ha ispirato a mettere insieme le onde sonore generate dalla voce umana e le onde gravitazionali?
«Tutto è nato qualche anno fa, mentre spiegavo la mia tesi di dottorato a una mia amica, Nicole Zanin, che è attrice e logopedista. Ascoltandola parlare del suo lavoro, sono rimasto colpito da quanto le nostre discipline si sovrapponessero. Entrambi, in fondo, studiavamo vibrazioni fisiche per cercare di accedere a una dimensione della realtà altrimenti invisibile. Attraverso le onde gravitazionali possiamo studiare oggetti inaccessibili come i buchi neri. Allo stesso modo, lei, attraverso l’ascolto e l’analisi della voce, riesce a entrare in contatto con parti profonde e spesso inconsce delle persone. Da lì è nato il mio interesse per i modi in cui percepiamo la realtà e per i confini tra ciò che è visibile e ciò che non lo è».
Quanto è stato complesso nella fase creativa intrecciare tra loro gli aspetti narrativi e teatrali con il rigore scientifico nello spettacolo?
«Estremamente complesso! Ma spesso sono proprio le domande più difficili a rendere un processo creativo davvero stimolante. Il confronto tra linguaggi così diversi, come quello scientifico e quello teatrale, è una sfida che richiede di mantenere lo sguardo aperto su ciò che accade dentro e fuori di noi, accogliendo prospettive diverse nella speranza di generarne di nuove. Proprio con questa visione ho co-fondato, insieme a Greta Milani, Giulia Nespoli e Valeria Torresan, Kilonova Art: un collettivo artistico nato per esplorare la creazione in chiave transdisciplinare. Come una kilonova è l’esplosione generata dalla collisione di due stelle di neutroni, capace di produrre oro, così noi cerchiamo ciò che c’è di prezioso nell’incontro (e spesso nello scontro) tra discipline, visioni e pratiche artistiche.
Proiezione visuale utilizzata in Imago Vocis, realizzata da Giulia Nespoli. Uno spettrogramma reagisce in tempo reale alla voce di una performer, trasformandosi nella trama dello spazio-tempo deformata dalla presenza di un buco nero
Il progetto è stato ora premiato al Festival internazionale del Teatro Biennale di Venezia: secondo te, quali aspetti hanno convinto maggiormente la giuria?
«È stata la prima domanda che ho rivolto al direttore artistico Willem Dafoe — quando mi sarebbe ricapitata l’occasione di chiedere un feedback a una giuria di questo tipo? Mi ha detto che ciò che lo ha colpito di più è stato l’equilibrio complessivo del progetto: la capacità di tenere insieme la dimensione teatrale, visiva e scientifica in modo armonico e coerente. Ha anche sottolineato il talento delle attrici e performer in scena, che hanno dato forza e presenza al lavoro.
Chi immagini come pubblico ideale per questo spettacolo, e che tipo di esperienza vorresti offrire?
«Esperienza è davvero la parola giusta, perché il pubblico ideale, indipendentemente dal suo background, è quello pronto ad accettare una sfida. Il teatro deve essere pericoloso, proprio perché è irripetibile nella presenza condivisa di uno spazio e di un momento – qualcosa che cinema e tv non possono offrire. Il teatro deve avere la forza di mettere in crisi le nostre certezze e di scardinare il nostro pensiero. Esattamente come fa la scienza: non per spiegare tutto, ma per costringerci a riformulare le domande, ad ampliare il nostro sguardo. È questa l’esperienza che vorrei offrire».
Guardando al futuro, come ti piacerebbe far evolvere il progetto? Hai già in mente nuovi formati, contesti o collaborazioni?
«Per il futuro mi auguro che la rete intorno al progetto continui ad allargarsi. Mi piacerebbe che sempre più artistə, scienziatə, enti di ricerca e realtà culturali trovassero in Kilonova Art uno spazio fertile per incontrarsi, collaborare e dare forma a nuovi immaginari».
Incontro ravvicinato con Camaleonte I
È una fabbrica di stelle, tra le più prossime al Sistema solare. Si chiama Camaleonte I ed è parte di una struttura più estesa, situata a 500 anni luce dalla Terra in direzione della costellazione del Camaleonte. Di recente è stata immortalata dalla Dark Energy Camera (Decam), camera da 570 megapixel montata sul telescopio da 4 metri Victor M. Blanco, dell’Osservatorio di Cerro Tololo, in Cile. Il telescopio è finanziato da NoirLab, ente che fa capo all’U.S. National Science Foundation.
La nebulosa oscura Camaleonte I immortalata dalla Dark Energy Camera (Decam). Si tratta di una delle regioni di formazione stellare più prossime al nostro pianeta. Crediti: Ctio/NoirLab/Doe/Nsf/Aura. Elaborazione: T.A. Rector, M. Zamani e D. de Martin
Si tratta di un’immensa nube molecolare ed è costituita essenzialmente da gas freddo e da polvere. Le nubi molecolari rivestono un’importanza cardine in astrofisica in quanto sono i luoghi in cui le stelle vengono alla luce con i loro sistemi protoplanetari. Di recente ne è stata scoperta una vastissima, anche questa molto prossima al Sistema solare. In cielo vediamo buona parte di Camaleonte I come una nebulosa oscura, a causa della polvere che assorbe la luce delle stelle appena nate. Si stima che la nube abbia due miliardi di anni e che sia la culla di circa due-trecento stelle.
Come si diceva all’inizio, la nebulosa oscura Camaleonte I fa parte di una regione ben più estesa chiamata Complesso del Camaleonte. Se riuscissimo a vederla coi nostri occhi ci accorgeremmo che quest’attiva regione di formazione stellare si estende ben oltre i confini della costellazione da cui prende il nome, abbracciando le vicine costellazioni dell’Uccello del Paradiso, della Mosca, della Carena e dell’Ottante. Il Complesso del Camaleonte include altre due regioni, chiamate rispettivamente Camaleonte II e III, che differentemente dalla numero I presentano scarsa o addirittura nessun’attività di formazione stellare.
Nell’immagine di Decam due strutture si fanno notare in modo particolare, chiamate rispettivamente Cederblad 111 e Cederblad 110. Entrambe nebulose a riflessione, ovvero nubi di gas e polvere che non brillano di luce propria ma che riflettono la luce delle giovani stelle situate nei paraggi. Cederblad 111 occupa con tutta la sua sgargianza il centro dell’immagine mentre Cederblad 110 la vediamo rilucere più in alto, con la sua caratteristica forma a “C”. Entrambe le nebulose a riflessione sono illuminate da stelle di piccola massa, i cui raggi vengono diffusi nell’interazione con i grani di polvere presenti nella regione e a cui dobbiamo la manifestazione di tale abbagliante spettacolo, che risulterebbe altrimenti invisibile.
Alcuni dettagli di Camaleonte I, ovvero le tre nebulose a riflessione Cederblad 110, Cederblad 111 e la Nebulosa infrarossa del Camaleonte. La freccia rossa indica un oggetto di Herbig-Haro. Crediti: Ctio/NoirLab/Doe/Nsf/Aura
Al di sotto delle due nebulose a riflessione, e con colori che virano all’arancione in questa immagine, si scorge un’altra suggestiva struttura, dalla leggiadra forma d’ala, che prende il nome di Nebulosa infrarossa del Camaleonte. I getti di materiale prodotti da una stella in formazione hanno scavato il gas nei dintorni, consentendo alla radiazione visibile e infrarossa delle stella di passare e diffondersi, generando questa terza nebulosa a riflessione.
Come se non bastasse, nel ricchissimo paesaggio di Camaleonte I gli astronomi hanno scoperto anche diversi oggetti di Harbig-Haro, ovvero regioni che si accendono quando i getti ad alta velocità di una protostella si scontrano con il gas più lento che si trova nelle vicinanze. Di recente, in almeno un paio di occasioni, il telescopio spaziale James Webb ci ha regalato istantanee magnifiche di oggetti di questo tipo. In Camaleonte I possiamo scorgerne uno come una tenue macchia rossa, che fa capolino nella regione polverosa tra Cederblad 111 e Cederblad 110.