Salta al contenuto principale

Un lampo X nascosto nell’archivio di Chandra



Vi è mai capitato di sfogliare vecchi album fotografici e notare per la prima volta un dettaglio interessante dietro alla figura immortalata in primo piano? Magari una persona sullo sfondo del gruppo che sorride davanti alla fotocamera, o un volto incorniciato in una foto posata sul ripiano accanto alla televisione. Qualcosa di affascinante, discreto ma visibile, che nessuno aveva mai notato prima. Ora immaginate di fare lo stesso su scala cosmica.

È così che è stata scoperta una potente esplosione proveniente da un misterioso oggetto al di fuori della nostra galassia. È passata inosservata per anni all’interno di un vasto archivio di osservazioni del Chandra X-ray Observatory della Nasa, prima di essere riportata alla luce in un nuovo articolo pubblicato su Monthly Notices of the Royal Astronomical Society.


La “notevole” esplosione cosmica Xrt 200515 osservata dal Chandra X-ray Observatory della Nasa. Crediti: Steven Dillmann

«Utilizzando un approccio innovativo di apprendimento automatico, abbiamo esaminato oltre 20 anni di osservazioni d’archivio del Chandra X-ray Observatory della Nasa e abbiamo scoperto un notevole e potente lampo di raggi X proveniente da un oggetto sconosciuto al di fuori della nostra galassia, che era passato inosservato per anni all’interno del vasto archivio di Chandra – un vero e proprio evento da ago nel pagliaio».

Il 15 maggio 2020, mentre Chandra osservava i resti di una stella esplosa nella Grande Nube di Magellano (una piccola galassia vicina alla Via Lattea), ha accidentalmente catturato un lampo di raggi X luminoso ed estremamente veloce proveniente da un oggetto sconosciuto. Questo lampo è apparso e scomparso nel giro di pochi secondi, e all’epoca è passato inosservato, finendo in “un cassetto”.

A differenza degli approcci tradizionali, il metodo di apprendimento automatico utilizzato nel nuovo studio è riuscito a scoprire il cosiddetto transiente veloce extragalattico a raggi X (Fxt), che i ricercatori hanno chiamato Xrt 200515 in riferimento al giorno in cui è stato rilevato da Chandra.

«Questo lampo cosmico è particolarmente interessante per le sue caratteristiche insolite, diverse da tutti gli altri Fxt extragalattici rilevati in precedenza da Chandra», dice Steven Dillmann della Stanford University. «Ha prodotto un burst iniziale incredibilmente energetico che è durato solo 10 secondi, mentre altri sono durati minuti o ore. A questo è seguito un afterglow più lungo e meno energetico, della durata di pochi minuti».


La curva di luce (quantità di fotoni ricevuti dal luogo del burst nel tempo) di Xrt 200515, che mostra l’intensità e la velocità del burst. Crediti: Steven Dillmann

Poiché né Chandra né altri telescopi hanno mai registrato la sorgente prima o dopo questa esplosione, la sua vera natura rimane ignota. I ricercatori ritengono che potrebbe trattarsi del primo X-ray burster mai scoperto nella Grande Nube di Magellano. Si tratta di sistemi che coinvolgono due stelle: una stella di neutroni e una normale stella compagna che le orbita attorno. La potente forza di gravità della stella di neutroni attira il gas dalla compagna e quando sulla sua superficie si accumula una quantità di gas sufficiente, si innesca una massiccia esplosione termonucleare che rilascia un’intensa emissione X.

Secondo un’altra teoria, potrebbe trattarsi di un raro e gigantesco brillamento proveniente da una lontana magnetar, una stella di neutroni con campi magnetici estremamente forti. Questi brillamenti sono tra gli eventi più esplosivi del cosmo e rilasciano un’enorme quantità di raggi gamma in un tempo molto breve. Se Xrt 200515 fosse la controparte a raggi X di un evento di questo tipo, sarebbe il primo brillamento di una magnetar gigante osservato a questi livelli di energia a raggi X.

L’ultima spiegazione proposta dai ricercatori è che potrebbe trattarsi di un tipo di esplosione cosmica sconosciuta che potrebbe rivelare nuove conoscenze sull’universo.

«Questa scoperta ci ricorda che lo spazio è dinamico e in continua evoluzione, con fenomeni emozionanti che si verificano costantemente», conclude Dillmann. «Dimostra anche il valore dell’uso dell’intelligenza artificiale per le scoperte scientifiche nei dati astronomici d’archivio: potrebbero esserci innumerevoli altre scoperte che aspettano di essere trovate nelle osservazioni che abbiamo già fatto».

Per saperne di più:


Sulle montagne russe con 2024 YR4



In questi giorni l’asteroide near-Earth 2024 YR4 ha fatto la comparsa su media e social di tutto il mondo. Il motivo? Un aumento della probabilità d’impatto con la Terra per il 22 dicembre 2032. Per smorzare subito facili allarmismi va detto che 2024 YR4 è un asteroide roccioso con un diametro di soli 40-90 metri. Le piccole dimensioni ci dicono che, nella remota possibilità che colpisse realmente la Terra nel 2032, non rappresenterebbe un rischio di rilievo.

Le conseguenze dell’impatto sarebbero di tipo locale, com’è accaduto il 30 giugno 1908 con la catastrofe di Tunguska: l’asteroide si disintegrerebbe a qualche chilometro dal suolo rilasciando un’energia di circa 10 Mton, creando un’onda d’urto che spazzerebbe via l’area sottostante. Nel caso l’asteroide colpisse un luogo popolato basterebbe evacuarlo prima della caduta per azzerare il numero delle vittime: niente che non si possa gestire con un po’ di intelligenza, senza isterismi.


La probabilità d’impatto in funzione del tempo di 2024 YR4. Dopo avere raggiunto un massimo di circa il 3%, ora la probabilità è in netta flessione e ci si aspetta che vada a zero nei prossimi mesi. Crediti: Esa/Neocc.

«Per quanto riguarda il valore della probabilità d’impatto, quello che abbiamo visto fino al 18 febbraio è un generale trend in aumento. In questo giorno la probabilità ha raggiunto il valore di 2,8 percento, il più alto mai registrato per un asteroide di diametro maggiore di 20 metri. Apophis, infatti, raggiunse il valore massimo di 1/37, che corrisponde al 2,7 percento. Oggi però la probabilità d’impatto di 2024 YR4 ha iniziato a scendere e si è portata all’1,5 percento, ed è possibile che scenda ancora», commenta a Media Inaf Marco Fenucci, esperto di dinamica asteroidale del Neo Coordination Centre dell’Esa a Frascati.

La futura traiettoria dell’asteroide, note posizione e velocità iniziali che si ottengono con le osservazioni al telescopio, viene calcolata tenendo conto della forza di gravità del Sole, dei pianeti, degli asteroidi maggiori e degli effetti della relatività generale. L’incertezza sulla posizione finale dell’asteroide è determinata dalla lunghezza dell’arco di orbita osservato: più è corto, maggiore è l’incertezza su posizione e velocità iniziali che si ripercuote, amplificata, sulla posizione finale.

Al momento l’arco orbitale noto copre 56 giorni, per un totale di 376 osservazioni astrometriche. Purtroppo ora l’asteroide sta diventando sempre più debole, si trova a circa 85 milioni di chilometri dalla Terra e ha una magnitudine apparente di +24,6.


Marco Fenucci, ricercatore del Neo coordination centre dell’agenzia spaziale europea a Frascati, primo autore dello studio sul destino orbitale dei detriti di Dimorphos. Crediti: Jelena Jokić

«Il 27 gennaio la probabilità d’impatto ha superato l’1 percento e fino all’8 febbraio ci sono state nuove osservazioni giornaliere, che però si sono fermate fino al 15 febbraio per la presenza della Luna piena», commenta Fenucci. «Le osservazioni adesso sono ricominciate, principalmente da parte di osservatori professionali dotati di telescopi con diametro maggiore di 2 metri, dato che la magnitudine apparente sta lentamente aumentando. Da adesso fino a inizio aprile si osserverà 2024 YR4 con telescopi di grandi dimensioni, con diametri pari o superiori agli 8 metri. Le osservazioni che verranno fatte con il James Webb Space Telescope (Jwst) saranno fondamentali per determinare in modo più accurato le dimensioni di 2024 YR4. La stima che abbiamo attualmente del diametro è tra 40 e 90 metri, quindi ancora molto incerta. Una stima migliore ci permetterà di capire meglio quali saranno gli effetti dell’impatto, nel caso improbabile che questo avvenga, e ci aiuteranno a migliorare la risposta di mitigazione. Un primo ciclo di osservazioni avverrà a marzo, mentre un secondo ciclo è previsto per maggio. In particolare, il ciclo di maggio servirà anche per allungare l’arco osservativo là dove non è più possibile arrivare con i telescopi da Terra, e questo permetterà di migliorare ancora di più l’accuratezza dell’orbita».

Se anche le osservazioni con Jwst non dovessero ridurre a zero la probabilità d’impatto, ci sarà occasione di osservare nuovamente 2024 YR4 nel dicembre del 2028, quando passerà a circa 7,5 milioni di chilometri da noi. Nel passaggio del 2028 si determinerà sicuramente con precisione l’orbita e sarà possibile dire se colpirà la Terra oppure no nel successivo passaggio. Nel caso d’impatto confermato sarà noto anche il luogo esatto e ci saranno 4 anni a disposizione per prepararsi con misure da protezione civile.

Mentre aspettiamo le osservazioni di Jwst cerchiamo di capire a grandi linee come si stima la probabilità d’impatto di un asteroide e perché ci possono essere degli aumenti e dei bruschi cali.


Evoluzione della nube di asteroidi virtuali dal 18 (sopra) al 19 (sotto) febbraio 2025. Come si vede la Terra sta uscendo dalla nube mano a mano che si aggiungono nuove osservazioni. Crediti: Esa/Neocc.

La probabilità di un evento, come il venire “testa” nel lancio di una moneta, si calcola matematicamente facendo il rapporto fra il numero di volte in cui è venuta testa e il numero di lanci totale. Se la moneta non è truccata e il numero di lanci è abbastanza grande, si ottiene un valore vicino al 50 percento.

Nel caso della probabilità d’impatto di un asteroide si procede in modo simile: si fa evolvere nel tempo una “nube” composta di un certo numero N di asteroidi virtuali, con posizione e velocità iniziale compatibili con le osservazioni dei telescopi. La nube di asteroidi virtuali si espanderà nello spazio, perché ognuno segue una propria traiettoria leggermente diversa dagli altri e queste piccole differenze si amplificano con il passare del tempo. La Terra (al computer), sarà quindi investita da una nube di asteroidi molto estesa nello spazio, uno dei quali è l’asteroide vero, ma non sappiamo quale sia. Facendo il rapporto fra il numero C di asteroidi virtuali che hanno colpito la Terra e gli N iniziali si ha la probabilità d’impatto P=C/N. Ma da dove arrivano le oscillazioni della probabilità d’impatto?

«Il fatto che la probabilità di impatto inizialmente cresca è normale quando si fanno questi calcoli», spiega Fenucci. «Infatti, quando l’arco osservativo è corto, l’incertezza della predizione futura è molto grande, e la Terra occuperà una frazione molto piccola dell’incertezza. Mano a mano che si effettuano nuove osservazioni, l’orbita sarà determinata in modo migliore e la predizione avrà quindi un’incertezza minore. La Terra però occuperà una frazione più grande dell’incertezza, e di conseguenza la probabilità d’impatto si alzerà. L’impatto sarà infine scongiurato quando l’incertezza sarà abbastanza piccola da non intersecare più la Terra. Questo meccanismo di compattazione della nube di asteroidi virtuali si vede bene fra il 18 e il 19 febbraio. Il 18 febbraio la Terra si trovava vicino al centro della nube di asteroidi, cioè vicino alla nominale, dove la probabilità d’impatto è più alta. Il 19 febbraio l’estensione della nube di asteroidi virtuali si è ridotta, e allo stesso tempo l’orbita nominale dell’asteroide si è spostata lontana dalla Terra, che adesso si trova in una regione meno densa quindi con probabilità più bassa. Nonostante il calo nella probabilità d’impatto, questo non vuol dire che possiamo permetterci di smettere di osservare l’asteroide. Nuovi dati sono necessari per consolidare il trend dell’orbita nominale e per ridurre ancora di più l’incertezza, fino a escludere del tutto l’impatto del 2032».

Si spiega così il comportamento a “montagne russe” della probabilità d’impatto di 2024 YR4. Non resta che attendere le osservazioni di Jwst per vedere se si archivierà definitivamente il caso. Se volete rimanere aggiornati sull’asteroide 2024 YR4 vi raccomando di seguire il blog dell’Esa: Rocket Science, News from the edge of gravity.


I ghiacciai fondono, ma c’è meno acqua dolce



Oltre 450 ricercatori e 35 gruppi di ricerca hanno unito menti e dati per fare un censimento sulla fusione dei ghiacciai in tutto il mondo. E il risultato non è incoraggiante: escludendo Groenlandia e Antartide, i ghiacciai del mondo hanno perso in media 273 miliardi di tonnellate di ghiaccio all’anno a partire dal 2000, con una quantità di ghiaccio perso aumentata del 36 per cento dal 2012 rispetto agli 11 anni precedenti. Un fenomeno che sta esaurendo le risorse regionali di acqua dolce in varie regioni del mondo e sta facendo aumentare il livello globale del mare a ritmi sempre più rapidi. I risultati della ricerca sono pubblicati su Nature.


Quest’immagine mostra il tasso di perdita di ghiaccio nei ghiacciai di alcune regioni del mondo dal 2000 al 2023. Secondo le stime complessive del progetto internazionale Glambie, i ghiacciai hanno perso circa il 5 per cento del loro volume totale, con perdite regionali che vanno dal 2 per cento nelle isole antartiche e subantartiche al 39 per cento in Europa centrale. Ciò corrisponde a una perdita annuale di 273 miliardi di tonnellate di ghiaccio. Tuttavia, la quantità di ghiaccio perso è aumentata del 36 per cento nella seconda metà del periodo di studio (2012-2023) rispetto alla prima metà (2000-2011). I risultati, pubblicati sulla rivista Nature, dimostrano che lo scioglimento dei ghiacciai di tutto il mondo sta esaurendo le risorse regionali di acqua dolce e sta facendo aumentare il livello del mare a livello globale a ritmi sempre più rapidi. Crediti: Esa/Planetary visions

Questa volontà congiunta di produrre stime globali sul tasso di fusione dei ghiacciai ha dato vita a un’iniziativa internazionale, il Glacier Mass Balance Intercomparison Exercise, o Glambie, coordinata dal World Glacier Monitoring Service (Wgms) dell’Università di Zurigo, in collaborazione con l’Università di Edimburgo e Earthwave Ltd. Lo sforzo è stato quello di unire, standardizzare e analizzare dati diversi provenienti da misure sul campo o da missioni satellitari ottiche, radar, laser e gravimetriche. Fra queste, ad esempio, le missioni statunitensi Terra/Aster e IceSat-2, la statunitense-tedesca Grace, la tedesca TanDem-X e CryoSat dell’Esa. Il risultato è una serie temporale annuale che disegna la variazione di massa dei ghiacciai per tutte le regioni glaciali a livello globale dal 2000 al 2023.

Secondo le stime, nel 2000 i ghiacciai – escluse le calotte continentali della Groenlandia e dell’Antartide – si estendevano per 705.221 km² e contenevano circa 121.728 miliardi di tonnellate di ghiaccio. Negli ultimi due decenni, hanno perso circa il 5 per cento del loro volume totale, con perdite regionali che vanno dal 2 per cento nelle isole antartiche e subantartiche al 39 per cento in Europa centrale. Ciò corrisponde a una perdita annuale di 273 miliardi di tonnellate di ghiaccio. Complessivamente, la perdita di massa dei ghiacciai nell’intero periodo di studio è stata del 18 per cento superiore a quella della calotta glaciale della Groenlandia e più del doppio di quella della calotta glaciale antartica – con un aumento molto più pronunciato del fenomeno dopo il 2012.

«Grazie ai diversi metodi di osservazione, Glambie non solo fornisce nuove informazioni sulle tendenze regionali e sulla variabilità da un anno all’altro, ma è anche in grado di identificare le differenze tra i metodi di osservazione», dice Michael Zemp, professore al Dipartimento di Geografia dell’Università di Zurigo, direttore del World Glacier Monitoring Service e primo autore dello studio. «Ciò significa che possiamo fornire una nuova base osservativa per studi futuri che analizzino l’impatto dello scioglimento dei ghiacciai sulla disponibilità idrica regionale e sull’innalzamento globale del livello del mare».

Tra il 2000 e il 2023, i ghiacciai hanno perso collettivamente 6.542 miliardi di tonnellate di ghiaccio, contribuendo per 18 mm all’innalzamento del livello globale del mare. Significa che, in media, ogni anno, il livello del mare aumenta di 0,75 mm. Ma fare una stima media non rende conto fino in fondo dell’entità del problema, poiché come dicevamo il tasso di perdita di ghiaccio dei ghiacciai è aumentato significativamente nel tempo, passando da 231 miliardi di tonnellate all’anno nella prima metà del periodo di studio a 314 miliardi di tonnellate all’anno nella seconda metà.


Ghiacciai nelle Chugach Mountains dell’Alaska. Questa immagine, catturata dalla missione Copernicus Sentinel-2 il 6 ottobre 2017, mostra lo scioglimento dei ghiacciai Scott (a sinistra), Sheridan (al centro) e Childs (a destra) che alimentano laghi e fiumi nei loro fronti. Crediti: Rielaborazione dei dati della missione Copernicus/Esa

Oggi i ghiacciai sono al secondo posto tra i fattori che contribuiscono all’innalzamento globale del livello del mare, dopo l’espansione termica legata al riscaldamento degli oceani. Superano i contributi della calotta glaciale della Groenlandia, della calotta glaciale dell’Antartide e dei cambiamenti nello stoccaggio delle acque terrestri. Non solo: oltre all’innalzamento del livello del mare, lo scioglimento dei ghiacciai rappresenta una perdita significativa di risorse d’acqua dolce a livello regionale. I ghiacciai sono infatti risorse d’acqua dolce vitali, soprattutto per le comunità locali dell’Asia centrale e delle Ande centrali, dove i ghiacciai dominano il deflusso durante le stagioni calde e secche.

«Per mettere le cose in prospettiva», continua Zemp, «le 273 miliardi di tonnellate di ghiaccio persi ogni anno equivalgono a quanto l’intera popolazione globale consuma in 30 anni, ipotizzando tre litri a persona al giorno».

Insomma, un quadro allarmante e pubblicato puntuale come una sentenza nell’Anno internazionale per la conservazione dei ghiacciai e del Decennio di azione per le scienze criosferiche (2025-2034) indetti dalle Nazioni Unite. Aggiungetelo – se non era già presente – alla lista delle conseguenze disastrose del cambiamento climatico in atto, probabilmente fra quelle irreversibili. E, se ve lo state chiedendo, sì, è il caso di iniziare a preoccuparsi.

Per saperne di più:


Il Roman Telescope ha il suo parasole




I tecnici del Goddard Space Flight Center della Nasa accanto al sistema parasole-esoscheletro del telescopio spaziale Nancy Grace Roman. Crediti: Nasa/Chris Gunn

La Nasa continua a fare passi da gigante nello sviluppo del Nancy Grace Roman Space Telescope (Rst), il successore del telescopio spaziale Hubble. L’ultima pietra miliare raggiunta dal team della missione, dopo l’integrazione del coronografo e il montaggio delle ottiche, è l’integrazione del parasole – la deployable aperture cover – sull’esoscheletro del telescopio – l’outer barrel assembly.

Milestone alert! Roman’s deployable aperture cover has been installed onto the outer barrel assembly”, dice il post con cui viene annunciato su X il successo dell’operazione.

Il parasole del Nancy Grace Roman Telescope è una sorta di visiera realizzata per bloccare la luce diffusa che arriva al telescopio. Progettata e costruita al Goddard Space Flight Center della Nasa, la struttura è un componente chiave del futuro telescopio, che studierà l’universo a infrarossi. Grazie a questa copertura l’osservatorio sarà infatti più sensibile alla luce infrarossa proveniente dall’universo, aiutando gli astronomi a osservare oggetti più deboli e lontani.

Tenere la luce indesiderata fuori dalla portata del telescopio non è però l’unica funzione della struttura. Un altro compito a cui dovrà assolvere la struttura quando il telescopio sarà in orbita intorno al punto lagrangiano L2 del sistema Terra-Sole è la protezione dall’impatto di micrometeoriti. Per questo motivo gli ingegneri della Nasa hanno costruito il parasole con una struttura simile a quella di una finestra a doppio vetro, fatta da due strati termici rinforzati – uno dei quali in kevlar, lo stesso materiale che riveste i giubbotti antiproiettile – separati da uno spazio di circa 2,5 centimetri.

La settimana scorsa, dopo aver superato numerosi test – acustici, in camera termica a vuoto e ambientali – il parasole è stato montato sul suo supporto. Tutto è avvenuto all’interno della più grande camera bianca presente al Nasa Goddard. Nel corso di alcune ore, i tecnici della Nasa hanno agganciato con successo la struttura all’outer barrel assembly, una sorta di esoscheletro del telescopio a forma di barile. «È stato incredibile vedere questi componenti del telescopio trasformarsi da modelli al computer a strutture reali, fino alla loro integrazione», dice Sheri Thorn, una degli ingegneri aerospaziali del Goddard Space Flight Center della Nasa a Greenbelt, nel Maryland, coinvolti nella fabbricazione, prova ed integrazione del componente sul Roman Space Telescope. «Dal momento che tutto viene assemblato al Goddard Space Flight Center, abbiamo il privilegio di assistere al processo in prima fila. Abbiamo visto il progetto maturare, che è un po’ come osservare un bambino crescere, ed è un’esperienza davvero gratificante»


Schema della struttura del Roman Telescope con il parasole (evidenziato sulla sinistra) e outer barrel assembly (sulla destra). Crediti: Nasa Gsfc

L’outer barrel assemblyè un altro componente importante del telescopio. Oltre a coadiuvare il parasole nelle sue funzioni, funge da supporto per i pannelli solari del telescopio. Non solo, però. L’esoscheletro aiuta anche a mantenere il telescopio a una temperatura stabile. Per svolgere quest’ultima funzione è dotato di riscaldatori, strumenti in grado di garantire che gli specchi del telescopio non subiscano grandi oscillazioni di temperatura che possono comprometterne la funzione.


Una vista del parasole del telescopio attraverso l’outer barrell assembly. Crediti: Nasa/Chris Gunn

Sia il parasole che l’esoscheletro sono già stati ampiamente testati individualmente. Ora che sono stati collegati, gli ingegneri stanno comunque ripetendo i test per sincerarsi che le due unità funzionino ancora correttamente. Fondamentale in questo senso è il test di dispiegamento del parasole. Durante il lancio del telescopio, il parasole rimarrà piegato su se stesso. Il dispiegamento avverrà solo dopo che il telescopio sarà nello spazio, tramite tre bracci che si estendono verso l’alto quando verrà inviato il comando. Verificare che questa fase avvenga correttamente è molto importante, poiché c’è in gioco la capacità del telescopio di ottenere immagini nitide.

«Dato che il parasole è stato progettato per essere dispiegato nello spazio, il sistema non è abbastanza forte da dispiegarsi sotto la forza della gravità terrestre. Per verificare che tutto funzionasse come previsto abbiamo quindi utilizzato un gravity negation system per compensare il suo peso», spiega Matthew Neuman, uno degli ingegneri meccanici che lavora al parasole del telescopio presso il Nasa Goddard, riferendosi al sistema messo a punto dalla Nasa per simulare il laboratorio l’assenza di gravità.

Le prossime verifiche a cui il sistema parasole-esoscheletro sarà sottoposto saranno un test in camera termica a vuoto, per garantire che i componenti funzionino alle temperatura e pressione dello spazio, e un test di scuotimento, per simulare le intense vibrazioni che sperimenteranno durante il lancio. Se anche il risultato di questi test dovesse darà esito positivo, il prossimo passo sarà collegare i pannelli solari, per poi integrare il il tutto con il resto dell’osservatorio entro la fine dell’anno.

L’integrazione del parasole al suo supporto segna il superamento della cosiddetta Key Decision Point-D (Kdp-d), un’importante pietra miliare nella costruzione del telescopio, e sancisce ufficialmente il passaggio dalla fase di costruzione a quella di assemblaggio e collaudo del telescopio. Se i tempi saranno rispettati, queste fasi potrebbero essere completate già nel 2026, con il lancio del telescopio entro maggio 2027.


La forza delle maree su Titano




Gli scienziati dello SwRI hanno calcolato che, alla velocità con cui l’orbita di Titano sta cambiando, il satellite avrebbe dovuto raggiungere un’orbita circolare entro circa 350 milioni di anni. Il fatto che Titano possieda ancora un’orbita eccentrica suggerisce che negli ultimi 350 milioni di anni sia accaduto qualcosa in grado di perturbare il suo percorso orbitale. Crediti: Nasa/ Jpl/ University of Arizona/ University of Idaho

Quando penso alle maree, l’immagine che mi viene subito in mente è quella di Mont Saint-Michel. In particolare, ricordo quando, dal muro di cinta, ho osservato il mare risalire rapidamente la spiaggia, avanzando di centinaia di metri in pochi minuti, fino ad arrivare all’ingresso dell’abbazia. In effetti, quando la maggior parte delle persone pensa alle maree, immagina il movimento degli oceani che si alzano e si abbassano, influenzato dall’azione gravitazionale della Luna. «Questo solo perché l’acqua si muove più liberamente di qualsiasi altra cosa», spiega Brynna Downey dello SwRI a Boulder, Colorado, prima autrice di un articolo su questo tema pubblicato sulla rivista Science Advances. «Quando la Luna si trova sopra la nostra testa, anche la roccia risponde, seppur in modo meno evidente. Quella piccola forza gravitazionale che la Luna esercita è ciò che definiamo dissipazione mareale».

Per misurare la dissipazione mareale della Luna, gli scienziati inviano dei laser dalla Terra verso specchi posizionati sulla sua superficie, permettendo di rilevare con precisione anche i minimi spostamenti. Che poi, se volete, tanto minimi non sono visto che si sta allontanando dalla Terra di circa 4 centimetri all’anno. Poiché questa tecnica non è applicabile su Titano, gli scienziati hanno sviluppato un metodo alternativo per dedurre la velocità di dissipazione, basandosi sulla differenza tra la rotazione effettiva dell’asse di Titano e quella che ci si aspetterebbe in assenza di tale forza.

«La dissipazione mareale nei satelliti influisce sulla loro evoluzione orbitale e rotazionale, nonché sulla loro capacità di mantenere oceani nel sottosuolo», spiega Downey. «Ora che abbiamo una stima della forza delle maree su Titano, possiamo dire qualcosa sulla velocità con cui l’orbita sta cambiando? Abbiamo scoperto che sta cambiando molto rapidamente su una scala temporale geologica».

Insieme al coautore Francis Nimmo, dell’Università della California Santa Cruz, Downey ha ipotizzato che l’angolo di orientamento del polo di rotazione di Titano possa essere spiegato esclusivamente dall’attrito e ha sviluppato un metodo per correlare questo angolo con un parametro di attrito mareale. Grazie a questo approccio, sono riusciti a ricostruire parte della storia di Titano partendo dal suo attuale stato di rotazione. Con le future missioni spaziali previste su altre lune, come Europa e Ganimede, due satelliti di Giove, Downey spera che questo metodo possa essere applicato anche ad altri corpi celesti.

L’attrito all’interno di un satellite provoca un lento spostamento verso un’orbita circolare. Considerando la velocità con cui la sua orbita sta cambiando, Titano avrebbe dovuto raggiungere un’orbita circolare in circa 350 milioni di anni. Il fatto che Titano possieda ancora un’orbita non perfettamente circolare, ma eccentrica, suggerisce che negli ultimi 350 milioni di anni sia accaduto qualcosa in grado di perturbare la sua orbita.

«Qualsiasi evento, come un impatto o la perdita di un antico satellite, potrebbe aver influenzato l’orbita di Titano, rendendola eccentrica. I nostri risultati non indicano la natura specifica di questo evento, e altri hanno proposto diverse ipotesi», conclude Downey. «Riteniamo che qualcosa abbia disturbato l’orbita di Titano negli ultimi 350 milioni di anni, un periodo relativamente recente nella storia del Sistema solare. Stiamo osservando un’istantanea temporale tra quell’evento e il momento in cui Titano raggiungerà nuovamente un’orbita circolare».

Per saperne di più:


Siamo soli nell’universo? Forse no



C’è la possibilità che emergano o siano emerse forme di vita intelligenti nell’universo? Per il fisico teorico australiano Brandon Carter la risposta è che sia un evento estremamente improbabile. Il motivo di questa bassa probabilità, secondo lo scienziato, è legato ai lunghi tempi scala necessari per la loro evoluzione rispetto alla durata media della fase di sequenza principale delle stelle. Una riflessione, questa, che nel 1983 lo ha portato a formulare il modello dei passaggi difficili (hard steps model, in inglese). Secondo questo modello, lo sviluppo di forme di vita complesse prevede il superamento di una serie di passaggi cosiddetti “difficili”. Ciascuno di questi passaggi è un collo di bottiglia evolutivo, e solo il loro completamento sequenziale porta allo sviluppo di forme di vita intelligenti e autocoscienti. Più sono i passaggi difficili, più tempo occorre affinché la vita intelligente emerga.


Immagine del nostro pianeta visto dallo spazio. Una nuova teoria propone che gli esseri umani, e la vita analoga oltre la Terra, possano rappresentare il probabile risultato dell’evoluzione biologica e planetaria. Crediti: Nasa

Considerato il numero di passaggi che l’essere umano ha dovuto superare per evolversi – l’origine della vita, la fotosintesi, l’evoluzione degli eucarioti, eccetera – e considerato il tempo impiegato dagli esseri umani per farlo rispetto alla durata totale della vita del Sole, lo scienziato ipotizzò che la nostra origine evolutiva fosse improbabile e che esseri simili agli umani al di là della Terra siano rari.

Per arrivare a concepire questo modello, Carter ha considerato due diverse scale temporali: la comparsa dell’uomo sulla Terra (circa 5 miliardi di anni fa) e la durata stimata della vita del Sole nella sua fese di sequenza principale (10 miliardi di anni), corrispondente alla finestra di abitabilità della Terra. Lo scienziato ha quindi valutato tre diverse possibilità che collegano queste due scale temporali con il tempo medio di evoluzione della vita intelligente. La prima possibilità è che il tempo medio richiesto per far evolvere specie intelligenti sia strettamente minore della durata stimata della vita del Sole nella sequenza principale. La seconda è che il tempo richiesto per l’evoluzione sia uguale alla suddetta durata. La terza, infine, che il tempo medio di evoluzione sia strettamente maggiore.

Carter scarta la prima ipotesi in quanto ritiene che se fosse vera dovremmo trovarci su una Terra molto più giovane. La Terra, cioè, avrebbe dovuto popolarsi di umani miliardi di anni fa. Scarta anche la seconda ipotesi definendola poco probabile a priori. Secondo lo scienziato, infatti, questa ipotesi andrebbe presa in considerazione solo se fossero emerse prove convincenti a posteriori contro le altre due possibilità. Per Carter l’ipotesi più plausibile è la terza. Le conclusioni a cui giunge seguendo questo ragionamento sono due. La prima conclusione è che il tempo medio per l’evoluzione della vita intelligente su un pianeta abitabile supera di gran lunga la durata della vita della sua stella. La seconda, che è una conseguenza della prima, è che era intrinsecamente improbabile che la nostra origine evolutiva avvenisse entro il tempo di vita della nostra stella, con il corollario che forme di intelligenti analoghe oltre la Terra sarebbero ugualmente improbabili.

Per spiegare perché è così improbabile che forme di vita intelligenti si evolvano entro la durata della vita media della sequenza principale di una stella, lo scienziato ha introdotto i già citati passaggi difficili. Poiché, secondo Carter, il tempo di vita del Sole nella sequenza principale può essere conciliato al più con due di questi passaggi, la sua idea è che l’evoluzione degli esseri umani sulla Terra sia dipeso da eventi casuali. Insomma, secondo il modello di Carter la Terra sarebbe un pianeta straordinariamente raro, forse l’unico a essere riuscito a superare tutti i passaggi prima di diventare inabitabile.

Un team multidisciplinare di scienziati guidati dalla Ludwig-Maximilians-Universität di Monaco (Germania) e dalla Penn State (Usa) mette ora in discussione questo modello. Lo fa considerando l’evoluzione della vita complessa sotto l’aspetto della geobiologia storica, cioè lo studio di come l’ambiente superficiale della Terra e la vita si sono co-evoluti nel tempo geologico.

Pubblicata la settimana scorsa sulle pagine della rivista Science Advances, la nuova ricerca propone che la tempistica delle origini umane possa essere spiegata dall’apertura sequenziale di “finestre di abitabilità” nel corso della storia della Terra, guidata da cambiamenti nella disponibilità di nutrienti, nella temperatura della superficie del mare, nei livelli di salinità degli oceani e nelle quantità di ossigeno nell’atmosfera. Secondo questo nuovo modello, i passaggi evolutivi che hanno portato all’emergere della vita intelligente sono diventati possibili solo quando l’ambiente globale ha raggiunto uno stato “permissivo”. Il fatto che la Terra sia diventata ospitale per l’umanità solo di recente è il risultato naturale di queste condizioni all’opera. Poco c’entrerebbe, dunque, il caso.

«Riteniamo che la vita intelligente potrebbe non aver avuto bisogno di una serie di colpi di fortuna per esistere», spiega Dan Mills, ricercatore alla Ludwig-Maximilians-Universität e primo autore dello studio. «Gli esseri umani non si sono evoluti presto o tardi nella storia della Terra, ma “in tempo”, quando le condizioni lo hanno permesso. Alcuni pianeti potrebbero essere in grado di raggiungere queste condizioni più rapidamente della Terra, altri potrebbero impiegare più tempo».

Contrariamente a quanto ipotizzato da Carter, gli autori del nuovo studio propongono che l’evoluzione della vita complessa non debba essere studiata considerando la vita del Sole nella sequenza principale. In questo senso, la presenza di forme di vite complesse sulla Terra e oltre potrebbe essere non una questione di fortuna ma di interazione tra la vita e il suo ambiente.

«Sosteniamo che, anziché basare le nostre previsioni sulla durata della vita del Sole, dovremmo usare una scala temporale geologica, perché è il tempo che impiega l’atmosfera e il paesaggio a cambiare», dice a questo proposito Jason Wright, ricercatore alla Penn State e coautore della pubblicazione. «Se la vita si è evoluta con il pianeta, allora si evolverà su una scala temporale planetaria, a un ritmo planetario»

Il nuovo modello non prevede neanche il superamento di passaggi difficili. Secondo i ricercatori, infatti, il ritmo generale dell’evoluzione della vita intelligente sulla Terra sarebbe stabilito da processi ambientali. Tali processi avrebbero fatto sì che la vita complessa emergesse così “tardi” nella storia del nostro pianeta perché la finestra di abitabilità si è aperta solo relativamente di recente. In questo senso, la storia della biosfera potrebbe essersi svolta in modo più deterministico di quanto generalmente si pensi, con innovazioni evolutive limitate a finestre temporali in cui le condizioni erano globalmente favorevoli.

«Questa nuova prospettiva suggerisce che l’emergere della vita intelligente potrebbe non essere poi così improbabile», conclude Wright. «Invece di una serie di eventi improbabili, l’evoluzione potrebbe essere un processo più prevedibile, che si svolge non appena le condizioni globali lo consentono. Il nostro quadro si applica non solo alla Terra, ma anche ad altri pianeti, aumentando la possibilità che una vita simile alla nostra possa esistere altrove».

Per saperne di più:


Tylos e la sua atmosfera impetuosa



«L’atmosfera del pianeta ha dei comportamenti che sfidano la nostra comprensione di come funziona il meteo, non solo sulla Terra, ma su tutti i pianeti. Sembra un film di fantascienza», esclama Julia Victoria Seidel, ricercatrice all’Eso (Osservatorio europeo australe), in Cile, e prima autrice principale di uno studio, pubblicato oggi su Nature, sull’esopianeta Wasp-121b.

Noto anche come Tylos, Wasp-121b si trova a circa 900 anni luce di distanza da noi nella costellazione della Poppa. È un pianeta gioviano ultra-caldo, un gigante gassoso in orbita così vicino alla stella madre che un anno, lì, dura appena trenta ore terrestri. Inoltre, un lato del pianeta è rovente, poiché è sempre rivolto verso la stella, mentre l’altro lato è molto più freddo.


Tylos (o Wasp-121b) è un gigante gassoso situato a circa 900 anni luce da noi nella costellazione della Poppa. Utilizzando lo strumento Espresso del Very Large Telescope dell’Eso è stato possibile ricostruirne per la prima volta – per un esopianeta – l’atmosfera in tre dimensioni. Si è così scoperto che è divisa in tre strati, con venti di ferro nella parte inferiore, seguiti da un getto molto veloce di sodio e infine da uno strato superiore di venti di idrogeno. Questo tipo di clima non è mai stato osservato prima su nessun pianeta. Crediti: Eso/M. Kornmesser

Il gruppo di lavoro ha esplorato in profondità l’atmosfera di Tylos e ha rivelato venti distinti in strati separati, che risultano nella mappa tridimensionale della struttura dell’atmosfera. È la prima volta che gli astronomi hanno potuto studiare l’atmosfera di un pianeta al di fuori del Sistema solare in modo così approfondito e dettagliato.

«Ciò che abbiamo scoperto è stato sorprendente: una corrente a getto fa ruotare il materiale intorno all’equatore del pianeta, mentre un flusso separato ai livelli inferiori dell’atmosfera sposta il gas dal lato caldo a quello più freddo. Questo tipo di clima non è mai stato osservato prima su nessun pianeta», dice Seidel, che è anche ricercatrice presso il Lagrange Laboratory, parte dell’Observatoire de la Côte d’Azur, in Francia. La corrente a getto osservata attraversa metà del pianeta, guadagnando velocità e scuotendo violentemente gli strati superiori dell’atmosfera mentre attraversa il lato caldo di Tylos. «Al confronto, persino i più violenti uragani del Sistema solare sembrano un venticello».

«Nelle regioni più profonde, il materiale è ridistribuito tramite venti diretti direttamente dal lato diurno a quello notturno. Questo meccanismo», spiega a Media Inaf uno dei coautori dello studio, l’astrofisico Lorenzo Pino dell’Inaf di Arcetri, «è alla base della redistribuzione di calore dal lato diurno – dove la stella deposita la sua energia – a quello notturno del pianeta. I modelli indicano che la presenza di un campo magnetico limita l’intensità di questo tipo di venti, ma i dati mostrano che questo effetto non è molto forte in Wasp-121b. Invece, è necessario che parte del calore venga liberata nel lato notturno attraverso specifiche reazioni chimiche che coinvolgono la formazione di idrogeno molecolare a partire dalla sua forma atomica – una reazione che libera energia.

«Più in alto», continua Pino, «abbiamo osservato una corrente a jet di forza inattesa, cento volte più veloce dei venti misurati in Giove. I modelli non sono attualmente in grado di spiegare questi venti, che rappresentano forse la scoperta più inattesa. È possibile che anche questo tipo di circolazione atmosferica richieda la presenza di campi magnetici, ma l’effetto andrà quantificato in futuro con modelli dedicati. Infine, nelle regioni più esterne dell’atmosfera abbiamo osservato una parziale transizione a dei venti orientati verticalmente. Pensiamo che questo fenomeno sia collegato al fenomeno dell’evaporazione dell’atmosfera del pianeta, cioè una perdita di massa, che però non sarà sufficiente a distruggere questo pianeta, che è massiccio. I meccanismi alla base di questo fenomeno, che riguarda molti giganti gassosi caldi, non sono ancora chiariti, e questo studio mostra che la transizione da regimi di circolazione orizzontale a regimi verticali – che genererebbero poi la perdita di massa – è graduale, e dunque potenzialmente collegato. Ulteriori studi saranno necessari sia per determinare la velocità di questi moti verticali, sia per modellare la transizione tra i regimi di circolazione orizzontale e verticale».

Per scoprire la struttura in tre dimensioni dell’atmosfera dell’esopianeta, il gruppo ha utilizzato lo strumento Espresso, installato sul Vlt dell’Eso per combinare la luce dei quattro telescopi individuali in un singolo segnale. Questa modalità di combinazione del Vlt raccoglie quattro volte più luce di un singolo telescopio, permettendo di rivelare dettagli più deboli. Osservando il pianeta per un transito completo davanti alla stella madre, Espresso ha trovato l’impronta di vari elementi chimici, sondando di conseguenza diversi strati dell’atmosfera.

«È davvero incredibile che siamo in grado di studiare dettagli come la composizione chimica e la struttura climatica di un pianeta a una distanza così grande», dice Bibiana Prinoth, dottoranda all’Università di Lund (Svezia) e all’’Eso, coautrice dell’articolo di Nature e prima autrice di uno studio correlato, pubblicato su Astronomy & Astrophysics, che ha rivelato l’inattesa presenza di titanio appena sotto la corrente a getto.

«Questo risultato conferma le capacità eccezionali dello spettrografo ad altissima risoluzione Espresso», ribadisce uno dei coautori dello studio su Astronomy & Astrophysics, Francesco Borsa dell’Inaf di Brera, «il primo strumento in grado di osservare simultaneamente con tutti e quattro i telescopi del Very Large Telescope simultaneamente, simulando un telescopio da 16 metri di diametro. Le prime osservazioni in questo modo osservativo dell’atmosfera di Wasp-121b (il primo esopianeta ad avere questo tipo di osservazioni) erano state pubblicate nel 2021 e già avevano dimostrato la loro eccezionalità, ma erano purtroppo solo parziali. Con questo studio si è completata la parte mancante delle osservazioni, e i risultati ci hanno permesso di studiare la chimica e fisica atmosferica di questo gioviano ultracaldo al variare di latitudine e longitudine. In particolare, la presenza di titanio sembra essere limitata alle regioni equatoriali, suggerendo un rimescolamento atmosferico limitato. Lo studio del titanio e dei suoi composti ci aiuta a capire come avvengono i meccanismi di condensazione in queste atmosfere planetarie dalle temperature estreme. I livelli di dettaglio raggiunti osservando con i quattro Vlt simultaneamente confermano le grandi aspettative che si hanno verso l’Extremely Large Telescope per lo studio delle atmosfere di esopianeti, con obiettivo l’osservazione di atmosfere di esopianeti potenzialmente abitabili».

Fonte: comunicato stampa Eso

Per saperne di più:

  • Leggi su Nature l’articolo “Vertical structure of an exoplanet’s atmospheric jet stream”, di Julia V. Seidel, Bibiana Prinoth, Lorenzo Pino, Leonardo A. dos Santos, Hritam Chakraborty, Vivien Parmentier, Elyar Sedaghati, Joost P. Wardenier, Casper Farret Jentink, Maria Rosa Zapatero Osorio, Romain Allart, David Ehrenreich, Monika Lendl, Giulia Roccetti, Yuri Damasceno, Vincent Bourrier, Jorge Lillo-Box, H. Jens Hoeijmakers, Enric Pallé, Nuno Santos, Alejandro Suárez Mascareño, Sergio G. Sousa, Hugo M. Tabernero e Francesco A. Pepe
  • Leggi su Astronomy & Astrophysics l’articolo “Titanium chemistry of WASP-121 b with Espresso in 4-UT mode

Guarda il servizio video su MediaInaf Tv:

youtube.com/embed/VIUAMpNb1LI?…


Ogni nana bianca esplode a modo suo



Le nane bianche sono il risultato dell’evoluzione finale di stelle di piccola e media massa (fino a circa 8 volte la massa del Sole). Anche se non nascono da supernove, come invece accade per le stelle di neutroni e i buchi neri, ne possono essere la causa, portando all’esplosione delle codiddette supernove di tipo Ia. Per decenni queste drammatiche esplosioni hanno svolto un ruolo fondamentale nello studio dell’energia oscura, la misteriosa forza responsabile dell’accelerazione dell’espansione dell’universo, oltre che essere l’origine di molti elementi della nostra tavola periodica, come il titanio, il ferro e il nichel, che si formano nelle condizioni di estrema densità e calore presenti durante le loro esplosioni.


Il telescopio Samuel Oschin da 1.2 metri dell’Osservatorio Palomar in California con un’immagine della Via Lattea sullo sfondo. Le stelle rappresentano il numero di supernove scoperte in ogni direzione e l’inserto è un’immagine di una galassia dopo (a sinistra) e prima (a destra) dell’esplosione della supernova. Crediti: Mickael Rigault

Proprio in questi giorni è stata raggiunta una pietra miliare nella comprensione di questi transienti esplosivi con la pubblicazione di un’importante serie di dati e delle relative 21 pubblicazioni in un numero speciale di Astronomy & Astrophysics, pubblicato il 14 febbraio.

La release, denominata Dr2, contiene 3628 supernove di tipo Ia vicine (z < 0,3) scoperte, seguite e classificate dalla survey Zwicky Transient Facility (Zft) – una survey astronomica che utilizza una fotocamera avanzata collegata al telescopio Samuel Oschin presso l’osservatorio di Monte Palomar, in California – tra marzo 2018 e dicembre 2020. Si tratta della più grande release di supernove Ia mai rilasciata e aumenta di un ordine di grandezza il numero di oggetti ben caratterizzati a basso redshift.

«Grazie alla capacità unica di Ztf di scansionare il cielo rapidamente e in profondità, è stato possibile scoprire nuove esplosioni di stelle fino a un milione di volte più deboli delle stelle più deboli visibili a occhio nudo», afferma Kate Maguire del Trinity College di Dublino.

Uno dei risultati chiave è la scoperta che esistono molteplici modi esotici in cui le nane bianche possono esplodere, tra spettacolari collisioni e cannibalismo in sistemi binari. La sorprendente diversità riscontrata potrebbe avere implicazioni sull’uso di queste supernove nella misurazione delle distanze nell’universo, poiché i vincoli sulle proprietà dell’energia oscura richiedono in modo cruciale che queste esplosioni possano essere standardizzate. «La diversità dei modi in cui le stelle nane bianche possono esplodere è molto più ampia di quanto ci si aspettasse in precedenza, con esplosioni che vanno da quelle così deboli da essere appena visibili ad altre che sono abbastanza luminose da poter essere viste per molti mesi o anni dopo», conclude Maguire.

Insomma, le nane bianche non finiscono di stupirci e pensare che anche la nostra stella – il Sole – terminerà la sua vita in quella forma, non fa che accrescere l’interesse per questi affascinanti oggetti compatti. Pensate che, secondo uno studio pubblicato sempre la scorsa settimana su The Astrophysical Journal, tra i circa 10 miliardi di nane bianche presenti nella Via Lattea, un numero maggiore del previsto potrebbe ospitare esopianeti nella zona abitabile. Sperabilmente, non quelle che daranno origine a supernove!

Per saperne di più:


Gli ammassi globulari e i segreti delle galassie



Gli ammassi globulari non sono solo semplici agglomerati di stelle: sono vere e proprie macchine del tempo cosmiche che permettono di tuffarsi nella storia di formazione ed evoluzione delle galassie. Con centinaia di migliaia di stelle raccolte in un unico sistema, questi antichissimi agglomerati stellari raccontano storie segrete di fusioni galattiche e di eventi cosmici che hanno scolpito l’Universo come lo conosciamo oggi. Lo ribadiscono le immagini dei gruppi di galassie Ngc 3640 e Ngc 5018, realizzate con il telescopio italiano Vst (Vlt Survey Telescope) in Cile e analizzate in due studi guidati da giovani dottorandi dell’Istituto nazionale di astrofisica (Inaf), pubblicati recentemente su Astronomy & Astrophysics.


La galassia Ngc 3640, al centro dell’omonimo gruppo di galassie, e la vicina Ngc 3641, osservate con il Vst. Crediti: Eso/Inaf/M. Mirabile et al./R. Ragusa et al.

Uno dei due lavori si focalizza sul gruppo di galassie Ngc 3640, dominato dall’omonima galassia ellittica, a circa 88 milioni di anni luce da noi. Si tratta di una galassia dalla forma curiosa e perturbata, che reca i segni di passate interazioni con le vicine galassie. La nuova immagine ottenuta con il Vst e pubblicata oggi svela per la prima volta la distribuzione degli ammassi globulari nella regione, visibili come puntini luminosi nei pressi delle galassie: questi non si limitano a orbitare intorno alle singole galassie, ma si estendono anche nello spazio intergalattico. La loro disposizione è il risultato di una lunga storia di interazioni e fusioni galattiche che hanno “strappato via” non solo singole stelle ma anche interi ammassi stellari dai loro sistemi originali.

«Il nostro studio offre una comprensione più approfondita dell’evoluzione e delle interazioni delle galassie nel corso della loro storia, arricchendo le conoscenze sui processi fondamentali che hanno modellato l’universo», spiega Marco Mirabile, dottorando presso il Gran Sasso Science Institute (Gssi) con una borsa supportata da Inaf d’Abruzzo e primo autore di uno dei due articoli. «Abbiamo studiato per la prima volta le proprietà degli ammassi globulari delle galassie Ngc 3640 e Ngc 3641 utilizzando immagini a grande campo e multi-banda, identificando un possibile nuovo modello di interazione tra le due galassie e scoprendo inoltre 17 nuove galassie nane che non erano note precedentemente in questo campo».


Il gruppo di galassie Ngc 3640 osservato con il Vst. Crediti: Eso/Inaf/M. Mirabile et al.

Gli ammassi globulari analizzati nel lavoro, contrariamente alle aspettative, mostrano la loro massima concentrazione non intorno a Ngc 3640, la galassia più massiccia del gruppo, ma intorno alla sua vicina, Ngc 3641, che spicca nella metà inferiore dell’immagine. La distribuzione degli ammassi risulta peraltro allineata con la cosiddetta luce intragruppo (in inglese: intra-group light). Si tratta di una luminosità diffusa dovuta a stelle che sono state sottratte alle varie galassie durante fenomeni di merging, già studiata in questo sistema proprio grazie ai dati del Vst in un lavoro guidato dalla ricercatrice Inaf Rossella Ragusa nel 2023. Tutti questi indizi suggeriscono che la fusione tra queste due galassie sia ancora in corso.

Il secondo studio si concentra invece sul gruppo di galassie Ngc 5018, anch’esso dominato dalla galassia ellittica che porta lo stesso nome e che si trova a circa 120 milioni di anni luce da noi. Anche Ngc 5018 è ricca di segni di interazioni cosmiche: concentrazioni di stelle disposte in forma di gusci concentrici, code mareali e flussi di gas. Nelle immagini del Vst, già studiate sin dal 2018, è stato ora possibile identificare, per la prima volta, una popolazione di ammassi globulari distribuita, anche in questo caso, lungo la luce intragruppo: questo evidenzia come la mutua gravità delle galassie abbia scolpito il sistema durante passate fusioni e interazioni.

«Il nostro studio suggerisce che le interazioni gravitazionali tra le galassie del gruppo Ngc 5018 abbiano disperso gli ammassi globulari lungo l’asse di interazione», nota Pratik Lonare, dottorando presso l’Università di Roma Tor Vergata con una borsa supportata da Inaf d’Abruzzo e primo autore del secondo articolo. «Questa ricerca dimostra che gli ammassi globulari non sono solo fossili della formazione iniziale delle galassie, ma vengono rimodellati dinamicamente da interazioni, fusioni e processi di accrescimento nel tempo». Inoltre, il team ha individuato una possibile nuova galassia nana ultra-diffusa (in inglese: ultra-diffuse galaxy) mai osservata prima in questo gruppo galattico.


Questa immagine profonda dell’area di cielo intorno alla galassia ellittica Ngc 5018 offre una veduta spettacolare delle tenui scie di gas e stelle. Queste strutture delicate sono i segni distintivi dell’interazione tra galassie e forniscono indizi fondamentali per comprendere la struttura e la dinamica della galassie. Crediti: Eso/Spavone et al.

I due nuovi lavori fanno parte del progetto Vegas-Sss (Vst Early-type Galaxy Survey – Small Stellar Systems), un censimento di galassie guidato dall’Inaf con il Vst dedicato a sistemi stellari più piccoli delle galassie, come ammassi globulari e galassie nane, per esplorare i processi di formazione galattica su scale cosmiche. Il telescopio Vst, gestito da Inaf presso l’Osservatorio Eso di Paranal, è lo strumento ideale per questo tipo di studi grazie al suo grande campo di vista di un grado quadrato, pari a circa quattro volte l’area della luna piena nel cielo. Questo permette di osservare in dettaglio non solo le galassie ma anche l’ambiente circostante, spianando la strada a progetti futuri come il Vera C. Rubin Observatory, che sarà inaugurato prossimamente, sempre in Cile, per realizzare survey astronomiche con un campo di vista ancora più grande.

Per saperne di più:


Tramonti madreperla su Marte



“Vanno, vengono, e ogni tanto si fermano…” cantava Fabrizio De André in “Nuvole”. E anche su Marte avrebbe potuto comporre la stessa canzone. Nuvole iridescenti dai colori rosso e verde hanno, infatti, solcato il cielo marziano finendo nelle immagini straordinarie scattate dal rover Curiosity della Nasa.


Le nubi iridescenti mostrate in proiezione cilindrica. Crediti: M.T. Lemmon et al., Geophysical Research Letters, 2024

Immortalate dalla camera Mastcam, il principale set di “occhi” del rover, il 17 gennaio scorso in un video di 16 minuti, le nuvole hanno mostrato colori spettacolari grazie alla diffusione della luce solare durante il tramonto marziano, creando un effetto visivo simile a quello delle nubi iridescenti terrestri.

Note come nubi crepuscolari o “nottilucenti” (dal latino, notte splendente), queste formazioni si riscontrano quando il sole tramonta e illumina le nubi alte, creando effetti di colore incredibili. Alcune di queste nuvole hanno anche mostrato iridescenze simili al colore delle perle, un fenomeno che si verifica solo quando le nuvole sono particolarmente alte nell’atmosfera marziana, ad altitudini comprese tra i 60 e gli 80 chilometri sopra la superficie del Pianeta rosso.

Fondamentali per studiare e raccogliere indizi sulla composizione atmosferica di Marte e sul suo clima, le nuvole marziane possono essere costituite da ghiaccio d’acqua, simile a quelle terrestri, o da ghiaccio di anidride carbonica (ghiaccio secco), che si forma solo ad altitudini più elevate e a temperature estremamente basse. A far la differenza è la quota: a grandi altezze, troviamo nuvole di ghiaccio di anidride carbonica (quelle che possono diventare iridescenti), mentre a quote più basse nuvole di ghiaccio d’acqua, che si muovono in direzione opposta rispetto a quelle superiori.

media.inaf.it/wp-content/uploa…

Le nuvole crepuscolari su Marte furono osservate per la prima volta dalla missione Pathfinder della Nasa nel 1997. Curiosity ha scattato le prime immagini di nuvole iridescenti nel 2019 e questo è il quarto anno marziano in cui il rover osserva il fenomeno, che si verifica all’inizio dell’autunno marziano nell’emisfero meridionale. Secondo Mark Lemmon dello Space Science Institute di Boulder, Colorado, che ha riportato le prime due stagioni di osservazioni di Curiosity sulle nuvole al crepuscolo in un articolo su Geophysical Research Letters, la presenza di queste nubi è ora diventata piuttosto costante. ‭«Ricorderò sempre la prima volta che ho visto quelle nuvole iridescenti pensando si trattasse di un artefatto cromatico», ha detto.‭ «Ora è diventato così prevedibile vederle che possiamo pianificare i nostri scatti in anticipo aspettando le nuvole che si presentano esattamente nello stesso periodo dell’anno». Ogni avvistamento di nuvole crepuscolari sopra il rosso paesaggio desertico offre agli scienziati l’opportunità di studiare in dettaglio le dimensioni delle particelle di ghiaccio e il tasso di crescita delle nuvole. Ciò migliora la nostra comprensione dell’atmosfera marziana e dà indicazioni sul passato di Marte, quando il pianeta potrebbe aver avuto un clima più caldo e ospitare la vita.

Ancora misterioso, però, il motivo per cui le nubi crepuscolari siano state osservate solo in alcune aree di Marte. Né il rover Pathfinder, approdato nella Ares Vallis, a nord dell’equatore, né Perseverance, in azione dal 2021 nel cratere Jezero dell’emisfero settentrionale, hanno infatti mai avvistato nuvole crepuscolari. Curiosity, atterrato nel 2012, si trova ora sul Monte Sharp nel cratere Gale, a sud dell’equatore marziano, ed è stato finora l’unico a documentare il fenomeno. Secondo il gruppo di ricerca di Lemmon, alcune regioni di Marte potrebbero essere predisposte alla formazione di nubi a causa delle onde di gravità atmosferiche, che possono raffreddare l’atmosfera e formare ghiaccio secco.‭ ‭«Non ci aspettavamo che, in questa zona, l’anidride carbonica condensasse in ghiaccio», spiega Lemmon. ‭«Potrebbe esserci, quindi, qualcosa che raffredda l’atmosfera. Inoltre, le onde di gravità marziane, ad oggi, non sono del tutto comprese e non abbiamo certezza su quale sia la causa della formazione di nubi crepuscolari in un luogo piuttosto che un altro».


Schema degli strumenti sul rover Curiosity. Mastcam è una telecamera che riprende immagini e filmati a colori del terreno marziano. Lo strumento viene utilizzato anche per studiare il paesaggio marziano e per supportare le operazioni di guida e campionamento del rover. Crediti: Nasa/Jpl-Caltech

Intanto, Curiosity continua a scattare foto grazie alla Mastcam, una preziosa telecamera che riprende immagini e filmati a colori del terreno marziano e che studia il paesaggio marziano per supportare le operazioni di guida e campionamento. Il rover ha recentemente esplorato il canale di Gediz Vallis e si sta ora dirigendo verso una località con boxwork – fratture formate dall’acqua di falda – che, se viste dallo spazio, sembrano gigantesche ragnatele. Più recentemente, Curiosity ha visitato anche il cratere da impatto Rustic Canyon da venti metri di diametro, catturando immagini e studiando la composizione delle rocce che lo circondano. Lo studio dei crateri marziani è utile perché può portare alla luce materiali sepolti da lungo tempo che possono aver conservato meglio le molecole organiche rispetto alle rocce esposte alle radiazioni in superficie. Molecole che forniscono una finestra sull’antico ambiente marziano e sul modo in cui potrebbe aver sostenuto la vita microbica miliardi di anni fa.

Per saperne di più:


Vista su una caleidoscopica nursery stellare



In quest’immagine da 80 milioni di pixel ottenuta dal Visible and Infrared Survey Telescope for Astronomy (Vista) dello European Southern Observatory (Eso) – in funzione nel deserto di Atacama, all’Osservatorio del Paranal, in Cile – c’è tutta l’esuberanza cromatica della nursery stellare Rcw 38, un ammasso situato a circa 5500 anni luce da noi, nella costellazione delle Vele. Con le striature e i vortici luminosi che la contraddistinguono, questa culla di stelle non ha timore d’ostentare i suoi colori. Dal rosa vivido delle nubi di gas ai puntini multicolori, ciascuno dei quali è una giovane stella, in questa immagine non manca nulla.


L’ammasso stellare Rcw 38 (cliccare per ingrandire). Crediti: Eso/Vvvx survey

Rispetto al Sole, che con circa 4.6 miliardi di anni d’età si trova ormai in una fase stabile della sua vita, le stelle di Rcw 38 sono ancora molto giovani. A meno di un milione di anni dalla sua formazione, Rcw 38 contiene circa duemila stelle – quelle che danno vita al paesaggio psichedelico immortalato da Vista. Insomma, è un giovane ammasso stellare in piena attività, il che lo rende un obiettivo interessante da osservare per gli astronomi.

Gli ammassi stellari sono come gigantesche pentole a pressione al cui interno si possono trovare tutti gli ingredienti per la formazione delle stelle: dense nubi di gas e ammassi opachi di polvere cosmica. Quando questa miscela di gas e polvere collassa per effetto della propria gravità, ecco che nasce una stella.

L’intensa radiazione emessa da queste stelle neonate fa brillare il gas che avvolge l’ammasso, producendo le tonalità rosa che vediamo in Rcw 38. Una vista davvero spettacolare, nonostante molte stelle dell’ammasso rimangano nascoste ai nostri occhi, celate come sono dalla polvere che le avvolge, opaca alla luce visibile.

È qui che entra in gioco il telescopio Vista: la sua camera VirCam è, infatti, sensibile alla luce infrarossa, che a differenza della luce visibile riesce ad attraversare la polvere quasi senza incontrare ostacoli, riuscendo così a svelare il vero volto di Rcw 38. Ecco così che all’improvviso riusciamo a vedere anche giovani stelle avvolte in bozzoli polverosi, o stelle fredde “fallite” note come nane brune.

Questa immagine all’infrarosso è stata scattata durante la survey Vista Variables in the Vía Láctea (Vvv), che ha prodotto la mappa all’infrarosso più dettagliata mai realizzata della nostra galassia. Studi come questo permettono di scoprire oggetti astronomici ancora sconosciuti e di offrirci una nuova visione di quelli conosciuti.

Da quando è stata scattata questa immagine, la fedele fotocamera VirCam di Vista, che ha condotto numerose imaging survey di sin dal 2008, dopo un’impressionate carriera è andata in pensione. Nel corso del 2025 il telescopio riceverà un nuovissimo strumento chiamato 4Most, in grado di acquisire gli spettri di 2400 oggetti contemporaneamente su un’ampia area del cielo. Con la rinascita di Vista, il futuro si prospetta luminoso.

Fonte: press release Eso

Guarda il video (in inglese) sul canale YouTube dell’Eso:

youtube.com/embed/xycF9ik8Wmc?…


Phoenix A: vecchia fuori, giovane dentro




Immagine che mostra l’ammasso della Fenice. Crediti: South Pole Telescope collaboration

In qualsiasi campo della ricerca scientifica ci sono regole ed eccezioni. In astronomia, e in particolare nel campo che studia la relazione tra l’evoluzione delle galassie e la formazione stellare, la regola dice che nelle galassie giovani nascono nuove stelle a un tasso elevatissimo. Nelle galassie vecchie, al contrario, la formazione di nuovi astri è ridotta, se non azzerata.

A questa regola, come dicevamo, c’è l’eccezione: galassie vecchie che sfornano stelle a un ritmo forsennato. Phoenix A ne è un esempio lampante. Galassia al centro di un ammasso di galassie – l’ammasso della Fenice – situato a circa 6 miliardi di anni luce dalla Terra, Phoenix A si stima produca mille stelle all’anno. Si tratta di un tasso di formazione stellare elevatissimo. Basti pensare che, prima della sua scoperta, l’ammasso di galassie più prolifico conosciuto produceva cento stelle all’anno. Come fa Phoenix A ad alimentare una formazione stellare così impetuosa? Il motivo di tanta fertilità è diventato chiaro quando al suo interno sono state individuate, accanto a grandi quantità di gas ultracaldo (gas riscaldato dall’attività dell’enorme buco nero al centro della galassia), vaste nubi di gas ultrafreddo, le culle all’interno delle quali avviene la formazione stellare.

Da dove proviene questo gas, si sono chiesti i ricercatori? È gas caldo galattico che in qualche modo si sta raffreddando, magari attraverso un processo in cui è coinvolto il buco nero centrale, ad esempio il cosiddettofeedback dell’Agn, o è materia fredda che arriva dalle vicine galassie dell’ammasso? La risposta arriva ora grazie a uno studio condotto da un team di ricercatori guidati dal Massachusetts Institute of Technology, i cui risultati sono stati pubblicati la settimana scorsa su Nature. Utilizzando la vista a infrarossi del James Webb Space Telescope, gli autori hanno infatti ottenuto indicazioni che il gas ultrafreddo responsabile dell’elevato tasso di natalità in Phoenix A sia endogeno.

Per giungere a questa conclusioni i ricercatori sono partiti da un assunto: se il gas freddo che forma le stelle dell’ammasso della Fenice proviene dall’interno della galassia centrale piuttosto che dalle galassie circostanti, la galassia centrale dovrebbe avere non solo sacche di gas ultra caldo e ultra freddo, ma anche gas caldo, cioè gas con temperature intermedie. Considerato che il gas ultracaldo scoperto in studi precedenti aveva temperature di 500mila gradi Celsius e quello ultrefreddo di -263,15 gradi Celsius, il gas caldo dovrebbe avere temperature comprese tra questi due estremi. Rilevare tale gas, spiegano gli autori dello studio, sarebbe come catturare il gas nel mezzo di un raffreddamento estremo: la prova che il nucleo dell’ammasso è effettivamente la fonte del combustibile stellare freddo.

Seguendo questo ragionamento, il team ha cercato di rilevare qualsiasi gas caldo all’interno di Phoenix A avesse temperature tra -263 gradi Celsius e un milione di gradi Celsius. Per farlo, i ricercatori hanno puntato nella direzione di Phoenix A il James Webb Space Telescope. Sfruttando la capacità dello strumento Miri del telescopio di mappare la luce nello spettro infrarosso, hanno cercato la riga di emissione del neon [Ne VI ], una riga che viene emessa quando il gas è a temperature di circa 300mila gradi Celsius, valore che rientra nell’intervallo di temperature del gas caldo che i ricercatori stavano cercando.

E lo hanno trovato. «Questo gas a 300mila gradi Celsius è come un’insegna al neon che brilla in una specifica lunghezza d’onda di luce», dice a questo proposito Michael Reefe, ricercatore al Massachusetts Institute of Technology e primo autore dello studio. «Potevamo vederne grumi e filamenti in tutto il nostro campo visivo».


Il nucleo dell’ammasso della Fenice mostrato attraverso un’ampia porzione dello spettro elettromagnetico. Il viola rappresenta l’emissione di raggi X del gas caldo. Le linee tratteggiate mostrano le regioni in cui questo gas caldo è stato spazzato via dai getti radio, in rosso, del buco nero supermassiccio. Il blu e il giallo rappresentano la luce visibile emessa dal gas freddo e dalle stelle. Le linee verdi mostrano il gas “caldo” in fase di raffreddamento, osservato in questo studio. Crediti: Nasa

La “pistola fumante” che mostra come il gas ultrafredddo all’interno di Phoenix A sia di origine endogena, e non provenga dalle galassie vicine dell’ammasso, è il fatto che, spiegano i ricercatori, l’emissione estesa del neon VI è co-spaziale con il picco di raffreddamento del mezzo all’interno della galassia. Sulla base dell’estensione del gas caldo all’interno di Phoenix A, il team stima che la galassia centrale stia subendo un evento di raffreddamento estremo e che stia generando una quantità di gas ultrafreddo ogni anno pari alla massa di circa 20mila soli. Con questo tipo di fornitura di combustibile stellare, il team ritiene che sia molto probabile che Phoenix A stia effettivamente generando i propri semi per la formazione stellare, piuttosto che utilizzare il combustibile delle galassie circostanti. Ma come? Una possibilità è che ciò avvenga attraverso il cosiddetto feedback del buco nero. Si tratta di un meccanismo sostenuto da evidenze osservative secondo cui l’attività del buco nero supermassiccio al centro delle galassie può svolgere una duplice azione nei confronti della formazione stellare. Attraverso un feedback negativo, i venti e i getti prodotti dal buco nero possono inibire la formazione stellare rimuovendo gas molecolare. Mediante un feedback positivo, al contrario, i venti e i getti possono provocare nel gas che rimane una compressione, seguita dal raffreddamento e dalla successivo innesco della formazione stellare. I risultati, concludono i ricercatori, forniscono una mappa su larga scala del gas a temperature comprese tra 10mila 1 milione di gradi Celsius nel nucleo dell’ ammasso della Fenice, e sottolineano il ruolo critico che il feedback del buco nero ha non solo nel regolare il raffreddamento del gas galattico ma anche nel promuoverlo.

Per saperne di più:

  • Leggi su Nature l’articolo “Directly imaging the cooling flow in the Phoenix cluster” di Michael Reefe, Michael McDonald, Marios Chatzikos, Jerome Seebeck, Richard Mushotzky, Sylvain Veilleux, Steven W. Allen, Matthew Bayliss, Michael Calzadilla, Rebecca Canning, Benjamin Floyd, Massimo Gaspari, Julie Hlavacek-Larrondo, Brian McNamara, Helen Russell, Keren Sharon e Taweewat Somboonpanyakul


Sistema planetario in fuga nella Via Lattea



In fuga per il centro della Via Lattea se ne andrebbe, un sistema costituto da un esopianeta più grosso di Nettuno e da una piccola stella. Le misure dicono 540 chilometri al secondo. Sarebbe questa la folle velocità alla quale l’affiatata coppia scorrazza all’interno del bulge, ovvero quella regione rigonfia, pullulante di stelle vecchie, che si trova nel centro della nostra galassia. Oltre il doppio della velocità alla quale il Sole, con tutto il suo stuolo di pianeti, si trascina attorno al centro della Via Lattea. Se confermato, si tratterebbe del sistema planetario più veloce mai osservato. La notizia è stata pubblicata questa settimana su The Astronomical Journal.


Il bulge della Via Lattea. Crediti: Nasa

«Pensiamo che sia un cosiddetto pianeta super-nettuniano – ovvero un pianeta con massa compresa fra quella di Nettuno e Giove – che orbita attorno a una stella di piccola massa a una distanza che si troverebbe tra le orbite di Venere e della Terra, se fosse nel nostro sistema solare», spiega Sean Terry, primo autore dello studio, post-doc preso l’Università del Maryland e del Goddard Space Flight Center della Nasa, sempre nel Maryland. Poiché la stella è molto piccola, siamo ben al di là della zona abitabile. «Se confermato, sarà il primo pianeta mai trovato attorno a una stella iperveloce».

Se confermato. Lo scenario descritto da Terry e collaboratori non è infatti esente da incertezze. Ripercorriamone la storia. Era il 2011 quando la coppia di oggetti venne scoperta sfruttando la tecnica del microlensing gravitazionale e i dati d’archivio del programma Moa – acronimo di Microlensing Observations in Astrophysics. In virtù di questo effetto, la luce delle sorgenti collocate dietro un oggetto massiccio – per esempio, una stella – viene deflessa e amplificata, consentendoci di distinguere dettagli che ci sarebbero altrimenti preclusi per sempre. Recentemente, la tecnica del microlensing ha permesso di osservare decine di stelle in una galassia a sei miliardi di anni luce dalla Terra.

Dai dati del 2011 si evince che i due corpi celesti siano l’uno duemilatrecento volte più massiccio dell’altro. Due scenari venivano proposti per spiegare il significativo divario in massa: un sistema costituito da una piccola stella, avente una massa pari al 20 per cento di quella solare, e un pianeta ventinove volte più pesante della Terra, secondo il primo scenario. Una coppia composta da un pianeta quattro volte più grosso di Giove e dalla sua luna, più piccina della Terra, nel secondo caso.


Rappresentazione artistica che mostra le stelle in prossimità del centro della Via Lattea. Le code colorate rappresentano la velocità delle stelle. Più lunga e rossa è la coda e più rapidamente si sta muovendo la stella. La stella analizzata nello studio è quella con la lunga coda rossa. Crediti: Nasa/Jpl-Caltech/R. Hurt (Caltech-Ipac)

Per discernere lo scenario più probabile gli astronomi hanno fatto ricorso ai dati ad alta risoluzione dell’Osservatorio Keck alle Hawaii e del satellite Gaia dell’Esa – recentemente andato in pensione. Questi ultimi hanno consentito di stimare la distanza, pari a circa 24mila anni luce dalla Terra, e la velocità del sistema, ottenuta confrontando la posizione della presunta stella tra il 2011 e il 2021.

La velocità stimata, che ammonta a, come si diceva, 540 chilometri al secondo, potrebbe essere in realtà minore di quella effettiva. Se superasse la velocità di fuga della Via Lattea, pari a circa 600 chilometri al secondo, il sistema planetario sarebbe destinato ad abbandonare la nostra galassia e a saettare nella solitudine degli spazi intergalattici tra molti milioni di anni. Gli scienziati ritengono che nella sua forsennata fuga attraverso il bulge, la stella stia generando un’onda di pruabow shock, in inglese – simile a quella che increspa le acque annunciando l’arrivo di una nave. Solo che al posto dell’acqua qui abbiamo il gas interstellare. C’è bisogno di osservare nuovamente il sistema dei due oggetti per pronunciarsi oltre ogni ragionevole dubbio sulla sua natura.


Immagine di una stella della costellazione di Orione immortalata da Hubble. È visibile una cosiddetta “onda di prua”, simile a quella che potrebbe essere prodotta dalla stella ad alta velocità protagonista della scoperta. Crediti: Nasa and The Hubble Heritage Team (StScI/Aura); C. R. O’Dell

«Per essere certi che la stella appena identificata sia parte del sistema che ha provocato il segnale del 2011, vorremmo esaminarla di nuovo tra un altro anno e vedere se si muove della giusta quantità e nella giusta direzione per confermare che provenga dal punto in cui abbiamo rivelato il segnale», afferma David Bennett, coautore dello studio.

A tale proposito si pronuncia anche Aparna Bhattacharya, sempre tra i coautori. «Se osservazioni ad alta risoluzione mostrano che la stella rimane nella stessa posizione, allora potremo dire con certezza che non fa parte del sistema che ha provocato il segnale nel 2011. Vorrebbe dire che il modello del pianeta con una luna è favorito.»

Non è la prima volta che stelle velocissime vengono viste sfrecciare nella Via Lattea. Il Nancy Grace Roman Space Telescope, costruito dalla Nasa e il cui lancio è previsto nel 2027, ci consentirà di scoprire quanto comuni siano i pianeti attorno a certe stelle velocissime, inquiline bizzarre della nostra galassia, svelando i meccanismi di accelerazione delle stesse. Di grande utilità sarà la survey del bulge che verrà condotta da Roman e che combinerà un ampio campo di vista con una straordinaria risoluzione. I dati di tre strumenti sono qui intervenuti per stanare il sistema. Nel futuro potremo sbrigarcela con uno solo. «Grazie al potente sguardo di Roman e alla strategia osservativa pianificata, non avremo bisogno di affidarci a telescopi ulteriori. Roman farà tutto», conclude Terry.

Per saperne di più:

  • Leggi su The Astronomical Journal l’articolo “A Candidate High-velocity Exoplanet System in the Galactic Bulge” di Sean K. Terry, Jean-Philippe Beaulieu, David P. Bennett, Aparna Bhattacharya, Jon Hulberg, Macy J. Huston, Naoki Koshimoto, Joshua W. Blackman, Ian A. Bond, Andrew A. Cole, Jessica R. Lu, Clément Ranc, Natalia E. Rektsini e Aikaterini Vandorou


La purezza dell’incontro fra due stelle di neutroni



Le stelle di neutroni, con una massa superiore a quella dell’intero Sistema solare confinata in una sfera quasi perfetta di appena una dozzina di chilometri di diametro, sono tra gli oggetti astrofisici più affascinanti conosciuti. Tuttavia, le condizioni estreme del loro interno rendono la loro composizione e struttura molto incerta. La collisione di due stelle di neutroni, come quella osservata nel 2017, offre un’opportunità unica per svelare i misteri che nascondono.

Quando, in un sistema binario, le stelle di neutroni spiraleggiano l’una verso l’altra per milioni di anni, emettono onde gravitazionali; tuttavia, l’emissione più intensa si verifica al momento della fusione e nei millisecondi immediatamente successivi. Ciò che rimane dalla fusione – un oggetto massiccio e in rapida rotazione – emette onde gravitazionali intense ma in un intervallo di frequenze molto ristretto. Questo segnale contiene informazioni cruciali sulla equazione di stato della materia nucleare, che descrive il comportamento della materia a densità e pressioni estreme.


Simulazione di due stelle di neutroni che si stanno fondendo. Crediti: L. Rezzolla

Un gruppo di astrofisici della Goethe University di Francoforte – coordinato da Luciano Rezzolla, che è stato insignito recentemente del Prace Hpc Excellence Award per il suo rilevante contributo all’interpretazione teorica delle prime immagini di un buco nero supermassiccio – ha ora scoperto che, sebbene l’ampiezza del segnale delle onde gravitazionali dopo la fusione diminuisca nel tempo, diventa sempre più “puro”, tendendo verso un’unica frequenza, proprio come un gigantesco diapason che risuona dopo essere stato colpito.

Hanno chiamato questa fase long ringdown e hanno identificato una forte connessione tra le sue caratteristiche uniche e le proprietà delle regioni più dense nei nuclei delle stelle di neutroni. «Proprio come i diapason di materiali diversi hanno toni puri diversi, i resti descritti da equazioni di stato diverse risuoneranno a frequenze diverse. La rilevazione di questo segnale ha quindi il potenziale per rivelare di cosa sono fatte le stelle di neutroni», afferma Rezzolla.

Utilizzando simulazioni avanzate di stelle di neutroni in fusione con equazioni di stato accuratamente selezionate, i ricercatori hanno dimostrato che l’analisi del long ringdown può ridurre significativamente le incertezze nell’equazione di stato a densità molto elevate – dove attualmente non sono disponibili vincoli diretti. «Grazie ai progressi nella modellazione statistica e alle simulazioni di alta precisione sui più potenti supercomputer tedeschi, abbiamo scoperto una nuova fase del long ringdown nelle fusioni di stelle di neutroni che ha il potenziale di fornire nuovi e stringenti vincoli sullo stato della materia nelle stelle di neutroni», afferma Christian Ecker, primo autore dello studio. «Questa scoperta apre la strada a una migliore comprensione della materia densa delle stelle di neutroni, soprattutto se in futuro verranno osservati nuovi eventi».

Sebbene gli attuali rivelatori di onde gravitazionali non abbiano ancora osservato il segnale post-fusione, gli scienziati sono ottimisti sul fatto che i rivelatori di nuova generazione, come l’Einstein Telescope che dovrebbe diventare operativo in Europa entro il prossimo decennio, renderanno possibile questa tanto attesa rilevazione. «La ragione per cui attualmente non si può rilevare questo segnale è perché è ad alta frequenza, 2.5-3.5 kHz», spiega Rezzolla. «A queste frequenze i rivelatori attuali sono dominati dal rumore del laser e questi segnali non sono visibili (è per questo che non abbiamo visto il post-merger del famoso evento Gw170817). È per questa ragione che i rivelatori di terza generazione come Einstein Telescope, in cui l’Italia spera di giocare un ruolo importante, saranno necessari per vedere questi importanti segnali».

Quando ciò avverrà, il long ringdown servirà come potente strumento per sondare gli enigmatici interni delle stelle di neutroni e rivelare i segreti della materia al suo estremo.

Per saperne di più:


Studiando Ariel attraverso le sue crepe




Immagine composita ottenuta dalla sonda Voyager 2 il 24 gennaio 1986 che mostra la superficie della luna di Urano, Ariel. Sono chiaramente visibili le crepe superficiali del satellite naturale. Crediti: Nasa/Jet Propulsion Laboratory

Urano, il settimo pianeta in ordine di distanza dal Sole e il terzo più grande del Sistema solare, ha 28 lune conosciute: Ariel è una di queste. Scoperta il 24 ottobre 1851 dall’astrofilo inglese William Lassell, la luna ha recentemente fatto parlare di sé per via della scoperta sulla sua superficie di grandi quantità di ghiaccio di anidride carbonica mescolato a quantità inferiori di ghiaccio di monossido di carbonio.

Il rilevamento di queste sostanze da parte di un team di ricerca guidato dalla Johns Hopkins University è stato un fatto abbastanza sorprendente: essendo queste specie instabili alle temperature stimate della superficie della luna (circa -170 gradi Celsius), il ghiaccio avrebbe dovuto rapidamente sublimare, cioè trasformarsi in gas, e perdersi nello spazio. Invece le molecole sono lì, sotto forma di depositi ghiacciati. La loro firma negli spettri chimici ottenuti dal telescopio spaziale James Webb è evidente anche in osservazioni successive.

Qualcosa, evidentemente, deve rimpinguare continuamente la superficie della luna di queste sostanze. Ma cosa? Scartata la possibilità che la loro formazione sia dipesa da fattori esterni, l’ipotesi dei ricercatori è che le molecole emergano dall’interno della luna, forse addirittura dall’oceano di acqua liquida sotterranea che si ritiene possieda.


Immagine della superficie di Ariel che mostra il dettaglio di un solco mediale (contrassegnato dalla freccia nera). Crediti: Nasa/Jet Propulsion Laboratory

Se l’ipotesi dell’origine endogena dell’anidride carbonica e del monossido di carbonio è vera, in che modo queste specie hanno raggiunto e continuano a raggiungere la superficie? Una risposta arriva ora grazie a un nuovo studio, condotto anche in questo caso da un team di scienziati guidati dalla Johns Hopkins University. Secondo quanto riportato nell’articolo che descrive la ricerca, pubblicato la scorsa settimana sulla rivista Planetary Science Journal, a favorire lo scambio potrebbero essere delle profonde crepe della superficie che tagliano i massicci canyon di Ariel. Solchi mediali, è così che gli addetti ai lavori chiamano queste strutture.

«I solchi mediali sono probabilmente i migliori candidati per l’approvvigionamento di questi depositi di ossido di carbonio e per scoprire ulteriori dettagli sull’interno della luna», sottolinea Chloe Beddingfield, ricercatrice della Johns Hopkins University e prima autrice dello studio. «Nessun’altra caratteristica della superficie mostra la capacità di facilitare il movimento di materiali dall’interno di Ariel, rendendo questa scoperta particolarmente interessante».

I solchi mediali di Ariel sono tra le più giovani caratteristiche geologiche note della luna di Urano. Presenti all’interno di enormi canyon chiamati Chasma, queste strutture solcano la superficie della luna per centinaia di chilometri. Ripresi per la prima volta dall’Imaging Science Subsystem a bordo della sonda Voyager 2 della Nasa – la prima e a oggi l’unica missione ad aver sorvolato e fotografato la luna – i solchi ricordano le caratteristiche geologiche di tre strutture che sulla Terra sono associate all’attività vulcanica: le fessure vulcaniche, i tunnel di lava e i centri di espansione dei fondali oceanici.

In virtù di queste somiglianze, è stato ipotizzato che tutte e tre le strutture potessero essere analoghi dei solchi mediali di Ariel, mettendo in collegamento l’interno e l’esterno di Ariel e fornendo componenti volatili alla superficie. Tuttavia, le nuove analisi delle immagini della luna condotte dai ricercatori hanno permesso di ottenere sufficienti prove a sostegno del fatto che i solchi mediali siano più probabilmente centri di espansione.


Illustrazione artistica che mostra come un centro di espansione possa aver creato le fessure osservate nella superficie di Ariel, alla base dello scambio di molecole tra l’interno e l’esterno della luna Crediti: Beddingfiel et al., Psj, 2025

Sulla Terra i centri di espansione sono aree in cui le placche tettoniche si allontanano, consentendo alla nuova crosta di emergere in superficie. Negli oceani, sono responsabili dell’espansione del fondale, un processo dove la roccia fusa risale dal mantello sottostante nello spazio tra le placche, solidificandosi in nuova crosta oceanica. Secondo i ricercatori, su Ariel i solchi mediali potrebbero funzionare allo stesso modo. L’ipotesi è che il calore interno della luna possa aver squarciato la superficie. Attraverso le crepe createsi il materiale proveniente dalle profondità sarebbe emerso in superficie. La successiva espansione del materiale avrebbe creato nuova crosta, formando i pavimenti dei canyon.

Individuato il probabile meccanismo attraverso cui l’anidride carbonica e il monossido di carbonio possono aver raggiunto la superficie di Ariel, restava da capire qual è il motore che fornisce la spinta a questo materiale. Ariel e diverse altre lune di Urano sono soggette alle forze mareali derivanti dalle risonanze dei periodi di rivoluzione delle lune. Queste forze mareali potrebbero essere alla base di molteplici periodi di attività geologica della luna. In questo senso, le forze di marea potrebbero aver fatto sì che il cuore della luna alternasse fasi di riscaldamento, in alcuni casi di fusione, a fasi di congelamento. Secondo i ricercatori, il riscaldamento mareale potrebbe aver guidato la fratturazione della superficie e la successiva formazione di nuova crosta.

Gli scienziati ritengono plausibile che le forze mareali siano anche responsabili del mantenimento di un oceano d’acqua liquida sotto la superficie di Ariel. Si potrebbe dunque pensare a un collegamento diretto tra questo ipotetico mondo acquatico sotterraneo e i solchi mediali. Tuttavia, Beddingfield e colleghi rimangono cauti nel fare assunzioni a questo proposito.

I risultati di questo studio suggeriscono che i solchi mediali di Ariel siano probabilmente condotti geologici verso l’interno della luna e potrebbero essere la fonte primaria di anidride carbonica, monossido di carbonio e altri composti volatili rilevati sulla sua superficie. Per confermare questa ipotesi sono tuttavia necessarie ulteriori informazioni sui recenti eventi geologici e sulle proprietà geologiche e geochimiche di questo candidato mondo oceanico. Informazioni che, sottolineano i ricercatori, potranno essere ottenute con un futuro orbiter del sistema di Urano.

«Abbiamo bisogno di un orbiter che possa fare dei passaggi ravvicinati su Ariel, che mappi i solchi mediali in dettaglio e analizzi le loro firme spettrali per molecole come l’anidride carbonica e il monossido di carbonio», conclude Richard Cartwright, ricercatore alla Johns Hopkins University e co-autore dello studio. «Se le molecole contenenti carbonio fossero concentrate lungo questi solchi, allora ciò sosterrebbe fortemente l’idea che siano finestre sull’interno di Ariel».

Per saperne di più:


Neutrino record da 220 PeV al largo di Portopalo




Nella copertina del numero di Nature che riporta la scoperta del neutrino ultra energetico, uno dei moduli ottici da 31 fotomoltiplicatori ciascuno che formano le linee dei rivelatori di Km3Net. Crediti: Nature

Chi nella notte fra il 12 e il 13 febbraio 2023 avesse avuto occasione d’affacciarsi all’oblò di un ipotetico sottomarino intento a solcare, fra i tre e i quattro chilometri di profondità, le acque del Mediterraneo al largo di Portopalo di Capo Passero attorno alle due e un quarto – per l’esattezza, alle 02:16:47 e 703 millisecondi ora italiana – avrebbe potuto cogliere, nel buio assoluto degli abissi, un fugace bagliore blu. A produrlo, una cascata d’eventi innescata dalla particella più sfuggente che ci sia in natura: un neutrino. Un minuscolo, leggerissimo, neutrino proveniente dai più remoti recessi del cosmo. Uno spaventoso condensato d’energia: 220 PeV, vale a dire 220 milioni di miliardi di elettronvolt. Un record senza precedenti: circa trenta volte più energetico di qualsiasi altro neutrino rilevato finora. La singola particella elementare più energetica mai rilevata nella storia dell’umanità.

Lo straordinario evento, al quale è stato assegnato il nome in codice Km3-230213A, è descritto in un articolo pubblicato sul numero odierno di Nature, che gli ha dedicato anche la copertina. E ad assistervi non è stato l’equipaggio di un sottomarino bensì una sofisticata rete di “occhi subacquei”: quelli dell’array Arca di Km3NeT, il Cubic Kilometre Neutrino Telescope. Km3NeT è una rete formata da due rivelatori che sfruttano l’acqua – o meglio, l’interazione con un chilometro cubo d’acqua marina – per rilevare il passaggio dei neutrini e delle particelle da essi prodotte. Due rivelatori, dicevamo: il primo, Orca, si trova a 2450 metri di profondità nelle acque a sud della Costa Azzurra; il secondo, Arca, si trova sempre nel Mediterraneo, ma a 3450 metri sotto il livello del mare al largo della costa siciliana di Portopalo di Capo Passero. E sono stati i fotomoltiplicatori – gli “occhi subacquei” – di quest’ultimo a intercettare il passaggio del neutrino ultra-energetico. O meglio, la catena di eventi innescata dal suo passaggio.

L’evento effettivamente rilevato, spiegano infatti gli autori dello studio, è stato identificato come l’attraversamento dell’intero rivelatore Arca da parte non di un neutrino bensì di un muone. Sono state l’inclinazione della sua traiettoria – quasi orizzontale rispetto alla superficie del mare, appena 0.6 gradi sopra l’orizzonte – e la sua enorme energia – stimata attorno ai 120 PeV – a consentire ai ricercatori di Km3NeT di stabilire con certezza che il muone ha avuto origine da un neutrino cosmico, un neutrino di energia ancora più elevata – 220 PeV, appunto – che ha interagito con un’altra particella in prossimità del rivelatore.


Infografica (in inglese, cliccare pe ringrandire) dell’evento Km3-230213A. In alto al centro, schema delle 21 colonne di moduli ottici sferici attive nell’array Arca all’epoca dell’evento. In basso a sinistra, rappresentazione di due possibili sorgenti della produzione del neutrino ultra energetico (l’interazione di un raggio cosmico con la radiazione cosmica di fondo, della quale è mostrata la mappa prodotta da Planck, e il getto di un blazar). In basso a destra, la traiettoria del neutrino ricostruita dai ricercatori di Km3NeT. Crediti: Km3NeT

«I neutrini sono una delle particelle elementari più misteriose. Non hanno carica elettrica, quasi non hanno massa e interagiscono solo debolmente con la materia», spiega Rosa Coniglione, deputy spokesperson di Km3NeT al momento del rilevamento e ricercatrice all’Istituto nazionale di fisica nucleare (Infn). «Sono speciali messaggeri cosmici, che ci forniscono informazioni uniche sui meccanismi coinvolti nei fenomeni più energetici e ci permettono di esplorare le zone più lontane dell’universo».

Insomma, messaggeri preziosi ma inafferrabili. Per fortuna, però, quando interagiscono – “infrangendosi” su un nucleone, per esempio – passano il testimone a particelle molto più disposte a farsi individuare: leptoni carichi, quali, appunto, i muoni. E infatti il muone dell’evento Km3-230213A non è passato inosservato, anzi: attraversando l’acqua del tratto di Mediterraneo fra il Canale di Sicilia e lo Ionio a una velocità maggiore di quella che avrebbe la luce nello stesso mezzo, ha innescato – per un fenomeno noto come effetto Cherenkov, sfruttato da tutti i più grandi rivelatori di neutrini nel mondo [link a Maura ]– la produzione di un cono di fotoni, la “luce blu” rilevata dai fotomoltiplicatori disposti lungo le 21 colonne di rivelatori all’epoca in funzione nell’array Arca di Km3NeT, che di quei fotoni ne ha intercettati durante l’evento ben 28086.


Uno dei moduli ottici sferici che formano le colonne verticali di rivelatori di Km3Net. Ogni modulo ottico è formato da 31 fotomoltiplicatori sensibili alla luce Cherenkov. Un collare in titanio è posto intorno alla sfera di vetro per fissare il modulo ottico alle funi che tengono i rivelatori in verticale sott’acqua. Crediti: Credit N. Busser/Cnrs

È a partire dall’analisi di quegli oltre 28mila segnali che i ricercatori di Km3NeT sono riusciti a ricostruire a ritroso l’intera cascata d’eventi fino al neutrino che l’ha scatenata. Un’operazione tutt’altro che semplice. «Per determinare la direzione e l’energia di quel neutrino è stato necessario effettuare una calibrazione precisa del telescopio e fare ricorso a sofisticati algoritmi di ricostruzione della traccia. Va anche ricordato», sottolinea Aart Heijboer, ricercatore al Nikhef National Institute for Subatomic Physics (Paesi Bassi) che all’epoca della rilevazione ricopriva in Km3NeT il ruolo di physics and software manager, «che questa rilevazione notevole è stata ottenuta quando la configurazione del rivelatore era ancora soltanto un decimo di quella finale, e questo dimostra le grandi potenzialità del nostro esperimento per lo studio dei neutrini e per l’astronomia dei neutrini».

A proposito dell’astronomia dei neutrini, la grande domanda riguarda ora la sorgente di Km3-230213A. Da quale oggetto celeste proviene? E quale processo fisico può mai averlo accelerato a energie così incredibilmente elevate?

«I neutrini ultra energetici (Uhe, dall’inglese Ultra High Energy) sono di importanza fondamentale in astrofisica, perché ci possono dare informazioni su alcuni dei problemi aperti più importanti, come l’origine dei raggi cosmici e la loro propagazione durante l’evoluzione dell’universo», dice Fabrizio Bocchino, ricercatore all’Istituto nazionale di astrofisica non coinvolto nello studio ma membro del progetto Pnrr Km3NeT4Rr per l’utilizzo dei dati di Km3NeT in ambito astrofisico. «Si ritiene infatti che fra le ipotesi più accreditate sull’origine di questi neutrini ci sia quella cosiddetta cosmogenica. In questo scenario i neutrini Uhe si formano dall’interazione dei raggi cosmici ultra energetici con la radiazione e la materia incontrata durante la loro propagazione nell’universo, in particolare, con la radiazione cosmica di fondo. Vari modelli di origine e propagazione dei raggi cosmici, accoppiati con modelli evolutivi dell’universo, danno predizioni differenti sul flusso e la distribuzione di energia posseduta dai neutrini Uhe. Pertanto, la rivelazione anche di uno solo di questi eventi può dare informazione importanti su questi temi. Inoltre, la direzione di arrivo che è stata misurata da Km3NeT per il neutrino Uhe rivelato fornisce ulteriori dettagli al quadro interpretativo, permettendo di ricavare informazioni dettagliate su dove e come questi processi super-energetici avvengono, e contribuendo quindi allo studio anche delle altre opzioni ancora aperte sull’origine dei neutrini Uhe e dei raggi cosmici, come quelle che riguardano i buchi neri supermassicci e i resti di supernova».


In primo piano, una delle “detection unit” di Km3Net mentre viene calata sul fondo marino. Ogni detection unit contiene 18 moduli ottici digitali sferici da 31 fotomotiplicatori ciascuno. Crediti: Patrick Dumas/Cnrs

Nell’articolo pubblicato oggi su Nature vengono in effetti indicati dodici blazar situati nella regione di cielo dalla quale sembra provenisse il neutrino, dunque dodici potenziali candidate sorgenti, ma per nessuno di essi l’analisi dei dati d’archivio ha portato a risultati conclusivi. Insomma, almeno per ora questa infinitesimale particella, che potrebbe aver viaggiato indisturbata per miliardi di anni prima d’infrangersi al largo di Capo Passero, non può essere annoverata fra gli eventi di astronomia multimessaggera – quelli per i quali, cioè, è stata individuata una controparte elettromagnetica. Ma l’espansione attualmente in corso di Km3NeT con ulteriori unità di rilevamento e l’acquisizione di nuovi dati migliorerà la sua sensibilità e la sua capacità d’individuare le sorgenti di neutrini cosmici, sottolineano i ricercatori, portandolo a fornire un contributo di primo piano all’astronomia multimessaggera.

Km3-230213A, dunque. La particella elementare più energetica – dicevamo all’inizio – mai rilevata nella storia dell’umanità. Considerando la tappa finale, l’ultimo miglio, che questo super neutrino si è trovato a solcare, un luogo dove ogni giorno e ogni notte l’umanità si misura con sé stessa, sarà difficile ricordare questo evento senza correre con il pensiero – che come l’oceano non lo puoi recintare – alle migliaia di storie, di destini, di vite che s’infrangono ogni anno in quelle stesse acque. Storie, destini, vite come quelle della tragedia di Portopalo, la notte di Natale del 1996. Storie, destini, vite come quelle che nemmeno due settimane dopo l’evento Km3-230213, la notte del 26 febbraio 2023, un millesimo di secondo luce più a nord dei rivelatori di Arca, naufragarono a pochi metri dalla costa calabrese di Cutro.

Per saperne di più:

Guarda il servizio video su MediaInaf Tv:

youtube.com/embed/JKrgqbDYC5k?…


I grandi ricevitori Cherenkov al mondo



I neutrini sono particelle subatomiche di massa piccolissima e carica elettrica nulla, molto difficili da rilevare perché interagiscono debolmente con la materia. A oggi sono stati progettati molteplici esperimenti per osservarli, in tutto il mondo, impiegando diverse tecniche: rivelatori Cherenkov, rivelatori a scintillazione, rivelatori a gas o a stato solido, oppure rivelatori impiegati negli acceleratori di particelle.

I rivelatori Cherenkov sfruttano il fatto che i neutrini, interagendo con la materia, possono produrre particelle cariche che viaggiano più velocemente della luce nel mezzo circostante (acqua o ghiaccio), generando radiazione Cherenkov. I tre principali sono Super-Kamiokande in Giappone, IceCube in Antartide e Km3NeT nelle acque del Mediterraneo. I rivelatori a scintillazione usano materiali scintillatori liquidi o solidi che emettono fotoni quando una particella carica attraversa il mezzo. Tra questi ci sono Borexino (in Italia, presso i Laboratori nazionali del Gran Sasso) e KamLand (in Giappone). I rivelatori a gas o a stato solido (Time Projection Chambers, camere a bolle, ecc.) usano materiali densi per aumentare la probabilità di interazione dei neutrini, come Icarus (prima al Cern, ora al Fermilab, in Usa) e Dune (Usa, in costruzione). Esistono inoltre esperimenti che cercano neutrini di origine astrofisica, provenienti da supernove, buchi neri o raggi cosmici: Anita (in Antartide), che rileva neutrini attraverso onde radio prodotte nell’interazione con la calotta di ghiaccio e Baikal-Gvd (in Russia, nel lago Baikal), simile a IceCube; Snews (SuperNova Early Warning System), una rete di esperimenti che cerca neutrini emessi da supernove in tempo reale. Infine, esperimenti con acceleratori di particelle che producono fasci di neutrini per studiare le loro oscillazioni e proprietà, come Minos, Nova (Usa), che studiano l’oscillazione dei neutrini lungo tragitti di centinaia di chilometri, e T2K (Giappone), che usa un fascio di neutrini prodotto dal J-Parc verso Super-Kamiokande, a 295 chilometri di distanza.


Un modulo ottico di Km3Net, a 3050 metri di profondità. Crediti: Km3Net Collaboration

Qui ci focalizzeremo sui rivelatori della famiglia Cherenkov in acqua o ghiaccio, che sfruttano un effetto fisico previsto dalla teoria di Maxwell: particelle cariche che attraversano un mezzo con velocità superiore a quella della luce nello stesso mezzo, emettono radiazione elettromagnetica che si propaga con un fronte d’onda conico. In pratica, l’energia spesa dalla particella “superluminale” nel polarizzare gli atomi del mezzo, lungo la sua traiettoria, viene restituita dal mezzo nel processo di diseccitazione sotto forma di radiazione coerente (un’onda d’urto elettromagnetica, un po’ come accade con l’onda d’urto meccanica generata dagli aerei supersonici). Tale radiazione è chiamata appunto radiazione Cherenkov – o Čerenkov – in omaggio al fisico sovietico che la rilevò per la prima volta nel 1934, e che per questo vinse il Nobel nel 1958.

I neutrini, essendo neutri, non emettono direttamente radiazione Cherenkov. Tuttavia, quando un neutrino interagisce con una molecola d’acqua o di ghiaccio, può generare una particella carica secondaria (ad esempio, un elettrone o un muone). Questa particella secondaria può viaggiare a una velocità superiore alla velocità della luce nel mezzo (rimanendo inferiore alla velocità della luce nel vuoto). La particella carica emette un cono di luce blu simile all’alone blu che si vede nei reattori nucleari immersi in acqua. La rilevazione della luce viene effettuata tramite fotomoltiplicatori posizionati attorno al volume d’acqua o di ghiaccio, che catturano la luce Cherenkov. L’analisi della direzione e dell’intensità della luce permette di ricostruire l’energia e la direzione del neutrino originale. Tra questi esperimenti ricade Km3NeT, di cui si parla oggi. Ma vediamo brevemente i principali.

Super-Kamiokande è situato in una miniera a un chilometro di profondità, vicino a Hida, in Giappone. Contiene 50mila tonnellate di acqua ultra-pura ed è circondato da oltre 11mila fotomoltiplicatori per rilevare la radiazione Cherenkov. L’intervallo di energia coperto va da pochi MeV a 100 GeV. Ha studiato i neutrini solari, atmosferici e da supernove, oltre a verificare il fenomeno dell’oscillazione dei neutrini.


Una delle oltre 5mila sonde che ricevono la luce (Dom) equipaggiato con un fotomoltiplicatore, il cui fotocatodo è visibile nell’emisfero inferiore. Crediti: Taavi Adamberg

IceCube è posto in Antartide e utilizza un chilometro cubo di ghiaccio al Polo Sud come mezzo di rilevazione. I suoi sensori ottici sono distribuiti fino a 2.5 chilometri di profondità nel ghiaccio per catturare la luce Cherenkov. L’intervallo di energia coperto va da 100 GeV a PeV e oltre. È specializzato nella rilevazione di neutrini ad altissima energia provenienti da sorgenti cosmiche (buchi neri, supernove, raggi cosmici) e ha fornito prove dell’esistenza di neutrini provenienti da blazar e galassie attive, contribuendo alla nascita dell’astronomia multi-messaggero.

Baikal-Gvd è situato nel lago Baikal, in Russia, e sfrutta l’acqua dolce come mezzo di rilevazione. È simile a IceCube ma meno profondo e con una struttura modulare che consente ulteriori espansioni. L’intervallo di energia coperto va da 10 TeV a PeV. Studia i neutrini astrofisici e atmosferici.

Anita (Antarctic Impulsive Transient Antenna) è un esperimento molto particolare che cerca neutrini ultra-energetici sfruttando le onde radio generate dalla loro interazione con il ghiaccio dell’Antartide. È un osservatorio “volante”: viene lanciato da un pallone stratosferico a circa 37 chilometri di altitudine, dove può osservare un’area molto vasta della calotta di ghiaccio antartico. Il suo sistema di antenne cattura le onde radio emesse dalle interazioni dei neutrini con il ghiaccio. In pratica il neutrino ultra-energetico (10¹⁸ eV) e oltre colpisce il ghiaccio antartico e l’interazione con un atomo genera una doccia di particelle cariche che a sua volta generano un impulso radio Cherenkov nel ghiaccio. Le onde radio che emergono dalla superficie vengono captate dalle antenne di Anita. Anita può rilevare neutrini con energie superiori a quelle osservabili con altri esperimenti e la sua copertura è enorme, osservando centinaia di migliaia di chilometri quadrati di ghiaccio, aumentando le probabilità di intercettare un evento raro.

Infine, protagonista della giornata, Km3NeT (Cubic Kilometre Neutrino Telescope) è un’infrastruttura di ricerca europea situata sui fondali del Mar Mediterraneo, progettata per funzionare in modo simile a IceCube. Ha due impianti: Km3NeT-it, al largo di Portopalo di Capo Passero (in Sicilia) che ospita Arca (Astroparticle Research with Cosmics in the Abyss), ottimizzato per neutrini cosmici di alta energia (10 TeV – PeV) e Km3Net-Fr al largo di Tolone, in Francia, che ospita Orca (Oscillation Research with Cosmics in the Abyss), progettato per studiare l’oscillazione dei neutrini atmosferici (1 GeV – 10 TeV). La sua geolocalizzazione è strategica, in quanto si trova nell’emisfero Nord, complementare a IceCube in Antartide, permettendo di monitorare il cielo meridionale.

Nell’infografica sottostante abbiamo riportato la posizione e le principali caratteristiche di ognuno.


Infografica dei principali esperimenti per il rilevamento dei neutrini sfruttando la radiazione Cherenkov. Crediti: Inaf

Riportiamo, per completezza, altri due esperimenti che sebbene non siano stati progettati principalmente per il rilevamento dei neutrini, sono strettamente collegati all’astronomia multi-messaggera, che studia fenomeni astrofisici tramite diversi tipi di particelle (neutrini, fotoni, raggi cosmici, onde gravitazionali).

Lhaaso è un osservatorio costruito in Tibet (Cina) a 4.410 metri di altitudine, che rileva le particelle secondarie prodotte quando raggi cosmici o raggi gamma interagiscono con l’atmosfera terrestre. Il sistema include rivelatori Cherenkov ad acqua, che rilevano la luce Cherenkov prodotta dalle particelle cariche nelle docce atmosferiche; array di scintillatori, che misurano l’energia e la direzione delle particelle; telescopi Cherenkov, che osservano la radiazione Cherenkov nell’atmosfera. Sebbene Lhaaso non rilevi direttamente neutrini, può identificare sorgenti di raggi gamma ultra-energetici (TeV – PeV) che potrebbero anche emettere neutrini, aiutando esperimenti come IceCube o Km3NeT a individuare le loro controparti neutrini.

Cta (Cherenkov Telescope Array) è un array di telescopi Cherenkov atmosferici distribuiti nei due emisferi: Cta-Nord a La Palma, Isole Canarie (Spagna) e Cta-Sud, a Paranal, in Cile. Il range di energia coperto è 20 GeV – 300 TeV. Similmente a Lhaaso, Cta non rileva neutrini direttamente ma aiuta a identificare le sorgenti di raggi gamma di altissima energia, che possono essere collegate a sorgenti di neutrini astrofisici osservate da IceCube o Km3NeT. Sono quindi complementari a esperimenti come IceCube, Km3NeT e Baikal-GVD per studiare l’universo con un approccio multi-messaggero.

Guarda il video su Media Inaf Tv:

youtube.com/embed/n9WC5jS8U_w?…


L’eccentrico Wasp-43b



Si chiama Wasp-43b e continua a far parlare di sé fin dalla sua scoperta, avvenuta nel 2011 con l’array di telescopi Wasp (Wide Angle Search for Planets), da cui prende il nome. Distante circa duecentottanta anni luce da noi, Wasp-43b è un gigante gassoso simile a Giove ma decisamente più caldo che ruota velocemente in modo ravvicinato intorno alla sua stella. Questi fatti erano noti già da tempo, ma ora una recente analisi sui dati osservativi provenienti da diversi strumenti ha aggiunto alcune novità sull’orbita di questo pianeta che non sono coerenti con le informazioni note finora. Tutti i risultati dello studio firmato da Lia Bernabò (Istituto di ricerca planetaria del German Aerospace Center (Dlr) e dal suo gruppo di ricerca sono in fase di pubblicazione su Astronomy & Astrophysics.


Illustrazione artistica dell’esopianeta gassoso gigante di tipo gioivano Wasp 43-b. Crediti: Nasa, Esa, Csa, Ralf Crawford (Stsci)

Analizzando i nuovi dati del telescopio spaziale James Webb e altre misure non ancora utilizzate ottenute dallo spettrografo Harps dello European Southern Observatory, in Cile, il gruppo di ricerca ha determinato sia la forma di Wasp-43b che la sua orbita, entrambe ellittiche. Il pianeta presenta infatti uno schiacciamento ai poli dovuto alle forze di marea e alla sua struttura interna non omogenea.

«L’analisi comprensiva di diversi tipi di dati ha permesso per la prima volta di misurare una piccola eccentricità, rendendo Wasp-43b uno dei pochi pianeti di tipo gioviano caldo con un’eccentricità confermata», commenta Lorenzo Pino dell’Inaf di Arcetri, coautore dello studio. «In più, si tratta del terzo pianeta in assoluto per cui è stata misurata la precessione dell’orbita eccentrica, ovvero un cambio periodico della sua orientazione».


Illustrazione artistica non in scala del sistema planetario Wasp-43, formato dalla stella e da un pianeta. Crediti: Federico De Micheli/Dlr

A causa, infatti, delle forze di marea – per il cui studio il sistema Wasp-43b è un ottimo candidato per via della vicinanza tra la stella ospite e il pianeta, e il rapporto di massa tra i due corpi – il periodo orbitale del pianeta sta diminuendo di circa due millisecondi ogni anno (fenomeno noto come decadimento mareale).

Nell’orbita del pianeta Wasp-43b si osserva anche il fenomeno di moto absidale, o precessione del perielio. La distribuzione della massa di una stella o di un pianeta, o l’attrazione gravitazionale di altri corpi, possono causare la precessione delle orbite di un pianeta o di una luna attorno a essi. L’insieme di questi effetti fa sì che il punto più vicino dell’orbita alla sua stella (perielio) si sposti continuamente intorno alla stella stessa. Qualcosa di analogo capita anche nel Sistema solare, per esempio nel caso di Mercurio.

«L’effetto si spiega con l’interazione mareale tra la stella e il pianeta che le orbita molto vicino. Tuttavia la velocità della precessione è molto elevata, ed è difficile da spiegare con modelli di struttura interna tradizionali per il pianeta», specifica Pino. «In particolare, è richiesto che il pianeta ruoti sul proprio asse molto velocemente, nonostante la teoria preveda che i periodi di rotazione e rivoluzione siano sincronizzati a causa dell’interazione mareale con la stella (blocco mareale)».

Infatti, poiché i valori orbitali del pianeta non risultavano coerenti con il modello della struttura interna del pianeta, il gruppo di ricerca ha sollevato una nuova ipotesi: il pianeta sta ruotando intorno al proprio asse in modo molto più veloce di quanto si pensasse, in sole tre o quattro ore invece che nelle diciannove stimate in precedenza. Rimane invece stimato a diciannove ore il periodo di rivoluzione.

«Tutti i dati che abbiamo a disposizione potrebbero essere riconciliati se la storia evolutiva del pianeta fosse fuori del comune, per esempio se avesse subito impatti con altri pianeti» ,conclude Lorenzo Pino. «Il rasoio di Occam suggerisce che, se l’analisi sarà confermata in futuro, questo tipo di dati potrebbe indicare che le nostre attuali conoscenze della struttura interna e della storia evolutiva dei pianeti giganti gassosi caldi è incompleta».

Insomma, dovremo aspettare le scoperte di missioni future, come Plato, per trovare altri esopianeti di questo tipo e per capire a fondo le loro proprietà.

Per saperne di più:


Là dove la turbolenza viene meno




Distribuzione sul piano galattico delle nubi molecolari analizzate da Lingrui e dai suoi collaboratori (cliccare per ingrandire). Il cerchio giallo e la croce rossa individuano rispettivamente il Sole e il Centro galattico. Le stelle viola, i triangoli rossi e i punti verdi rappresentano le nubi molecolari del disco esterno osservate rispettivamente con Alma, il telescopio Iram da 30 metri e l’Smt. Gli esagoni grigi indicano invece le nubi molecolari del disco interno. Le distanze sono espresse in kiloparsec (kpc): un kpc corrisponde a circa 3200 anni luce. Crediti: Lingrui Lin et al. Nature Astronomy, 2025

Anche per le stelle, come per noi esseri umani, le caratteristiche di una popolazione risentono moltissimo dell’ambiente nel quale gli individui vengono al mondo. Prendiamo per esempio la funzione iniziale di massa stellare, vale a dire il modo in cui si distribuisce la massa delle stelle al momento della loro formazione: le percentuali di stelle small, medium e large, insomma. Gli astronomi ritengono che non sia una distribuzione universale, ma che al contrario dipenda molto dalle caratteristiche della nube molecolare – dunque dell’ambiente, della “culla” – nella quale hanno origine: caratteristiche quali metallicità, rotazione, turbolenza e campi magnetici. Ma quale sia esattamente il ruolo giocato da questi parametri e come si influenzino fra loro è tutt’altro che chiaro.

Riguardo a quest’ultimo aspetto, uno studio pubblicato il mese scorso su Nature Astronomy mostra come la dinamica delle nubi molecolari e la loro stabilità siano influenzate dalla metallicità – vale a dire dalla percentuale di elementi più pesanti di idrogeno ed elio presenti nella nube stessa. In particolare, mostra come l’intensità della turbolenza si riduca man mano che diminuisce la metallicità. E suggerisce che nelle nubi a bassa metallicità, dove la turbolenza non è più in grado di offrire un supporto sufficiente contro la gravità, a contrastare il collasso gravitazionale della nube siano essenzialmente i campi magnetici.

Per giungere a questa conclusione, gli autori dello studio, guidato da Lingrui Lin, dottorando all’Università di Nanchino, in Cina, e da Zhi-Yu Zhang, docente presso la stessa università, hanno osservato e misurato la riga del monossido di carbonio – in particolare quella del 13CO – in una cinquantina di nubi molecolari nel disco esterno della Via Lattea – dove la metallicità è drasticamente ridotta (gli elementi più pesanti dell’elio sono solo il 20 per cento di quelli che si trovano nei dintorni del Sole) – con i radiotelescopi Iram da 30 metri, Alma ed Smt. Il 13CO è un isotopologo del monossido di carbonio: i nuclei dei suoi atomi di carbonio sono formati da sei protoni e sette neutroni, diversamente dal più comune carbonio-12, dove i neutroni sono soltanto sei.

«Gli isotopologhi del monossido di carbonio – come quelli di altre molecole – sono degli strumenti formidabili in astrofisica», commenta Donatella Romano dell’Inaf di Bologna, coautrice dello studio pubblicato su Nature Astronomy. «Ci consentono infatti di discriminare i diversi canali di nucleosintesi stellare responsabili della produzione degli elementi CNO (carbonio, azoto ed ossigeno), inclusi i loro isotopi secondari, cosa importantissima, perché questi sono non solo gli elementi più abbondanti nell’universo dopo l’idrogeno e l’elio, ma anche costituenti essenziali delle biomolecole, importanti per la vita. Inoltre, unitamente ad altri indicatori, sono usati come traccianti della storia evolutiva della nostra e di altre galassie – una branca dell’astrofisica nota come archeologia galattica. Per finire, come dimostrato in questo studio, ci aiutano a capire meglio le proprietà del gas molecolare da cui si formano le stelle. In particolare, qui si sono utilizzate le transizioni rotazionali del 13CO come traccianti della massa e della dispersione di velocità dell’idrogeno molecolare».


Donatella Romano (Inaf di Bologna) e Zhi-Yu Zhang (Università di Nanchino, Cina), coautori dello studio pubblicato su Nature Astronomy

È così che gli autori dello studio sono riusciti a calcolare, per ciascuna nube, il cosiddetto parametro viriale, definito come il doppio del rapporto tra energia cinetica ed energia gravitazionale nella nube. Poi lo hanno confrontato con quello – derivato da dati d’archivio – di nubi molecolari del disco interno della Via Lattea, dove la metallicità è elevata, e di quattro galassie nane vicine di bassa metallicità – più simili, dunque, alle nubi molecolari del disco esterno. Ciò che è emerso dal confronto è una significativa diminuzione del parametro viriale passando da nubi di alta metallicità a nubi di bassa metallicità.

«L’analisi dei dati mostra che, mentre le nubi molecolari nel disco interno si trovano in uno stato cosiddetto superviriale, cioè, la turbolenza è abbastanza forte da controbilanciare l’auto-gravità del gas, nel disco esterno le nubi sono in uno stato subviriale”, cioè, l’energia cinetica dominata dalla turbolenza non è sufficiente a controbilanciare il potenziale gravitazionale», spiega Romano.

«Nel disco esterno», continua la ricercatrice, «la metallicità del gas è pari a circa il 20 per cento della metallicità del Sole ed è simile a quella misurata in alcune galassie nane vicine alla Via Lattea. Abbiamo quindi raccolto dati di archivio di nubi molecolari in queste galassie, scoprendo che anch’esse si trovano in uno stato subviriale. Alla fine, dallo studio è emerso un andamento sistematico del parametro viriale, ossia, una sua significativa diminuzione passando da nubi di alta metallicità a nubi di bassa metallicità. Questo indica che la metallicità gioca un ruolo cruciale nella regolazione dell’intensità della turbolenza e dello stato dinamico delle nubi molecolari».

Ma, allora, come fanno le nubi in stato subviriale a restare stabili per lungo tempo e a non collassare immediatamente? Gli autori ritengono, come dicevamo, che in ambienti di bassa metallicità il contributo dei campi magnetici diventi essenziale: là dove la turbolenza viene meno, sarebbero proprio i campi magnetici a controbilanciare l’auto-gravità, impedendo il collasso subitaneo delle nubi.

Per saperne di più:

  • Leggi su Nature Astronomy l’articolo “Inadequate turbulent support in low-metallicity molecular clouds”, di Lingrui Lin, Zhi-Yu Zhang, Junzhi Wang, Padelis P. Papadopoulos, Yong Shi, Yan Gong, Yan Sun, Yichen Sun, Thomas G. Bisbas, Donatella Romano, Di Li, Hauyu Baobab Liu, Keping Qiu, Lijie Liu, Gan Luo, Chao-Wei Tsai, Jingwen Wu, Siyi Feng e Bo Zhang


La Terra che rileva la Terra



Un team di ricerca guidato Sofia Sheikh del Seti Institute, in collaborazione con il progetto Characterizing Atmospheric Technosignatures e il Penn State Extraterrestrial Intelligence Center, ha cercato di rispondere a una semplice domanda: se esistesse una civiltà extraterrestre con una tecnologia simile alla nostra, sarebbe in grado di rilevare la Terra e le prove dell’esistenza della specie umana? In caso affermativo, quali segnali rileverebbe e da quale distanza?

Per rispondere, i ricercatori hanno usato un approccio teorico, basato su formule matematiche e una stima realistica dei parametri in gioco (risoluzione angolare e sensibilità in primis, ma non solo), rappresentativa dello stato dell’arte degli strumenti attualmente presenti sulla Terra o in volo – come il James Webb Space Telescope (Jwst) o, per i manufatti sulla superficie di altri pianeti, il Lunar Reconnaissance Orbiter (Lro).

Nello studio, gli autori si concentrano sui tecnosegnali di origine terrestre che potrebbero essere osservabili a distanze interstellari utilizzando la nostra attuale tecnologia – ecco il motivo del curioso titolo, Earth detecting Earth – per stabilire standard quantitativi per la loro rilevabilità. È il primo lavoro ad analizzare più tipi di segnali tecnologici (trasmissioni radio, tecnofirme atmosferiche, emissione ottica e infrarossa, isole di calore, oggetti nello spazio o sulla superficie di altri pianeti) e a fornire un quadro chiaro e piuttosto completo.


Rappresentazione artistica di alcuni tecnosegnali di origine terrestre. Crediti: Jacob Haqq-Misraa, Edward W. Schwieterman, Hector Socas-Navarro, Ravi Kopparapu, Daniel Angerhausen, Thomas G. Beatty, Svetlana Berdyugina, Ryan Felton, Siddhant Sharmaa, Gabriel G. De la Torre, Dániel Apai, TechnoClimes 2020 workshop participants – sciencedirect.com/science/arti…, CC BY 4.0

Come c’era da aspettarsi, la prima (e più rilevante) tecnologia analizzata è quella delle trasmissioni radio, ampiamente usata anche in ambito Seti. L’uomo utilizza le radiofrequenze per comunicare, al fine di trasmettere in modo efficiente le informazioni alla velocità della luce su lunghe distanze, anche attraverso i comuni fenomeni atmosferici, come le nubi. In particolare, i ricercatori hanno calcolato la rilevabilità di quattro classi di emissioni radio: 1) trasmissioni radio intermittenti e puntate verso il cielo, come quella impiegata dai segnali Meti (Messaging Extraterrestrial Intelligence) trasmessi intenzionalmente, come il messaggio di Arecibo e le trasmissioni radar su scala planetaria per la caratterizzazione di asteroidi e pianeti; 2) trasmissioni radio persistenti e puntate verso il cielo, come la Deep Space Network (Dsn) della Nasa, utilizzata per la comunicazione tra le sonde spaziali e le stazioni di terra; 3) emissioni radio persistenti e omnidirezionali, come ad esempio torri cellulari, emittenti televisive e stazioni radio; 4) segnali radio provenienti da risorse spaziali, come il downlink da orbiter planetari.

I risultati hanno rivelato che i segnali radio come quello inviato da Arecibo nel 1974 sono quelli più rilevabili, potenzialmente visibili fino a 12mila anni luce. I segnali della Deep Space Network sono rilevabili a 65 anni luce, mentre il terzo caso è rilevabile a 4 anni luce. Infine, il Voyager, è rilevabile solo a 0,97 anni luce. Si noti come le distanze dei primi due casi superino lo spazio percorso dalla trasmissione dei segnali stessi; pertanto, anche se questi segnali fossero rilevabili a queste distanze, non le hanno ancora raggiunte.

Lo studio presenta quindi i risultati ottenuti per i tecnosegnali di origine atmosferica. Sicuramente, uno dei contributi tecnologici dell’umanità alla composizione atmosferica della Terra è quello dell’anidride carbonica (CO₂). Tuttavia, poiché la CO₂ ha molteplici fonti – alcune di origine tecnologica, altre biotiche e altre ancora abiotiche – viene studiata anche come una potenziale biofirma. Esistono tecnofirme nell’atmosfera terrestre che hanno pochissime, o addirittura nessuna, fonti non tecnologiche conosciute. Ad esempio, i clorofluorocarburi (Cfc) sono prodotti direttamente dalla tecnologia umana (con solo piccolissime fonti naturali) e la loro presenza nell’atmosfera terrestre costituisce una tecnofirma quasi inequivocabile. Il diossido di azoto (NO₂), come la CO₂, ha fonti abiotiche, biogeniche e tecnologiche, ma la combustione nei veicoli e nelle centrali elettriche alimentate a combustibili fossili rappresenta un contributo significativo alla presenza di NO₂ nell’atmosfera terrestre. Lo studio prende in considerazione proprio questa molecola. La più alta concentrazione di NO₂ si è rilevata nel 1980, con 113 ppm. Assumendo 300 ore di osservazione con l’imminente Habitable Worlds Observatory (Hwo) e un’atmosfera senza nubi, hanno trovato che la massima distanza dalla quale può essere rilevabile è 5,71 anni luce, ossia appena oltre Proxima Centauri.

Avvicinandosi ancora di più alla Terra, si potrebbero rilevare simultaneamente sempre più firme prodotte dall’uomo, tra cui luci cittadine, laser, isole di calore e satelliti, offrendo una visione completa della nostra presenza.

Attualmente, lo 0,05 per cento della superficie del pianeta è coperto da centri urbani con un forte inquinamento luminoso. Per rilevare l’emissione di questo livello di urbanizzazione, un sistema analogo alla Terra dovrebbe trovarsi a una distanza di 0,036 anni luce, cioè vicino al bordo interno della nube di Oort.


Temperatura della superficie terrestre a Milano il 18 giugno 2022. Crediti: Esa/Nasa/Jpl

Per quanto riguarda il calore, la maggior parte delle principali città sono più calde rispetto all’ambiente rurale o naturale circostante. Questo effetto di isola di calore urbana le rende più emissive nell’infrarosso e può essere quantificato con l’indice di calore urbano (Uhi), che indica di quanti gradi una città è più calda rispetto all’ambiente circostante. La città con l’Uhi più elevato sembra essere Hong Kong. Individuare queste isole di calore a distanza è una sfida. Tuttavia, se il disco di un pianeta è risolto spazialmente, i “pixel caldi” delle isole di calore potrebbero essere potenzialmente misurabili rispetto allo sfondo termico. Considerando Hong Kong, con un valore di Uhi pari a 10,5°C e un’area urbana di 1104 chilometri quadrati, osservata da uno strumento analogo a Miri del Jwst, la città riempirebbe circa un singolo pixel se osservata da una distanza di 0,416 unità astronomiche. Oltre questa distanza, il flusso in eccesso della città nel pixel sarà diluito dai pixel vicini non facenti parte dell’isola di calore. Tenendo conto del flusso diluito, gli studiosi hanno trovato che Miri potrebbe distinguere l’isola di calore di Hong Kong da un pixel vicino fino a una distanza 30 unità astronomiche, pari alla distanza di Nettuno dalla Terra.

Per “vedere” oggetti nello spazio o sulla superficie di altri pianeti occorre avvicinarsi molto di più. Una distanza massima dalla quale possono essere rivelati gli artefatti sulla superficie planetaria è di 8600 chilometri con la tecnologia attuale, come Lro.


Le distanze massime a cui ciascuna delle tecnofirme della Terra potrebbe essere rilevata utilizzando la moderna tecnologia di ricezione, in forma visiva. Sono inoltre contrassegnati vari oggetti astronomici di interesse. Crediti: Sheikh et al.

«Il nostro obiettivo con questo progetto era quello di riportare il Seti “sulla Terra” per un momento e pensare a dove siamo realmente oggi con le caratteristiche tecnologiche e le capacità di rilevamento della Terra», commenta Macy Huston, co-autrice presso il Dipartimento di Astronomia dell’Università della California, Berkeley. «Nel Seti non dobbiamo mai dare per scontato che la vita e la tecnologia degli altri siano proprio come le nostre, ma quantificare il significato di “nostre” può aiutare a mettere in prospettiva le ricerche Seti».

«Uno degli aspetti più soddisfacenti di questo lavoro è stato usare il Seti come uno specchio cosmico: che aspetto ha la Terra per il resto della galassia? E come verrebbero percepiti gli impatti attuali sul nostro pianeta», dice Sheikh. «Anche se naturalmente non possiamo conoscere la risposta, questo lavoro ci ha permesso di estrapolare e immaginare cosa potremmo pensare se mai scoprissimo un pianeta con, ad esempio, alte concentrazioni di inquinanti nella sua atmosfera».

Questo studio dimostra come i tecnosegnali terrestri possano fornire un quadro a più lunghezze d’onda per comprendere la rilevabilità della tecnologia su altri pianeti e dare forma alla nostra ricerca di vita intelligente oltre la Terra. I telescopi e i ricevitori futuri potrebbero migliorare la nostra sensibilità di rilevamento o permetterci di identificare nuovi tipi di tecnosegnali, come altre firme atmosferiche di inquinamento. Ripetere questo tipo di studio nel corso degli anni, con il progredire della tecnologia astronomica e l’evolversi dell’impatto umano sul pianeta, potrebbe fornire nuove intuizioni e perfezionare il nostro approccio alla scoperta della vita extraterrestre.

Per saperne di più:

Guarda il video su Media Inaf Tv:

youtube.com/embed/b7jkbiAtlpE?…


Così la Terra ha perso alcuni suoi elementi



Una delle ipotesi formulate dagli scienziati per spiegare l’origine della materia di cui è fatta la Terra sostiene che la maggior parte dei mattoni per la sua costruzione provenga dalla regione interna della nebulosa solare – il disco di gas e polveri da cui il Sistema solare interno ha avuto origine. Secondo questo modello, circa 4.5 miliardi di anni fa i pianeti rocciosi si sarebbero formati per accrescimento degli embrioni planetari -– i cosiddetti planetesimi – presenti nel Sistema solare interno.

Un’ulteriore ipotesi sostiene che a quell’epoca un contributo sostanziale all’inventario degli elementi chimici che oggi possiede il nostro pianeta lo avrebbero dato le meteoriti ferrose, o meglio, il corpo progenitore di questi oggetti celesti. Composte prevalentemente da una lega di ferro e nichel, secondo gli scienziati queste meteoriti sono i resti dei nuclei metallici dei primi semi planetari formatisi nel Sistema solare interno. Insomma, sarebbero delle vere e proprie capsule del tempo, in grado di fornirci un’istantanea della composizione chimica della Terra miliardi di anni fa.


Illustrazione artistica che mostra la collisione tra planetesimi alla base del processo di formazione planetaria nel Sistema solare primordiale. Crediti: Kouji Kanba

Sebbene le firme isotopiche di molti elementi lo confermino, nel considerare le meteoriti ferrose come corpi progenitori della Terra primordiale c’è tuttavia qualcosa che non torna. Questo qualcosa ha a che fare gli elementi chimici moderatamente volatili presenti nei due corpi: le loro quantità sono abbondanti nelle meteoriti, ma ridotte sulla Terra. Come spiegare tutto ciò? A cosa può essere dovuta la deplezione di questi elementi nel nostro pianeta? Un nuovo studio condotto da ricercatori dell’Arizona State University in collaborazione con ricercatori del Caltech, della Rice University e del Mit pare ora aver trovato una risposta a questa domanda: la loro perdita sarebbe la conseguenza di collisioni tra planetesimi.

Gli elementi moderatamente volatili sono elementi la cui volatilità – la proprietà chimico-fisica che descrive la facilità con cui un solido o un liquido, rispettivamente, sublima o vaporizza – è a metà strada tra quella dello zolfo e quella di elementi come silicio, magnesio e ferro. Rame e zinco ne sono un tipico esempio. Questi elementi svolgono un ruolo cruciale nella chimica planetaria, spesso accompagnando ingredienti essenziali per la vita come acqua, carbonio e azoto. Comprendere la loro origine fornisce dunque indizi sul perché la Terra sia diventata il mondo abitabile che conosciamo. Finora gli scienziati hanno creduto che il nostro pianeta disponesse di piccole quantità di questi elementi per due ragioni alternative: o perché non si sono mai completamente condensati nella nebulosa solare; o perché erano sfuggiti durante la differenziazione dei planetesimi che hanno formato la Terra.

I risultati del nuovo studio, pubblicati la settimana scorsa su Science Advances, raccontano una storia diversa. Una storia secondo cui molti dei primi planetesimi hanno invece mantenuto i loro elementi chimici moderatamente volatili. I pianeti rocciosi del Sistema solare, come la Terra e Marte, li avrebbero persi successivamente.

«Abbiamo trovato prove che i planetesimi di prima generazione nel Sistema solare interno erano inaspettatamente ricchi di questi elementi», spiega Damanveer Grewal, ricercatore alla Arizona State University, negli Usa, e primo autore dello studio. «Questa scoperta rimodella la nostra comprensione di come i pianeti abbiano acquisito i loro ingredienti».

Utilizzando le meteoriti ferrose come modello per ricostruire le composizioni chimiche dei primi planetesimi formatisi nel Sistema solare interno, i ricercatori hanno infatti trovato che molti di questi embrioni planetari hanno mantenuto abbondanti quantità di elementi moderatamente volatili anche dopo la differenziazione, dimostrando che si sono accresciuti dalla nebulosa solare preservando questi elementi anche in fasi successive del processo di formazione planetaria. Ciò suggerisce che i progenitori della Terra e di Marte non erano impoveriti di questi elementi già in partenza. Piuttosto, la loro perdita si sarebbe verificata nel corso dell’evoluzione, in seguito alla prolungata storia di collisioni tra i planetesimi, sottolineano i ricercatori.

«Questo lavoro di ricerca ridefinisce la nostra comprensione circa l’evoluzione chimica dei pianeti», conclude Grewal. «Lo studio dimostra che i mattoni della Terra e di Marte erano originariamente ricchi di questi elementi essenziali per la vita, ma intense collisioni durante la crescita planetaria ne hanno causato l’impoverimento».

Per saperne di più:


Con iSeeds, 1,3 milioni di euro per i dischi planetari




Eleonora Bianchi. Crediti: Inaf

Grazie al Fondo italiano per la scienza – Fis 2 erogato dal Ministero dell’università e della ricerca (Mur), il progetto iSeeds (Astrochemical Study of Early Embedded Disks) riceve 1,3 milioni di euro per indagare la formazione dei pianeti oltre il Sistema solare. A guidarlo sarà Eleonora Bianchi, ricercatrice dell’Istituto nazionale di astrofisica (Inaf), insieme a un team di cinque esperti in astrochimica osservativa, data mining, machine learning e data science.

Il progetto iSeeds, che partirà a ottobre 2025, «letteralmente significa ‘studio astrochimico di giovani dischi oscurati’», spiega Bianchi, «ed è dedicato all’analisi della fisica e della chimica dei dischi protostellari, l’ambiente in cui prendono forma i sistemi planetari. Per la prima volta, iSeeds esplorerà dischi giovanissimi ancora immersi nella loro nube molecolare, svelando le prime fasi della formazione di pianeti simili al nostro».

«Quanta massa è disponibile nel disco per la formazione dei pianeti? Qual è la composizione chimica dei dischi, che verrà ereditata dai pianeti in formazione? Quando e come crescono i grani di polvere nel disco fino a formare i planetesimi? Queste sono alcune delle domande a cui cercheremo di rispondere nei prossimi tre anni», sottolinea Bianchi. Grazie al finanziamento ottenuto (in totale 1.325.273,40 di euro) e «attraverso il nostro innovativo approccio interdisciplinare, con iSeeds saremo capaci di sfruttare appieno l’enorme quantità di dati generata dai moderni telescopi».

Rientrata di recente in Italia dopo un postdoc di cinque anni presso l’Institut de Planétologie et d’Astrophysique di Grenoble e un’esperienza di ricerca di due anni presso l’Excellence Cluster Origins di Monaco di Baviera, Eleonora Bianchi si prepara ora ad avviare il progetto in Italia, all’Inaf – Osservatorio astrofisico di Arcetri. Il gruppo si occuperà dello sviluppo delle linee di ricerca e delle infrastrutture necessarie per la raccolta e l’analisi dei dati. Il progetto sarà condotto in un osservatorio storico dell’Inaf, «che vanta una consolidata tradizione», dice la ricercatrice, «nello studio della chimica delle prime fasi di formazione delle protostelle di tipo solare e nel confronto con le comete e gli oggetti del Sistema solare».

Rispetto all’importo inizialmente richiesto, il Ministero ha riconosciuto una quota aggiuntiva del dieci per cento (circa 120mila euro) al progetto quale riconoscimento per l’inserimento all’Inaf e il rientro in Italia della ricercatrice. Il finanziamento complessivo è stato erogato nell’ambito del macrosettore “Physical Sciences and Engineering – Universe Sciences” del Fis 2. I fondi Fis sostengono ogni anno progetti di ricerca altamente innovativi nei principali settori scientifici, seguendo il modello dello European Research Council (Erc). A livello nazionale, lo stanziamento totale del Mur è stato di 338 milioni di euro.

«Dopo anni di formazione all’estero», racconta Bianchi, «questo progetto rappresenta per me una straordinaria opportunità di rientrare in Italia e nello specifico all’Inaf, di costruire un gruppo di ricerca in astrochimica e di contribuire alla formazione dei ricercatori di domani. Grazie alle nuove infrastrutture e ai vari progetti europei portati avanti all’Inaf di Arcetri, siamo pronti a sviluppare le collaborazioni interdisciplinari necessarie per affrontare le sfide che il campo dell’astrochimica richiede. Inoltre, questo è un momento particolarmente stimolante, poiché l’Italia e l’Inaf stanno investendo significativamente nei telescopi di nuova generazione, come il radiotelescopio dell’Osservatorio Ska, che apriranno nuove possibilità per sviluppi significativi nell’ambito della formazione planetaria e dell’astrochimica».


Un anello perfetto per Euclid



Lanciata nel luglio del 2023, la missione Euclid dell’Agenzia spaziale europea (Esa) sta scansionando il cielo in profondità per costruire la più precisa mappa 3D mai realizzata dell’universo, spingendosi fino a dieci miliardi di anni fa per studiare la storia cosmica e indagare i misteri delle enigmatiche materia oscura ed energia oscura. La missione, che vede un forte contributo italiano attraverso l’Agenzia spaziale italiana (Asi), l’Istituto nazionale di astrofisica (Inaf), l’Istituto nazionale di fisica nucleare (Infn) e numerosi atenei, deve raccogliere una enorme mole di dati per raggiungere i suoi ambiziosi obiettivi scientifici. E tra questi dati si nascondono moltissime sorprese.

Una delle prime sorprese è la galassia Ngc 6505, nota sin dalla fine dell’Ottocento e relativamente vicina a noi – la sua luce è partita “appena” 590 milioni di anni fa. Grazie a Euclid si è scoperto che questa galassia agisce come lente gravitazionale, deviando la luce proveniente da un’altra galassia molto più lontana, la cui luce è partita ben 4,42 miliardi di anni fa. Il risultato è un’immagine distorta di quest’ultima galassia: distorta al punto giusto da formare un anello perfetto. La ricerca, guidata da Conor O’Riordan del Max Planck Institute for Astrophysics di Monaco di Baviera, Germania, è stata pubblicata sulla rivista Astronomy & Astrophysics.


Immagine della galassia Ngc 6505: l’anello di Einstein creato da questa lente gravitazionale si può vedere al centro dell’immagine e, ingrandito, nel riquadro a destra. Crediti: Esa/Euclid/Euclid Consortium/Nasa, image processing by J.-C. Cuillandre, T. Li

Secondo la teoria della relatività generale di Einstein, i corpi dotati di massa “piegano” il tessuto dello spaziotempo che pervade l’universo, deflettendo il percorso di qualsiasi altro oggetto nelle vicinanze, compresa la luce. Questo fenomeno, chiamato lensing gravitazionale, produce immagini distorte dei corpi celesti, proprio come quelle create da una comune lente d’ingrandimento. La missione Euclid userà il lensing gravitazionale nella sua forma “debole” per studiare l’invisibile materia oscura attraverso la sua influenza sulle immagini leggermente deformate di miliardi di galassie. In rari casi, per esempio quando galassie a diverse distanze da noi si trovano fortuitamente allineate, il lensing gravitazionale si manifesta nella sua forma più eclatante, detta “forte”, dando luogo a immagini multiple di una stessa galassia o eccezionalmente a un intero anello, detto anello di Einstein.

«Questa prima lente gravitazionale forte scoperta da Euclid ha caratteristiche uniche», spiega Massimo Meneghetti, ricercatore dell’Istituto nazionale di astrofisica, associato all’Istituto nazionale di fisica nucleare, tra gli autori del nuovo studio. «È veramente raro poter trovare una galassia relativamente prossima a noi, come questa che si trova nel catalogo Ngc (New galaxy catalog, uno dei cataloghi di galassie vicine), che agisca da lente gravitazionale forte. Galassie così vicine infatti non sono generalmente in grado di focalizzare la luce di sorgenti retrostanti e formare immagini multiple, a meno che non contengano enormi quantità di materia nelle loro regioni centrali. La formazione di anelli di Einstein completi come quello di Ngc 6505 è un evento ancora più raro, perché richiede che la galassia lente e quella sorgente siano perfettamente allineate con il nostro telescopio. Per questi motivi, non ci aspettiamo che Euclid osserverà molte lenti come Ngc 6505. Anche considerando la vasta area di cielo che verrà coperta nel corso della missione, ci aspettiamo di poter scoprire al massimo 20 lenti come questa».


Infografica sulla formazione di un anello di Einstein. Crediti: Esa

Questa lente gravitazionale è stata scoperta per caso, in una delle prime zone di cielo osservate da Euclid, analizzando i dati della fase di verifica della missione appena due mesi dopo il lancio, dall’astronomo Bruno Altieri dell’Esa: per questo il gruppo di ricerca l’ha soprannominata “lente di Altieri”. Benché la galassia Ngc 6505 sia stata osservata per la prima volta nel 1884, l’anello di Einstein scoperto con Euclid non era mai stato notato prima, dimostrando le straordinarie capacità di scoperta della missione.

La distorsione indotta dal lensing gravitazionale dipende dalla distribuzione e dalla densità di materia della galassia che agisce da lente. Per questo motivo, analizzando la distorsione è possibile misurare la sua massa sia in termini di stelle che di materia oscura. In questo caso, inoltre, visto che l’anello di Einstein della lente di Altieri ha un raggio più piccolo rispetto a quello di Ngc 6505, è stato possibile studiare accuratamente la composizione e la struttura delle regioni centrali, dove la materia oscura è meno prominente, e dove la galassia è dominata dalle stelle.

«Dato che il lensing gravitazionale è il metodo più preciso per misurare la massa, combinando il modello dell’anello di Einstein e della distribuzione di stelle della galassia, abbiamo potuto misurare che la frazione di massa composta da materia oscura al centro della lente è soltanto l’11 per cento», spiega la co-autrice Giulia Despali, ricercatrice al Dipartimento di fisica e astronomia “Augusto Righi” dell’Università di Bologna, associata dell’Inaf e dell’Infn. «Ricordiamo che la materia oscura costituisce circa l’85 per cento della materia totale del nostro universo, quindi le regioni centrali delle galassie sono veramente particolari. Abbiamo infatti misurato le proprietà della galassia con estrema precisione, scoprendo una struttura complessa che varia con la distanza dal centro e stimando la funzione di massa iniziale, e cioè la proporzione di stelle di piccola e grande massa. Le nuove osservazioni di Euclid ci aiutano quindi a capire di più sia sull’universo oscuro che sui processi di formazione ed evoluzione delle galassie».

Se questa scoperta è avvenuta per caso, all’interno della collaborazione Euclid c’è un vasto gruppo dedicato alla ricerca di lenti gravitazionali, e ci si aspetta di trovarne oltre centomila nei 14mila gradi quadrati di cielo che saranno osservati nel corso della missione. Queste indagini sfruttano, da un lato, strumenti sofisticati come l’intelligenza artificiale, e dall’altro anche la citizen science, coinvolgendo il pubblico non esperto nell’ispezione visuale delle immagini, in collaborazione con la piattaforma Zooniverse. ​​L’obiettivo è quello di realizzare una mappa dettagliata della distribuzione della materia, sia quella visibile che quella oscura, nelle galassie e negli ammassi di galassie a varie distanze dall’universo locale per poter così studiare la natura e l’evoluzione nel tempo della materia oscura e dell’energia oscura.

Guarda l’intervista a Giulia Despali su Media Inaf Tv:

youtube.com/embed/TcsgBEgrpsk?…

Per saperne di più:


La danza polverosa di una stella che nasce



In un viluppo di polvere apre gli occhi una stella. Colonne di materiale scagliato a velocità forsennata si innalzano e sbattono contro il gas che ha la ventura di trovarsi là, dove un fatto ordinario, nella straordinaria vita dell’universo, sta accadendo. Diffuse emorragie di particelle ionizzate, che si aprono al cosmo come la corolla spalancata di un fiore, si riversano in un’area larga decine di volte il Sistema solare. Una coltre di materia luminescente, riflesso della neonata stella, ammanta la scena di splendore. Al centro un polveroso disco in formazione, culla di mondi che saranno.


L’oggetto di Herbig-Haro HH-30 immortalato dal James Webb Space Telescope. Crediti: Esa/Webb, Nasa & Csa, Tazaki et al.

Questa è la fotografia dell’irruenta nascita di un astro e dei primi vagiti del suo sistema di pianeti. A fornircela è il James Webb Space Telescope, che ha catturato dettagli straordinari di HH-30, brillante regione che circonda una stella appena nata in una nebulosa oscura della Nube del Toro, in corrispondenza della nota costellazione. Oggetti di Herbig-Haro si chiamano, queste incantevoli regioni che si accendono quando il materiale eruttato da una stella in fasce sbatte contro il gas e le polveri nelle vicinanze. L’immagine presentata in questo articolo è stata scelta come “foto del mese” da parte della Nasa, dell’Esa e dell’Agenzia spaziale canadese (Csa)

C’è tanta luce, ma c’è anche tanta polvere in questa fotografia. L’occhio infrarosso di Webb è sensibile all’emissione di minuscoli granelli di polvere, grossi solo millesimi di millimetro. Più o meno le dimensioni di un batterio. I granelli di queste dimensioni formano un diffuso pulviscolo che avvolge la regione. Con l’interferometro Alma, in passato, è stato possibile osservare grani di polvere più grossi, delle dimensioni di poco più di un millimetro, e che si addensano in una stretta regione all’interno del disco protoplanetario. Telescopi diversi, se usati in sinergia, si rivelano strumenti formidabili per indagare l’universo, in quanto ciascuno di essi cattura dettagli invisibili agli occhi degli altri strumenti. Ognuno di essi ci consegna un pezzo. Mettere insieme questi pezzetti ci consente di ricostruire quel che sta accadendo o che è successo in passato, dalle piccole scale di asteroidi e comete alle stazze colossali degli ammassi di galassie.


HH-30 visto da diversi strumenti: Hubble, Webb e Alma (pannelli a sinistra). Nell’immagine a destra sono indicate le diverse parti che costituiscono questo oggetto. Crediti: Esa/Webb, Nasa & Csa, Esa/Hubble, Alma (Eso/Naoj/Nrao), Tazaki et al.

HH-30 piace tanto agli astronomi perché il disco di pianeti in formazione è rivolto di taglio al nostro pianeta. Questo consente agli scienziati di studiare nel dettaglio come si aggregano e come si evolvono i granelli di polvere in queste strutture. Il disco protoplanetario di HH-30 è stato scoperto dal Telescopio spaziale Hubble nel 1995 e dista 450 anni luce dalla Terra.

Celata rimane ai nostri occhi la stella. Responsabile di un tale spettacolo, evidentemente non lesina di timidezza. Sepolta nella polvere del disco che la cinge, lo scarto, l’avanzo, quello che resta, che è stato escluso dall’aggregazione del rovente astro. Un avanzo non dissimile da quello che in un tempo lontano, quattro miliardi e mezzo di anni fa, ha cominciato ad addensarsi, a creparsi, a frammentarsi nei pianeti del Sistema solare. Incluso quello che ci ospita. Uno scarto, che per noi è tutto.

Per saperne di più:

  • I dati di HH-30 fanno parte del programma osservativo 2562 (principal investigators: F. Ménard, K. Stapelfeldt) realizzato con gli strumenti NirCam e Miri del James Webb Space Telescope


Enorme getto radio nell’universo giovane



I getti radio sono eiezioni di materia ed energia che brillano intensamente alle frequenze delle onde radio. Prodotti come conseguenza dall’accrescimento del titanico buco nero supermassiccio presente nel cuore di luminosi nuclei galattici chiamati quasar, nell’universo locale – cioè le regioni a noi più vicine – questi getti radio sono abbastanza comuni, ma nell’universo lontano e primordiale sono rimasti finora sfuggenti. Finora, appunto.

Una collaborazione internazionale di ricercatori ha infatti ora individuato un getto radio prodotto agli albori dell’universo. E non un getto radio qualsiasi: un getto radio da record. Che si tratti di qualcosa di straordinario lo si intuisce già dal titolo dell’articolo che descrive la scoperta, accettato per la pubblicazione sulla rivista The Astrophysical Journal Letters e disponibile come preprint su ArXiv: “Monster radio jet (>66 kpc) observed in quasar at z∼5”. Quel maggiore di 66 kiloparsec ci dice che il getto in questione si estende per almeno 200mila anni luce, il doppio della larghezza della nostra galassia, la Via Lattea, ma è probabile che la dimensione fisica del getto si estenda ben oltre questo valore. Il valore z∼5 – che è il redshift della sorgente, cioè il parametro che gli astrofisici usano per quantificare la distanza delle galassie più remote – ci dice invece che le sue onde radio osservate qui sulla Terra oggi hanno impiegato 12,5 miliardi di anni per raggiungerci: detto altrimenti, sono state emesse quando l’universo aveva solo un miliardo di anni. Si tratta, spiegano i ricercatori, del getto più esteso che sia mai stato osservato a redshift superiori a 4.


Illustrazione artistica che mostra il più grande getto radio osservato nell’universo primordiale. Identificato per la prima volta utilizzando il telescopio internazionale Low Frequency Array (Lofar ), osservazioni di follow-up con il Gemini Near-Infrared Spectrograph (GNirs) e nell’ottico con l’Hobby Eberly Telescope, hanno permesso di dipingere un quadro completo del getto stesso e del quasar che lo produce: J1601+3102. Crediti: NoirLab/Nsf/Aura/M. Garlick

A produrre il mostruoso getto bilobato è stato J1601+3102. Si tratta di un quasar “radio loud” –ovvero, un forte emettitore di onde radio – scoperto nel 2022 analizzando i dati ottenuti in modalità Vlbi dai radiotelescopi del Low Frequency Array (Lofar), una rete di radiotelescopi europea.

Grazie a nuove osservazioni con la stessa rete di telescopi e a osservazioni di follow-up nel vicino infrarosso con il Gemini Near-Infrared Spectrograph (Gnirs) e nell’ottico con l’Hobby Eberly Telescope (Het), i ricercatori non solo hanno scoperto il getto, ma hanno anche tracciato un quadro completo del getto stesso e del quasar che lo emette.

«Stavamo cercando quasar con forti getti radio nell’universo primordiale, il che ci aiuta a capire come e quando si formano i primi getti e come essi influenzano l’evoluzione delle galassie», dice Anniek Gloudemans, ricercatrice presso il NoirLab e prima autrice dell’articolo che presenta i risultati di ricerca. «È solo grazie al fatto che questo oggetto è così estremo che possiamo osservarlo dalla Terra. «Questo quasar mostra cosa possiamo scoprire combinando la potenza di più telescopi che operano a diverse lunghezze d’onda».

Le immagini Lofar di J1601+3102 mostrano una struttura del getto radio estesa, che include un lobo radio settentrionale, un lobo radio meridionale e un nucleo. Il lobo settentrionale si estende per 9 kiloparsec (circa 29mila anni luce). Il lobo meridionale dista invece 57 kiloparsec (circa 185mila anni luce) dal quasar. Oltre a essere sei volte più vicino al nucleo del quasar, il lobo settentrionale è cinque volte più luminoso. Ciò, spiegano i ricercatori, suggerisce che esso sia potenzialmente illuminato dall’interazione estrema con il mezzo interstellare circostante.

Quanto al quasar che l’ha emesso, determinare le proprietà di questi oggetti – come massa e velocità con cui consumano materia – è necessario per comprendere la storia della loro formazione ed evoluzione. Per misurare questi parametri, il team ha cercato negli spettri di emissione della sorgente una specifica lunghezza d’onda della luce. Gli addetti ai lavori la chiamano linea di emissione larga del magnesio II. Normalmente, questo segnale appare nell’intervallo di lunghezza d’onda della luce ultravioletta. Tuttavia, a causa dell’espansione dell’universo, che fa sì che la luce emessa dal quasar venga “allungata” a lunghezze d’onda maggiori, il segnale del magnesio II arriva sulla Terra nell’intervallo di lunghezza d’onda del vicino infrarosso, dove è rilevabile con lo spettrografo Gnirs. Individuata questa caratteristica spettrale, i ricercatori hanno derivato le proprietà del buco nero di J1601+3102, stimandone la massa e la velocità di accrescimento, e successivamente la potenza del getto. Secondo i calcoli dei ricercatori, il buco nero di J1601+3102 avrebbe una massa pari a quella di 450 milioni di soli. Considerato che i quasar possono avere masse miliardi di volte maggiori di quella del Sole, si tratta di una sorgente relativamente piccola. Il suo tasso di accrescimento è pari al 45 per cento del limite di Eddington (la soglia massima di materia che un buco nero può consumare in un periodo di tempo), il che significa che sta ingurgitando materia in maniera efficiente ma non è ancora entrato nel regime alimentare estremo chiamato dagli astronomi “super-Eddington”. Quanto alla potenza del getto osservato, si parla di un valore pari a 8 x 1044 (8 seguito da 44 zeri) erg a secondo, che significa che la luce emessa dal getto è pari a circa il tre per cento della luminosità totale del quasar.

«È interessante notare che il quasar che alimenta questo enorme getto radio non ha una massa estrema rispetto ad altri quasar», dice a questo proposito Gloudemans. «Questo sembra indicare che non è necessario un buco nero eccezionalmente massiccio o un tasso di accrescimento estremamente elevato per generare getti così potenti nell’universo primordiale».

Questo quasar è unico in quanto è il primo individuato nell’universo primordiale ad avere getti radio estesi. Getti rimasti elusivi, concludono i ricercatori, probabilmente a causa del rumore del fondo cosmico a microonde – la radiazione fossile rimasta dal Big Bang – presente quando si osserva ad alto redshift. La conferma spettroscopica di nuovi emettitori forti di onde radio ad alto redshift e osservazioni in modalità Vlbi sono necessarie per rivelare ulteriori getti radio nell’universo primordiale e stabilire vincoli sul tempo di formazione dei primi quasar.

Per saperne di più:

  • Leggi su arXiv il preprint dell’articolo “Monster radio jet (>66 kpc) observed in quasar at z∼5” di Anniek J. Gloudemans, Frits Sweijen, Leah K. Morabito, Emanuele Paolo Farina, Kenneth J. Duncan, Yuichi Harikane, Huub J. A. Röttgering, Aayush Saxena e Jan-Torge Schindler


OP 313, il blazar ruggisce ancora




Giacomo Bonnoli, della Collaborazione Magic, coordinatore per le osservazioni multi-banda e multi-messaggero. Crediti: G. Bonnoli

Non c’è ancora un comunicato stampa per questa notizia ma solo due telegrammi su The Astronomer’s Telegram (ATel), un servizio online che fornisce notifiche rapide alla comunità astronomica su scoperte e osservazioni di fenomeni transienti, come supernove, esplosioni di raggi gamma e altro ancora.

Il 14 gennaio alle 19:46, ora locale, ATel #16977 riporta che i telescopi Magic, dalla vetta dell’Isola di La Palma, alle Canarie, hanno rilevato un brillamento (o flare, in inglese) di raggi gamma ad altissima energia provenire da una sorgente denominata OP 313. Il 28 gennaio alle 16:36 ATel #17000 evidenzia ancora una volta una forte attività di flaring di raggi gamma ad altissima energia sempre da lì, OP 313.

L’analisi preliminare dell’osservazione con Magic della durata di 3 ore del 27 gennaio ha permesso di rilevare OP 313 con una significatività statistica molto elevata (superiore a 30 deviazioni standard). Il flusso stimato al di sopra degli 80 GeV ha raggiunto un livello paragonabile a quello della Nebulosa del Granchio.

Ma cos’è esattamente OP 313? Da quanto tempo è sotto osservazione e da parte di chi? Lo abbiamo chiesto a Giacomo Bonnoli dell’Inaf di Milano, che fa parte della Collaborazione Magic dal 2006 e ha contribuito a coordinare questa campagna osservativa sul brillamento eccezionale del blazar OP 313, che è ancora in corso.

Bonnoli, di che oggetto si tratta?

«OP 3131 è un blazar. I blazar sono particolari radiogalassie (una sottoclasse dei nuclei galattici attivi) caratterizzate dall’avere il getto relativistico orientato in una direzione prossima a quella della Terra. Effetti relativistici amplificano il segnale che possiamo osservare e sono quindi particolarmente brillanti a tutte le frequenze. Il flusso emesso è molto variabile (anche quattro o più ordini di grandezza) e allo stato attuale non è possibile predirne l’andamento, ma solo monitorarlo (in ottico da terra, nei raggi X e gamma dallo spazio) e reagire prontamente alle allerte che segnalano stati attivi con campagne osservative rapide quanto estemporanee, denominate Target of Opportunity. I blazar si dividono in due famiglie principali: i BL Lac, caratterizzati da una minore luminosità ma con uno spettro energetico che si estende molto nella banda dei raggi gamma, e i flat spectrum radio quasar (Fsrq), più luminosi ma più difficili da osservare con i telescopi Cherenkov, in quanto lo spettro energetico si estende poco nella banda gamma, con la parziale eccezione delle fasi di flare».


Un’immagine composita della radiogalassia Hercules A, con l’immagine radio ottenuta da Vla (New Mexico, Usa) sovrapposta al campo fotografato in ottico dal telescopio orbitante Hubble Space Telescope. Evidente al centro l’immagine ottica della galassia ospite, ed i due collimati getti radio emergenti dalla regione nucleare. I blazar sono sorgenti di questo tipo ma orientate fortuitamente con l’asse del getto relativistico in una direzione prossima, entro pochi gradi, alla linea di vista. Crediti: Nasa, Esa, S. Baum and C. O’Dea (Rit), R. Perley and W. Cotton (Nrao/ Aui/ Nsf), and the Hubble Heritage Team (Stsci/Aura)

E Magic è riuscito a osservare proprio uno di questi flare?

«Sì, Magic (costituito da una coppia di telescopi del tipo Iact, ossia Imaging Atmospheric Cherenkov Telescopes, con primario da 17 metri di diametro, a lungo i più grandi al mondo) da sempre è lo strumento Iact d’elezione per le osservazioni dei flat spectrum radio quasar, essendo caratterizzato da una bassa soglia energetica, ossia dalla sensibilità a fotoni gamma con energie di poche decine di GeV. I pochi Fsrq (giusto 10 quelli elencati nel catalogo di riferimento TeVCat 2) di cui si conosce emissione nella banda gamma Vhe(acronimo di very high energy, ossia con energie dei fotoni superiori a 30 GeV) sono stati in gran parte scoperti da Magic. Solo più recentemente sia Hess (con il gigantesco Hess-II da 28 metri di diametro dello specchio principale) che Cta-Lst1 hanno potuto eguagliare e superare le prestazioni di Magic in questo parametro».


I due telescopi Magic (sulla destra) da 17 metri di diametro e i quattro telescopi Lst (Large Size Telescope) da 23 metri di diametro. Crediti: F.Villa

Perché i blazar sono tanto interessanti?

«L’intensa emissione dei blazar è – semplificando al massimo – generata da un motore centrale, costituito da un buco nero supermassiccio con una massa che può andare dalle decine di milioni alle decine di miliardi di masse solari, che si alimenta con materia che precipita gravitazionalmente da un disco di accrescimento. In più una coppia di potenti getti di plasma relativistico viene prodotta, e questa è la sede dell’emissione elettromagnetica (estesa dalle bande radio fino alle bande gamma) che ci consente di studiarli. Possono pertanto essere interpretati come laboratori naturali di fisica dei plasmi o anche come grandi acceleratori di particelle in grado, forse, di generare una parte degli ultra high energy cosmic rays (Uhecr), protoni e ioni con energie anche milioni di volte superiori a quelle disponibili nei fasci di Lhc. Questi raggi cosmici sono ben noti, ma non c’è certezza su quali sorgenti cosmiche li producano, anche se i blazar sono tra i principali indiziati. D’altro canto, i blazar sono dei fari cosmici che “sondando” con i loro fotoni le profondità dello spazio fino a noi, e ci consentono di studiare grandezze di notevole interesse cosmologico come il campo magnetico intergalattico, che permea l’intero universo, o i fondi cosmici di radiazione ottici e infrarossi. Anche fenomeni esotici legati all’esistenza di potenziali particelle non incluse nel Modello Standard (le axion-like particles, o Alp) o di violazione dell’invarianza di Lorentz alle energie prossime alla scala di Planck sono interessantissimi argomenti che possono essere affrontati con opportune osservazioni di blazar alle altissime energie (in prospettiva, con il Cherenkov Telescope Array Observatory)».

Cosa ha di speciale OP 313?

«Il blazar OP 313, noto anche come B2 1308+32 si trova nella costellazione dei Cani da Caccia ed è a oggi il più lontano Fsrq osservato da un telescopio Cherenkov (fu rivelato da Cta-Lst1 nel dicembre del 2023), trovandosi ad un redshift z=0.997, che significa che i fotoni che oggi riveliamo sono partiti circa 7.8 miliardi di anni fa, e che oggi questa sorgente si trova a circa 10.9 miliardi di anni-luce da noi (mentre la luce viaggiava, l’universo si è ulteriormente espanso). Non in assoluto il più lontano noto, ma il più lontano osservato con telescopi Iact. OP 313 batte di pochissimo il secondo in questa speciale classifica, ossia PKS 0346-27 a z=0.991 rivelato da Hess (un sistema di telescopi Cherenkov in Namibia, quindi privilegiato per osservare il cielo australe) nel novembre del 2021. Tutti i Fsrq rivelati da telescopi Cherenkov sono stati osservati per brevi periodi durante le fasi di flare, con l’unica eccezione del vicino PKS 1510-089, che con un redshift molto più contenuto (z=0.361) è sufficientemente brillante da essere rivelato dagli Iact anche in fasi di attività più moderata. Un altro elemento stuzzicante di OP 313 è che questa sorgente è suggerita da molti studi come una potenziale sorgente cosmica di neutrini di altissima energia, i quali, se osservati, sarebbero una prova indiretta ma robustissima della produzione di raggi cosmici di altissima energia proprio nei blazar, o almeno in alcuni di essi».

Cosa ha di speciale questo brillamento di OP 313?

«Questo brillamento è speciale in quanto il segnale nella banda dei raggi gamma VHE si è presentato estremamente intenso e agevolmente osservabile per molte settimane; qualcosa di mai riscontrato sinora e del tutto sorprendente. La persistenza del fenomeno ha consentito di osservare la porzione di energia più estrema dello spettro elettromagnetico del blazar in questa fase di attività parossistica con altissima significatività statistica, il che permetterà misure molto precise sul suo spettro. Questa particolarità è una novità totale, in quanto l’emissione dei Fsrq nella banda gamma VHE è solitamente scarsa e difficilissima da acciuffare. Spesso i flares sono molto brevi e il tempo che trascorre tra l’allerta e l’osservazione – pochi giorni al massimo – più che sufficiente ad arrivare tardi».

Perché è così difficile osservare questi oggetti cosmici?

«Per l’emissione di altissima energia dei Fsrq un fattore limitante sempre presente è la grande distanza da noi, che opera in due modi. Uno, efficace attraverso tutto lo spettro elettromagnetico, è la diluizione del flusso osservato con il quadrato della distanza. L’altro, specifico dei fotoni nella banda VHE, è l’attenuazione cosmologica dovuta all’interazione con i fondi cosmici di radiazione che permeano l’intero universo. Fotoni che sono stati incessantemente prodotti nelle stelle di tutte le galassie lungo tutta la storia dell’universo, e che adesso lo permeano tutto, compresi i grandi vuoti intergalattici. Interagendo con questi fotoni “bersaglio” con energie fino a pochi eV, i fotoni di alta energia si annichilano generando coppie elettrone-positrone, e sono così sottratti al flusso rivelabile da noi. Questo effetto è tanto più marcato quanto più crescono la distanza della sorgente e l’energia dei fotoni osservati, ma comincia ad essere significativo, per la distanza di OP 3130, già a qualche decina di GeV. Inoltre, esistono anche fattori intrinseci alla sorgente: da un lato per le caratteristiche fisiche dell’ambiente in cui si produce l’emissione elettromagnetica, i Fsrq hanno una emissione intensa a energie sotto il GeV, che poi si estingue rapidamente a energie poco superiori. In sostanza, di fotoni gamma VHE ne producono tendenzialmente pochi. Dall’altro lato, la presenza di intensi campi di radiazione ottica e infrarossa prodotti dalla sorgente stessa, tende ad attenuare ulteriormente il flusso per un fenomeno di auto-assorbimento alla fonte».


Giacomo Bonnoli (Inaf Brera), con il collega Rodolfo Canestrari (oggi Inaf Iasf Palermo) durante una campagna metrologica in situ sugli specchi del prototipo Astri-Horn installato all’Osservatorio di Serra La Nave (Inaf Catania) sull’Etna. Crediti: G. Bonnoli

Questa volta però siete riusciti piuttosto bene ad osservarlo…

«In questo specifico e sinora abbastanza unico caso, tali effetti di soppressione dell’emissione interni alla sorgente sono stati, per ragioni ancora ignote ma molto interessanti da investigare, estremamente limitati, permettendoci di ricevere il consistente flusso di fotoni che ci ha letteralmente sorpreso. Da questo punto di vista questo brillamento di OP 313 è stato totalmente antitetico a flares della stessa sorgente come quello del luglio 2022, quando la brillanza nelle bande ottiche era cresciuta assai più che stavolta, ma senza che in quell’occasione – come del resto nei numerosi tentativi di osservazione precedenti, tutti infruttuosi – si riuscissero a osservare quantità apprezzabili di fotoni gamma. Allo stesso tempo, il comportamento osservato in OP 313 è stato del tutto antitetico a quello tipico di un’altra sorgente analoga, Fsrq 3C 454.3 che per i telescopi Cherenkov mai è stato possibile sinora osservare – nonostante, anche qui, numerosi tentativi – nemmeno durante flares di estrema intensità. Segno questo che in quella sorgente, per giunta un pochino più vicina (z=0.859), è proprio lo spettro intrinseco ad estendersi poco alle altissime energie e, a quanto pare, ad avere sistematicamente questo comportamento, mentre in OP 313 abbiamo potuto osservare una netta differenziazione tra episodi di flare diversi».

Cosa intendete fare a questo punto?

«Il confronto tra questi vari episodi, caratterizzati da risultati osservativi così diversi, ci permetterà verosimilmente di capire meglio cosa regola l’emissione elettromagnetica degli Fsrq a livello dei parametri fisici caratterizzanti la regione del getto relativistico che la origina, come ad esempio il campo magnetico, l’energia degli elettroni relativistici nel plasma che costituisce il getto, o anche la distanza della regione di emissione dal buco nero centrale. Saranno necessari studi accurati di dettaglio e un attento confronto dei dati con i modelli teorici d’emissione per questa sorgente. Inoltre, un segnale tanto generoso da una sorgente tanto lontana, ci consentirà di misurare con precisione il fondo ottico di radiazione e la sua evoluzione nel tempo a partire da un’epoca in cui l’universo aveva poco meno della metà dell’età attuale, derivando questa informazione dalla misura dell’attenuazione prodotta sul flusso di fotoni gamma Vhe emesso da OP 313».

Tornando ai neutrini: ne sono stati trovati provenire da questa sorgente?

«Per quanto riguarda la produzione dei neutrini, le informazioni preliminari diffuse dalla collaborazione IceCube nel telegramma astronomico #17016, pur non conclusive, non hanno individuato un flusso apprezzabile di neutrini associato al periodo del flare elettromagnetico; un’indicazione che ci si aspetterebbe se l’accresciuta emissione di fotoni durante il flare si accompagnasse con una analoga produzione di raggi cosmici; ma la mancata osservazione potrebbe essere anche semplicemente un portato dell’esiguità del flusso prodotto, rispetto alla sensibilità del rivelatore antartico IceCube per queste particelle così elusive».

Oltre a Magic, chi è coinvolto nella campagna osservativa?

«Nel campo degli strumenti per osservazioni di raggi gamma da terra della categoria degli Imaging Atmospheric Cherenkov Telescopes (Iact), oltre a Magic è molto impegnato nelle osservazioni Cta-Lst1, prototipo del Large Size Telescope per il Cherenkov Telescope Array Observatory da 23 metri di diametro dello specchio, installato, collaudato e gestito dalla Lst Collaboration. Proprio Lst1 fu il primo, nel dicembre del 2023, a rivelare un segnale nella banda dei raggi gamma VHE da questo blazar, che è attualmente il più distante mai osservato da strumenti di questo tipo. Questo avvenne in occasione di un precedente intenso brillamento, seguito con una campagna del tutto analoga a questa. Magic e Lst1 sono entrambi situati all’Osservatorio del Roque de los Muchachos a La Palma, Isole Canarie, a poche decine di metri di distanza l’uno dall’altro, e in questa fase collaborano strettamente. Infine, anche Veritas, array situato al Fred Lawrence Whipple Observatory in Arizona (Usa), ha osservato e rivelato un segnale molto intenso da questo brillamento, diffondendo un proprio Telegramma Astronomico a riguardo. Inoltre, sono attive campagne di osservazione su molti strumenti orbitanti, come ad esempio il Neil Gehrels Swift Observatory capace di osservazioni nelle bande ottiche, ultraviolette, dei raggi X soffici e duri».


I due telescopi Magic. Crediti: F. Villa

Anche in banda ottica stanno seguendo l’evento?

«Sì, anche da terra molti osservatori stanno seguendo l’evento, specialmente nelle bande ottiche e infrarosse, con osservazioni sia fotometriche che polarimetriche. Quest’altro Astronomer’s Telegram sintetizza alcuni primi risultati di questo articolato sforzo. Va assolutamente evidenziato che non stiamo parlando solo di professionisti, in quanto nelle campagne ottiche sui blazar sono spesso coinvolti anche osservatori amatoriali, come ad esempio l’Osservatorio Astronomico Provinciale di Montarrenti (Oapm) gestito dall’Unione astrofili senesi. Queste sorgenti, brillanti ed estremamente variabili nelle bande ottiche, sono infatti osservabili con ottima precisione da piccoli telescopi tra i 30 e i 60 cm, tipici degli osservatori amatoriali, che tutti assieme dispongono di un ingente tempo osservativo cumulato, risorsa preziosa e scarsa invece nei pochi, grandi osservatori professionali. E in effetti l’attivazione della campagna di osservazioni di Magic era stata suggerita, oltre che dalle osservazioni del satellite Fermi nei raggi gamma HE (con energie fino alle decine di GeV) da molteplici osservazioni ottiche ottenute con piccoli strumenti, che avevano annunciato lo stato particolarmente attivo di OP 313. Tra di esse, quelle che hanno portato alla diffusione di alcuni telegrammi astronomici (ATel #16951, 16964) diramati da una mini-collaborazione costituita dall’Osservatorio Astronomico dell’Università degli Studi di Siena, dell’Oapm e anche dell’Osservatorio Astronomico ”Città di Seveso”, anche esso amatoriale. Questa integrazione delle attività (anche di ricerca) di professionisti ed amatori è un percorso importante e virtuoso per molte ragioni, in cui sia Inaf (in collaborazione con l’Unione astrofili italiani) che io personalmente siamo convintamente impegnati».


Il test che può svelare la vita extra-terrestre



Individuare tracce di vita extraterrestre è una delle sfide più ardue che si pone oggi la ricerca astrobiologica. Scrutare pianeti lontani in cerca di biofirme chimiche nelle loro atmosfere e/o sondare la composizione del suolo alla ricerca di acqua liquida o molecole organiche complesse, sono alcuni dei metodi utilizzati per trovare una prova della sua esistenza. Tuttavia, la rivelazione di queste biofirme non sempre permette di distinguere un ambiente potenzialmente abitabile da uno realmente abitato. Le biofirme, inoltre, possono derivare anche da processi non biologici, rendendo difficile la conferma di un’origine vivente.


In primo piano, una piastra contenente microbi. Sullo sfondo, alcuni pianeti extrasolari sui quali è attiva la ricerca di vita. Crediti: Illustrazione artistica creata con Adobe AI

E se esistesse un modo più semplice e diretto per trovare la vita oltre la Terra? Ad esempio un metodo in grado di individuare inequivocabile la sua presenza rivelando il movimento microbico? È quello che propone un gruppo di scienziati guidati della Technical University Berlin: un test di motilità, come viene chiamato dagli addetti ai lavori, che, senza l’ausilio di sofisticate apparecchiature, permette di individuare la presenza di microrganismi in grado di muoversi autonomamente; una capacità, questa del movimento, che rappresenta un solido indizio di vita. I risultati della ricerca sono stati pubblicati oggi sulla rivista Frontiers in Astronomy and Space Sciences.

Lo studio si fonda su una caratteristica specifica e distintiva di molti organismi terrestri: la motilità. La motilità è una caratteristica presente in tutti e tre i domini della vita (batteri, archea ed eucarioti) e può essere attivata tramite diversi meccanismi molecolari in risposta a vari segnali ambientali. C’è ad esempio la fototassi, il movimento in risposta a stimoli luminosi. C’è la magnetotassi, che comporta il riorientamento in funzione dei campi magnetici. E c’è anche la chemiotassi, il movimento indotto dal gradiente di una sostanza chimica: la forma di motilità oggetto dello studio in questione. Chemio-attrattore e chemio-repellente sono i termini usati per indicare la molecola (un nutriente o un veleno) verso cui gli organismi si muovono o si allontanano, rispettivamente.

Prendendo spunto da quest’ultimo comportamento tipico di alcuni esseri viventi, Max Riekeles, Vincent Bruder e Dirk Schulze Makuch, tutti e tre ricercatori della Technical University Berlin, hanno sviluppato un metodo nuovo e semplice per individuare la presenza di microrganismi; un approccio che potrebbe essere usato nelle future missioni spaziali per individuare la vita su Marte e altri pianeti.

Il metodo, applicabile per il rilevamento della vita in situ, utilizza un piccolissimo vetrino con due camere separate da una sottile membrana, chiamato μ-slide, e una sostanza, la L-serina, in grado di indurre la chemiotassi in alcune specie batteriche. Per testare la fattibilità di questo metodo, e in particolare l’efficienza della L-Serina nello stimolare il movimento di alcune specie di germi, Riekeles e colleghi hanno condotto test di motilità in laboratorio, adagiando i microrganismi all’interno di una camera del vetrino e aggiungendo L-Serina nell’altra. Le specie incluse nello studio sono microorganismi estremofili, cioè organismi in grado di vivere in una varietà di ambienti ostili.

Oltre al batterio Bacillus subtilis, una specie in grado di sopravvivere e sopportare temperature fino a 100 gradi Celsius, nella ricerca sono stati utilizzati lo Pseudoalteromonas haloplanktis, un batterio isolato dalle acque antartiche in grado di vivere in ambienti con temperature comprese tra -2,5 e 29 gradi Celsius, e Haloferax volcanii, un archeobatterio “coltivabile” facilmente in laboratorio – caratteristica rara per un estremofilo – isolato da ambienti come il Mar Morto, il Gran Lago Salato dello Utah, negli Usa, e ambienti oceanici caratterizzati da elevate concentrazioni di cloruri. Haloferax volcanii prospera anche in ambienti caratterizzati da elevata salinità e alti livelli di radiazione, condizioni molto simili a quelle che si trovano sulla superficie di Marte.

Questi organismi sono stati scelti per due motivi principali, spiegano i ricercatori. La prima ragione è questa: dato che non è stato ancora identificato alcun microbo extraterrestre, i tratti necessari per sopravvivere in ambienti esoplanetari non sono ben compresi e pertanto è difficile scegliere organismi rappresentativi da esaminare. Tuttavia, è possibile ipotizzare che per la sopravvivenza in climi extraterrestri come quello di Marte, caratteristiche specifiche, come la capacità di formare spore e l’attitudine a vivere in ambienti freddi (psicrofila) e salati (alofilia), sarebbero probabilmente vantaggiose per la sopravvivenza. Poiché ogni organismo selezionato in questo esperimento esibisce uno o più di questi tratti, risulta il migliore da usare come organismo modello di microbi extraterrestri.

La seconda ragione riguarda la molecola chemio-attrattiva. Studi precedenti hanno dimostrato che Bacillus subtilis è attratto dalla L-serina, ciò consente ai ricercatori di utilizzare il batterio come controllo positivo, cioè il controllo che permette di verificare che i risultati negativi siano validi. Pseudoalteromonas haloplanktis è invece debolmente respinto dalla L-serina, il che consente agli scienziati di utilizzarlo come controllo negativo, cioè il controllo che permette di verificare che i risultati positivi sia realmente tali.

«I batteri e gli archea sono due delle forme di vita più antiche sulla Terra, ma si muovono in modi diversi e hanno sviluppato sistemi di motilità indipendentemente l’uno dall’altro», sottolinea Riekeles. «Testando entrambi i gruppi, possiamo rendere i metodi di rilevamento della vita più affidabili per le future missioni spaziali».

La sostanza chemio-attrattiva utilizzata, come dicevamo, è la L-serina, un amminoacido proteinogenico utile nei batteri per il metabolismo dell’azoto e del carbonio, ma utilizzato anche per attivare sistemi di risposta allo stimolo che portano poi al movimento del microrganismo. Si ritiene che la L-serina sia presente anche su Marte. Se dunque la vita sul Pianeta rosso avesse una biochimica simile a quella sulla Terra, è plausibile che la molecola possa attrarre potenziali microbi marziani.

Nello studio i ricercatori hanno utilizzato un approccio semplificato, che potrebbe fare la differenza nel rilevare o meno tracce di vita extraterrestre nelle future missioni spaziali. Invece di attrezzature complesse, hanno utilizzato un vetrino chiamato μ-slide con due camere separate da una sottile membrana. I microbi vengono posizionati su un lato e la sostanza chimica L-serina viene aggiunta all’altro. «Se i microbi sono vivi e in grado di muoversi, nuotano verso la L-serina attraverso la membrana», dice Riekeles a questo proposito. «Questo metodo è facile, conveniente e non richiede computer potenti per analizzare i risultati».


Flusso di lavoro semplificato che mostra il sistema di rilevamento della vita suggerito nello studio. Crediti: Max Riekeles et al., Frontiers in Astronomy and Space Sciences, 2025

Il protocollo sperimentale è stato il seguente. Inizialmente, la camera destra della μ-slide, designata come camera chemio-attrattiva, è stata riempita con il liquido contenente concentrazioni variabili di L-serina. Successivamente, una soluzione contenente i microorganismi sospesi nel proprio liquido di crescita è stata aggiunta alla camera di sinistra. I vetrini sono stati quindi coperti con un coperchio e incubati a temperature idonee per consentire la formazione del gradiente chimico della L-serina e la eventuale migrazione degli organismi. L’esperimento è stato condotto separatamente con ciascuno dei tre microbi.

Terminata l’incubazione, è stato effettuato un controllo per essere certi che l’aumento osservato nel numero di cellule nella camere dei chemio-attrattori fosse attribuibile alla migrazione per chemiotassi e non alla crescita cellullare. Completato questo test, i vetrini sono stati osservati al microscopio per verificare la motilità di tutti i microorganismi testati. Per ciascuna camera chemio-effettrice sono state acquisite dieci immagini al microscopio. Le immagini sono state quindi analizzate per il conteggio delle cellule e il numero medio di conteggi utilizzato per il calcolo della deviazione standard, che descrive la variabilità di una serie di misure effettuate su un campione, e l’errore standard, che misura l’incertezza nella stima di un valore statistico.

Andiamo ora ai risultati. L’esperimento, spiegano i ricercatori, evidenzia che tutti e tre gli organismi hanno esibito un comportamento chemiotattico significativo in risposta alla L-serina, supportando ulteriormente la base della chemiotassi e, più in generale, della motilità come importante biofirma microbica. «In particolare», aggiunge Riekeles, «l’uso di H. volcanii amplia la portata delle potenziali forme di vita che possono essere rilevate usando metodologie basate sulla chemiotassi, anche quando è noto che alcuni archea possiedono sistemi chemiotattici». Per quanto riguarda l’archeobatterio H. volcanii, è infatti la prima volta che viene rilevata una risposta chemiotattica indotta dalla L-serina.

Nel contesto dell’astrobiologia, la chemiotassi rimane un campo ampio e solo parzialmente compreso, che promette di essere di fondamentale importanza sia per l’isolamento che per l’identificazione di microbi viventi, concludono i ricercatori. I risultati di questo studio dimostrano efficacemente la fattibilità di utilizzare le μ-slide per l’osservazione della chemiotassi di procarioti in intervalli di tempo più brevi (diverse ore) e più lunghi (fino a 24 ore). Dati i vincoli tecnici, computazionali e di tempo necessari per una missione di rilevamento della vita in situ, questo approccio semplificato potrebbe essere un modo conveniente in termini di risorse per sondare la potenziale vita responsiva alla chemiotassi. Sebbene siano necessari ulteriori adattamenti per la sua applicabilità sul campo, i requisiti minimi necessari di risorse e tecniche, nonché la ridotta necessità di osservazione continua, rendono il loro utilizzo un’alternativa attraente per le future missioni spaziali, dove potenza, gestione dell’operatore, archiviazione dei dati e capacità di elaborazione dati sono limitate.

Per saperne di più:


La signora degli anelli



Con un diametro di circa 250mila anni luce – quasi due volte e mezzo più grande della nostra Via Lattea – la galassia Leda 1313424 è circondata da nove anelli di stelle. A produrli, una “freccia” – una galassia nana blu molto più piccola – che le ha trafitto il cuore. La spettacolare immagine della “signora degli anelli” è stata scattata dal telescopio spaziale Hubble. A confermare l’esistenza degli otto anelli galattici, persino individuandone un nono più esterno, sono stati i dati dell’Osservatorio W. M. Keck delle Hawaii.


Leda 1313424 presenta nove anelli, sei in più di qualsiasi altra galassia conosciuta. Le immagini ad alta risoluzione del telescopio spaziale Hubble della Nasa hanno confermato la presenza di otto anelli, mentre i dati dell’Osservatorio W. M. Keck delle Hawaii ne hanno confermato un nono. Crediti: Nasa, Esa, Imad Pasha (Yale), Pieter van Dokkum (Yale)

«È stata una scoperta “serendipica”», dice Imad Pasha, dottorando alla Yale University (New Haven, Connecticut) e primo autore dello studio pubblicato su The Astrophysical Journal Letters. «Stavo analizzando le immagini di una survey condotta con telescopi terrestri quando ho visto una galassia con diversi anelli ben definiti e ne sono stato immediatamente attratto. Non ho potuto far altro che fermarmi e iniziare a studiarla».

Da quanto indicano le osservazioni di Hubble e del Keck, la galassia – soprannominata “Bullseye”, occhio di bue – è stata attraversata circa 50 milioni di anni fa da una galassia nana blu: una piccola intrusa che ha viaggiato come un dardo attraverso il suo nucleo generando anelli nella sua scia, come increspature in uno stagno. Un sottile filamento di gas si estende tutt’ora a unire le due galassie, ormai distanti 130mila anni luce.

Sulla scala dei tempi cosmici, capita abbastanza frequentemente che le galassie si scontrino o si manchino di poco l’una con l’altra, ma è estremamente raro che una galassia si tuffi esattamente al centro di un’altra. La traiettoria rettilinea della galassia nana blu attraverso Bullseye ha fatto sì che il materiale si muovesse a ondate sia verso l’interno che verso l’esterno, dando il via a nuove regioni di formazione stellare.


Confronto fra le dimensioni della Via Lattea (a sinistra) e Leda 1313424, la grande galassia Bullseye. La Via Lattea ha un diametro di circa 100mila anni luce, mentre la Bullseye è quasi due volte e mezzo più grande, con un diametro di 250mila anni luce. Nasa, Esa, Ralf Crawford (Stsci)

I ricercatori sospettano che i primi due anelli del Bullseye si siano formati rapidamente e si siano diffusi in cerchi via via più ampi, come accade con le onde generate da un sasso lanciato nell’acqua. La formazione degli altri anelli potrebbe essere stata leggermente sfalsata, poiché il passaggio della galassia nana blu ha avuto un impatto maggiore sui primi.

«Stiamo osservando Bullseye in un momento molto particolare», spiega Pieter G. van Dokkum, coautore della ricerca e professore a Yale. «Dopo l’impatto, c’è una finestra di tempo molto ristretta in cui galassie come questa riescono ad avere così tanti anelli».


Questa illustrazione mostra l’enorme galassia Bullseye vista dall’alto. I cerchi tratteggiati indicano la posizione di ciascuno dei suoi anelli, che si sono formati come le increspature di uno stagno dopo che una galassia nana blu (non mostrata) ha attraversato il suo nucleo circa 50 milioni di anni fa. Crediti: Nasa, Esa, Ralf Crawford (Stsci)

Le orbite delle singole stelle sono rimaste in gran parte indisturbate, anche se gruppi stellari si sono “ammassati” per formare anelli distinguibili nel corso di milioni di anni. Il gas, tuttavia, è stato trasportato verso l’esterno e si è mescolato con la polvere per formare nuove stelle, illuminando ulteriormente gli anelli di Bullseye.

Gli autori dello studio sospettano l’esistenza di un decimo anello, distante tre volte oltre l’anello più esterno nell’immagine di Hubble, che però si potrebbe essere affievolito e non sarebbe più rilevabile.

La ricerca non solo offre una visione affascinante delle dinamiche galattiche, ma conferma anche previsioni teoriche di lunga data sulla formazione degli anelli stellari nel corso di miliardi di anni. Il team di ricerca ha, infatti, trovato una sorprendente connessione tra Bullseye e una teoria consolidata da tempo: gli anelli della galassia sembrano essersi spostati verso l’esterno esattamente – o quasi – nel modo previsto dai modelli. «Era una teoria formulata per il giorno in cui qualcuno avrebbe visto così tanti anelli», ricorda van Dokkum. «È immensamente gratificante poter ora confermare quella previsione di lunga data proprio con la nostra galassia Bullseye».

Per saperne di più:


Se è un pianeta, è il più piccolo mai scoperto



Sono i primi mondi scoperti al di fuori del Sistema solare. Sono esotici ed estremamente rari. Possono avere orbite molto stabili e masse variabili da pochi decimi di quella terrestre fino a quella di un gigante gassoso come Giove. Alcuni sono “pianeti diamante”, corpi ricchi di carbonio trasformato nel prezioso minerale per via delle alte pressioni. Stiamo parlando dei pianeti delle pulsar. Come suggerisce il loro nome, questi mondi orbitano attorno alle pulsar, stelle di neutroni in rapida rotazione ed estremamente magnetizzate. Psr J0337+1715 Ab è uno dei membri di questa classe. Individuato per la prima volta nel 2022, secondo un nuovo studio condotto da un team di scienziati del Centre national de la recherche scientifique (Cnrs) di Parigi il corpo celeste potrebbe essere il più piccolo pianeta extrasolare mai scoperto fino ad oggi.


Illustrazione artistica che mostra il pianeta Psr J0337+1715 Ab nel sistema stellare composto dalla pulsar J0337+1715 A e dalle due nane bianche Psr J0337+1715 B e C. Crediti: Guillaume Voisin & Fabrice Mottez

Psr J0337+1715 Ab è un candidato pianeta che fa parte di un sistema triplo di stelle situato a 4200 anni luce da noi nella costellazione del Toro. Noto come Psr J0337+1715, il sistema è costituito da due nane bianche (Psr J0337+1715 B e Psr J0337+1715 C) e una pulsar – la prima scoperta all’interno di un sistema ternario di stelle – chiamata Psr J0337+1715 A. Nel sistema, la pulsar segue un’orbita di circa 1,6 giorni con la nana bianca Psr J0337+1715 B, formando quella che gli astronomi chiamano binaria interna. La coppia di stelle è orbitata a sua volta dalla nana bianca esterna Psr J0337+1715 C, che impiega circa 327 giorni per completare un giro.

Nel complesso, il sistema triplo si estende per circa una unità astronomica. Oltre a renderlo straordinariamente compatto rispetto ad altri sistemi multipli, questa caratteristica ne fa un laboratorio naturale ideale per testare la teoria della relatività generale di Einstein. All’interno del sistema stellare, la presenza del candidato pianeta Psr J0337+1715 Ab era stata rilevata per la prima volta grazie a una ricerca guidata da Guillaume Voisin dell’Observatoire de Paris. Il nuovo studio, guidato dallo stesso Voisin e pubblicato il mese scorso sulle pagine della rivista Astronomy & Astrophysics, ha continuato le osservazioni del sistema stellare, perfezionando la nostra conoscenza delle proprietà fisiche e orbitali del candidato pianeta.

Le pulsar sono veri e propri fari cosmici: ruotando su se stesse fino a centinaia di volte ogni secondo, sotto la spinta del forte campo magnetico che possiedono, irradiano dai poli onde radio a intervalli regolari che possono essere rilevate dai radiotelescopi. Essendo orologi cosmici estremamente precisi, minuscole variazioni nei tempi di arrivo dei segnali radio potrebbero rappresentare la firma di un’ampia varietà di fenomeni. Misurate attraverso una tecnica chiamata Pulsar Timing Array (Pta), le anomalie nei tempi di arrivo degli impulsi radio potrebbero essere causate da un pianeta in orbita attorno al corpo celeste.

Nella loro ricerca, Voison e colleghi hanno osservato Psr J0337+1715 utilizzando il radiotelescopio del Nançay Radio Observatory. Registrando gli impulsi radio emessi dalla sorgente, i ricercatori si sono accorti della presenza di un ritardo nei tempi di arrivo degli impulsi radio di soli quattro microsecondi. Sebbene piccolissima, si trattava di una variazione dello schema temporale degli impulsi che andava studiata. Secondo i ricercatori, le possibili cause dell’anomalia del “battito” della pulsar potevano essere due: un rumore intrinseco al meccanismo di emissione della pulsar o la presenza di un pianeta. Per escludere una delle due ipotesi, hanno condotto simulazioni basate su modelli di temporizzazione numerica, includendo in ciascuno parametri astrometrici e di spin della pulsar.

I risultati dell’indagine hanno confermato la seconda ipotesi: l’anomalia potrebbe essere dovuta al cosiddetto ritardo di Rømer, cioè la variazione della distanza tra la pulsar e l’osservatore indotta da un pianeta. Assumendo la presenza del pianeta, i ricercatori ne hanno quindi stimato le caratteristiche: secondo i loro calcoli, il pianeta orbiterebbe attorno alla pulsar con un periodo di 3310 giorni (circa nove anni terrestri), mentre la sua massa sarebbe circa la metà di quella della Luna. Si tratta di un valore che lo renderebbe il mondo meno massiccio che sia mai stato rilevato al di fuori del Sistema solare. Per una conferma, tuttavia, saranno necessarie ulteriori osservazioni.

Per saperne di più:


Noctis: il cielo non è mai stato così accessibile



Connettere telescopi, coinvolgere persone e osservare il cielo con un approccio collaborativo: è questa la missione di Noctis, acronimo di Network osservativo coordinato di telescopi per l’insegnamento e la scienza. Finanziato dal Ministero dell’università e della ricerca (Mur) con 200mila euro nell’ambito del Bando Prin 2022, il progetto – guidato da Silvano Tosi dell’Università di Genova in collaborazione con l’Istituto nazionale di astrofisica (Inaf) e l’Università della Calabria, le cui unità di ricerca sono coordinate, rispettivamente, da Serena Benatti e Sandra Savaglio – mira a creare una rete italiana di telescopi ottici automatici e robotici, distribuiti da nord a sud del Paese.


Serena Benatti, ricercatrice all’Inaf di Palermo

Con sei osservatori già attivi in Liguria, Toscana, Campania, Calabria e Sicilia, Noctis offrirà una copertura coordinata del cielo a livello nazionale, consentendo di monitorare fenomeni astronomici come i transiti di esopianeti, la variabilità stellare, i detriti spaziali e le esplosioni cosmiche. L’obiettivo è raccogliere dati scientifici utili e complementari a quelli raccolti con strumentazione tecnologicamente più avanzata, contribuendo a una visione più completa dell’universo.

La vera forza di Noctis, però, non è solo nella tecnologia, ma nelle persone. Attraverso il modello della citizen science, appassionati, studenti e curiosi potranno partecipare attivamente alle osservazioni e all’analisi dei dati, come spiega Serena Benatti dell’Inaf di Palermo, coordinatrice dell’unità di ricerca di Inaf per il progetto Noctis: «Non serve essere scienziati per contribuire alla conoscenza del cosmo. Chiunque potrà raccogliere dati, analizzarli e persino diventare coautore di pubblicazioni scientifiche. Un modo per rendere tutti protagonisti della scienza».

Oltre alla ricerca, infatti, Noctis punta a offrire opportunità educative, di formazione e divulgative. Sono previsti incontri pubblici, workshop e sessioni di osservazione guidata dai ricercatori del progetto e accessibili anche da remoto. Questa modalità permetterà a chiunque di familiarizzare con strumenti avanzati e di esplorare più a fondo i segreti del cielo. «È incredibile pensare che un appassionato possa contribuire a scoprire nuovi mondi o monitorare eventi straordinari nell’universo», aggiunge Benatti, che prosegue: «Grazie a Noctis possiamo valorizzare il lavoro e la territorialità degli osservatori sparsi in Italia».

L’attuale rete di telescopi è solo il punto di partenza. Altri osservatori in Italia si sono già dichiarati interessati a unirsi al progetto. Silvano Tosi, responsabile scientifico del progetto Noctis, evidenzia l’importanza del coinvolgimento pubblico: «L’osservazione del cielo è un’attività che da sempre affascina persone di ogni età. Vogliamo offrire strumenti che permettano a tutti di partecipare, valorizzando le risorse locali e rafforzando il legame tra ricerca e società».

Noctis non si limita a fare scienza: ambisce a ispirare e coinvolgere nuove generazioni, avvicinando sempre più persone alla ricerca astronomica. Il cielo diventa uno spazio condiviso, dove tecnologia, curiosità e conoscenza si incontrano. «Contiamo sulla partecipazione di tanti appassionati in tutto il Paese», conclude Tosi, «e siamo pronti a partire con grande entusiasmo».


Grand canyon scavati sulla Luna in dieci minuti



Dieci minuti. Tanto è bastato alle particelle prodotte da un impatto con un asteroide – o una cometa – avvenuto circa 3.8 miliardi di anni fa per scavare due enormi canyon nell’emisfero sud della Luna. È quanto riporta uno studio guidato da David Kring, del Lunar and Planetary Institute (Usa), pubblicato oggi su Nature Communications.


Vista sui due grandi canyon che si irradiano dal bacino d’impatto di Schrödinger vicino al polo sud lunare. Crediti: Nasa/Ernie T. Wright

Dieci minuti per incidere sul volto della Luna due cicatrici lunghe e profonde: rispettivamente, 270 km di lunghezza e 2.7 km di profondità la prima, 280 km di lunghezza e 3,5 km di profondità la seconda. Due gole paragonabili al Grand Canyon dell’Arizona – per scavare il quale, però, il fiume Colorado ha impiegato milioni di anni, mentre qui è stato sufficiente il tempo di una sigaretta.


Larghezza e profondità del Grand Canyon (sulla Terra) e di Vallis Planck (sulla Luna) a confronto. Ogni fascia di colore corrisponde a 500 metri di dislivello. Crediti: David A. Kring, Danielle P. Kallenborn e Gareth S. Collins

Le due enormi gole si trovano in una regione “quantistica”, toponomasticamente parlando: il cratere Schrödinger, un cratere da impatto lungo il margine esterno dell’immenso bacino Polo Sud-Aitken (2400 km di diametro), là dov’è approdato il lander cinese Chang’e 6 lo scorso giugno e non lontano dalle possibili mete della futura missione Artemis III – quella che dovrebbe portare la prima donna e la prima persona di colore sul suolo lunare. E “quantistici” sono anche i loro nomi: Vallis Schrödinger e Vallis Planck.

Già si sapeva che entrambe le gole, così come gli altri canyon e le gravine che circondano il bacino di Schrödinger, sono state incise dai detriti rocciosi – il nome tecnico è ejecta – espulsi a raggiera durante un evento d’impatto. Nel nuovo studio si è partiti dalle fotografie della superficie lunare per produrre mappe da utilizzare, a loro volta, per calcolare la direzione e la velocità degli ejecta, così da poter arrivare a un modello del processo di formazione dei raggi scavati dagli ejecta. È questo modello che ha consentito agli autori dello studio di concludere che i due grand canyon debbano essere stati incisi sulla crosta lunare in meno di dieci minuti, da ejecta che viaggiavano a una velocità compresa tra 0.95 e 1.28 km al secondo. L’energia sprigionata, scrivono Kring e colleghi, sarebbe stata pari a circa 130 volte quella di tutte le testate nucleari oggi presenti sulla Terra.

Per saperne di più:

  • Leggi su Nature Communications l’articolo “Grand canyons on the Moon”, di David A. Kring, Danielle P. Kallenborn & Gareth S. Collins


Wasp-121b nel mirino di Igrins



L’esopianeta gioviano ultra-caldo Wasp-121b potrebbe essersi formato molto più vicino alla sua stella di quanto si ritenesse possibile finora. La scoperta è il risultato delle analisi della sua atmosfera planetaria effettuate con lo spettrometro Igrins installato al telescopio Gemini Sud, sulle Ande cilene. I risultati dello studio, guidato da Peter Smith dell’università statale dell’Arizona, sono stati pubblicati il 30 gennaio scorso su The Astronomical Journal.


Il telescopio Gemini Sud installato al Cerro Pachón, nelle Ande cilene È il gemello meridionale dell’osservatorio internazionale Gemini. Crediti: International Gemini Observatory / NoirLab / Nsf / Aura / M. Paredes

Quasi un terzo degli esopianeti conosciuti – finora oltre cinquemila – sono giganti gassosi, simili a Giove o Saturno. Mentre il nostro Sistema solare si è sviluppato con i giganti gassosi lontani dal Sole, alcuni sistemi planetari sono costituiti dai cosiddetti “gioviani caldi” o addirittura “ultra-caldi”: giganti gassosi che orbitano molto vicini alla loro stella (alcuni vicini quanto Mercurio al Sole). Per questo motivo, gli esopianeti gioviani caldi esposti a temperature estreme si sono meritati il soprannome di marshmallow arrosto”, ripreso dall’omonimo programma osservativo che utilizza Igrins per studiare la composizione e il clima nelle atmosfere dei pianeti gioviani caldi.

Come è stato possibile capire la posizione del pianeta in formazione rispetto alla stella, basandosi sull’analisi della sua atmosfera? Anzitutto occorre tenere presente che un sistema planetario si forma a partire dal cosiddetto disco protoplanetario, un disco vorticoso contenente una miscela di materiale roccioso e ghiacciato. I materiali rocciosi come il ferro, il magnesio e il silicio necessitano di temperature molto alte per passare dallo stato solido a quello gassoso, mentre i materiali ghiacciati come l’acqua, il metano, l’ammoniaca e il monossido di carbonio, sono facilmente vaporizzabili e richiedono temperature molto basse per condensarsi. D’accordo con il gradiente della temperatura, i materiali rocciosi e ghiacciati all’interno del disco si distribuiscono nei diversi stati, da vapore a solido, a seconda della distanza dalla stella. Le conseguenze di questa distribuzione sono molto interessanti: possono essere individuati gli elementi nella composizione dei pianeti e delle loro atmosfere, è possibile calcolare il rapporto tra materiale roccioso e ghiacciato e infine si può determinare la distanza del pianeta dalla sua stella.


Distribuzione dei materiali rocciosi e ghiacciati all’interno del disco protoplanetario di una stella in base al gradiente di temperatura (illustrazione artistica). Crediti: NoirLab/Nsf/Aura/P. Marenfeld

Nel caso di Wasp-121b è stato misurato per la prima volta il rapporto roccia-ghiaccio di un pianeta in transito utilizzando un unico strumento – Igrins appunto: impresa per cui di solito servono due strumenti diversi. La misurazione di questo rapporto richiede in genere osservazioni multiple, utilizzando sia uno strumento sensibile alla luce visibile per rilevare gli elementi rocciosi solidi, sia uno sensibile alla luce infrarossa per rilevare gli elementi ghiacciati allo stato gassoso. Ma proprio a causa delle temperature estreme raggiunte dal pianeta Wasp-121b, entrambi i materiali vengono vaporizzati nell’atmosfera, e sono rilevabili con l’alta risoluzione spettrale di Igrins.

«Si tratta di un risultato davvero interessante, perché il rapporto tra materiali rocciosi e solidi in Wasp-121b non è quello che ci aspettavamo di vedere: contiene una sovrabbondanza di materiale roccioso vaporizzato», spiega Lorenzo Pino, ricercatore all’Inaf di Arcetri e coautore dello studio. «Questo può essere spiegato se il pianeta si è formato all’interno della linea dei ghiacci dell’acqua del suo disco protoplanetario, a differenza per esempio di Giove: è dunque un risultato inaspettato per un gigante gassoso come Wasp-121b».

«Questi risultati sono molto incoraggianti per l’analisi chimica degli esopianeti anche in futuro: lo European Extremely Large Telescope (Elt) ospiterà Andes, uno strumento che abbinerà la grande capacità di raccogliere fotoni di Elt a una copertura spettrale maggiore rispetto a quella di Igrins», aggiunge Pino. «Studi come questo dimostrano il potenziale di Andes come strumento per caratterizzare in dettaglio la storia di formazione dei pianeti extrasolari e – con tecniche molto simili – di caratterizzare le atmosfere di pianeti più piccoli e freddi, potenzialmente rocciosi, che potrebbero essere interessanti per lo sviluppo della vita».

Per saperne di più:


Io dà spettacolo con un’eruzione senza precedenti



Tranquilla non lo è stata mai, la luna gioviana Io: con i suoi oltre quattrocento vulcani è l’oggetto geologicamente più attivo del Sistema solare. Ma un’eruzione come quella registrata il 27 dicembre scorso dalla suite di strumenti a bordo della sonda della Nasa Juno gli scienziati non l’avevano mai vista: la potenza stimata sprigionata dal cosiddetto hot spot – il sito dell’eruzione, che copre un’area di 100mila km quadrati nell’emisfero sud di Io (vedi immagine qui sotto) – è di almeno 80mila miliardi di watt. Una potenza pari a sei volte quella di tutte le centrali elettriche presenti sulla Terra.


L’enorme hot spot è visibile appena a destra del polo sud di Io in questa immagine scattata dall’imager a infrarossi Jiram a bordo della sonda Juno della Nasa il 27 dicembre 2024, durante il flyby della luna gioviana. Crediti: Nasa/Jpl-Caltech/Swri/Asi/Inaf/Jiram

Ad accorgersi dell’imponente evento è stato – nel corso dell’ultimo flyby, il 27 dicembre 2024, a 74mila km dalla luna – uno strumento italiano: lo spettrometro Jiram, (Jovian InfraRed Auroral Mapper). Finanziato dall’Agenzia spaziale italiana (Asi) e utilizzato sotto la responsabilità scientifica dell’Istituto nazionale di astrofisica (Inaf), Jiram è uno dei dieci strumenti scientifici a bordo di Juno.

«Nel periodo di estensione della missione, Juno aveva già effettuato due flyby molto ravvicinati di Io», ricorda il principal investigator della missione, Scott Bolton del Southwest Research Institute di San Antonio, riferendosi ai sorvoli del dicembre 2023 e del febbraio 2024. «E se ciascuno di essi aveva prodotto dati sulla tormentata luna superiori a ogni nostra aspettativa, i dati dell’ultimo – e più distante – flyby ci hanno veramente stupito. Si tratta dell’evento vulcanico più potente mai registrato sul mondo più vulcanico del Sistema solare – il che è tutto dire».

Progettato per catturare la luce infrarossa emessa dalle regioni interne di Giove, Jiram può spingere il suo sguardo dai 50 ai 70 km al di sotto delle nubi che avvolgono il gigante gassoso. Ma da quando la Nasa ha esteso la missione di Juno, il team ha utilizzato lo strumento anche per studiare le lune Io, Europa, Ganimede e Callisto.

«L’emissione infrarossa – un enorme hot spot – rilevata da Jiram nell’emisfero meridionale di Io è stata così forte da saturare il nostro rivelatore», spiega Alessandro Mura dell’Inaf di Roma, co-investigator della missione Juno e responsabile scientifico di Jiram. «Ma abbiamo comunque prova del fatto che ciò che abbiamo rilevato siano in realtà alcuni hot spot molto vicini fra loro che hanno emesso nello stesso momento, suggerendo la presenza di un vasto sistema di camere magmatiche sotterranee. I dati confermano che si tratta della più intensa eruzione vulcanica mai registrata su Io».


Queste tre immagini di Io acquisite nel 2024 dalla JunoCam a bordo della sonda Juno della Nasa mostrano cambiamenti significativi e visibili della superficie (indicati dalle frecce) vicino al polo sud della luna gioviana. I cambiamenti si sono verificati tra il 66° e il 68° “perigiove”, ovvero il punto dell’orbita di Juno in cui la sonda è più vicina a Giove. Crediti: Nasa/Jpl-Caltech/Swri/Msss; elaborazione delle immagini a cura di Jason Perry

Quanto al responsabile dell’intensa attività eruttiva di Io, compresa quella in atto nell’hot spot osservato da Jiram, è presto detto: Giove. In particolare, l’enorme attrazione gravitazionale che il gigante del Sistema solare esercita su Io. Grande più o meno come la nostra Luna, Io orbita attorno a Giove a distanza ravvicinata, compiendo un giro completo ogni 42.5 ore e seguendo una traiettoria ellittica. Dunque ogni 42.5 ore la sua distanza da Giove tocca un minimo e un massimo, e con essa l’attrazione gravitazionale esercitata dal pianeta. Ciò porta Io a subire in continuazione un’azione di “schiacciamento” alternata a una di “rilascio”, un po’ come una spugna che venga continuamente strizzata e ammollata. Quest’alternanza causa un forte attrito, producendo così un’enorme quantità d’energia e portando alla fusione delle regioni interne della luna. Ecco così spiegata l’origine dei continui pennacchi di lava e cenere che si sprigionano nell’atmosfera di Io attraverso gli oltre quattrocento vulcani che, secondo le stime, ne costellano la superficie.


Venere e lo scambio di doni dei Gemelli




Venere come appare a inizio (immagine in alto) e fine (immagine in basso) novembre 2025. Simulazione con software Stellarium.

Anche questo febbraio i principali pianeti del Sistema solare sono ben visibili in cielo. Nell’arco del mese sono praticamente visibili tutti e otto. Tuttavia Urano e Nettuno solo attraverso un binocolo o meglio un telescopio. Mercurio sempre difficile perché vicino al Sole. Saturno è rintracciabile a ovest dopo il tramonto del sole ma soltanto per la prima metà del mese. Poi, oltre ad anticipare il suo tramonto, sarà sempre più immerso nelle luci del sole fino a non essere più osservabile. Anche i suoi anelli, praticamente di taglio, non saranno molto appariscenti. Al contrario Giove risplende in cielo nella costellazione del Toro ben visibile anche a fine mese per tutta la prima parte della notte. Marte ancor più di Giove sarà visibile per tutto l’arco della notte nella costellazione dei Gemelli, rosso come sempre.

Il pianeta più appariscente del mese è Venere. Un pianeta tanto inospitale quanto affascinante, il cui studio approfondito potrebbe chiarire quali possano essere i limiti per la fascia di abitabilità anche in altri sistemi planetari. Il gemello della Terra, che però ha preso un’altra strada, con un effetto serra incredibilmente alto che porta la superficie del pianeta a temperature di circa 500 gradi e un’atmosfera fatta al 96 per cento di anidride carbonica, con piogge di acido solforico. A questo link è possibile trovare una serie di articoli su Venere, a dimostrazione di quanto possa essere importante il suo studio. Appena superata la dicotomia, ossia praticamente la fase di ultimo quarto, da inizio fino alla fine del mese, Venere si appresta a diventare una sottile falce e, avvicinandosi alla Terra sempre più, il suo diametro apparente passerà da 32 secondi d’arco ad addirittura 48 secondi d’arco. Osservabile per tutto il mese, è luminosissimo ed è impossibile non riconoscerlo verso sud sud-ovest a partire dall’imbrunire.


Marte e la Luna nella costellazione dei Gemelli, visibili la sera del 9 febbraio. Simulazione con software Stellarium

In questo mese la costellazione dei Gemelli è ben alta sull’orizzonte ed è visibile per quasi tutta la notte. La sera del 9 febbraio, proprio in mezzo alla costellazione, la Luna e Marte saranno prospetticamente molto vicini tra loro. Sembrano essere due regali che i Gemelli si scambiano tra loro. Con un telescopio a bassi ingrandimenti si possono addirittura vedere i due astri nello stesso campo dell’oculare.

Il periodo migliore per osservare gli oggetti di profondo cielo sono i primi giorni e dopo la metà del mese. Da non perdere allora la possibilità di osservare, ma solo attraverso un telescopio, le galassie nella costellazione del Leone come M95, M96, M105, M65 e M66 , e se proprio si ha fame, anche la galassia Hamburger o Ngc 3628. Nella costellazione Cancro, invece, si possono osservare con facilità gli ammassi aperti di stelle M67 e M44 – quest’ultimo, l’ammasso del Presepe, anche osservabile a occhio nudo e con un binocolo.

Guarda su MediaInaf Tv la videoguida al cielo del mese a cura di Fabrizio Villa:

youtube.com/embed/sQQb1oHwMoo?…


In ricordo di Nino Panagia



Nino Panagia è nato e cresciuto a Roma e si è laureato in fisica presso l’Università di Roma, dove ha conseguito il dottorato nel 1966. Alla fine degli anni ’60 e ’70 ha ricoperto incarichi presso l’Istituto di astrofisica spaziale di Frascati, in Italia, e l’Istituto di radioastronomia di Bologna. Alla fine degli anni ’70 visitò gli Stati Uniti per un anno per lavorare con il dottor Yervant Terzian alla Cornell University e decise che voleva lavorare e vivere negli Stati Uniti. Negli anni ’80, come dipendente dell’Agenzia spaziale europea, fu invitato dal professor Riccardo Giacconi a unirsi al nuovo Space Telescope Science Institute, responsabile della missione scientifica del telescopio spaziale Hubble. Nel 1986 fu nominato professore ordinario al Dipartimento di fisica e astronomia dell’Università di Catania dove ha insegnato fino al 1995 e ha continuato a ritornare, negli anni successivi, come associato Inaf all’Osservatorio astrofisico di Catania.

Nino era ben noto per la sua intensa, attiva e lunga carriera scientifica, con più di trecento articoli in riviste peer reviewed in quasi sessant’anni e conferenze tenute in tutto il mondo su una varietà di argomenti di astrofisica, tra cui le supernove, le stelle massicce, il mezzo interstellare e la formazione stellare. È stato uno dei primi astronomi emeriti nominati presso lo Space Telescope Science Institute. Ha vinto il prestigioso Premio Gruber in Cosmologia nel 2007 per il suo ruolo nella determinazione del tasso di espansione dell’universo. Infine, è stato collaboratore del team di Saul Perlmutter, insignito del Premio Nobel per la fisica nel 2011 per la scoperta riguardante l’accelerazione dell’espansione dell’universo attraverso lo studio delle supernove.



Nino Panagia davanti al suo ufficio allo Space Telescope Science Institute

«Mi è difficile commentare la scomparsa di Nino in modo “bilanciato”, senza rischiare di cadere nei soliti luoghi comuni secondo cui chi ci lascia era sempre il “migliore”. Non saprei dire se questo fosse vero, ma sono sicuro che a lui sarebbe piaciuto che noi lo pensassimo. La sua profonda conoscenza dell’astrofisica, sia negli aspetti teorici che nelle applicazioni pratiche, lo rendeva un astronomo di straordinaria versatilità. Poteva “transitare” con disinvoltura da una trattazione quantitativa del “Bondi accretion” a una discussione dettagliata dei bias connessi con la riduzione delle osservazioni astronomiche, per terminare con la preparazione di una meravigliosa pasta con i broccoli. L’identificazione del progenitore di Sn 1987A e la misura della sua distanza (assieme a Roberto Gilmozzi, un altro “fedelissimo” del “Professore”, come molti chiamavano Nino a Stsci) sono alcuni dei fiori all’occhiello della sua variegata produzione scientifica. Riporto un dato significativo, che testimonia il valore del suo contributo all’astrofisica: il suo lavoro “Some Physical Parameters of Early-Type Stars”, pubblicato nel 1973, continua a essere citato ininterrottamente da 52 anni, incluso il 2025. Forse l’aspetto che più emoziona, chiunque sia stato suo studente o giovane collaboratore, era la sua capacità di insegnare astrofisica durante la stesura dei manoscritti, trasmettendo non solo le conoscenze scientifiche, ma anche l’arte di scrivere un lavoro scientifico, concentrandosi esclusivamente sugli elementi essenziali e tralasciando il “superfluo”. Il suo aforisma motivazionale era: “se lo fai bene, viene meglio”.

Quando era a capo della divisione “Academic Affairs” di Stsci aveva un ufficio d’angolo molto grande. Lo aveva arredato stile museo inglese di epoca vittoriana, che sembrava il negozio di un antiquario gestito da una nobildonna della stessa epoca. Ne era molto fiero, e spesso vi rimaneva fino a sera tarda a lavorare alla luce di una lampada fioca. La scena sembrava uscita da un film di Agatha Christie, però non lo hanno mai accoltellato.

Aveva un carattere un po’ “umorale”, che cambiava come il tempo. Nelle giornate “nuvolose” poteva diventare polemico e meticoloso (per usare un eufemismo) all’inverosimile. I litigi, accompagnati da celebri epiteti, riecheggiano ancora nei corridoi dello Stsci: il suo “sei st.… e in malafede” è leggenda. Una volta, un cupo Massimo Stiavelli venne in ufficio e di punto in bianco mi chiese se fosse meglio farsi cavare un molare senza anestesia o avere Nino come referee. La risposta la conosce il mio dentista».

Massimo Della Valle

Letto e sottoscritto da: Roberto Gilmozzi, Massimo Stiavelli, Claudia Scarlata, Guido de Marchi, Martino Romaniello, Sandra Savaglio, Piero Rosati, Mauro Giavalisco, Antonella Nota, Letizia Stanghellini, Piero Madau, Paolo Padovani, Daniela Calzetti, Monica Tosi, Carla Cacciari, Filippo Mannucci, Francesca Matteucci e Gianni Zamorani. Ci mancherai, Nino, ma sarai sempre con noi.



Nino Panagia con Guido De Marchi nel patio di casa sua

«Conosco Nino da 35 anni e negli ultimi 15 abbiamo lavorato a stretto contatto, scrivendo insieme più di 30 papers. Quante telefonate, quanti messaggi, ma soprattutto quante chiamate su Skype, almeno una al giorno! Le nostre famiglie lo sapevano, quando Diana o Henk si sentivano dire “I am on the phone with Guido” o “Nino is calling on Skype” sapevano che per la successiva mezz’ora tutte le altre faccende di casa sarebbero passate in secondo piano. Certo, discutevamo di scienza e di ricerca, di estinzione e di eccesso in H-alpha, di spettri e di fotometria, ma anche di tante altre cose, compresa la storia antica e le ricette di cucina. E quando la malattia di Nino ha reso più difficili le comunicazioni a distanza, rimaneva sempre la possibilità, ogni qualche mese, di sedersi insieme e di parlare, di scienza o di altro. Questa è l’ultima foto scattata a casa sua, in giardino, sperando che le nostre osservazioni con Jwst del mese successivo sarebbero state un successo (lo sono state!).

Nel bellissimo pezzo scritto da Massimo Della Valle emerge il Nino che in tanti abbiamo conosciuto e a cui abbiamo voluto un gran bene, il Nino pignolo e il Nino accomodante, il Nino preparatissimo e il Nino maestro, il Nino che all’università era conosciuto per poter dimostrare con uguale convinzione una cosa e il suo contrario, e il Nino del “se lo fai bene, viene meglio”, che era diventata la sua massima. Ma non era la sola. Ne voglio ricordare un’altra che Nino menzionava spesso durante la nostra ricerca: “non lo facciamo perché è difficile, come diceva JFK, ma perché è facile eppure nessuno ci ha ancora pensato!” Questo ha ispirato molta della nostra ricerca insieme: fare quello che è possibile ed assicurarsi che sia solido e robusto, perché “se lo fai bene, viene meglio!”

Conoscere Nino e lavorare con lui per tutti questi anni è stato per me un onore e un vero piacere. Ora è difficile dirgli addio, ma bisogna. Per fortuna rimangono i ricordi, tanti e belli, e per me anche lo squillo inconfondibile di Skype: Nino is calling!».

Guido De Marchi



Nino Panagia con Monica Tosi

«Nino Panagia è la persona che per prima mi ha insegnato a fare ricerca. Laureata da pochi mesi, lo conobbi a un congresso a Frascati e non dimenticherò mai il suo sguardo, vero specchio di una mente eccezionalmente acuta e, forse, di un’anima inquieta. Lavorando con lui imparai sia il suo metodo di ricerca scientifica sia il modo per descriverne adeguatamente i risultati. In sintesi, da lui ho imparato tutto.

Negli anni ci siamo ritrovati tante volte: prima nei suoi ultimi anni a Bologna, insoddisfatto del sistema italiano, troppo burocratico; poi nei suoi anni a Baltimora, i difficili anni pionieristici di creazione di Stsci e di preparazione all’utilizzo di Hst, seguiti dagli anni felici del consolidamento dei successi di Hst e suoi personali, finalmente con tanti giovani promettenti a seguirlo nei vari campi di interesse in cui Nino brillava con le sue intuizioni, la sua competenza e il suo estro. L’ultima volta che l’ho incontrato, una decina di anni fa, era già in pensione, uno dei primi emeriti a Stsci, ma era il solito Nino e per me resterà sempre quello: pungente, critico, pieno di idee per nuovi progetti scientifici».

Monica Tosi



Nino Panagia con Howard Bond, Larry Petro, Nolan Walborn, Carla Cacciari, Brad Whitmore e Loretta Willers

«Ho conosciuto Nino a Baltimora nel settembre 1984, quando si unì al gruppo Esa presso lo Space Telescope Science Institute, in preparazione di Hubble il cui lancio era allora previsto per il 1986. Fummo assegnati entrambi al Guest Observer Support Branch (Gosb), incaricato di definire e implementare le procedure per la gestione delle domande di tempo osservativo, e di curare la loro prima applicazione ai programmi di tempo garantito. Il Gosb era guidato da Neta Bahcall, e ricordo con nostalgia e divertimento le discussioni animate nel gruppo e soprattutto fra Neta e Nino, che proponeva soluzioni innovative e originali per quello che doveva essere uno strumento all’avanguardia nella ricerca astronomica dei decenni successivi. I nostri interessi scientifici non coincidevano, ma Nino era sempre disponibile a discutere di tutto con una visione critica e brillante, un punto di riferimento importante per tutti i colleghi e specialmente per i più giovani. Vorrei ricordarlo anche per i suoi interessi al di fuori del lavoro, il suo gusto per le cose belle, il desiderio di amicizia e convivialità, la sua abilità culinaria – mitico il suo cheesecake! – e le bellissime azalee del suo giardino. L’amore per la conoscenza, certo, ma anche la ricerca di quello che rende la vita piena e bella».

Carla Cacciari


«Ho conosciuto Nino ormai vent’anni fa per un articolo sui lampi di luce gamma collegati a stelle di grande massa. Mi hanno subito colpito la sua enorme cultura scientifica (e non solo) e la sua “italianità” anche in terra straniera. Con Nino si parlava di tutto, di scienza, di cucina, di musica e di cultura in generale, sempre con entusiasmo e competenza».

Sergio Campana



Nino Panagia con studenti e personale dell’osservatorio astrofisico di Catania

«Ho conosciuto Nino quando ero studente di fisica all’università di Catania e ne ho apprezzato subito le straordinarie doti didattiche. La teoria spiegata con grande chiarezza prendeva subito forma quando ne mostrava le applicazioni concrete a fenomeni astrofisici. Quando gli chiesi la tesi l’anno dopo me la concesse confessandomi che io ero il secondo studente a cui avesse mai dato una tesi. Questo segnò l’inizio di una collaborazione fruttuosa che si è protratta per ben quindici anni ma anche di un percorso che avrebbe avuto un impatto significativo sulla mia formazione e sulla mia vita professionale. Riflettendo su quel momento, a distanza di tempo, mi rendo conto di quanto quella sua decisione abbia rappresentato una svolta significativa nella mia vita, orientandola verso direzioni inaspettate e contribuendo a formare la persona che sono oggi.

Durante gli anni trascorsi allo Space Telescope Science Institute, prima come dottorando, poi come Esa fellow e infine come visitatore, ho avuto l’opportunità di apprezzare non solo le sue straordinarie competenze scientifiche, ma anche le sue qualità umane. Molti sono i ricordi legati a quel periodo. Le lunghe discussioni nel suo studio in cui riusciva sempre a convincermi della necessità di approfondire analisi o fare nuovi calcoli, talvolta ritardando la pubblicazione di un lavoro, per garantire risultati migliori, o quella volta in cui, nella cucina di casa sua, discutemmo vivacemente su quale fosse il modo migliore per cucinare le melanzane per la pasta alla norma. Quella volta, forse, riuscii ad avere la meglio.

Ciao Nino».

Salvo Scuderi


«Dal 1965 al 1968 Nino ed io eravamo ambedue al Laboratorio di astrofisica di Frascati, dirimpetto al Sincrotrone dell’Infn. Perdipiù, abitavamo con le famiglie nella stessa casa, lui al pianterreno, io al secondo. A quell’epoca eravamo tutti “tutorless” e dovevamo inventarci un campo di ricerca tutto da noi. Così, a un certo punto lui si mise sui processi radiativi in situazioni astrofisiche e io andai sull’evoluzione stellare. È di quegli anni il suo celebrato articolo sul continuo nebulare dovuto al decadimento a due fotoni. Una cosa proprio oggi di estrema attualità, con galassie ad altissimo redshift i cui spettri Jwst mostrano il “Balmer jump” (il contrario del “break”) dovuto infatti al continuo nebulare. Quanto gli sarebbe piaciuto assistere a queste scoperte!

Poi io mi trasferii a Bologna e di lì a poco anche lui. Eravamo in due diversi istituti, ma ci vedevamo ogni tanto per discutere di vari argomenti e io contavo sul suo consiglio circa le proprietà dei grani interstellari, l’estinzione e simili.

Gli interessi di Nino coprivano una varietà di campi, dalle supernove agli Agn (fu Nino a inventare i “Plerioni”) ai venti stellari ed altro. Con approcci originali ha prodotto risultati importanti in tutti questi campi, e provava particolare soddisfazione se poteva trattare con precisione finanche le sottigliezze.

Siamo tutti unici, ma Nino lo era eccome».

Alvio Renzini


Asteroide 2024 YR4, la storia si ripete



I lettori interessati agli asteroidi near-Earth ricorderanno i casi degli asteroidi 2023 DW e 2023 DZ2, due asteroidi di circa 50-60 metri di diametro che erano arrivati ad avere una probabilità massima d’impatto con la Terra dello 0,16 per cento rispettivamente per il 14 febbraio 2046 e il 27 marzo 2026. In seguito alle osservazioni di follow-up con i telescopi al suolo, l’arco orbitale conosciuto venne esteso al punto tale che queste probabilità crollarono a zero in breve tempo a zero.


Plot dell’orbita eliocentrica di 2024 YR4. L’afelio cade nella fascia principale degli asteroidi, mentre il perielio è fra le orbite della Terra e di Marte. Crediti: Jpl Small-Body Database Lookup

Ora la storia sembra ripetersi: c’è un asteroide near-Earth appena scoperto che si trova al primo posto delle risk list di Nasa, Esa e Neodys, si tratta di 2024 YR4. Scoperto il 27 dicembre 2024 dal telescopio del progetto Atlas collocato in Cile, dopo poche ore di osservazioni e conferme indipendenti della sua reale esistenza da parte di altri osservatori, è uscita la circolare Mpec 2024-Y140 del Minor Planet Center, che gli ha assegnato la sigla 2024 YR4. L’orbita eliocentrica seguita da questo Nea è a bassa inclinazione sull’eclittica, ha un semiasse maggiore di 2,54 au e un’eccentricità di 0,66: al perielio arriva poco all’esterno dell’orbita di Venere, mentre all’afelio si porta al limite esterno della fascia principale degli asteroidi e può arrivare fino a 1,2 au da Giove. Dal punto di vista fisico 2024 YR4 è un asteroide di tipo S o L con un periodo di rotazione di circa 19,5 minuti. La magnitudine assoluta dell’asteroide è +23,9 e considerato che l’albedo geometrico per un S vale circa 0,2 si può stimare una dimensione di 40-60 metri. In parole povere si tratta di un asteroide con dimensioni paragonabili a quello responsabile della catastrofe di Tunguska. La cosa interessante riguarda la probabilità d’impatto di 2024 YR4 con la Terra: con le 261 osservazioni astrometriche disponibili in questo momento distribuite su un arco orbitale di 36 giorni, l’asteroide per il 22 dicembre 2032 ha una probabilità dell’1,3 per cento di colpire il nostro pianeta (dati Neocc/Esa).


Porzione di immagine ingrandita che mostra l’asteroide 2024 YR4 ripreso dal telescopio “Cassini” della Stazione astronomica di Loiano (BO) la sera del 29 gennaio 2025. Le misure astrometriche sulle immagini, estremamente delicate considerata la scarsa luminosità dell’asteroide, sono state fatte da Marco Micheli del Neocc dell’Esa. Crediti: Inaf/Esa

Attualmente il grado di rischio è -0,52 nella scala Palermo e 3 nella scala Torino, quindi è una situazione che richiede attenzione e l’asteroide necessita di ulteriori osservazioni astrometriche per determinare meglio l’orbita. Purtroppo 2024 YR4 è in fase di rapido allontanamento dalla Terra, già ora è di magnitudine +22,6 e ben presto sarà talmente debole da non essere più osservabile. Alla Stazione astronomica di Loiano dell’Inaf di Bologna abbiamo voluto dare il nostro piccolo contributo alla sicurezza della Terra e la sera del 29 gennaio abbiamo ripreso l’asteroide con il telescopio “G. D. Cassini“, che con i suoi 1,52 metri di diametro è il secondo telescopio presente sul territorio italiano. Le misure astrometriche sono state inviate al Minor Planet Center che le includerà nel database pubblico e le agenzie spaziali aggiorneranno la probabilità d’impatto.

Per certi aspetti 2024 YR4 è più un caso analogo a (99942) Apophis, che nel dicembre 2004 arrivò ad avere una probabilità d’impatto del 2,7 per cento per il 13 aprile 2029. Successivamente, grazie a ulteriori osservazioni anche su immagini pre-scoperta, la probabilità si ridusse a zero e ora sappiamo con certezza che Apophis il 13 aprile 2029 farà solo un passaggio ravvicinato a circa 32.000 km dal nostro pianeta. Considerato il diametro di circa 350 metri, l’impatto con Apophis sarebbe stato pericoloso, mentre un classe Tunguska come 2024 YR4 si può ancora gestire, eventualmente evacuando la zona dell’impatto nel caso fosse abitata. Si stanno anche cercando, su immagini riprese nel settembre 2016 quando 2024 YR4 passò a 0,076 au dalla Terra il giorno 8, se sia presente l’asteroide “in incognito”, in modo da aumentare l’arco orbitale osservato. Non resta che attendere l’evolvere della situazione.

Per saperne di più:


La Luna è meno morta di quel che sembra



Dall’altra parte della Luna si troverebbero i segni di attività geologica recente. A dirlo è uno studio uscito la scorsa settimana su The Planetary Science Journal e realizzato da Cole Nypaver e Thomas Watters, dello Smithsonian Institution, negli Stati Uniti, e da Jaclyn Clark, dell’Università del Maryland. Le tracce di tale attività sono da ricercarsi in una serie di piccole creste, disperse fra i crateri nella faccia della Luna che mai si mostra al nostro pianeta, che si sarebbero formate duecento milioni di anni fa. Ieri l’altro, insomma, in termini geologici.

«Molti scienziati ritengono che la maggior parte dei movimenti geologici della Luna siano avvenuti due miliardi e mezzo, o forse tre miliardi di anni fa», afferma Clark. «Ma noi stiamo vedendo che queste formazioni tettoniche sono state recentemente attive nell’ultimo miliardo di anni e potrebbero esserlo ancora oggi. Queste piccole creste nei mari lunari sembrerebbero essersi formate negli ultimi 200 milioni di anni, all’incirca, il che è relativamente recente considerando la scala temporale della Luna».


Immagine della superficie lunare con evidenziati i mari (in rosso) e le piccole creste nella faccia nascosta della luna (in giallo). Nell’ingrandimento le creste sono indicate dalle frecce. Crediti: T. Watters, Smithsonian Institution

I ricercatori hanno mappato ben 266 piccole creste prima sconosciute, distribuite in regioni vulcaniche che contano dalle 10 alle 40 creste. Regioni vulcaniche che si sarebbero formate oltre tre miliardi di anni fa. La tecnica che ha consentito di datare le creste prende il nome di crater counting – letteralmente, “conto dei crateri”, che si trovano in prossimità delle creste. Grazie a essa i ricercatori si sono accorti che le creste sono molto più giovani delle altre formazioni nei dintorni. «Essenzialmente, più sono i crateri che si trovano su una superficie, e più questa è vecchia: la superficie ha più tempo di accumulare crateri», spiega Clark. «Dopo aver contato i crateri intorno a queste piccole creste e aver constatato che alcune delle creste tagliano i crateri da impatto esistenti, riteniamo che queste formazioni geologiche siano state tettonicamente attive negli ultimi 160 milioni di anni».

Formazioni simili sarebbero presenti anche nella faccia della Luna a noi rivolta, anche se più antiche. Questo suggerisce che le creste siano state prodotte da fenomeni simili, legati probabilmente al progressivo restringimento della Luna e a piccole alterazioni della sua orbita. Le missioni Apollo hanno rivelato diversi “lunamoti” superficiali. Le creste al centro dello studio potrebbero essere legate a un’attività sismica simile.

Conoscere la geologia della Luna è fondamentale per l’organizzazione delle prossime missioni spaziali. «Speriamo che le future missioni lunari prevedano strumenti come il georadar in modo che i ricercatori possano comprendere meglio le strutture al di sotto della superficie lunare. Sapere che la Luna è ancora geologicamente attiva ha delle implicazioni davvero importanti riguardo a dove vogliamo mettere i nostri astronauti, le nostre attrezzature e infrastrutture sulla Luna», conclude Clark.

Per saperne di più:


Ragnatela cosmica, ecco le immagini in HD



Le prime immagini ad alta definizione della “ragnatela cosmica” che struttura l’universo sono state ottenute grazie a uno studio guidato da ricercatori dell’Università di Milano-Bicocca in collaborazione con l’Istituto nazionale di astrofisica (Inaf). Grazie a Muse (Multi-Unit Spectroscopic Explorer), innovativo spettrografo installato presso il Very Large Telescope dell’European Southern Observatory, in Cile, il team ha catturato una struttura cosmica risalente a un universo molto giovane. La scoperta, pubblicata ieri su Nature Astronomy, apre una nuova prospettiva per comprendere l’essenza della materia oscura.


Immagine di un’ampia regione dell’universo come predetta da simulazioni basate sul modello cosmologico attuale e condotte con super computer. Nell’immagine osserviamo, in bianco, il tenue bagliore del gas presente nei filamenti cosmici che disegna una fitta trama cosmica. All’intersezione di questi filamenti, in rosso, è visibile il gas all’interno delle galassie, che dà vita a nuove stelle. Crediti: Alejandro Benitez-Llambay/Università di Milano-Bicocca

Sfruttando le capacità offerte dal sofisticato strumento, il gruppo di ricerca coordinato da Michele Fumagalli e Matteo Fossati dell’Università di Milano-Bicocca ha condotto una delle più ambiziose campagne di osservazione con Muse mai completata in una singola regione di cielo, acquisendo dati per centinaia di ore.

Un solido pilastro della cosmologia moderna è l’esistenza della materia oscura che, costituendo circa il 90 per coento per cento di tutta la materia presente nell’universo, determina la formazione e l’evoluzione di tutte le strutture che osserviamo su grandi scale nel cosmo. «Sotto l’effetto della forza di gravità, la materia oscura disegna un’intricata trama cosmica composta da filamenti, alle cui intersezioni si formano le galassie più brillanti», spiega Fumagalli. «Questa ragnatela cosmica è l’impalcatura su cui si creano tutte le strutture visibili nell’universo: all’interno dei filamenti il gas scorre per raggiungere e alimentare la formazione di stelle nelle galassie».


In rosso, l’immagine del gas diffuso contenuto all’interno del filamento cosmico che connette due galassie, evidenziate da una stella gialla, estendendosi su una distanza di tre milioni di anni luce. Crediti: Davide Tornotti/Università di Milano-Bicocca

«Per molti anni, le osservazioni di questa ragnatela cosmica sono state impossibili: il gas presente in questi filamenti è infatti così diffuso da emettere solo un tenue bagliore, indistinguibile dagli strumenti allora disponibili», commenta Fossati. Muse, grazie alla sua elevata sensibilità alla luce, ha consentito agli scienziati di ottenere immagini dettagliate di questa ragnatela cosmica. Lo studio guidato da Davide Tornotti, dottorando dell’Università di Milano-Bicocca, e collaboratori ha utilizzato questi dati ultrasensibili per produrre l’immagine più nitida mai ottenuta di un filamento cosmico che si estende su una distanza di tre milioni di anni luce attraverso due galassie che ospitano ciascuna un buco nero supermassiccio.

«Catturando la debole luce proveniente da questo filamento, che ha viaggiato per poco meno di 12 miliardi di anni prima di giungere a Terra, siamo riusciti a caratterizzarne con precisione la forma e abbiamo tracciato, per la prima volta con misure dirette, il confine tra il gas che risiede nelle galassie e il materiale contenuto nella ragnatela cosmica», spiega Tornotti. «Attraverso alcune simulazioni dell’universo con i supercomputer, abbiamo inoltre confrontato le previsioni del modello cosmologico attuale con i nuovi dati, trovando un sostanziale accordo tra la teoria corrente e le osservazioni».

«Quando quasi dieci anni fa Michele Fumagalli mi ha proposto di partecipare a queste osservazioni ultra-profonde con lo strumento Muse ho accettato con grande entusiasmo, perché le potenzialità dello studio erano veramente moltissime», ricorda Valentina D’Odorico, ricercatrice Inaf e co-autrice del lavoro. «Abbiamo già pubblicato vari lavori basati su questi dati, ma il risultato ottenuto nell’articolo guidato da Tornotti può essere considerato il coronamento del progetto. Infatti, non solo vengono identificate le sovradensità occupate dai nuclei galattici attivi presenti nel campo e il filamento che li unisce, ma tali strutture confrontate in modo quantitativo con le predizioni di simulazioni numeriche sono in accordo con un modello di formazione delle strutture cosmiche che adotta materia oscura fredda».

Per saperne di più:

  • Leggi su Nature Astronomy l’articolo “High-definition imaging of a filamentary connection between a close quasar pair at z = 3”, di Davide Tornotti, Michele Fumagalli, Matteo Fossati, Alejandro Benitez-Llambay, David Izquierdo-Villalba, Andrea Travascio, Fabrizio Arrigoni Battaia, Sebastiano Cantalupo, Alexander Beckett, Silvia Bonoli, Pratika Dayal, Valentina D’Odorico, Rajeshwari Dutta, Elisabeta Lusso, Celine Peroux, Marc Rafelski, Mitchell Revalski, Daniele Spinoso e Mark Swinbank


Nei campioni di Bennu gli ingredienti della vita




Quest’infografica (cliccare per ingrandire) mostra le molecole chiave e i minerali scoperti nei campioni dell’asteroide Bennu. Nel riquadro in alto a sinistra ci sono molecole precursori, come ammoniaca e formaldeide, mentre in alto a destra sono rappresentati i sali e le argille. Ingredienti che, unendosi all’acqua all’interno del corpo progenitore di Bennu, hanno portato alla sintesi di molecole organiche, mostrate in basso. Il riquadro in basso a destra raffigura le basi azotate di Dna ed Rna, mentre quello in basso a sinistra raffigura gli amminoacidi, elementi costitutivi delle proteine. I campioni di Bennu contengono tutte e cinque le basi azotate presenti nel Dna e nell’Rna e 14 dei 20 amminoacidi utilizzati dalla vita per costruire le proteine. Crediti: Nasa Goddard/Osiris-Rex/Dan Gallagher

Mattoni della vita come amminoacidi e basi di Dna e Rna sono stati scoperti nei campioni di rocce e polveri prelevati dall’asteroide Bennu nel 2020 e portati sulla Terra dalla missione Osiris-Rex della Nasa. Che ci fosse materia organica sugli asteroidi si sospettava da tempo e tracce erano state viste anche nei meteoriti trovati sulla Terra, ma questo risultato è la conferma definitiva che gli asteroidi contengono gli elementi alla base della vita e che potrebbero averli portati sulla Terra. La scoperta è pubblicata oggi in due articoli su Nature e Nature Astronomy.

Nei campioni di Bennu sono stati scoperti 14 dei 20 amminoacidi presenti sulla Terra e tutte e cinque le basi, ossia le lettere dell’alfabeto della vita che si trovano nelle molecole di Dna e Rna. Sono inoltre stati scoperti sali minerali che si sono formati nel corpo celeste dal quale ha avuto origine Bennu, in seguito a un impatto, e che permettono di avere informazioni sulla chimica del Sistema solare primitivo.

Tutte queste scoperte sono state possibili perché i campioni di Bennu sono rimasti incontaminati: dal momento in cui sono stati prelevati dalla sonda Osiris-Rex non hanno subito alcuna alterazione, né dal contatto con l’atmosfera né dal contatto con la Terra. Nell’articolo pubblicato su Nature Astronomy, i ricercatori coordinati da Daniel Glavi del Goddard Space Flight Center della Nasa hanno riportato la scoperta di migliaia di composti organici, compresi 14 amminoacidi alla base della vita sulla Terra, 19 amminoacidi non proteinogenici (che non sono cioè coinvolti nella struttura delle proteine e praticamente assenti nella biologia che conosciamo), più le cinque basi che costituiscono Dna e Rna, vale a dire adenina, guanina, citosina, timina e uracile.

Le analisi hanno inoltre dimostrato che Bennu è ricco di composti a base di azoto e ammoniaca che si sono formati miliardi di anni fa nelle regioni più esterne e fredde del Sistema solare. Secondo i ricercatori, la materia organica scoperta nei campioni di Bennu mostra di avere una complessità maggiore rispetto a quella presente nella biologia terrestre e suggerisce che il corpo celeste dal quale Bennu ha avuto origine si trovasse nella fascia più esterna del Sistema solare, dove l’ammoniaca è stabile.

L’articolo pubblicato su Nature e coordinato da Timothy McCoy, del Museo di storia naturale della Smithsonian Institution, ha scoperto nei campioni di Bennu una varietà di sali minerali. Ci sono fosfati che contengono sodio e carbonati, solfati, cloruri e uoruri ricchi di sodio. Probabilmente si sono formati in seguito a un processo di evaporazione dell’acqua avvenuto moltissimo tempo fa sul corpo celeste da cui è nato Bennu.


Quattordici dei venti aminoacidi utilizzati dalla vita sulla Terra per costruire le proteine ​​sono stati scoperti nei campioni di Bennu. Crediti: Nasa Goddard/Osiris-Rex

La scoperta di amminoacidi e basi di Dna e Rna sui campioni dell’asteroide Bennu «dimostra per la prima volta l’abbondanza della materia organica tipica della vita» su un corpo celeste di questo tipo e «conferma le attese» della comunità scientifica: lo ha detto all’Ansa John Brucato, astrobiologo dell’Osservatorio di Arcetri dell’Istituto nazionale di astrofisica non coinvolto nei due studi pubblicati oggi.

Finora amminoacidi sono stati scoperti nei meteoriti, ossia in frammenti di asteroidi caduti sulla Terra, «ma i meteoriti avrebbero potuto subire alterazioni a causa del contatto con l’atmosfera o nell’ambiente terrestre. C’è sempre stato il dubbio che gli amminoacidi trovati fossero terrestri. Per questo», osserva Brucato, «è nata l’idea di organizzare missioni spaziali per andare a raccogliere i campioni direttamente sugli asteroidi». Sono nate così la missione Osiris-Rex della Nasa, partita nel 2018 e che nel 2023 ha portato sulla Terra rocce e polveri dell’asteroide Bennu, e la missione Hayabusa-2 dell’agenzia spaziale giapponese Jaxa, che nel 2020 ha portato a Terra i campioni dell’asteroide Ryugu.

«È importante il ruolo che gli asteroidi hanno nell’origine della vita». Questi corpi celesti «hanno portato sulla Terra materia organica e acqua», dice Brucato, «adesso si tratta di capire quali molecole siano arrivate. Non si sta dicendo», precisa il ricercatore, «che la vita sia stata portata sulla Terra dagli asteroidi, perché su questi corpi celesti non ci sono batteri, ma negli asteroidi sono avvenuti processi chimico-fisici che hanno permesso la formazione di molecole complesse».

Per saperne di più:

  • Leggi su Nature l’articolo “An evaporite sequence from ancient brine recorded in Bennu samples”, di T. J. McCoy, S. S. Russell, T. J. Zega, K. L. Thomas-Keprta, S. A. Singerling, F. E. Brenker, N. E. Timms, W. D. A. Rickard, J. J. Barnes, G. Libourel, S. Ray, C. M. Corrigan, P. Haenecour, Z. Gainsforth, G. Dominguez, A. J. King, L. P. Keller, M. S. Thompson, S. A. Sandford, R. H. Jones, H. Yurimoto, K. Righter, S. A. Eckley, P. A. Bland, M. A. Marcus, D. N. DellaGiustina, T. R. Ireland, N. V. Almeida, C. S. Harrison, H. C. Bates, P. F. Schofield, L. B. Seifert, N. Sakamoto, N. Kawasaki, F. Jourdan, S. M. Reddy, D. W. Saxey, I. J. Ong, B. S. Prince, K. Ishimaru, L. R. Smith, M. C. Benner, N. A. Kerrison, M. Portail, V. Guigoz, P.-M. Zanetta, L. R. Wardell, T. Gooding, T. R. Rose, T. Salge, L. Le, V. M. Tu, Z. Zeszut, C. Mayers, X. Sun, D. H. Hill, N. G. Lunning, V. E. Hamilton, D. P. Glavin, J. P. Dworkin, H. H. Kaplan, I. A. Franchi, K. T. Tait, S. Tachibana, H. C. Connolly Jr. e D. S. Lauretta
  • Leggi su Nature Astronomy l’articolo “Abundant ammonia and nitrogen-rich soluble organic matter in samples from asteroid (101955) Bennu”, di Daniel P. Glavin, Jason P. Dworkin, Conel M. O’D. Alexander, José C. Aponte, Allison A. Baczynski, Jessica J. Barnes, Hans A. Bechtel, Eve L. Berger, Aaron S. Burton, Paola Caselli, Angela H. Chung, Simon J. Clemett, George D. Cody, Gerardo Dominguez, Jamie E. Elsila, Kendra K. Farnsworth, Dionysis I. Foustoukos, Katherine H. Freeman, Yoshihiro Furukawa, Zack Gainsforth, Heather V. Graham, Tommaso Grassi, Barbara Michela Giuliano, Victoria E. Hamilton, Pierre Haenecour, Philipp R. Heck, Amy E. Hofmann, Christopher H. House, Yongsong Huang, Hannah H. Kaplan, Lindsay P. Keller, Bumsoo Kim, Toshiki Koga, Michael Liss, Hannah L. McLain, Matthew A. Marcus, Mila Matney, Timothy J. McCoy, Ophélie M. McIntosh, Angel Mojarro, Hiroshi Naraoka, Ann N. Nguyen, Michel Nuevo, Joseph A. Nuth III, Yasuhiro Oba, Eric T. Parker, Tanya S. Peretyazhko, Scott A. Sandford, Ewerton Santos, Philippe Schmitt-Kopplin, Frederic Seguin, Danielle N. Simkus, Anique Shahid, Yoshinori Takano, Kathie L. Thomas-Keprta, Havishk Tripathi, Gabriella Weiss, Yuke Zheng, Nicole G. Lunning, Kevin Righter, Harold C. Connolly Jr. e Dante S. Lauretta


Così è la Via Lattea, relativisticamente parlando




Da sinistra: Mario Lattanzi, Mariateresa Crosta e William Breonio, i tre autori dell’articolo pubblicato su Jcap lo scorso dicembre, che mette a confronto le curve di rotazione previste da diversi modelli teorici con i dati ottenuti dalla Dr3 di Gaia. Crediti: Mariateresa Crosta/Inaf

L’avevamo intervistata nel 2020, in occasione di un articolo uscito su Mnras sulla curva di rotazione della Via Lattea che ha suscitato interesse e discussione nella comunità scientifica. Lei è Mariateresa Crosta, astrofisica all’Inaf di Torino e coautrice di due nuovi articoli di follow-up, pubblicati lo scorso marzo su Mnras e lo scorso dicembre nel Journal of Cosmology and Astroparticle Physics. I due lavori sono parte della tesi di dottorato di William Beordo, primo autore di entrambi gli articoli. Il tema è lo stesso: riprodurre la curva di rotazione della nostra galassia, ovvero tracciare la velocità rotazionale delle stelle in funzione della loro distanza dal centro. I dati, invece, sono quelli della Dr3 di Gaia, che hanno fornito circa 130 volte più stelle rispetto a quelle utilizzate nel primo articolo, basato invece sulla DR2. L’idea, allora come oggi, è quella di riprodurre la curva di rotazione delle stelle nella nostra galassia usando una geometria rigorosamente relativistica, che non necessita di una componente di materia oscura, né di altre modifiche di sorta, per riprodurre l’osservato. In questo nuovo studio, gli autori hanno messo a confronto questo approccio con altre due teorie, quella standard e la cosiddetta Mond. Avrà funzionato anche questa volta, con i dati della nuova Dr3? Media Inaf ha intervistato Mariateresa Crosta, coautrice del nuovo studio.

Già nel 2020 avevate proposto questo approccio alternativo alla teoria cosmologica oggi più comunemente accettata, il cosiddetto modello LambdaCdm. Cosa c’è che non convince in questo modello?

«La motivazione principale è stata voler provare fino a che punto la fisica di una galassia, intesa come oggetto esteso, sia governata dalla teoria di Einstein, soprattutto alla luce dei dati sempre più accurati di Gaia, il satellite dell’Esa che ha mappato la nostra Via Lattea fino al 15 gennaio scorso. Una precisazione doverosa: l’accuratezza raggiunta da Gaia – il microarcosecondo, equivalente a misurare, da Giove, la dimensione della stella sulla Mole Antonelliana – obbliga a tener conto di qualunque correzione relativistica che possa influenzare la luce di una stella nel suo percorso fino a noi osservatori. In altre parole, obbliga a seguire una sorta di filo d’Arianna attraverso le curvature mutevoli locali (la luce viene infatti curvata dalla presenza di corpi celesti come stelle, pianeti, o ammassi, che esercitano attrazione gravitazionale su di essa, ndr) fino alla stella. Dati questi dati, però, finora le curve di rotazione delle stelle sono sempre state costruite assumendo una fisica newtoniana, ovvero un’approssimazione della Relatività generale».

Come mai?

«Perché si ritiene che le velocità delle stelle siano molto più piccole della velocità della luce, e che quindi non sia necessario ricorrere alla complessità della Relatività generale per descriverli. Noi, però, ne facciamo più che altro una questione scientifico epistemologica: se i dati che forniamo alla comunità astronomica sono modellati secondo Einstein, allora per consistenza anche la nostra galassia deve essere modellata sulla base della stessa teoria. E tracciare la sua curva di rotazione è, per noi, il test più immediato da effettuare avendo a disposizione i dati cinematici e spettroscopici di Gaia».

Quindi, se capisco bene, visti i dati provenienti da Gaia sarebbe giusto costruire una curva di rotazione basandosi sulla teoria della Relatività generale.

«Esatto. Per quanto riguarda il modello della nostra galassia, la nostra sfida è stata testare il profilo di velocità che abbiamo ricavato basandoci su un approccio strettamente conforme alla Relatività generale, e metterlo a confronto con i modelli attualmente in uso, in particolare il modello classico di Newton, che include un alone di materia oscura, e l’approccio alternativo Mond che va per la maggiore. In realtà il nostro approccio non è in contraddizione con il modello LambdaCdm, che pure fa uso della Relatività generale. Per intenderci, non è che stiamo escludendo un effetto di “materia oscura”, semplicemente forniamo un’interpretazione, compatibile con la teoria standard della gravità, della piattezza delle curve di rotazione della Via Lattea senza invocare una componente di alone (di materia oscura) ad hoc, che circonderebbe la Galassia, o un’accelerazione correttiva nel caso di Mond».


La curva di rotazione della Via Lattea ottenuta con i dati della Dr3 di Gaia, sopra la quale sono state aggiunte le curve di rotazione previste da diversi modelli teorici. Crediti: Gaia – immagine della galassia; W. Beordo et al., JCAP (2024)

La questione dietro alle curve di rotazione, lo ricordiamo, è che alla periferia delle galassie, le velocità delle stelle rimangano piuttosto sostenute, anziché diminuire come previsto dalla gravità di Newton. Ne risulta un grafico con la curva più piatta di quanto ci si attenderebbe. Per “correggerlo”, alcune teorie prevedono l’aggiunta di una componente gravitazionale in più, ovvero la materia oscura, oppure una correzione da inserire nella legge di gravitazione, come nel caso della teoria Mond. Nel vostro caso, quindi, la materia oscura qui non servirebbe più?

«Pensare a possibili applicazioni dell’equazioni di campo di Einstein per tener conto di un universo senza componenti oscure è un argomento innovativo, ma non nuovo. La letteratura ci offre esempi sulle curve di rotazione già a partire dal 2007 ma pensati per le galassie esterne. Il messaggio è stato raccolto da pochi adepti».

Per dipanare la questione fra correzioni e teorie, dunque, perché i dati di Gaia possono essere d’aiuto?

«Ciò che non è stato fatto in passato è testare ipotesi come quella di una geometria relativistica (l’approccio che proponiamo noi) con il campione di dati più accurato, più numeroso, più completo e più omogeneo di sempre che offre lo strumento Gaia. Con il primo lavoro abbiamo utilizzato circa seimila stelle della Dr2 di Gaia (il rilascio dei dati corrispondente a 22 mesi di osservazioni), mentre negli ultimi due articoli (il primo pubblicato ad aprile 2024, e il secondo in dicembre) ben circa 800mila stelle della Dr3 (34 mesi di dati raccolti), tutte caratterizzate da posizioni, velocità e distanza misurate da Gaia. La selezione rappresenta le stelle che meglio tracciano sul piano equatoriale orbite stabili, oggetti che hanno raggiunto l’equilibrio e quindi rappresentano dei traccianti fedeli sul disco galattico. Gaia è straordinaria proprio per questo: la misura senza precedenti e diretta della cinematica “relativistica” di ogni stella unita a quella della sua distanza permette di porre limiti molto stringenti al potenziale gravitazionale di cui subisce l’influenza. Per le galassie esterne abbiamo meno osservazioni puntuali di questo tipo».

Quali sono le differenze principali fra le teorie che avete testato? E quali sono le conseguenze, ad esempio, sulle conoscenze che abbiamo raccolto finora sulla nostra galassia?

«Per quanto riguarda le curve di rotazione le differenze principali sono, a grandi linee, quelle menzionate prima. Nel modello LambdaCdm si assume che la Relatività generale si riduca al suo limite newtoniano su scale galattiche, ma per tener conto della piattezza delle curve di rotazione osservate, ovvero del fatto che le stelle mantengono lontano dal centro galattico un valore di velocità costante non previsto da Newton, occorre aggiungere ai modelli del disco e del nucleo galattico un alone di materia oscura di cui non si conosce ancora la natura. Questa materia, impossibile da osservare attraverso l’emissione di onde elettromagnetiche, per definizione, dovrebbe essere circa 5-10 volte superiore al contenuto di materia “osservabile” nella nostra galassia, affinché il limite newtoniano della Relatività generale ne riproduca correttamente la curva di rotazione misurata. La teoria Mond, invece, introduce una correzione ad hoc all’accelerazione gravitazionale, che si riduce alla teoria newtoniana in presenza di forti accelerazioni, mentre va ad aumentare la forza gravitazionale in regimi di bassa accelerazione, come nella periferia delle galassie, dove la curva di rotazione risulta essere piatta. Poi ci sono anche teorie che prevedono modifiche alla Relatività generale. Il vantaggio di esplorare la Relatività generale piuttosto che sue alternative è che essa costituisce la teoria standard della gravità in un intervallo di ben 60 ordini di grandezza, evitandoci di scomodare i fenomeni fisici su cui poggiano le nostre certezze che le alternative devono comunque prevedere. Inoltre, la nostra galassia è il prodotto cosmologico a noi più vicino e quindi il laboratorio ideale per verificare le previsioni cosmologiche alla nostra epoca (che dicono come si è evoluto l’universo vicino). Se costruiamo un modello fisico della nostra galassia questo costituirà il “modello” per altre galassie simili alla nostra, come lo è il Sole per le stelle».


Mariateresa Crosta, astrofisica dell’Inaf di Torino. Crediti: Inaf/R. Bonuccelli

Fra i tre modelli che avete testato – modello newtoniano, Mond, e modello relativistico – quale funziona meglio, alla fine?

«C’è da dire che il modello di Relatività generale è il più semplice possibile, in cui si utilizzano alcune soluzioni particolari appartenenti una classe più generale di soluzioni dell’equazioni di campo di Einstein. Il problema è che la nostra galassia è un oggetto esteso e multistrutturato, e si conoscono poche soluzioni esatte delle equazioni di Einstein. Quella da noi adottata, e poi adattata alla tipologia di dati di Gaia, risulta valida solo sul piano equatoriale (o almeno fino a un kiloparsec da esso) e lontano dal centro galattico dove risiede una singolarità [il buco nero supermassiccio SgrA*, ndr]. Per descrivere le curve di rotazione questo è più che sufficiente. I fit con i dati di Gaia Dr3 hanno confermato ancora una volta che tutti i modelli sono statisticamente equivalenti, nel senso che riproducono la curva di rotazione osservata e il profilo di densità della galassia senza dirimenti differenze, e soprattutto che non smentiscono il test sull’effetto di trascinamento gravitazionale che è stata la nostra ipotesi principe di lavoro. E fa riflettere: un modello basato sulla Relatività generale, più semplice possibile, con meno parametri e coerente con la teoria standard è staticamente equivalente a un altro modello con più parametri e con componenti ad hoc di cui non si conosce ancora la natura. Se hypoteses non fingo e applico il rasoio di Occam la Relatività generale dovrebbe essere favorita. Ciò suggerisce con maggior vigore la necessità di ulteriori avanzamenti nelle soluzioni matematiche dell’equazioni di Einstein per descrivere un oggetto multistrutturato come la galassia nell’ambito della Relatività generale e nel contesto LambdaCdm che necessiterebbe di materia oscura fredda».

Quindi i vostri risultati rischiano di mettere in discussione, ancora una volta, la necessità di invocare materia oscura ed energia oscura per colmare il bilancio energetico dell’universo?

«Non proprio. I nostri risultati al momento riguardano solo la curva di rotazione della nostra galassia. La necessità di materia oscura o energia oscura è presente anche in altri contesti. Per cui si deve procedere per gradi, adattando le geometrie e i relativi osservabili caso per caso. Nello spirito di cui si diceva prima, c’è già un grosso vantaggio a costruire un modello per la nostra galassia».

Che mi dice invece della Relatività generale? Anche questa è in discussione?

«La Relatività generale è una teoria molto prolifica, ma non sempre viene applicata nel modo corretto semplicemente perché sono necessari dei cambi di paradigma, come è avvenuto nel caso di Gaia, dovuti alle nuove accuratezze in gioco. Sicuramente non è eterna, ma se uno la sonda fino in fondo delimita i regimi dove può essere messa in discussione e aiuta a comprendere come andrebbe modificata».

Per saperne di più: