Thales Alenia Space punta i riflettori sulla CO2
È di pochi giorni fa la notizia che l’azienda Thales Alenia Space (una joint venture fra Thales, 67 per cento, e Leonardo, 33 per cento) sarà alla guida della prossima costellazione di satelliti per il monitoraggio dell’anidride carbonica emessa dall’uomo. Primo nel suo genere, il progetto Carb-Chaser punterà l’occhio direttamente sugli emettitori locali, riuscendo a quantificare le emissioni di anidride carbonica di singoli impianti industriali.
media.inaf.it/wp-content/uploa…
Immagine della Terra catturata dalla serie di missioni Meteosat di seconda generazione il 23 marzo 2022. Crediti: EumetSat/Esa
Carb-Chaser è finanziato dal governo francese nell’ambito del piano di rilancio Francia 2030 e consentirà all’azienda di sviluppare il payload, finalizzare la dimensione della costellazione e definire il satellite precursore. L’idea è quella di sviluppare una serie di satelliti dall’architettura compatta con il miglior compromesso fra contenimento dei costi ed efficienza. Ogni satellite Carb-Chaser trasporterà un interferometro multispettrale ipercompatto, una tecnologia brevettata da Thales Alenia Space che si basa sulla miniaturizzazione di tecnologie chiave utilizzate in altri programmi come i satelliti meteorologici geostazionari Meteosat e Copernicus. Questi inteferometri offriranno la capacità di localizzare singoli pennacchi di anidride carbonica e di attribuirne la fonte a uno specifico impianto industriale, anche in condizioni atmosferiche complesse (vento, aerosol, vapore acqueo, ecc.). Queste misure indipendenti saranno poi verificate e certificate dall’agenzia spaziale europea (Esa) e dall’agenzia spaziale francese (Cnes). Non solo, grazie alla geolocalizzazione ad alta precisione, le emissioni saranno attribuite in modo accurato a specifici impianti industriali, e i dati potranno poi essere verificati anche mediante indagini in situ.
Carb-Chaser opererà in sinergia con i programmi europei esistenti dedicati alla misurazione delle emissioni di carbonio su diverse scale: MicroCarb è una missione scientifica per valutare i flussi di CO₂ su scala globale, e CO2M misurerà la CO₂ prodotta dall’uomo su scala regionale. Carb-Chaser, infine, come dicevamo, si concentrerà sulle emissioni su scala locale. I dati serviranno anche per compilare inventari atmosferici e monitorare i progressi diretti al perseguimento degli obiettivi climatici. Queste tre missioni, per quanto distinte, si completeranno e si manterranno a vicenda per fornire un quadro globale e integrato delle emissioni di carbonio e per sostenere gli sforzi internazionali nel ridurre l’impatto delle attività umane sul clima.
Domani, domenica 1 dicembre, ci troviamo alle 14:30 alla Palestra della #Scienza (Via Cavour 7, #Faenza, #Romagna) per una #passeggiata lungo la Via dei #Pianeti: un modello in scala 1:un miliardo del #SistemaSolare
Partecipazione #gratis, prenotazioni 340 774 2242
mobilizon.it/events/606f1f1a-b…
#Astrofili #Eventi #Cultura #Astronomia #Educazione #Weekend #Famiglia #Divertimento #Esplorazione #Conoscenza #Scoperta #Spazio #Space #Astronomy #Cosmos #Universe #FamilyFun #WeekendActivities
Astronomia - Gruppo Forum reshared this.
Acqua nelle profondità di Urano e Nettuno?
Pioggia di diamanti? Acqua superionica? Queste sono solo due delle proposte che gli scienziati planetari hanno avanzato per spiegare cosa si nasconde sotto le spesse atmosfere bluastre di idrogeno ed elio di Urano e Nettuno, i giganti ghiacciati del Sistema solare. Uno scienziato planetario dell’Università della California, Berkeley, propone ora una teoria alternativa: che gli interni di entrambi i pianeti siano stratificati e che i due strati, come l’olio e l’acqua, non si mescolino. Questa configurazione spiegherebbe perfettamente gli insoliti campi magnetici dei pianeti.
Una vista dell’interno di un pianeta gigante di ghiaccio come Nettuno. Una nuova teoria propone che al di sotto della densa atmosfera si trovi uno strato ricco di acqua che si è separato da uno strato più profondo di carbonio, azoto e idrogeno caldi e ad alta pressione. La pressione spreme l’idrogeno dalle molecole di metano e ammoniaca, creando strati di idrocarburi stratificati che non possono mescolarsi con lo strato d’acqua, impedendo così la convezione che crea un campo magnetico dipolare. Crediti: Calvin J. Hamilton/Nasa
In un articolo pubblicato questa settimana sulla rivista Proceedings of the National Academy of Sciences, Burkhard Militzer sostiene che appena sotto gli strati di nubi si trova un profondo oceano d’acqua e, al di sotto, un fluido altamente compresso di carbonio, azoto e idrogeno. Le sue simulazioni al computer mostrano infatti che, alle temperature e alle pressioni dell’interno dei pianeti, una combinazione di acqua, metano e ammoniaca si separerebbe naturalmente in due strati, principalmente perché l’idrogeno verrebbe “spremuto fuori” dal metano e dall’ammoniaca che compongono gran parte dell’interno profondo. Questi strati immiscibili spiegherebbero perché né Urano né Nettuno hanno un campo magnetico come quello terrestre, come riscontrato dalla missione Voyager 2 alla fine degli anni Ottanta.
Quando un pianeta si raffredda a partire dalla sua superficie, il materiale più freddo e denso tende ad affondare, mentre le sacche di fluido più caldo risalgono verso l’alto, simili al movimento dell’acqua in ebollizione. Questo fenomeno è noto come convezione. Se l’interno è elettricamente conduttore, uno spesso strato di materiale in convezione genererà un campo magnetico dipolare simile a quello di una barra magnetica. Ma Voyager 2 ha scoperto che nessuno dei due giganti di ghiaccio presenta un tale campo di dipolo, bensì solo campi magnetici disorganizzati. Ciò implica che non ci sia movimento convettivo di materiale in uno strato spesso negli interni profondi dei pianeti.
Un diagramma della struttura interna di Urano che mostra quattro strati distinti: idrogeno (blu chiaro), acqua (blu scuro), idrocarburi (rosso) e nucleo roccioso (giallo). Urano ha un campo magnetico disordinato che ha origine dallo strato d’acqua. L’immagine mostra anche l’estrema inclinazione dell’asse di Urano rispetto alla sua orbita e uno dei deboli anelli di materiale che circondano il pianeta. Crediti: Burkhard Militzer, Uc Berkeley, e Nasa
Per spiegare queste osservazioni, più di 20 anni fa due gruppi di ricerca distinti proposero che i pianeti avessero strati che non possono mescolarsi, impedendo così la convezione su larga scala e un campo magnetico dipolare globale. Tuttavia, la convezione in uno degli strati potrebbe produrre un campo magnetico disorganizzato. Ma nessuno dei due gruppi riuscì a spiegare di cosa fossero fatti questi strati non mescolabili.
Dieci anni fa, Militzer tentò ripetutamente di venirne a capo, utilizzando simulazioni al computer di circa 100 atomi con proporzioni di carbonio, ossigeno, azoto e idrogeno che rispecchiavano la composizione nota degli elementi del Sistema solare primordiale. Alle pressioni e alle temperature previste per l’interno dei pianeti – rispettivamente 3,4 milioni di volte la pressione atmosferica della Terra e 4.750 Kelvin – non riuscì a trovare un modo per formare gli strati. Fin quando l’anno scorso, con l’aiuto dell’apprendimento automatico, Militzer è riuscito a simulare il comportamento di 540 atomi e, con sua grande sorpresa, ha scoperto che gli strati si formano in modo naturale quando gli atomi vengono riscaldati e compressi.
«Un giorno ho guardato il modello e l’acqua si era separata dal carbonio e dall’azoto. Quello che non ero riuscito a fare 10 anni prima, ora stava accadendo», racconta Militzer. «Ho pensato: Wow! Ora so perché si formano gli strati: uno è ricco di acqua e l’altro è ricco di carbonio, e in Urano e Nettuno è il sistema ricco di carbonio a trovarsi sotto. La parte pesante rimane in basso e la parte più leggera rimane in alto e non può fare alcuna convezione. Non avrei potuto scoprirlo senza avere un grande sistema di atomi, e il grande sistema non potevo simularlo 10 anni fa».
La quantità di idrogeno “spremuta” aumenta con la pressione e la profondità, formando uno strato di carbonio-azoto-idrogeno stabilmente stratificato, quasi come un polimero plastico. Mentre lo strato superiore, ricco di acqua, probabilmente presenta convezione che produce il campo magnetico disorganizzato osservato, lo strato più profondo, ricco di idrocarburi, non può farlo. Quando ha modellato la gravità prodotta da una siffatta stratificazione di Urano e Nettuno, i campi gravitazionali hanno coinciso con quelli misurati dal Voyager 2 quasi 40 anni fa.
Militzer ne è piuttosto certo: non è la pioggia di diamanti e nemmeno l’acqua superionica a spiegare cosa si nasconde di Urano e Nettuno, bensì la separazione tra i due strati.
Lo scienziato prevede che al di sotto dell’atmosfera di Urano, spessa circa 5mila chilometri, si trovi uno strato ricco di acqua di circa 8mila chilometri e uno strato ricco di idrocarburi, anch’esso di circa 8mila chilometri. Il suo nucleo roccioso ha le dimensioni del pianeta Mercurio. Nettuno, pur essendo più massiccio di Urano, ha un diametro inferiore, un’atmosfera più sottile, ma strati ricchi di acqua e idrocarburi di spessore simile. Il suo nucleo roccioso è leggermente più grande di quello di Urano, approssimativamente delle dimensioni di Marte.
I modelli per le strutture interne dei pianeti giganti ghiacciati Urano e Nettuno prevedono due strati intermedi distinti: uno strato superiore, ricco di acqua, in cui si generano campi magnetici disorganizzati, e uno strato inferiore, non convettivo, ricco di idrocarburi. Nuove simulazioni al computer mostrano che i materiali ghiacciati si separano naturalmente ad alta pressione e temperatura in questi due strati. Crediti: Burkhard Militzer, Uc Berkeley
Il prossimo passo potrebbe essere quello di verificare con esperimenti di laboratorio a temperature e pressioni estremamente elevate se gli strati si formano in fluidi con le proporzioni di elementi che si trovano nel sistema protosolare. Anche una missione della Nasa su Urano potrebbe fornire una conferma, se il veicolo spaziale avesse a bordo un imager Doppler per misurare le vibrazioni del pianeta. Secondo Militzer, infatti, un pianeta stratificato vibrerebbe a frequenze diverse rispetto a un pianeta in convezione. Il suo prossimo progetto è proprio quello di utilizzare il suo modello computazionale per calcolare le differenze tra le vibrazioni planetarie.
Per saperne di più:
- Leggi su Proceedings of the National Academy of Sciences l’articolo “Phase separation of planetary ices explains nondipolar magnetic fields of Uranus and Neptune” di Burkhard Militzer
Sabrina Santi likes this.
Proba-3: il 4 dicembre il lancio dall’India
Rappresentazione artistica dei due satelliti in volo allineati con la Terra. Crediti: Esa
Realizzare eclissi di Sole “artificiali”: è l’obiettivo dell’ambiziosa missione spaziale europea Proba-3, composta da due satelliti in formazione, uno per coprire il Sole e l’altro per osservarlo. La missione dell’Agenzia spaziale europea, che vede coinvolto anche l’Istituto nazionale di astrofisica, è pronta alla partenza con un razzo Pslv-Xl dal Centro spaziale Satish Dhawan, in India, programmata per mercoledì 4 dicembre alle 11:38 ora italiana.
«A livello tecnologico è una delle nostre missioni più eccitanti, sia per la grande rilevanza scientifica, perché ci fornirà preziose informazioni sul alcune caratteristiche del Sole ancora poco note, e sia perché metterà alla prova le nostre capacità tecniche», ha detto il direttore del Dipartimento di tecnologia dell’Esa, Dietmar Pilz, durante la conferenza stampa di presentazione della missione.
«Si tratta di una tecnica mai usata prima e che ci permetterà per la prima volta di poter “generare” eclissi di Sole lunghe circa 6 ore, e quasi una volta al giorno», dice Joe Zender, mission scientist dell’Esa. Coprire il disco solare è l’unico modo per osservarne gli strati più esterni, perché la luce diretta del Sole di fatto acceca la vista. «Finora le uniche occasioni per poter studiare la corona erano le eclissi naturali, all’incirca una volta l’anno e per 1 o 2 minuti al massimo. Ora si apre un’opportunità completamente nuova».
When ️️ spacecraft are better than ️…Launching next week, ESA’s Proba-3 platforms will manoeuvre precisely down to 1 mm to cast a shadow from one to the other, to form orbital solar eclipses on demand: t.co/qpbVjEifPv pic.twitter.com/WqbmoVdQJc
— ESA Technology (@ESA_Tech) November 27, 2024
Proba-3 è composta da due satelliti separati che, una volta in orbita, dovranno allinearsi tra loro mantenendosi in formazione a una distanza di circa 150 metri con un margine di errore di appena un millimetro: l’obiettivo è che uno dei due satelliti copra perfettamente il disco solare mentre l’altro possa guardare verso la nostra stella e, sfruttando l’ombra generata dal satellite compagno, osservare la corona solare, ossia la parte più esterna del Sole, il cui studio è fondamentale per capire meglio la nostra stella, ad esempio per poter in futuro prevedere le tempeste solari. le temibili espulsioni coronali di massa e altri fenomeni per molti versi ancora enigmatici.
Per produrre un’eclissi solare stabile dall’occultatore al coronagrafo per le sei ore previste, la coppia dovrà mantenere la formazione con una precisione di un singolo millimetro. La coppia di satelliti farà tutto questo autonomamente, impiegando una serie di sensori. Gli inseguitori stellari e la navigazione satellitare sono integrati da collegamenti radio intersatellitari, telecamere ottiche che tracciano i led, un laser che rimbalza attraverso i retroriflettori e infine sensori d’ombra – progettati e realizzati dall’Inaf – che circondano l’apertura del coronografo Aspiics. Crediti: Esa-F. Zonno
Una missione ambiziosa ed estremamente complessa, a cui l’Italia partecipa anche attraverso l’Istituto nazionale di astrofisica (Inaf), Leonardo e Aviotec.
Animazione che mostra il metodo utilizzato dai due satelliti della missione per generare eclissi solari artificiali. Crediti: Esa
«L’Istituto nazionale di astrofisica, in particolare l’Osservatorio di Torino, ha avuto la responsabilità per lo studio, lo sviluppo, la realizzazione ed i test di qualifica e di accettazione di uno fra gli strumenti più accurati a bordo di Proba-3: il sistema metrologico Sps, lo Shadow Position Sensors», dice Silvano Fineschi dell’Inaf di Torino, che abbiamo raggiunto mentre è in viaggio verso la base indiana per assistere al lancio. «Si tratta di una serie di sensori progettati per monitorare con estrema precisione la simmetria della penombra generata dall’occultatore esterno sul piano della pupilla di Aspiics, il coronografo a bordo di Proba-3. Grazie a un algoritmo estremamente specializzato, sviluppato anch‘esso all’Inaf di Torino, saranno in grado di misurare con grande accuratezza (<0.5 mm) ogni spostamento del satellite con l’occultatore che mette nell’ombra il telescopio sull’altro satellite, a 150 m di distanza dal primo».
«Sempre l’Inaf di Torino», aggiunge Fineschi, «ha poi contribuito alle attività per la realizzazione di un altro sistema metrologico: Opse, ascronimo di Occulter Position Sensors. Opse è un sistema basato su una terna di led posizionati al centro della superficie dell’occultatore rivolta verso il telescopio, che vengono osservati insieme alla corona grazie ad un foro nell’occultatore interno del coronografo. Come l’Sps, anche l’Opse permette di misurare lo spostamento relativo tra i due satelliti».
Lo strumento Aspiics nel Laboratorio spaziale Inaf “Optical Payload Systems” durante le calibrazioni del telescopio e degli Sps. Crediti: Inaf
«Il nostro interesse nella missione è soprattutto scientifico», precisa Fineschi. «L’Inaf ha realizzato filtri a banda spettrale molto stretta che il telescopio Aspiics utilizzerà per l’osservazione del plasma ionizzato della corona e delle tempeste solari la cui comprensione è rilevante nella meteorologia spaziale». Il coinvolgimento dei ricercatori dell’Inaf nella missione è stato fondamentale anche nella fase di calibrazione dello strumento, presso il Laboratorio spaziale “Optical Payloads System”, e continuerà anche dopo il lancio: il gruppo dell’Inaf di Torino è infatti parte del Science Working Team di Proba-3.
Webb vede bracci a spirale nell’infrarosso
media.inaf.it/2024/11/28/jwst-…
L’immagine che vi proponiamo per chiudere la giornata è stata ripresa dal telescopio spaziale James Webb e ritrae la galassia a spirale Ngc 2090, nella costellazione della Colomba. I dati – raccolti dai due strumenti Miri e NirCam – mostrano i due bracci a spirale della galassia e i vortici di gas e polvere del suo disco, con un livello di dettaglio impressionante.
Galassia a spirale con un ampio disco di forma ovale. Ha un punto luminoso al centro dal quale emergono due bracci a spirale curvilinei, di colore rosso pallido, che si avvolgono intorno alla galassia. Sono circondati da un vortice di fili luminosi e macchie di polvere, con punti di formazione stellare sparsi. Il bagliore del disco sfuma dolcemente sullo sfondo, dove si vedono alcune macchie di polvere e stelle in primo piano. Crediti: Esa/Webb, Nasa & Csa, A. Leroy
Ngc 2090 è stata una delle molte galassie studiate dal telescopio spaziale Hubble per perfezionare la misura della velocità di espansione dell’universo, la costante di Hubble. Tale misura può essere fatta osservando uno speciale tipo di stelle variabili chiamate cefeidi in galassie relativamente vicine. La misurazione basata sulle cefeidi, condotta nel 1998, ha determinato che Ngc 2090 si trova a 37 milioni di anni luce dalla Terra. Secondo le ultime misurazioni, invece, Ngc 2090 dovrebbe essere leggermente più lontana, a 40 milioni di anni luce. Oltre a questa immagine di Webb, questa settimana è stata pubblicata anche una nuova immagine Hubble di Ngc 2090.
Già prima del 1998, Ngc 2090 era stata ben studiata come esempio rilevante di formazione stellare. Descritta come una spirale “flocculante”, questa galassia presenta un disco polveroso a chiazze e bracci che si sfaldano, per lo più nemmeno visibili. Questo almeno è quello che si nota dalle immagini a luce visibile di Hubble.
Nei nuovi dati NirCam nel vicino infrarosso i bracci della spirale si vedono con notevole chiarezza. NirCam rileva anche la luce delle stelle – in blu nell’immagine – più visibile al centro della galassia. Allo stesso tempo, Miri cattura la luce nel medio infrarosso dei composti a base di carbonio – in rosso nell’immagine – lungo i numerosi filamenti di gas e polvere.
Questi dati di Ngc 2090 sono stati raccolti nell’ambito di un programma osservativo che ha catturato molte galassie simili, massicce e in formazione stellare. Tali galassie si trovano alla giusta distanza e hanno un buon livello di attività, così che gli strumenti di Webb riescono a catturare un’immagine dettagliata della loro attività di formazione stellare, regalandoci una visione unica degli ammassi di giovani stelle e delle nubi di gas in esse presenti. Questa ricca collezione di immagini così dettagliate sarà molto utile agli astronomi che studiano la formazione stellare per gli anni a venire.
Sparati da una pulsar, elettroni a decine di TeV
Rappresentazione dell’array di telescopi Hess mentre cattura la pioggia di particelle prodotte da elettroni e positroni cosmici ad alta energia e dai raggi gamma. Credito: Collaborazione Mpik/HEss
Elettroni e positroni con livelli di energia record: oltre i 10 TeV, vale a dire diecimila miliardi di elettronvolt. A intercettarli sono stati i cinque telescopi Cherenkov dell’osservatorio Hess, in Namibia. Ma qual è la loro origine? Quale acceleratore cosmico può mai averli spinti a energie così elevate? L’ipotesi presentata questa settimana su Physical Review Letters è che possa essere una pulsar. Una pulsar a noi molto vicina: appena qualche migliaio di anni luce, dicono gli autori dello studio.
Gli elettroni – così come la loro controparte d’antimateria, i positroni – sono particelle elettricamente cariche. Raggi cosmici, quando giungono fino a noi dallo spazio. E in quanto cariche sono particelle sensibili ai campi magnetici. Ciò implica che non corrono in linea retta dalla sorgente che le accelera fino ai rivelatori che le intercettano – come fanno i raggi gamma, per esempio, così come tutti gli altri fotoni, deviati soltanto dalle deformazioni dello spaziotempo – bensì seguendo i percorsi tortuosi imposti, appunto, dai campi magnetici che si trovano ad attraversare. Questo rende difficilissimo, se non impossibile, tracciarne a ritroso la traiettoria per capire da dove provengano.
Non solo: interagendo con i campi magnetici e con i fotoni che incontrano lungo la strada, i raggi cosmici perdono via via energia. E la perdono in modo particolarmente significativo proprio gli elettroni e i positroni più energetici, superiori al TeV. Ecco allora che se uno strumento rileva particelle cosmiche d’energia così elevata, come quelle viste dai cinque telescopi di Hess, con buona probabilità si tratta di elettroni e positroni che non hanno percorso distanze molto grandi. Dunque ci dev’essere qualche acceleratore naturale di particelle molto potente e molto vicino a noi.
Lo spettro d’energia degli elettroni e dei positroni cosmici analizzati. I cerchietti rossi mostrano i dati ottenuti da Hess. Crediti: Collaborazione Hess
La nuova analisi presentata dagli scienziati della collaborazione Hess potrebbe aver per la prima volta individuato la provenienza di queste particelle cosmiche. Questo grazie anzitutto all’eccezionale qualità dello spettro – vale a dire, della distribuzione energetica degli elettroni e dei positroni – ottenuto nel corso di oltre dieci anni d’osservazioni. Lo potete vedere nel grafico qui a fianco: copre un ampio intervallo di energie, fino a decine di TeV, e mostra due caratteristiche che i ricercatori hanno trovato particolarmente rivelatrici: l’anomalo piegamento attorno a 1 TeV, indicato dalla freccia verde, e l’assenza di “gobbe” o “avvallamenti” nei segmenti di curva prima e dopo questa piega.
«La nostra misura non solo fornisce dati in un intervallo di energia cruciale e precedentemente inesplorato, con un impatto sulla nostra comprensione del vicinato locale, ma è anche probabile che rimanga un punto di riferimento per i prossimi anni», sottolinea Werner Hofmann del Max Planck Institute for Nuclear Physics di Heidelberg (Germania) riferendosi all’eccezionale qualità dei dati, le cui barre d’errore sono relativamente contenute.
Rappresentazione artistica di una pulsar in rotazione, con il suo forte campo magnetico tutt’attorno. Nubi di particelle cariche si muovono lungo le linee di campo e i loro raggi gamma sono irradiati come il fascio di luce di faro dai campi magnetici. Crediti: Nasa/Goddard Space Flight Center Conceptual Image Lab
«Si tratta di un risultato importante, in quanto possiamo concludere che gli elettroni misurati provengono molto probabilmente da pochissime sorgenti in prossimità del nostro Sistema solare, fino a un massimo di qualche migliaio di anni luce di distanza: sorgenti a distanze diverse attenuerebbero notevolmente questa piega», osserva Kathrin Egberts dell’Università di Potsdam.
Dunque qualcosa nel raggio di migliaia di anni luce, non di più. L’assenza di gobbe nella curva oltre 1 TeV, in particolare l’assenza di picchi attorno a 1.4 TeV, suggerisce che non si tratti di emissione dovuta all’annichilazione di particelle di materia oscura. Al tempo stesso, l’energia estremamente elevata esclude che l’origine dell’emissione possa risiedere in processi di tipo “termico” quali la fusione nucleare all’interno delle stelle. Andando per esclusione, non rimane dunque che ipotizzare la presenza di uno o più potentissimi acceleratori all’interno della nostra galassia, molto vicini a noi. Ecco che le principali indiziate diventano così le pulsar o i resti di supernove: l’onda d’urto magnetica prodotta dal vento di materia emesso da alcuni di questi oggetti avrebbe infatti tutte le carte in regola per spiegare l’eccezionale accelerazione impressa sulle particelle cariche.
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “High-Statistics Measurement of the Cosmic-Ray Electron Spectrum with H.E.S.S.”, di F. Aharonian, F. Ait Benkhali, J. Aschersleben, H. Ashkar, M. Backes, V. Barbosa Martins, R. Batzofin, Y. Becherini, and D. Berge, et al. (H.E.S.S. Collaboration)
In una supernova esplode anche la materia oscura
Claudio Manzari, primo autore dell’articolo sulla ricerca degli assioni prodotti durante l’esplosione d una supernova. Crediti: Antonella Saracino
Le hanno dato tanti nomi nel corso degli anni, e non trovando nulla di davvero convincente, sempre più spesso ne è stata messa in discussione l’esistenza. Parliamo della materia oscura, e delle particelle che la compongono. Dopo aver cercato i cosiddetti Machos, oggetti compatti deboli e massicci, mai trovati, e dopo aver ipotizzato che a formare la materia oscura siano particelle massive debolmente interagenti (o Wimp), sembra che il miglior candidato oggi sia l’assione. Ma come fare per trovarlo? Secondo uno studio pubblicato la settimana scorsa su Physical Review Letters, “basterebbe” osservare in diretta l’esplosione di una supernova con un telescopio a raggi gamma. Gli assioni, se esistono, verrebbero prodotti in quantità abbondanti nei primi dieci secondi dopo il collasso del nucleo di una stella massiccia in una stella di neutroni, sfuggirebbero e verrebbero trasformati in raggi gamma ad alta energia nell’intenso campo magnetico della stella. Per saperne di più, Media Inaf ha contattato il primo autore dello studio: Claudio Andrea Manzari, trentenne italiano originario di Bari, e dal 2022 ricercatore postdottorato all’Università della California, a Berkeley.
Manzari, cosa sono questi assioni?
«Gli assioni sono fra i migliori candidati per la materia oscura oggi: si tratta di particelle che si inseriscono perfettamente nel Modello standard della fisica e risolvono altri enigmi irrisolti nella fisica delle particelle. Non solo, gli assioni emergono anche in modo naturale dalla teoria delle stringhe, che potrebbe fornire una descrizione quantistica della gravità. Fra tutti, una classe di modelli particolarmente motivati è l’assione di Qcd, che prende il nome dalla teoria che descrive le interazioni forti: la cromodinamica quantistica. Questo assione, fra le caratteristiche che lo rendono promettente nel contesto delle teorie fisiche oggi più accreditate, è anche un ottimo candidato di materia oscura nel range di massa 1-100 μeV (microelettronvolt)».
Se gli assioni sono le particelle di materia oscura, come si fa a “vederli” in un fenomeno astrofisico? E come si può essere sicuri che siano proprio loro?
«Una generica predizione di questi modelli è che l’assione interagisca con tutta la materia e le interazioni presenti nel Modello standard. Di conseguenza, in un campo magnetico intenso, c’è una probabilità non nulla che l’assione si converta in un’onda elettromagnetica, un fotone. Le stelle di neutroni, le supernove e altri ambienti astrofisici caratterizzati da un campo magnetico intenso sono da tempo riconosciuti come laboratori eccezionali per la ricerca di nuove particelle leggere e debolmente interagenti. In questo contesto, l’assione di Qcd rappresenta un obiettivo naturale. Gli assioni possono essere prodotti in grandi quantità nel nucleo caldo e denso della protostella di neutroni formatasi durante un’esplosione di supernova, così come nel nucleo molto denso delle stelle di neutroni. Questo permette di cercare assioni in due modi. Il primo: la produzione di assioni nel nucleo della protostella di neutroni e in generale nelle stelle di neutroni può alterare la loro evoluzione termica, influenzando così l’evoluzione prevista della luminosità. Questo vale generalmente per particelle leggere e debolmente interagenti, quindi non solamente gli assioni; il secondo, gli assioni che sfuggono dal nucleo della protostella di neutroni e delle stelle di neutroni possono successivamente convertirsi in raggi gamma in presenza di campi magnetici, generando un segnale rilevabile».
Quello di cui parlate nel vostro articolo?
«Esatto. Per le esplosioni di supernove tale segnale è predetto nello spettro di radiazione gamma, e questa predizione ha il vantaggio di riguardare unicamente gli assioni e di rappresentare, dunque, una firma sperimentale specifica di queste particelle. Una piccola precisazione: mentre gli assioni sfuggono dalla supernova a una velocità prossima alla velocità della luce, i fotoni prodotti all’interno della supernova stessa impiegano diverse ore a sfuggire da essa a causa del continuo numero di interazioni. Di conseguenza, l’eventuale osservazione di raggi gamma in concomitanza con il collasso del nucleo di una stella massiva sarebbe una chiara evidenza della presenza di assioni».
Come mai, finora, nessuno si era accorto di un contributo all’esplosione proveniente da particelle come queste?
«Fino ad ora, gli studi sull’emissione di assioni in esplosioni di supernova sono stati condotti considerando la conversione in raggi gamma nei campi magnetici del mezzo intergalattico. Con i miei collaboratori all’Università di Berkeley e al Lawrence Berkeley National Laboratory abbiamo proposto la possibilità che gli assioni, prodotti in grandi quantità durante i primi 10 secondi successivi al collasso del nucleo di una stella massiva, si convertano in raggi gamma nell’intenso campo magnetico della stella stessa. Infatti, a seguito di un’esplosione di supernova, il campo magnetico stellare impiega, per riequilibrarsi, un tempo di gran lunga maggiore del tempo impiegato dagli assioni per attraversare l’involucro della stella, che al loro passaggio incontrano l’ancora intatto campo magnetico stellare. In aggiunta, la diversa morfologia del campo magnetico stellare rispetto a quello galattico, e in particolare la maggiore intensità su scale spaziali ridotte, permette di avere una probabilità di conversione maggiore e di testare uno spazio dei parametri più ampio».
Dopo la formazione di una stella di neutroni calda e compatta dal collasso del nucleo di ferro di una stella massiccia, gli assioni dovrebbero essere prodotti in quantità immense per circa 10 secondi. Alcuni di questi assioni (a, linea rossa tratteggiata) saranno convertiti in raggi gamma nell’intenso campo magnetico della stella. Una flotta di telescopi per raggi gamma intorno alla Terra potrebbe rilevare questi raggi gamma, confermando l’esistenza degli assioni e determinandone la massa. Crediti: Benjamin Safdi, UC Berkeley
Quanta fortuna ci vuole, per riuscire a osservare un’esplosione di supernova e vedere gli assioni?
«Il problema è che, affinché il flusso di raggi gamma sia abbastanza intenso da essere rilevato, la supernova deve essere relativamente vicina, all’interno della nostra galassia, o in una delle sue galassie satelliti. Studi recenti stimano un numero da 3 a 5 esplosioni di supernove galattiche ogni 100 anni. L’ultima supernova vicina risale al 1987, nella Grande Nube di Magellano, una delle galassie satelliti della Via Lattea. All’epoca, un telescopio per raggi gamma ormai dismesso, la Solar Maximum Mission, era puntato nella direzione della supernova, ma non era abbastanza sensibile da rilevare l’intensità prevista dei raggi gamma. Se osservassimo una supernova, come la supernova 1987A, con un telescopio per raggi gamma moderno, saremmo in grado di rilevare o escludere l’esistenza dell’assione di Qcd, su gran parte del suo spazio dei parametri. Essenzialmente l’intero spazio dei parametri che non può essere esplorato in laboratorio e una buona parte di quello che può essere esplorato in laboratorio. E accadrebbe tutto in 10 secondi circa».
Da quel che ho letto, non solo le esplosioni di supernova, ma le stelle di neutroni in generale, sono buoni posti in cui cercare gli assioni. Come mai?
«Sì, le stelle di neutroni hanno molte caratteristiche interessanti. Le giovani stelle di neutroni sono oggetti estremamente densi e caldi, mentre quelle vecchie sono oggetti molto densi e freddi. Entrambe ospitano campi magnetici molto intensi. E in generale, intorno alle stelle di neutroni si trovano i campi magnetici più forti del nostro universo; come i magnetar, che possiedono campi magnetici decine di miliardi di volte più potenti di qualsiasi cosa possiamo costruire in laboratorio. Tuttavia, le stelle di neutroni meglio osservate sono piuttosto distanti e le migliori ricerche di assioni provengono dallo studio della velocità di raffreddamento delle stelle di neutroni. Un tipo di ricerca che però non è competitiva rispetto a quanto pensiamo succeda in un’esplosione di supernova».
Visto che prima citava i laboratori sulla terra, ci sono esperimenti che possono rivelare gli assioni negli acceleratori, ad esempio?
«Al momento ci sono numerosi esperimenti che cercano l’assione e altri che sono stati recentemente proposti. Come, ad esempio, il consorzio Alpha (Axion Longitudinal Plasma Haloscope), DMradio e Abracadabra, che utilizzano cavità compatte capaci di risuonare e amplificare il debole campo elettromagnetico (o fotone) prodotto da un assione di piccola massa quando si trasforma in presenza di un forte campo magnetico. Tuttavia, questi sono tutti esperimenti caratterizzati da notevoli difficoltà tecniche e anch’essi generalmente non competitivi (al momento) con le eventuali osservazioni di supernova».
Meglio concentrarsi sulle supernove, dunque. Ma ci si può preparare a un simile evento?
«Io e miei colleghi siamo preoccupati che quando finalmente si verificherà la prossima supernova galattica non saremo pronti a osservare i raggi gamma prodotti dagli assioni. Se una supernova galattica esplodesse oggi, stimiamo che la probabilità che il telescopio Fermi-Lat, ad esempio, stia osservando la regione di cielo giusta al momento giusto per catturare il lampo indotto dagli assioni (che, come dicevamo, dura circa 10 secondi) sia solo intorno al 20 per cento, tenendo conto del campo visivo limitato dello strumento e dei periodi di inattività durante la sua orbita. Stiamo discutendo con colleghi che costruiscono telescopi per raggi gamma per valutare la fattibilità di lanciare uno o una flotta di telescopi in grado di coprire il 100 per cento del cielo 24 ore su 24, 7 giorni su 7, garantendo così di catturare qualsiasi lampo di raggi gamma. Abbiamo proposto un nome per questa costellazione di satelliti dedicati ai raggi gamma a tutto cielo: Galactic Axion Instrument for Supernova (Galaxis). Sarebbe davvero un peccato se una supernova esplodesse domani e perdessimo l’opportunità di rilevare l’assione, perché una simile possibilità potrebbe non ripresentarsi per altri 50 anni».
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Supernova axions convert to gamma rays in magnetic fields of progenitor stars“, di Claudio Andrea Manzari, Yujin Park, Benjamin R. Safdi e Inbar Savoray
S’infittisce il mistero dell’omochiralità della vita
Diagramma delle versioni destrorsa e mancina dell’aminoacido isovalina, trovato nel meteorite di Murchison. Crediti: Nasa
Le proteine sono le molecole più importanti della vita, utilizzate per qualsiasi cosa, dalle strutture come i capelli agli enzimi (catalizzatori che accelerano o regolano le reazioni chimiche). Così come le 26 lettere dell’alfabeto si dispongono in combinazioni illimitate per formare le parole, la vita utilizza 20 diversi “mattoncini” fondamentali – gli aminoacidi proteinogenici – in un’enorme varietà di disposizioni per creare milioni di proteine diverse.
Alcune molecole di aminoacidi possono essere costruite in due modi, tali che ne esistono versioni speculari – come le nostre mani – ma la vita utilizza la varietà mancina. Anche se la vita basata su aminoacidi destrorsi si presume funzionerebbe altrettanto bene, in biologia le due immagini speculari sono raramente mescolate, una caratteristica questa chiamata omochiralità. Per gli scienziati il motivo per cui la vita abbia scelto la varietà mancina rispetto a quella destrorsa è un mistero.
Il Dna (acido desossiribonucleico) è la molecola che contiene le istruzioni per costruire e far funzionare un organismo vivente. Tuttavia, il Dna è complesso e specializzato; “subappalta” il lavoro di lettura delle istruzioni alle molecole di Rna (acido ribonucleico) e la costruzione delle proteine ai ribosomi.
La specializzazione e la complessità del Dna hanno indotto gli scienziati a pensare che qualcosa di più semplice lo abbia preceduto miliardi di anni fa, durante la prima evoluzione della vita. Uno dei principali candidati è l’Rna, che può sia immagazzinare informazioni genetiche sia costruire proteine. L’ipotesi che l’Rna possa aver preceduto il Dna è conosciuta come ipotesi del mondo a Rna.
Se tale ipotesi è corretta, allora forse qualcosa nell’Rna ha fatto sì che la costruzione di proteine “sinistre” è stata favorita rispetto a quelle “destre”. Tuttavia, un nuovo studio appena pubblicato su Nature Communications – basato su un esperimento di laboratorio – non supporta questa idea, infittendo il mistero del perché la vita abbia scelto le proteine mancine.
L’esperimento condotto dai ricercatori ha testato molecole di Rna che agiscono come enzimi per costruire proteine, chiamate ribozimi. Un ribozima (termine composto da acido ribonucleico ed enzima) è una molecola di Rna in grado di catalizzare una reazione chimica similmente agli enzimi, che invece sono proteine. «L’esperimento ha dimostrato che i ribozimi possono favorire sia gli amminoacidi sinistrorsi che i destrorsi, indicando che il mondo a Rna, in generale, non avrebbe necessariamente una forte inclinazione per la forma degli amminoacidi che osserviamo ora in biologia», spiega Irene Chen, della University of California, Los Angeles (Ucla).
Nell’esperimento, i ricercatori hanno simulato quelle che potevano essere le condizioni del mondo a Rna agli albori della Terra. Hanno incubato una soluzione contenente ribozimi e precursori di amminoacidi per vedere le percentuali relative dell’amminoacido destrorso e sinistrorso, la fenilalanina, che avrebbero contribuito a produrre. Hanno testato 15 diverse combinazioni di ribozimi e hanno scoperto che i ribozimi possono favorire in egual misura gli aminoacidi destrorsi o mancini. Ciò suggerisce che l’Rna non doveva avere inizialmente una predisposizione chimica per una forma di amminoacidi. Questa mancanza di preferenza mette in discussione l’idea che la vita primitiva fosse predisposta a selezionare gli amminoacidi mancini, che dominano nelle proteine moderne. «I risultati suggeriscono che l’eventuale omochiralità della vita potrebbe non essere il risultato di un determinismo chimico, ma potrebbe essere emersa attraverso pressioni evolutive successive», sostiene Alberto Vázquez-Salazar dell’Ucla.
La storia prebiotica della Terra la si potrebbe trovare ben oltre (nel senso di più lontano, nel tempo) la parte più antica della documentazione fossile, che però è stata cancellata dalla tettonica a placche, il lento movimento della crosta terrestre. Durante questo periodo, il pianeta è stato probabilmente bombardato da asteroidi, che potrebbero aver fornito alcuni dei mattoni della vita, come gli aminoacidi. Parallelamente agli esperimenti chimici, altri ricercatori che si occupano dell’origine della vita hanno esaminato prove molecolari da meteoriti e asteroidi. «Comprendere le proprietà chimiche della vita ci aiuta a sapere cosa cercare nella nostra ricerca di vita nel Sistema solare», dice Jason Dworkin, scienziato senior presso il Goddard Space Flight Center della Nasa, e direttore del Goddard’s Astrobiology Analytical Laboratory.
Dworkin è il principal investigator della missione Osiris-Rex della Nasa, che ha estratto campioni dall’asteroide Bennu e li ha portati sulla Terra l’anno scorso per ulteriori studi. «Stiamo analizzando i campioni di Osiris-Rex per verificare la chiralità dei singoli amminoacidi e, in futuro, anche i campioni provenienti da Marte saranno analizzati in laboratorio per verificare la presenza di tracce di vita, tra cui ribozimi e proteine», conclude Dworkin.
Per saperne di più:
- Leggi su Nature Communications l’articolo “Prebiotic chiral transfer from self-aminoacylating ribozymes may favor either handedness” di Josh Kenchel, Alberto Vázquez-Salazar, Reno Wells, Krishna Brunton, Evan Janzen, Kyle M. Schultz, Ziwei Liu, Weiwei Li, Eric T. Parker, Jason P. Dworkin e Irene A. Chen
Juan reshared this.
L’ultimo sguardo di Curiosity a Gediz Vallis
È uno spettacolare panorama a 360 gradi. A scattarlo, il 2 novembre 2024, il 4352esimo giorno marziano (o sol) della missione, è stato il rover Curiosity della Nasa. L’immagine, che potete ammirare qui in basso, è stata ottenuta dalla Mastcam a bordo del rover e documenta dettagliatamente il paesaggio marziano di Gediz Vallis, incluse quelle che sembrerebbero essere le tracce di un antico fiume e altre caratteristiche geologiche uniche.
Panoramica scattata dalla Mastcam a bordo del rover Curiosity il 2 novembre 2024 mentre si dirigeva verso ovest abbandonando il canale di Gediz Vallis. A destra è possibile osservare le tracce del rover sul terreno roccioso. Crediti: Nasa/Jpl-Caltech/Msss
Situato ai piedi del Monte Sharp, il canale Gediz Vallis rappresenta una delle regioni più enigmatiche di Marte. La sua formazione rimane ancora oggi un mistero per i ricercatori, così come restano avvolti nel mistero i processi che hanno portato alla formazione di varie caratteristiche all’interno del canale, tra cui il cumulo di detriti soprannominato “Pinnacle Ridge” e il vasto campo di pietre di zolfo, entrambi visibili nel nuovo panorama a 360 gradi.
Il campo di pietre di zolfo in quest’area è stato scoperto dal rover la scorsa estate. Le analisi delle pietre, condotte dagli strumenti scientifici a bordo del rover, hanno rivelato la presenza di zolfo elementare, o puro: qualcosa che nessuna missione aveva mai individuato prima su Marte.
Immagine del campo di pietre di zolfo ottenuta da Curiosity prima di lasciare il canale Gediz Vallis. Crediti: Nasa/Jpl-Caltech/Msss
Sulla terra, lo zolfo è generalmente associato a vulcani e sorgenti termali, ma sul Monte Sharp non ci sono prove che facciano pensare a una di queste cause. Lo zolfo individuato da Curiosity non è acido solfidrico, dunque non ha il classico odore di uova marce. Si tratta piuttosto di zolfo elementare, una sostanza inodore che si forma solo in una ristretta gamma di condizioni che gli scienziati non hanno mai associato alla storia di questo luogo.
«Abbiamo osservato il campo di zolfo da ogni angolazione e abbiamo cercato qualsiasi cosa che, mescolata allo zolfo, potesse darci indizi su come esso si sia formato. Abbiamo raccolto moltissimi dati e ora abbiamo un divertente rompicapo da risolvere», dice Ashwin Vasavada, ricercatore al Jet Propulsion Laboratory della Nasa e project scientist di Curiosity.
Dopo aver completato il tour del canale Gediz Vallis, Curiosity si sta ora dirigendo verso la sua prossima destinazione, una struttura geologica conosciuta con il nome di boxwork . Questa struttura, la cui forma ricorda quella di una ragnatela, si estende per circa 10-20 chilometri sulla superficie di Marte. I ricercatori ritengono che si sia formata quando i minerali trasportati dall’acqua, un tempo presente su Marte, si sono depositati nelle fratture delle rocce, l’erosione delle quali ha prodotto la forma a ragnatela tipica di questa formazione.
Immagine che mostra la struttura boxwork di Marte. Vista ottenuta dal Mars Reconnaissance Orbiter della Nasa il 10 dicembre 2006. Il rover Curiosity studierà strutture geologiche simili a queste nel 2025. Crediti: Nasa/Jpl-Caltech/University of Arizona
Le boxwork sono strutture presenti anche sulla terra. A differenza di quest’ultime, tuttavia, quelle di Marte si distinguono non solo per la loro vasta estensione, ma anche perché si sono formate durante l’ultima fase della transizione del pianeta verso un clima arido, quando l’acqua stava ormai scomparendo.
Curiosity, che da quando è atterrato su Marte (nel 2012) ad oggi ha percorso circa 33 chilometri, sta ora documentando gli ultimi dettagli del canale Gediz Vallis, prima di abbandonarlo definitivamente e intraprendere il suo viaggio verso la boxwork, un percorso che durerà mesi e che potrebbe offrire nuove rivelazioni sulla storia geologica e climatica del Pianeta rosso.
Guarda il video immersivo sul canale YouTube di NASA Jet Propulsion Laboratory:
Addio a Guido Pizzella
È venuto a mancare la settimana scorsa, nella notte tra il 21 e il 22 novembre, il professor Guido Pizzella, uno dei padri fondatori della ricerca sulle onde gravitazionali. «Guido Pizzella è stato il pioniere della ricerca delle onde gravitazionali in Italia», dice a Media Inaf il fisico Eugenio Coccia. «Aderendo alla visione di Edoardo Amaldi, dedicò tutto se stesso a questa ricerca, riuscendo a mettere già 40 anni fa l’Italia in prima fila a livello internazionale e formando una scuola di fisici che ne hanno poi raccolto il testimone».
Agli inizi della sua carriera scientifica, ricorda l’Osservatorio gravitazionale europeo Ego, Guido Pizzella lavorò con James A. Van Allen e Scott E. Forbush nello studio della magnetosfera terrestre, portando dei contributi nello studio della stabilità delle fasce di Van Allen e dei meccanismi di accelerazione delle particelle. Sulla base dell’esperienza acquisita negli Usa, rientrato in Italia si dedicò alla progettazione e realizzazione di un esperimento per la misura del vento solare usando il primo satellite dell’Esro (European Space Research Organization, ora Esa) a orbita eccentrica. Fu presidente del Gruppo italiano di fisica cosmica (Gifco) e fondatore e primo direttore del Laboratorio per il plasma nello spazio del Cnr. Assieme a Edoardo Amaldi fondò, all’inizio degli anni ‘70, la ricerca sperimentale delle onde gravitazionali in Italia, progettando e guidando la realizzazione dei rivelatori a barre risonanti Explorer e Nautilus.
Il funzionamento di Explorer, operativo al Cern dal 1990 al 2012 grazie al supporto dell’Infn, e in seguito di Nautilus, presso i Laboratori nazionali di Frascati dell’Infn fino al 2016, si basava su grandi masse (appunto, le barre) metalliche opportunamente isolate dalle vibrazioni esterne. Le deformazioni del tessuto dello spazio-tempo causate dal passaggio di un’onda gravitazionale avrebbero dovuto eccitare le frequenze di risonanza meccaniche della barra e quindi venire rivelate. Questo meccanismo si rivelò non sufficientemente sensibile per poter captare le onde gravitazionali, ma l’importanza di tali esperimenti per il progresso della ricerca sulle onde gravitazionali fu enorme: sui loro risultati si basarono Adalberto Giazotto e Alain Brillet per elaborare la proposta di costruire un rivelatore di onde gravitazionali basato invece sull’interferometria, Virgo. Assieme ai rivelatori statunitensi Ligo, Virgo ha contribuito alla prima rivelazione delle onde gravitazionali e poi allo sviluppo della nuova astronomia gravitazionale. Per questo nel 2016 la Società italiana di relatività generale e fisica della gravitazione (Sigrav) assegnò la “Medaglia Amaldi” a Pizzella e Giazotto.
«Oltre agli importanti risultati scientifici da lui conseguiti e la sua dedizione all’insegnamento», sottolinea il professor Lucio Cerrito sul sito dell’Università di Roma “Tor Vergata”, «il lascito maggiore del professor Pizzella è quello di aver costituito una scuola che ha fatto della passione per la scienza e della perseveranza la sua bandiera e che ha formato generazioni di fisici sperimentali. La sua impronta nella comunità scientifica e accademica resterà indelebile».
Bebè tra le pieghe d’un disco protoplanetario
Rappresentazione artistica del giovane pianeta appena scoperto, esposto all’osservazione da un disco detritico deformato. Crediti: Nasa/Jpl-Caltech/R. Hurt, K. Miller (Caltech/Ipac)
È nato appena tre milioni di anni fa nella nube molecolare nel Toro (Tmc), un’area a circa 430 anni luce dalla Terra, famosa per essere una “culla” di stelle. Battezzato con il nome di Iras 04125+2902 b, è senza dubbio uno dei pianeti più giovani mai osservati. A scoprirlo è stato un team di ricercatori guidati da Madyson Barber della University of North Carolina (Stati Uniti) grazie alle osservazioni del telescopio spaziale Tess (Transiting Exoplanet Survey Satellite) della Nasa, dedicato alla ricerca di esopianeti.
Con una massa di circa un terzo quella di Giove ma un diametro simile, il nuovo pianeta extrasolare è stato individuato con il metodo fotometrico del transito, cioè osservando le variazioni e le distorsioni di luce generate quando un pianeta, visto dall’osservatore, attraversa la sua stella producendo una piccola eclissi. Una tecnica, quella del transito, estremamente difficile da applicare ai sistemi stellari molto giovani come questo, ancora circondati da dischi di detriti che impediscono di distinguere il calo di luce dovuto, appunto, a eventuali pianeti in transito. Prima d’ora, infatti, gli astronomi avevano scoperto poco più di una dozzina di pianeti in transito attorno a stelle di età compresa tra i 10 e i 40 milioni di anni, ma quelli “più giovani” sono stati sempre considerati difficili da individuare, sia perché potrebbero ancora non essersi formati completamente sia, come dicevamo, perché il disco protoplanetario oscura la nostra visuale.
A rendere possibile la scoperta – pubblicata la settimana scorsa su Nature – di Iras 04125+2902 b è stata un’anomalia del disco protoplanetario. Il disco esterno appare, infatti, “piegato” rispetto all’orbita del pianeta e al disco interno. Il motivo è ancora tutto da chiarire: c’è stata una sorta di “migrazione” del pianeta che si è avvicinato alla stella alterando la struttura del disco? Oppure potrebbe esistere una stella compagna vicina a quella madre che, con l’influenza gravitazionale, potrebbe aver perturbato il sistema? O è colpa di ciò che è avvenuto nella “culla” – la densa e dinamica nebulosa Tmc di origine, dove materiale in caduta potrebbero aver piegato il disco?
Gli scienziati stanno ancora investigando le possibili cause della distorsione del disco planetario. Tuttavia, ora è possibile sperare che anche altri dischi esterni siano deformati o frammentati al punto da rendere visibili i transiti di giovani pianeti, se il disco interno è impoverito.
Porzione della Nube molecolare del Toro. Crediti: European Southern Observatory
Nel caso di Iras 04125+2902, la combinazione del metodo del transito con la misurazione del cosiddetto wobble – l’oscillazione della stella causata dalla gravità del pianeta, rilevata con il metodo delle velocità radiali – ha permesso di calcolare, oltre al diametro, anche la massa del pianeta, fornendo così dati precisi sulla sua densità e, di conseguenza, consentendo di fare ipotesi sulla sua composizione. Sappiamo così che il “neonato” è ancora caldo, conservando il calore della sua formazione, che presenta una densità molto bassa e un’atmosfera gonfia e che compie un’orbita completa in soli 8,83 giorni attorno alla sua stella ospite, una giovane protostella con una massa pari a 0,7 vote quella del Sole. Nonostante le sue dimensioni attuali, l’atmosfera del pianeta potrebbe “sgonfiarsi”, restringersi nel tempo, trasformandolo in un mini-Nettuno o in una super-Terra – le due tipologie di pianeti più comuni nella nostra galassia, ma assenti nel Sistema solare.
Nato da pochissimo, Iras 04125+2902 b ha così già aperto la strada ad altri studi per comprendere meglio le prime fasi di formazione dei pianeti, i processi che portano alla diversità dei sistemi planetari e le dinamiche ancora nascoste delle “culle stellari”.
Per saperne di più:
- Leggi su Nature l’articolo “A giant planet transiting a 3-Myr protostar with a misaligned disk” di Madyson G. Barber, Andrew W. Mann, Andrew Vanderburg, Daniel Krolikowski, Adam Kraus, Megan Ansdell et al.
Westerlund 1, il super ammasso nell’occhio di Webb
Le regioni di formazione stellare sono ambienti molto energetici e affollati, spesso nascosti dietro dense nubi di materiale interstellare. La loro vivacità plasma l’universo e la sua evoluzione e il loro studio offre opportunità uniche e preziose per la comprensione dei meccanismi che governano la nascita e l’evoluzione delle stelle e dei loro pianeti, che oggi gli astronomi riescono a esplorare con sempre maggior dettaglio grazie alla tecnologia all’avanguardia del James Webb Space Telescope (Jwst).
L’immagine mostra le immagini di Westerlund 1 ottenute con NirCam (a sinistra) e Miri (a destra). Crediti: Ewocs
Un nuovo studio in uscita su Astronomy & Astrophysics, guidato da Mario Giuseppe Guarcello, ricercatore all’Inaf di Palermo e responsabile scientifico del progetto Ewocs (Extended Westerlund 1 and 2 Open Clusters Survey), presenta le osservazioni del superammasso stellare Westerlund 1 effettuate con il Jwst utilizzando gli strumenti NirCam e Miri.
«Gli ambienti di formazione stellare vicini al Sole, diciamo entro un paio di migliaia di anni luce, sono tipicamente di bassa massa. Questo limita inevitabilmente la nostra capacità nell’esplorare l’impatto che l’ambiente di formazione stellare ha su come stelle e pianeti si formano», spiega Guarcello a Media Inaf. «Adesso, grazie a strumenti come Jwst, possiamo estendere tutto quello che conosciamo sul processo di formazione stellare e planetaria agli ambienti di formazione stellare più estremi ed energetici, tipici degli ambienti starburst».
Mario Guarcello (Inaf Palermo), primo autore dello studio. Crediti: Inaf
Le spettacolari immagini riportate nello studio mostrano alcune delle caratteristiche uniche di Westerlund 1. Le osservazioni ottenute con lo strumento NirCam evidenziano sia le stelle massicce che le centinaia di migliaia di stelle di piccola massa dell’ammasso, incluse le nane brune, stelle estremamente piccole e fredde, fornendo dati utili per comprendere l’influenza di questi ambienti sui prodotti del processo di formazione stellare.
Lo strumento Miri, invece, ha rivelato sorprendenti nebulosità nell’ammasso, nella regione circostante e attorno alle stelle massicce più evolute. Tali osservazioni mostrano le complesse interazioni tra i venti generati dalle molte stelle massicce di Westerlund 1 nelle loro fasi evolutive finali e il loro impatto sull’ambiente circostante.
Gli ambienti di formazione stellare, animati da processi complessi in grado di innescare intense fabbriche cosmiche, non sono tutti uguali. Alcuni aspetti possono variare drasticamente da una regione all’altra, come la popolazione di stelle massicce (con masse superiori a circa 10 masse solari) e la densità stellare (intesa come il numero di stelle per unità di volume). Differenze di questo tipo sono estremamente importanti, poiché le stelle massicce creano ambienti dominati da radiazioni ad alta energia e particelle relativistiche, mentre la densità stellare influisce sull’importanza delle interazioni gravitazionali tra le stelle della stessa regione.
Questi parametri hanno un impatto significativo sul processo di formazione di stelle e pianeti. «Considerando che tali ambienti», spiega Guarcello, «sono comuni nelle galassie che attraversano epoche di intensa formazione stellare, come è accaduto alla Via Lattea in passato in seguito ad episodi di merging, ad esempio, decodificare tutti questi meccanismi ha una grande importanza e questo è il grande obiettivo del progetto internazionale Ewocs a guida Inaf, che ha in Westerlund 1 e 2, due ammassi stellari molto massicci, i suoi primi target».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “EWOCS-III: JWST observations of the supermassive star cluster Westerlund 1”, di M. G. Guarcello, V. Almendros-Abad, J. B. Lovell, K. Monsch, K. Muzic, J. R. Martiinez-Galarza, J. J. Drake, K. Anastasopoulou, M. Andersen, C. Argiroffi, A. Bayo, R. Bonito, D. Capela, F. Damiani, M. Gennaro, A. Ginsburg, E. K. Grebel, J. L. Hora, E. Moraux, F. Najarro, I. Negueruela, L. Prisinzano, N. D. Richardson, B. Ritchie, M. Robberto, T. Rom, E. Sabbi, S. Sciortino, G. Umana, A. Winter, N. J. Wright e P. Zeidler
Wst, tre milioni di euro per lo studio concettuale
È stato firmato lo scorso 4 novembre il contratto per il finanziamento dello studio concettuale di un nuovo telescopio, il Wide Field Spectroscopic Telescope (Wst), che potrebbe diventare operativo in Cile dopo il 2040. Il consorzio internazionale che ha ottenuto il finanziamento proporrà Wst come progetto candidato a diventare la prossima infrastruttura osservativa dell’Eso, lo European Southern Observatory, dopo il completamento dell’Extremely Large Telescope (Elt), attualmente in costruzione nelle Ande Cilene.
L’innovativo progetto Wst per realizzare un telescopio interamente dedicato a survey spettroscopiche di tutti i tipi di oggetti celesti, dalle galassie più lontane agli asteroidi e alle comete del Sistema solare, è stato selezionato nell’ambito del programma quadro Horizon Europe dell’Unione Europea con un bando competitivo destinato alle infrastrutture di ricerca. Il consorzio internazionale alla guida del progetto Wst ha ottenuto tre milioni di euro da utilizzare nei prossimi tre anni – dal 2025 al 2027 – per completare uno studio concettuale dettagliato del nuovo telescopio.
Rendering del progetto Wst. Crediti: G.Gausachs/Wst
Il consorzio internazionale vede la partecipazione di diciannove istituti di ricerca in Europa e in Australia, con un team scientifico composto da oltre seicento membri provenienti da trentadue paesi di tutti e cinque i continenti. Alla guida del consorzio, Roland Bacon del Centre National de la Recherche Scientifique (Cnrs, Francia) e Sofia Randich dell’Istituto nazionale di astrofisica (Inaf), supportati da un project office e da uno steering commitee del quale fanno parte rappresentanti di tutti gli istituti coinvolti. L’Italia partecipa, oltre che con l’Inaf, anche con l’Università di Bologna. Nutrito è il coinvolgimento di ricercatori e ricercatrici del nostro paese in ruoli chiave e di responsabilità in Wst, sia sugli aspetti scientifici che tecnologici.
Wst promette di rispondere a una necessità individuata dalla comunità scientifica internazionale: un telescopio della classe dei 10 metri, con ampio campo visivo, dedicato in modo esclusivo all’acquisizione di spettri delle sorgenti celesti. La necessità di avere a disposizione questo tipo di struttura osservativa compare esplicitamente in molti piani scientifici strategici internazionali che individuano i punti chiave della ricerca astrofisica della prossima decade, tra cui l’Astronet Roadmap 2023 europea.
Infatti, nonostante siano in fase di costruzione telescopi da terra con specchi principali di 30-40 metri, non esiste un telescopio fra quelli esistenti, in via di sviluppo, o proposti che presenti le stesse caratteristiche di Wst, il che lo rende un unicum: l’attuale disegno prevede infatti uno specchio principale del diametro di 12 metri, il funzionamento simultaneo di uno spettrografo multi-oggetto (Mos) in grado di osservare su un ampio campo visivo (tre gradi quadrati, quanto la superficie apparente di 12 lune piene) e altissime capacità di multiplex (20mila fibre), insieme a uno spettrografo a campo integrale panoramico (Ifs) che copre una superficie apparente di cielo di 9 minuti d’arco quadrati.
Il Wst affronterà molte questioni aperte nell’astrofisica su un’ampia gamma di scale fisiche: dalla formazione delle strutture su larga scala nell’universo primordiale, all’interazione delle galassie nella rete cosmica, dalla formazione della nostra stessa galassia, fino all’evoluzione delle stelle e alla formazione di pianeti intorno a esse. Crediti: Wst/V.Springel,Max-Planck-Institut für Astrophysik/Eso
«Queste specifiche sono molto ambiziose e collocano il progetto Wst al di sopra delle infrastrutture osservative da terra esistenti e in fase di programmazione. In soli cinque anni di attività, il Mos permetterebbe di ottenere spettri di 250 milioni di galassie e 25 milioni di stelle a bassa risoluzione spettrale e più 2 milioni di stelle ad alta risoluzione, mentre l’Ifs fornirebbe 4 miliardi di spettri, grazie ai quali i ricercatori potranno ottenere una caratterizzazione completa delle sorgenti. Per mettere questi numeri in contesto, sarebbero necessari 43 anni per ottenere gli stessi 4 miliardi di spettri utilizzando la Ifs disponibile sul telescopio Vlt dell’Eso oppure 375 anni dello strumento 4Most che sta per diventare operativo, per osservare i 250 milioni di galassie, raggiungendo la stessa “profondità”», dice Roland Bacon.
«Il Wide Field Spectroscopic Telescope produrrà scienza di punta e trasformativa, e permetterà di affrontare temi e domande scientifiche rilevanti riguardanti la cosmologia; la formazione, l’evoluzione, arricchimento chimico delle galassie (inclusa la Via Lattea); l’origine di stelle e pianeti; l’astrofisica che studia eventi transienti o variabili nel tempo; l’astrofisica-multimessaggera», aggiunge Sofia Randich.
Lo studio concettuale, finanziato grazie ai fondi del programma Horizon Europe, affronterà tutti gli aspetti rilevanti necessari per avere un quadro completo: il disegno del telescopio e degli strumenti che verranno installati a bordo, l’individuazione del sito in Cile dove collocare il telescopio stesso, l’ulteriore definizione dei casi scientifici, la predisposizione di un survey plan insieme allo sviluppo di un modello operativo per il telescopio, schemi e idee innovative per l’analisi dei dati acquisiti, con lo scopo di massimizzare il ritorno scientifico.
Lo studio concettuale presterà particolare attenzione alla sostenibilità ambientale, uno dei criteri che guiderà le scelte tecnologiche e si svilupperanno soluzioni che permetteranno di mitigare le principali fonti di emissione di anidride carbonica. L’impatto ambientale previsto sia in fase di costruzione, che in fase di operatività di Wst sarà documentato in dettaglio alla fine dello studio.
Nel futuro prossimo, l’Eso aprirà una call for ideas per valutare i progetti più innovativi e promettenti dal punto di vista scientifico su cui investire dopo la realizzazione di Elt, la cui prima luce è prevista nel 2028. Se approvato, il Wst diventerebbe la prossima grande infrastruttura dell’Eso con il potenziale per affrontare questioni astrofisiche dal carattere rivoluzionario dal 2040 in poi.
Kosmos, la storia dell’universo secondo Luca Perri
È un Luca Perri da tutto esaurito quello di Kosmos, il nuovo spettacolo teatrale sulla storia dell’universo andato in scena per la prima il 4 novembre e con date programmate in tutta Italia, a oggi, fino ad aprile. Una sorta di lezione/monologo in cui l’astrofisico e divulgatore racconta come la scienza e gli scienziati sono arrivati a scoprire tutto quello che sappiamo (e non sappiamo) sul funzionamento dell’universo. Un racconto denso e condito di aneddoti, esempi e una grafica sviluppata ad hoc da Michael Lucini. Classe 1986, originario di San Giovanni Bianco, un paesino nella provincia di Bergamo, Luca Perri è un volto noto come divulgatore su diverse piattaforme: social, radio, tv, carta stampata e libri. Martedì 19 novembre Kosmos è andato in scena al teatro Camploy di Verona, noi di Media Inaf siamo andati a vederlo e abbiamo intervistato l’autore.
Perri, come riesci a fare sempre sold out con una lezione di due ore e mezza che nemmeno al secondo anno di fisica?
«Allora, intanto pensa che avrebbe potuto essere peggio, dato che ho dovuto tagliare. Diciamo che il mio obiettivo non è che le persone escano conoscendo la cosmologia, conoscendo il funzionamento perfetto della nucleosintesi. Più che passare la nozione, vorrei che le persone comprendano quanto è stato complicato fare quel tipo di ricerca, quanto effettivamente dietro a frasi che loro danno per scontate perché mediaticamente sono passate così, tipo “l’universo ha 13.8 miliardi di anni” o “l’universo si espande”, ci siano stati secoli di ragionamenti, dibattiti e ricerca. Quindi, quello che a me interessa è che escano affascinati da quanto l’umanità, da un punto scomodissimo del cosmo, sia riuscita a ricostruire e a comprendere – con tutte le domande aperte del caso. E, al contempo, che comprendano che ogni domanda aperta è una cosa bella, è uno stimolo più che un limite. Quindi, io voglio lasciare loro un messaggio più che una nozione. Poi, se loro sono incuriositi magari andranno anche ad approfondire l’argomento, o torneranno a vedere lo spettacolo – cosa che qualcuno fa. Ma quello che a me interessa è diffondere consapevolezza e fascino verso la scienza. Questo è il mio ruolo da divulgatore, perché non sono un professore».
Lo dice il titolo del tuo spettacolo, “la storia dell’universo dal big bang a oggi”. Un titolo che, scritto così, sembra quasi già visto. Allora cosa c’è di diverso, di particolare, nel tuo racconto?
«A parte la logorrea? Direi, forse proprio la contentezza nel non sapere le cose. Credo che sia una caratteristica che mi contraddistingue. C’è chi vede l’ignoranza – intesa questa come “mancanza di conoscenza” – come un limite o una cosa negativa; invece, a me è sempre sembrata un grande stimolo. Io dico sempre che l’universo è un videogioco con infiniti livelli, e siccome a me piace giocarlo, il fatto che ci siano infiniti livelli e quindi che non lo finirò mai mi dà stimoli positivi più che depressione, perché so che potrò continuare a giocarci per tutta la vita. E credo che questo sia poi lo spirito alla base dello spettacolo. È vero che la narrazione della storia dell’universo è stata fatta tante volte, ma io ho cercato di farla mia, perché come dicevo la storia dell’universo alla fine è un po’ la storia di tutti noi. Nella narrazione sono partito, anche per questo, da La Palma, che è un luogo che sento mio, che fa parte della mia storia, e da lì ho cercato di far emergere il senso di fascino e di bellezza con cui io vedo il cosmo. E quindi, anche come io vedo le cose che non sappiamo del cosmo. Credo che questa sia la caratteristica con cui descrivere il mio spettacolo: meraviglia del non sapere».
A proposito del modo con cui si affronta il non sapere, nella narrazione che proponi sembra quasi che la fisica, a volte, sia dominata dalla fantasia o da invenzioni un po’ assurde che in qualche modo però stanno in piedi…
«Che nella mia testa è vero, fra l’altro».
Luca Perri, astrofisico e divulgatore. Crediti: Matteo Foresti
Ecco. Allora, le persone potrebbero pensare che gli scienziati si sveglino il mattino con idee un po’ strampalate e campate per aria e che provino a vedere se, quasi magicamente e senza capire davvero perché, funzionano. Pensi che sia una visione corretta di quello che fa uno scienziato?
«No, no, non è una visione corretta e spero che non passi solo questo. Ma che ci sia un grado di serendipità e di fantasia, quello a me piace che passi. Cioè noi, come popolazione intendo, siamo convinti che la scienza sia una roba super razionale, che gli scienziati non siano esseri emotivi, ma in realtà non è così. Siamo semplicemente persone che seguono una passione, anche perché altrimenti – detto fra noi – la maggior parte delle volte chi ce lo fa fare di fare scienza, vista anche la situazione non proprio rosea in cui versa la ricerca. Quindi, gli scienziati sono, io dico, dei bambini mai cresciuti. I bambini – e noi per questo ci lamentiamo, sbagliando – chiedono il perché di qualunque cosa e in questo gli scienziati sono come loro. Il loro lavoro procede per curiosità successive, che significa sia porsi nuove domande sia trovare nuove risposte a vecchie domande. E per fare questo servono fantasia e creatività. Poi, ovviamente, c’è il metodo scientifico, che razionalmente dice se una cosa funziona o no; se questa previsione osservabile, magari legata a una tua idea strampalata, funziona o no. Quindi, per me gli scienziati procedono per fantasia e creatività, anche quando non credono che sia così perché altrimenti non gli verrebbero nuove idee. Dopodiché prendono cantonate – buona parte delle volte – e pian piano cercano di avvicinarsi al reale, come si diceva martedì sera in vari esempi. Quindi, che passi l’idea che a volte gli scienziati hanno idee strampalate a me non dispiace perché è vero, ma poi c’è il metodo scientifico, che è il nostro strumento più importante: non ci impedisce di sbagliare, ma rettifica e ci fa rendere conto di quanto una cosa che abbiamo detto abbia senso o meno».
Infatti, fra le parole più sentite nel tuo spettacolo di ieri ci sono “problema”, e “boh, ma funziona”.
«Che nella cosmologia è un sacco vero, lo applichiamo spesso. E non solo nella cosmologia, ma spesso quando ci sono materie così complicate – più che complesse, mi sento di dire – in cui le dimensioni di cui si parla sono enormi, ed è difficile creare esperimenti che le rappresentino. Pertanto, quando gli esperimenti ti danno una risposta che funziona, anche se non te la spieghi, la prendi così com’è. Poi, magari, cercherai di affinare la tua teoria in modo da spiegarla. Facciamo un esempio: stiamo cercando da decenni di capire cosa sia un gamma ray burst, però che il gamma ray burst ci sia e funzioni in un quel modo buffo, con un rilascio di energia così grande che all’inizio sembrava impossibile, quello è un dato che va preso. Dopodiché lo prendi e, funziona? Sì. Perché? Boh. E per rispondere ti ci spacchi su la testa per decenni».
Ma chi è Luca Perri, oltre a essere un astrofisico? Faresti sold out anche con uno show a tema ingegneristico, o gastronomico, per dire?
«Ingegneristico no, gastronomico può essere. Io sono un enorme appassionato di cucina, sia da mangiare che da cucinare. Ai miei amici, scherzando, mi piace dire che io cucino meglio di come parlo. Sono nato a Bergamo, ma sono originario per metà dalla Calabria e per metà dalla Sicilia, e con due nonne del sud che cucinavano dalla mattina alla sera, essendo io molto goloso, sono praticamente cresciuto nelle loro cucine. E questo mi ha dato una grande passione per la cucina. Quindi, io posso parlare anche dodici ore di come si cuoce questo o quell’altro, e questa è sicuramente un’altra cosa sulla quale avrei molto da dire. Oppure quella che io chiamo cinematografia nerd. Penso che, a prescindere dal mio ruolo lavorativo specifico, ovvero quello di essere astrofisico, potrei parlare con quell’entusiasmo che la gente mi riconosce di tutte le cose che mi piacciono e mi appassionano. Perché per me l’astrofisica, così come la scienza in generale, è un gioco. E se è un gioco allora mi appassiona, e soprattutto voglio che più persone possibili giochino assieme a me. Questo è lo spirito con cui affronto conferenze e spettacoli, e sarebbe lo stesso con cui affronterei un dibattito sul cibo o su guerre stellari o qualunque altra cosa nerd, fra cui la nuova traduzione del Signore degli anelli. Quest’ultima, ad esempio, è successa proprio recentemente dopo un mio spettacolo sulla scienza del Signore degli anelli: mi sono trovato in sala diverse persone dell’associazione italiana studi tolkieniani e abbiamo discusso un’ora e mezza della nuova traduzione».
Come si sono formate le lune di Marte?
Quasi tutti i pianeti del Sistema solare hanno lune. La nostra la conosciamo molto bene, ed è bellissima. Sono molto affascinanti anche i satelliti medicei di Giove – Io, Europa, Ganimede e Callisto – come pure Mimas, Encelado e Titano, lune di Saturno, Tritone di Nettuno e Caronte di Plutone. Queste sono solo alcune delle lune del Sistema solare: poche in realtà, visto che attualmente se ne contano quasi 300. Mercurio e Venere, come probabilmente sapete, non hanno lune. E Marte ne ha due che apparentemente più che mondi sferici sembrano sassi acchiappati dalla gravità del pianeta. Si chiamano Phobos e Deimos: Paura e Terrore, attendenti della divinità italica. E mentre Juice sta volando verso le lune di Giove, seguita a ruota da Europa Clipper, qui sulla Terra scienziati della Nasa hanno usato simulazioni condotte su un supercomputer per rivelare una nuova potenziale soluzione al mistero marziano della origine delle sue lune. Il primo passo, secondo i risultati, potrebbe essere stato la distruzione di un asteroide.
Simulazione della formazione delle lune marziane. Crediti: Nasa
Grazie a queste simulazioni, i ricercatori hanno riscontrato che è plausibile che un asteroide transitato vicino a Marte sia andato distrutto, con frammenti di roccia sparsi in diverse orbite. Più della metà dei frammenti sarebbe sfuggita al sistema marziano, ma altri sarebbero rimasti in orbita. I frammenti rimasti nell’orbita di Marte sono poi stati trascinati dalla gravità del pianeta e del Sole. Alcuni dei frammenti si sono scontrati l’uno con l’altro, e ogni scontro li ha ridotti ulteriormente, spargendo altri detriti. Dopo molte collisioni, i detriti potrebbero essersi depositati in un disco in orbita attorno al pianeta e, nel corso del tempo, alcuni di questi materiali si sarebbero gradualmente raggruppati, formando le due piccole lune.
Per verificare questa teoria, i ricercatori hanno esplorato centinaia di diverse simulazioni di incontro ravvicinato, variando le dimensioni, la rotazione, la velocità e la distanza dell’asteroide al momento del suo massimo avvicinamento al pianeta. Hanno utilizzato Swift, un codice di calcolo open-source ad alte prestazioni, e i sistemi informatici avanzati dell’Università di Durham, nel Regno Unito, per studiare in dettaglio sia la perturbazione iniziale sia, utilizzando un altro codice, le orbite successive dei detriti.
In un articolo pubblicato il 20 novembre sulla rivista Icarus, i ricercatori riferiscono che in molti scenari un numero sufficiente di frammenti di asteroidi sopravvive e, dopo ripetuti scontri, porta alla formazione delle lune.
Due sono le ipotesi per la formazione delle lune marziane che hanno guidato il gruppo. Una propone che asteroidi di passaggio siano stati catturati interamente dalla gravità di Marte, il che potrebbe spiegare l’aspetto delle lune, in qualche modo simile a quello degli asteroidi. L’altra sostiene che un gigantesco impatto sul pianeta abbia fatto fuoriuscire abbastanza materiale – un mix di Marte e di detriti dell’impatto – da formare un disco e, infine, le lune. Come si ritiene sia avvenuto per la Terra. Quest’ultima spiegazione rende meglio conto delle traiettorie che le lune percorrono oggi – in orbite quasi circolari che si allineano strettamente con l’equatore di Marte. Tuttavia, un impatto gigante espelle il materiale in un disco che, per lo più, rimane vicino al pianeta. Mentre le lune di Marte, in particolare Deimos, sono piuttosto lontane dal pianeta e probabilmente si sono formate lì.
Le due lune di Marte, Phobos e Deimos. Crediti: Nasa
Testare diverse idee sulla formazione delle lune di Marte è l’obiettivo principale della prossima missione Martian Moons eXploration (Mmx) guidata dalla Jaxa (Japan Aerospace Exploration Agency). Il veicolo spaziale effettuerà un’indagine su entrambe le lune per determinarne l’origine e raccoglierà campioni di Phobos da portare sulla Terra per studiarli. A bordo, uno strumento della Nasa chiamato Megane – acronimo di Mars-moon Exploration with Gamma rays and Neutrons – identificherà gli elementi chimici di cui è composto Phobos e aiuterà a selezionare i siti per la raccolta dei campioni. Capire di cosa sono fatte le lune è un indizio che potrebbe aiutare a distinguere tra l’origine asteroidale o quella da impatto.
Il prossimo passo sarà quello di simulare e studiare in modo più dettagliato l’intera cronologia della formazione delle lune, oltre che esaminare la struttura del disco stesso per fare previsioni più dettagliate su ciò che potrebbe trovare la prossima missione sulle lune di Marte.
Per saperne di più:
- Leggi su Icarus l’articolo “Origin of Mars’s moons by disruptive partial capture of an asteroid” di Jacob A. Kegerreis, Jack J. Lissauer, Vincent R. Eke, Thomas D. Sandnes e Richard C. Elphic
Guarda il video sul canale Youtube della Nasa:
In ricordo di Guido Barbiellini Amidei
Figura di spicco nel panorama della fisica internazionale, già professore di fisica generale all’Università di Trieste presso la Facoltà di ingegneria e direttore della Sezione di Trieste dell’Infn, Guido Barbiellini Amidei ci ha lasciati il 15 novembre scorso. Fondamentale il suo contributo all’ideazione, alla progettazione e alla realizzazione del telescopio spaziale per raggi gamma Agile dell’Asi e del Large Area Telescope a bordo della missione Fermi della Nasa. Lo ricordano oggi su Media Inaf alcuni fra i tanti amici e colleghi dell’Inaf che hanno lavorato con lui.
Guido Barbiellini Amidei (1936-2024)
«Nel corso degli anni, ho avuto l’onore, condiviso con tutti coloro che hanno partecipato allo sviluppo ed alla gestione del satellite Agile, di poter collaborare con il professor Guido Barbiellini Amidei. Guido è stato per tutti noi “agilisti” della prima ora, un tempo giovani, un esempio ed una figura di riferimento, sia sul piano scientifico che su quello umano. Troppo spesso, travolti dalla foga delle attività di progetto, ci dimentichiamo di quanto questo secondo aspetto sia importante proprio per il successo delle nostre imprese. Da Guido ho imparato, in modo tangibile e concreto, come l’autorevolezza, e non l’autorità conferita sulla carta, sia l’ingrediente fondamentale per condurre a buon fine progetti complessi che vedono la partecipazione di tanti attori. L’indiscussa autorevolezza del professor Barbiellini che emergeva in qualunque cosa dicesse o facesse e che suscitava in tutti gli interlocutori un profondo rispetto era sempre accompagnata da un tratto inconfondibile del suo modo di essere e di porsi, mite e pacato, che metteva chiunque a proprio agio e nella condizione di rendere il massimo. Entusiasta dei risultati del satellite Agile di cui era co-principal investigator, ha preso parte fino all’ultimo, nei limiti di quello che gli era possibile, agli sviluppi della missione dimostrando una dedizione alla scienza veramente fuori dal comune».Andrea Argan
Guido Barbiellini (secondo da sinistra) in laboratorio
«Guido era stato una presenza continua nei programmi Glast (poi diventato Fermi) e Agile. La sua profonda conoscenza della fisica andava di pari passo con la sua verve. Essere seduta di fianco a lui in una cena era una garanzia di non annoiarsi perché ci sarebbero state sicuramente belle storie raccontate con eleganza ed ironia. Durante la sua vita precedente, come fisico delle particelle, aveva conosciuto tutti i fisici più importanti e parlare delle stranezze dei premi Nobel era per lui la cosa più naturale del mondo. Era un fisico conosciuto e rispettato, ma lui prendeva la cosa con estrema naturalezza.Io l’ho conosciuto nell’ambito dei programmi di astronomia gamma come propugnatore dei nuovi rivelatori al silicio. Quando Agile venne selezionato nel 1999 come prima (e purtroppo unica) missione scientifica dell’Asi, Nanni Bignami, allora direttore scientifico di Asi, fece affidamento su di lui come padre nobile del progetto. E Guido non lo deluse, il gruppo di Trieste fece uno straordinario lavoro grazie alla sua leadership discreta ma efficace. Non ha mai smesso di occuparsi di Agile e non c’era mail inviata per discutere un articolo o per diffondere una notizia che non registrasse una sua risposta. In generale Guido si complimentava per i risultati ottenuti.
Peccato che Agile sia rientrato nell’atmosfera, se il satellite fosse stato ancora operativo sarebbe stato bello dedicarlo a Guido».
Patrizia Caraveo
«Ho conosciuto Guido prestissimo perché era il mio assistente per le esercitazioni di Fisica generale I. Quando glielo ho ricordato molto più tardi mi spiegò che l’aveva fatto solo per un anno. Tanti anni dopo lo ho re-incontrato alle riunioni del Direttivo dell’Infn, lui direttore di Infn Trieste e io rappresentante del Cnr. Ci trovammo subito in buon accordo. Nelle riunioni del Direttivo ho colto per la prima volta una particolarità del suo carattere. Spesso, e spesso da solo, chiedeva spiegazioni o correzioni rispetto alle proposte della Giunta. E non perché fosse in radicale dissenso ma perché non sopportava la minima mancanza di rigore. Anni dopo, lavorando con lui su Agile, ho scoperto questa che sembrava una contraddizione. Grande rigore sulla fisica, sulle scelte programmatiche, sul non nascondere i problemi e prendere atto della realtà, a fronte di una grande disponibilità a capire le persone (soprattutto i più giovani), ad aiutare e a trasmettere ottimismo.
Quando frequentavamo il Direttivo abbiamo simpatizzato. Qualche volta ci incontravamo anche a Frascati. Lavorava su esperimenti da acceleratore ma stava sviluppando una passione per l’astrofisica. Mi prese in simpatia perché diceva che ero il primo astrofisico che quando lui parlava di rivelatori non cercava di cambiare discorso. Temo che successivamente sia rimasto deluso dal fatto che quando parlava di modelli astrofisici ero io a cambiare discorso. Si appassionava all’astronomia gamma e ragionava sui vantaggi di fare un esperimento in cui la coppia elettrone-positrone creati dal fotone venisse tracciata con rivelatori a silicio. Seguì con entusiasmo i nostri lavori con BeppoSax sui gamma-ray burst, che erano tra gli oggetti che lo affascinavano di più.
In risposta al bando Asi per una piccola missione scientifica, ebbe un ruolo centrale nella progettazione di Agile. Lasciò volentieri la pi-ship a Marco, che era tornato da poco dagli Stati Uniti, ma assunse l’impegno di realizzare il tracciatore che era il cuore della missione. Noi non ci eravamo perché al bando avevamo proposto altro (naturalmente un polarimetro, anzi due). Quando Agile venne selezionato, in risposta a un appello di Marco, proponemmo di aggiungere un piano di rivelatori modificati per triggerarsi sugli X e un sistema di collimatori e maschere codificate di tungsteno, per aggiungere al tracciatore gamma uno strumento che facesse le immagini in raggi X. Guido fu tra i pochi che, con Marco, accettò subito l’idea, e ci aiutò col suo gruppo a entrare in una tecnica che non padroneggiavamo affatto, dai primi passi a uno strumento da volo. E per tutta la storia di Agile è stato presente con il contributo del suo gruppo ma anche con una costante presenza a trasferire la sua grande esperienza infondere sicurezza e ottimismo.
L’astrofisica era ormai la sua passione ed era sempre attento ai risultati più interessanti, fossero di Agile o della concorrenza. Tra l’altro fu lui a suggerirci di aprire la collaborazione con Ronaldo Bellazzini, che sarebbe stata così importante per i futuri successi di polarimetria X sino a Ixpe.
Un grande fisico e un gran signore ma anche un amico che ci ha fatto una continua iniezione di rigore e impegno ma anche di buon umore e simpatia».
Enrico Costa
Da sinistra, Guido Barbiellini con Pietro Ubertini ed Enrico Costa
«Ho conosciuto Guido in occasione di congressi o semplicemente riunioni di lavoro su temi di interesse comune. Senza dubbio uno scienziato valente ed esperto. Ma ho soprattutto piacere di ricordarlo come una persona di gentilezza ed eleganza squisita. Capace di creare aggregazione e spirito di collaborazione solo con la sua presenza ed affabilità. Una grande persona».Stefano Covino
«Guido è stato una presenza particolare nella nostra comunità, forse unica nel suo genere. Persona intellettualmente brillante, per ruolo, preparazione e signorilità avrebbe potuto avere un atteggiamento altero e distaccato. Invece, da scienziato curioso e attento, è stato una persona che ascoltava e dialogava con l’ultimo arrivato tra i laureandi con la stessa attenzione e credito che avrebbe dedicato a un professore ordinario, senza presunzione di superiorità, ma senza per questo mancare di rigore. La sua fiducia e attenzione verso i giovani, nonché la simpatia con la quale ci metteva a nostro (perché c’ero anch’io) agio nel parlare con lui, sono stati un esempio e uno dei suoi preziosi insegnamenti che ci hanno aiutati a crescere».
Marco Feroci
Da sinistra, Guido Di Cocco, Guido Barbiellini e Marco Tavani
«Fisico delle particelle di grande fama ed esperienza, ha condotto esperimenti molto rilevanti con la macchina Adone di Frascati prima di operare per diversi anni al Cern di Ginevra. Rientrato in Italia a inizio anni ’90 si è stabilito a Trieste. Proprio a Trieste, grazie alla sua visione scientifica e lungimiranza si è interessato all’utilizzo di rivelatori al silicio per l’astrofisica gamma. È grazie a Guido Barbiellini e al suo gruppo triestino che si sono potuti realizzare gli strumenti gamma della missione italiana Agile e della missione della Nasa Glast, poi rinominata Fermi. La sua competenza, il suo entusiasmo, la sua visione della fisica proiettata verso l’astrofisica sono stati gli elementi che hanno ispirato generazioni di colleghi e di giovani che hanno avuto la fortuna di lavorarci insieme. Intellettualmente libero e persona gentile, riusciva a trasmettere determinazione e impegno con un incredibile garbo e attenzione per i più giovani. Ci lascia un grande fisico italiano, un eccezionale collega, un carissimo amico. Che i semi da lui gettati con generosità diano frutto nelle presenti e future imprese scientifiche dell’Italia in un campo dove fisica e astrofisica si fondono per dare il meglio di sé».Marco Tavani
«Guido è stato un faro per noi “più giovani” del team Agile. Guido ascoltava sempre con estremo interesse le nostre idee durante i meeting di collaborazione, prodigo di commenti e suggerimenti (e talvolta di qualche stroncatura!), così come per i nostri articoli scientifici. Il rigore della fisica è sempre andato a braccetto con il sorriso e la sua innata signorilità. Era naturale considerarlo come un padre nobile di Agile per la sua conoscenza dei rivelatori che, sapientemente, ha trasmesso ai suoi collaboratori più stretti ed a tutti noi. Quel poco che so di rilevatori per i raggi gamma dallo spazio lo devo a Guido».
Stefano Vercellone
Qui al sesto minuto un breve intervento di Guido Barbiellini nel video del primo anno di Agile:
Sabrina Santi likes this.
L’Inaf nella Giornata contro la violenza sulle donne
Il 25 novembre si celebra la Giornata internazionale per l’eliminazione della violenza contro le donne, istituita dall’Assemblea generale delle Nazioni Unite nel 1999. La Convenzione di Istanbul definisce la violenza contro le donne come un insieme di atti, fisici o psicologici, fondati sul genere, capaci di causare sofferenze o danni, fino a minare la libertà delle donne.
“Un tocco di rosso” è il nome dell’iniziativa promossa dal Comitato unico di garanzi dell’Inaf per sensibilizzare sul tema della violenza di genere attraverso momenti di aggregazione, riflessione e dibattito. Crediti: Inaf/Luca Zappacosta
In Italia, la violenza di genere continua a rappresentare una piaga sociale profonda: solo nel 2024 sono stati registrati a oggi 104 femminicidi e, statisticamente, una donna su tre ha subito violenza almeno una volta nella propria vita.
«Occorre riflettere sul valore simbolico di questa giornata. Sebbene vi sia un dibattito, anche critico, sull’efficacia di ricorrenze simili, non possiamo sottovalutare il potere che esse hanno nel sensibilizzare l’opinione pubblica e nel generare un cambiamento culturale», spiega Alice Fattori, psicologa e referente dello Sportello d’ascolto dell’Inaf, uno strumento a disposizione di tutto il personale per la consulenza psicologica a quanti si trovino in situazione di disagio nel proprio ambito lavorativo per motivi organizzativi o relazionali. «Le neuroscienze e la psicologia sociale ci insegnano che le campagne di sensibilizzazione possono accrescere la consapevolezza, influire sui comportamenti collettivi e contribuire a ridurre la normalizzazione della violenza di genere, soprattutto per i casi in cui essa è meno esplicita».
Le forme di violenza hanno, infatti, diverse sfaccettature – da quella fisica a quella psicologica, da quella sessuale a quella economica – e spesso sono perpetrate da uomini con i quali le vittime hanno legami in contesti diversi, familiare, sociale o lavorativo. Nei luoghi di lavoro, le violenze si manifestano in molteplici forme, spaziando da episodi sottili e invisibili (micro violenza) a comportamenti apertamente aggressivi (macro violenza). Nonostante le differenze, entrambe hanno effetti significativi sul benessere psicologico e sociale dei lavoratori: approfondirne la natura è fondamentale per prevenirle e contrastarle.
Un momento di aggregazione presso l’Osservatorio astronomico di Roma. Crediti: Inaf
La micro violenza si presenta come una serie di comportamenti apparentemente innocui o socialmente accettati che, nel tempo, danneggiano la dignità delle persone; si tratta di azioni o atteggiamenti spesso non riconosciuti come aggressivi ma che creano un clima di disagio. Battute o commenti svalutanti, esclusione ripetuta da riunioni o attività di gruppo, ignorare sistematicamente le idee o i contributi di una persona, gesti passivo-aggressivi, come sbuffi o interruzioni frequenti sono esempi di micro violenza che, normalizzati nel tempo, minano la fiducia e il senso di appartenenza, rappresentando una forma di violenza psicologica a bassa intensità. La macro violenza, invece, è caratterizzata da atti espliciti e spesso intenzionali che possono includere molestie sessuali, minacce fisiche o verbali e atti di mobbing prolungato. Questi comportamenti, ben visibili e riconoscibili, sono spesso perseguibili legalmente e richiedono interventi tempestivi. Un superiore che esercita pressioni indebite, anche con minacce dirette; comportamenti espliciti di aggressione fisica o sessuale; mobbing sistematico per emarginare o isolare un lavoratore sono azioni che non solo danneggiano la persona coinvolta ma compromettono l’intero ambiente lavorativo, riducendo la produttività e la motivazione collettiva.
La violenza sulle donne non è, dunque, solo un fatto privato, ma un fenomeno strutturale che richiede interventi a livello individuale, collettivo e istituzionale. «Per affrontare questo fenomeno complesso è necessaria un’azione di rete, che coinvolga tutti gli stakeholders che devono lavorare insieme in maniera coordinata e connessa, pur nel rispetto dei rispettivi ruoli: le istituzioni, la magistratura, l’avvocatura, le associazioni antiviolenza e i Cam (Centro di ascolto uomini), le agenzie formative, a ogni livello, da quello primario all’università», dice Marina Capponi, Consigliera di fiducia dell’Inaf e dell’Università di Firenze. «Figure come le consigliere o i consiglieri di fiducia, presenti ormai in maniera diffusa nei luoghi di lavoro, sono attente sentinelle del disagio lavorativo che non infrequentemente è connesso a questioni di violenza di genere».
È fondamentale contribuire alla costruzione di una cultura della dignità umana e della parità e intraprendere azioni coordinate che comprendano la denuncia, la protezione delle vittime, ma anche e soprattutto la prevenzione. Il contrasto alla violenza di genere richiede una profonda riflessione culturale. Non basta solo punire gli abusi, ma serve intervenire alla radice, educando al rispetto e alla parità tra i sessi fin dalla prima infanzia decostruendo gli stereotipi di genere, che vedono la donna in una posizione di subordinazione rispetto all’uomo.
«Elsa Morante scriveva “È un inferno essere amati da chi non ama né la felicità, né la vita, né sé stesso, ma soltanto te”. La frase evidenzia come il seme della violenza spesso si annidi laddove la volontà di possesso e controllo esclusivo sulla donna viene scambiata per amore», ricorda Capponi. «Anche i media hanno una grande responsabilità nella costruzione di una cultura del rispetto fra generi, sia attraverso la promozione di “un’educazione sentimentale” per i giovani, improntata alla parità nelle relazioni interpersonali, sia attraverso un’informazione corretta e un linguaggio che superi gli stereotipi di genere».
«Le ricorrenze come il 25 novembre possono sì rischiare di rimanere strumenti di “marketing” o di “pinkwashing” ma offrono una visibilità e focalizzano l’attenzione su un problema che troppo spesso è trascurato o minimizzato, rappresentano uno spazio per educare, sensibilizzare e coinvolgere la comunità nella costruzione di una cultura del rispetto e della parità di genere», spiega Fattori. «Sebbene le ricorrenze da sole non possano risolvere il problema, rappresentano un passo utile per far evolvere la società verso la prevenzione, ma è dovere di ogni individuo trasformarle in occasioni di riflessione e di azione».
La cupola della sede teramana dell’Osservatorio astronomico d’Abruzzo sarà illuminata di rosso dal 22 al 30 novembre. Molte saranno le strutture Inaf che si accenderanno per ricordare l’urgenza di agire contro la violenza di genere. Crediti: Inaf/ Matteo Canzari
In questo contesto, anche l’Istituto nazionale di astrofisica si fa promotore di alcune iniziative, sensibilizzando il proprio personale e la società civile sul tema attraverso attività di riflessione, condivisione e solidarietà. Eccone un primo elenco.
A Padova, l’Osservatorio astronomico ha organizzato un momento di riflessione presso il giardino, dove verrà posata una panchina rossa – simbolo di denuncia contro la violenza sulle donne – e si terranno letture, analisi dei dati statistici, riflessioni sul tema. In serata, la Specola si illuminerà di rosso.
A Roma, oltre all’installazione di una panchina con la figura femminile di Ipazia, si terranno diverse iniziative negli spazi dell’Osservatorio astronomico di Monte Porzio Catone. L’attore e dipendente Inaf Marco Caroletta, reciterà un estratto dal saggio della pensatrice femminista statunitense Bell Hooks; verranno proiettati in loop i cortometraggi di Diletta D’Ascia, dedicati al tema della violenza di genere; la cupola dell’Istituto sarà illuminata per l’occasione. Inoltre, sarà organizzata una raccolta fondi a favore del centro antiviolenza “Giulia Cecchettin” di Grottaferrata (Roma).
Nella stessa giornata il Comitato unico di garanzia (Cug) dell’Inaf parteciperà a un evento congiunto con i Cug degli altri enti scientifici – Enea, Asi, Infn, Università La Sapienza, Iss – ospitato presso la sede dell’Agenzia spaziale italiana. Alla giornata parteciperanno le scuole secondarie superiori romane presentando elaborati sul tema. I lavori saranno aperti dai saluti istituzionali delle presidenze dei Cug promotori e sono previsti gli interventi della Polizia di Stato, del “Centro anti violenza Elena Gianini Belotti”, del “Centro uomini maltrattanti Roma: Centro Prima” e delle associazioni “Obiettivo Cinque” e “Maschile plurale”, del tiktoker Alessio Maronn. Per partecipare è necessario compilare il form indicato.
Una delle panchine dipinte dal personale Inaf che sarà posizionata nella giornata del 25 novembre. L’immagine raffigura Ipazia che, donna di lettere e di scienza, insegnò filosofia e astronomia durante l’Impero romano. E’ considerata una vittima del fanatismo religioso, dei giochi di potere e una martire del pensiero scientifico. Crediti: Inaf/Andrea Melandri
Anche a Catania l’Inaf ha previsto l’inaugurazione di una panchina rossa accompagnata da un momento di riflessione. La stessa iniziativa si replicherà a Napoli, dove, invece della panchina, si invierà un messaggio di speranza e contrasto alla violenza di genere attraverso la messa a dimora di un ulivo con targa.
Nell’area di ricerca di Bologna sarà installata una panchina rossa nell’atrio del centro congressi come punto di ritrovo – alle 12:30 di lunedì – per attività di sensibilizzazione promosse e co-organizzate dal Cnr e dalle due sedi Inaf lì presenti (Ira e Oas); tra queste la lettura dei nomi delle donne vittime di femminicidio nell’anno in corso; la raccolta delle testimonianze su un drappo rosso. In aggiunta, sarà proiettato un video con i nomi delle vittime e aperta la raccolta di documenti e informazioni che andrà avanti durante l’anno. In portineria, il personale addetto all’accoglienza nell’area sarà identificabile con un simbolo rosso e saranno messi a disposizione dei visitatori che vorranno aderire piccoli oggetti rossi da indossare.
A Firenze, contestualmente alla panchina nell’atrio principale dell’osservatorio, ci sarà la creazione di un gruppo di lavoro specifico per interagire con le associazioni del territorio per future iniziative contro la violenza di genere e per la sensibilizzazione al tema.
Dai beni dismessi dell’Osservatorio astronomico di Brera (Milano) sarà recuperata una panchina rossa che, assieme ad una nuova recante frasi sul tema, andrà all’interno del parco. L’inaugurazione delle installazioni – con la partecipazione delle associazioni locali – avverrà il 25 novembre con letture a tema e analisi delle statistiche.
A Torino, oltre ad illuminare la cupola, ci saranno momenti di riflessione e analisi dei dati sul numero di femminicidi e letture volontarie a partire dalle ore 15:22 del pomeriggio, orario scelto per ricordare il numero di telefono 1522 che risponde alle richieste di aiuto e sostegno delle vittime di violenza e stalking.
Dettaglio della panchina installata presso l’Oa di Roma con la scritta “Mirach sceat”. Mirach (in arabo, schiena) è una stella della costellazione di Andromeda indicata, nell’astronomia araba, come il “lato destro di Andromeda”. Essa viene anche chiamata “il lato delle donne incatenate”: Andromeda fu incatenata ad uno scoglio per essere data in sacrificio al nostro marino Ceto. Crediti: Inaf
Panchine, edifici, cupole in rosso e occasioni di dibattito anche nelle sedi di Cagliari, Trieste, Palermo e presso l’Osservatorio astronomico d’Abruzzo e lo Iaps di Roma.
La partecipazione a queste e altre attività è aperta a chiunque voglia aderire, e si inserisce in un contesto di inclusività e di impegno sociale, in linea con le politiche di sensibilizzazione dell’istituto per riflettere insieme e agire, anche attraverso piccoli gesti simbolici, affinché il tema della violenza di genere non rimanga un tabù, ma venga affrontato con consapevolezza, impegno e solidarietà.
Per saperne di più:
- Visita la pagina del Cug Inaf con la raccolta di approfondimenti, statistiche, associazioni e contatti utili.
- Vai alla pagina del Cug Inaf per informazioni sullo Sportello d’ascolto e sulla Consigliera di fiducia dell’Istituto
- Visita la pagina dell’Osservatorio nazionale femminicidi lesbicidi trans*cidi
- Vai alla pagina dell’Onu dedicata alla Giornata internazionale
eRosita svela la materia barionica mancante
Un team di scienziati del Max Planck Institute for Extraterrestrial Physics (Mpe) ha fatto luce su una delle componenti più sfuggenti dell’universo: il mezzo intergalattico tiepido-caldo, o Whim. Questa forma “fantasma” di materia ordinaria, ipotizzata da tempo ma rilevata raramente, si ritiene rappresenti una parte significativa dei barioni mancanti nell’universo – la materia che compone stelle, pianeti e galassie.
Guidato da Xiaoyuan Zhang di Mpe, il team ha rivelato l’esistenza di regioni ad alta temperatura e alta densità del mezzo intergalattico utilizzando i dati della eRosita All-Sky Survey (eRass). Nel corso di due anni, eRosita, un potente telescopio a raggi X a bordo della sonda Spektr-RG, ha osservato una debole emissione di raggi X provenienti dal Whim. Per amplificare questi deboli segnali, i ricercatori hanno utilizzato una tecnica nota come stacking, analizzando i dati dei raggi X in corrispondenza di oltre 7mila filamenti cosmici identificati attraverso la Sloan Digital Sky Survey (Sdss) ottica.
Questa immagine mostra la struttura 3D degli oltre 7mila filamenti cosmici identificati attraverso le indagini ottiche Sdss e la corrispondente mappa di raggi X di eRass nella stessa parte di cielo. I colori dei filamenti indicano i redshift. Crediti: Xiaoyuan Zhang, Nicola Malavasi / Mpe
«Il Whim, o warm-hot intergalactic medium, è una componente fondamentale del cosmic web, ovvero la struttura a ragnatela che forma il nostro universo. Ha una temperatura che le simulazioni ci dicono essere sui 106 – 107 Kelvin e una densità assai bassa, poco più della densità media dell’universo», spiega a Media Inaf Vittorio Ghirardini di Inaf Oas Bologna, coautore dello studio. «Il nostro lavoro, guidato da Xiaoyuan, consiste nel cercare di ottenere una misura significativa dell’emissione del Whim con osservazioni in banda X. Osservare direttamente il Whim in emissione è possibile, ma richiede un tempo di esposizione molto lungo, quindi usiamo una strategia diversa: invece che osservare singoli filamenti per tanto tempo, sfruttiamo eRosita, grazie alle scansioni del cielo che ha fatto, e il catalogo di filamenti ottici da Sdss di Malavasi et al. 2020 per sommare il piccolo segnale da tanti filamenti (la procedura di stacking) così da aumentare il rapporto segnale rumore, in modo non solo da ottenere un segnale significativo, ma anche per essere in grado di misurare le sue caratteristiche fisiche, come densità e temperatura».
A causa della sua densità estremamente bassa (in media 10 particelle per metro cubo), il Whim è infatti notoriamente difficile da osservare. «Numerosi studi hanno tentato di rilevarlo utilizzando l’assorbimento dei raggi X, l’emissione attraverso i raggi X e l’effetto Sunyaev-Zeldovich. Sebbene alcuni abbiano dato risultati modestamente positivi, sono spesso messi in discussione a causa della potenziale contaminazione e delle incertezze sistematiche. Ora, con la eRosita All-Sky Survey che fornisce i più profondi dati a raggi X a tutto cielo, abbiamo un’opportunità unica di rilevare l’emissione Whim a raggi X associata a una struttura cosmica su larga scala», osserva Esra Bulbul di Mpe.
Vittorio Ghirardini, ricercatore di Inaf Oas Bologna, coautore dello studio pubblicato su A&A. Crediti: V. Ghirardini
Come diceva Ghirardini, i filamenti cosmici – le strutture più grandi dell’universo – fanno parte dell’intricata rete del cosmic web, che collega galassie e ammassi di galassie. Fino a metà della materia dell’universo risiede nei filamenti, che occupano meno del 10 per cento del suo volume. A causa della loro geometria anisotropa e della bassa densità, i filamenti sono difficili da individuare in qualsiasi loro componente, come il gas o le galassie. «Il modo più immediato per raggiungere questo obiettivo è la distribuzione delle galassie. Una svolta si è avuta quando sono diventate accessibili le indagini spettroscopiche su larga scala, come la Sdss, e sono state abbinate a complessi algoritmi per individuare i filamenti. Questo è l’approccio che abbiamo seguito, che ci ha permesso di tracciare la posizione dei filamenti per poi consentire la loro analisi di stacking», spiega Nicola Malavasi di Mpe, che ha eseguito la ricerca dei filamenti. All’interno di questi filamenti risiede il Whim, questo gas diffuso che emette solo deboli raggi X, quasi impossibile da rilevare direttamente. Tuttavia, il sofisticato metodo di stacking del team ha permesso di ottenere un quadro più chiaro di questa emissione, rivelando la presenza di Whim e una misura della sua temperatura e densità media.
«Sorprendentemente, abbiamo avuto un forte rilevamento ai raggi X (9σ) della rete cosmica. Ma non poteva finire lì. Dovevamo anche modellare attentamente la contaminazione delle sorgenti galattiche non rilevate, che era la chiave per capire quanta parte del nostro segnale provenisse dal Whim», dice Zhang. Per questo lo studio introduce un metodo innovativo per stimare la contaminazione da aloni di raggi X non mascherati, nuclei galattici attivi e binarie X associate alle galassie nei filamenti. L’analisi ha rivelato una frazione di contaminazione del 40 per cento circa, indicando che circa il 60 per cento del segnale rilevato potrebbe provenire dal Whim, con una significatività di rilevamento di 5,4σ. Che non è poco.
Il team ha approfondito le proprietà del Whim, raccogliendo informazioni critiche sulla sua natura. I risultati della simulazione numerica indicano che il segnale a raggi X osservato proviene probabilmente da regioni con temperature dell’ordine di diversi milioni di Kelvin e densità di circa 100 particelle per metro cubo.
«I nostri nuovi risultati dimostrano l’immenso potenziale dei dati della survey di eRosita nel rilevare plasmi cosmici diffusi estremamente deboli», aggiunge Zhang. Il lavoro non solo conferma l’esistenza del Whim, ma apre anche nuove strade per studiare il ruolo di questi barioni fantasma nel modellare la struttura su larga scala dell’universo. Questa scoperta segna un significativo passo avanti nella comprensione della composizione dell’universo e della materia ordinaria nascosta che contribuisce a tessere la vasta rete cosmica.
«Nei prossimi anni, le nuove indagini spettroscopiche su larga scala sulle galassie, come Desi e 4most, forniranno mappe di galassie e filamenti più ampie e dettagliate. La sovrapposizione molto più ampia di queste indagini con i dati all-sky di eRosita garantirà un’analisi più raffinata dei dati stacked X-ray e porterà alla luce nuove informazioni sullo stato fisico del Whim», conclude Andrea Merloni, Principal Investigator di eRosita all’Mpe.
Per saperne di più:
- Leggi su Astronomy and Astrophysics l’articolo “The SRG/eROSITA all-sky survey: X-ray emission from the warm-hot phase gas in long cosmic filaments” di X. Zhang, E. Bulbul, N. Malavasi, V. Ghirardini, J. Comparat, M. Kluge, A. Liu, A. Merloni, Y. Zhang, Y. E. Bahar, E. Artis, J. S. Sanders, C. Garrel, F. Balzer, M. Brüggen, M. Freyberg, E. Gatuzz, S. Grandis, S. Krippendorf, K. Nandra, G. Ponti, M. Ramos-Ceja, P. Predehl, T. H. Reiprich, A. Veronica, M. C. H. Yeung and S. Zelmer
Ecco la stella d’un’altra galassia vista da vicino
Immagine della stella Woh G64 (cliccare per ingrandire), ripresa dallo strumento Graviti del Very Large Telescope Interferometer dello European Southern Observatory. Si tratta della prima immagine ravvicinata di una stella al di fuori della nostra galassia, la Via Lattea. La stella si trova nella Grande Nube di Magellano, a oltre 160mila anni luce da noi. L’ovale luminoso al centro è un bozzolo di polvere che avvolge la stella. L’anello ellittico più debole che la circonda potrebbe essere il bordo interno di un toro di polvere, ma sono necessarie ulteriori osservazioni per confermare questa caratteristica. Crediti: Eso/K. Ohnaka et al.
«Per la prima volta, siamo riusciti a scattare l’immagine ingrandita di una stella morente in una galassia al di fuori della Via Lattea», dice Keiichi Ohnaka, astrofisico dell’Universidad Andrés Bello in Cile. Situata a ben 160mila anni luce da noi, la stella Woh G64 è stata immortalata grazie alla notevole nitidezza offerta dal Vlti dell’Eso (il Very Large Telescope Interferometer dell’Eso, l’Osservatorio europeo australe). Le nuove osservazioni rivelano una stella che sbuffa via gas e polvere, nelle ultime fasi prima di diventare una supernova.
«Abbiamo scoperto un bozzolo ovoidale che circonda da vicino la stella», spiega Ohnaka, autore principale di uno studio che riporta le osservazioni pubblicate oggi su Astronomy & Astrophysics. «Siamo emozionati, perché questo bozzolo potrebbe essere legato alla drastica espulsione di materia dalla stella morente prima di un’esplosione di supernova».
Mentre gli astronomi hanno scattato qualche decina di immagini ingrandite di stelle della nostra galassia, svelandone le proprietà, innumerevoli altre stelle vivono in altre galassie, così lontane che osservarne anche una sola in dettaglio è stato estremamente impegnativo. Fino ad ora.
La stella appena immortalata, Woh G64, si trova all’interno della Grande Nube di Magellano, una delle piccole galassie che orbitano intorno alla Via Lattea. Gli astronomi conoscono questa stella da decenni e l’hanno opportunamente soprannominata behemoth, “il colosso”. Con una dimensione di circa duemila volte quella del Sole, Woh G64 è classificata come una supergigante rossa.
Il gruppo di Ohnaka era da tempo interessato a questa stella colossale. Nel 2005 e nel 2007 hanno utilizzato il Vlti dell’Eso nel deserto di Atacama in Cile per approfondire le caratteristiche della stella e hanno continuato a studiarla negli anni successivi. Ma una vera immagine della stella non era ancora stata scattata.
Per ottenere la tanto desiderata immagine, l’equipe ha dovuto attendere lo sviluppo di uno degli strumenti di seconda generazione del Vlti, Gravity. Dopo aver confrontato i nuovi risultati con altre precedenti osservazioni di Woh G64, sono rimasti sorpresi nello scoprire che la stella era diventata più fioca nell’ultimo decennio.
«Abbiamo scoperto che la stella ha subito un cambiamento significativo negli ultimi dieci anni, offrendoci una rara opportunità di assistere alla vita di una stella in tempo reale», spiega Gerd Weigelt, professore di astronomia presso il Max Planck Institute for Radio Astronomy di Bonn, in Germania, e coautore dello studio. Nelle fasi finali della vita, le supergiganti rosse come Woh G64 perdono i propri strati esterni di gas e polvere per mezzo di un processo che può durare migliaia di anni. «Questa stella è una delle più estreme del suo genere e qualsiasi cambiamento drastico potrebbe avvicinarla a una fine esplosiva», aggiunge il coautore Jacco van Loon, direttore dell’Osservatorio Keele presso la Keele University, Regno Unito, che osserva Woh G64 dagli anni ’90.
L’equipe ritiene che questi materiali persi possano essere responsabili anche dell’abbassamento della luminosità e della forma inattesa del bozzolo di polvere intorno alla stella. La nuova immagine mostra che il bozzolo è allungato, il che ha sorpreso gli scienziati, che si aspettavano una forma diversa in base alle osservazioni precedenti e ai modelli computazionali. Il gruppo ritiene che la forma ovoidale del bozzolo possa essere spiegata dalla perdita di materia della stella o dall’influenza di una stella compagna ancora da scoprire.
A mano a mano che la stella diventa più debole, scattare altre foto ravvicinate sta diventando sempre più difficile, persino per il Vlti. Tuttavia, gli aggiornamenti della strumentazione del telescopio già pianificati, come il futuro Gravity+, promettono di cambiare presto questa situazione. «Analoghe osservazioni di approfondimento con gli strumenti dell’Eso saranno importanti per comprendere cosa sta succedendo nella stella», conclude Ohnaka.
Fonte: comunicato stampa Eso
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Imaging the innermost circumstellar environment of the red supergiant WOH G64 in the Large Magellanic Cloud”, di K. Ohnaka1, K.-H. Hofmann, G. Weigelt, J. Th. van Loon, D. Schertl e S. R. Goldman
Guarda il servizio video su MediaInaf Tv:
youtube.com/embed/NUs8PhqPbuE?…
Desi fornisce il miglior test sulla gravità
In miliardi di anni, la gravità ha plasmato il cosmo, trasformando minuscole differenze nella quantità di materia presente nell’universo primordiale nelle galassie che vediamo oggi. Un nuovo studio, che utilizza il primo anno di dati del Dark Energy Spectroscopic Instrument (Desi), ha tracciato il modo in cui le strutture cosmiche sono cresciute negli ultimi 11 miliardi di anni, fornendo la prova a oggi più precisa di come la gravità si comporta su scale molto grandi.
La Via Lattea fa da sfondo al Nicholas U. Mayall 4-meter Telescope, situato al Kitt Peak National Observatory (KPNO) vicino a Tucson, Arizona. Crediti: Kpno/ NoirLab/ Nsf/ Aura/ R.T. Sparks
Desi è uno strumento all’avanguardia in grado di catturare la luce di cinquemila galassie contemporaneamente. È montato sul telescopio di 4 metri Nicholas U. Mayall della National Science Foundation degli Stati Uniti, presso il Kitt Peak National Observatory del NoirLab. Il programma è ora al quarto dei cinque anni di rilevamento del cielo e prevede di osservare circa 40 milioni di galassie e quasar entro la fine del progetto.
Nel nuovo studio, i ricercatori hanno scoperto che la gravità si comporta come previsto dalla teoria generale della relatività di Einstein. Il risultato convalida quello che a oggi è il modello più accreditato dell’universo e limita le teorie di gravità modificata, che sono state proposte come possibilità alternative per spiegare osservazioni inaspettate, come l’accelerazione dell’espansione dell’universo, tipicamente attribuita all’energia oscura.
La collaborazione Desi ha condiviso i risultati in diversi articoli pubblicati ieri su arXiv. La complessa analisi ha utilizzato quasi sei milioni di galassie e quasar e consente ai ricercatori di vedere fino a 11 miliardi di anni nel passato. Con un solo anno di dati, Desi ha effettuato la misura a oggi più precisa della crescita delle strutture, superando sforzi precedenti che avevano richiesto decenni per essere completati.
I risultati di oggi forniscono un’analisi estesa del primo anno di dati di Desi, che in aprile ha pubblicato la più grande mappa 3D dell’universo e ha rivelato indizi che l’energia oscura potrebbe evolversi nel tempo. I risultati di aprile riguardavano una particolare caratteristica del raggruppamento delle galassie, nota come oscillazione acustica barionica (Bao). La nuova analisi amplia la portata della precedente misurando come le galassie e la materia sono distribuite su scale diverse nello spazio. Lo studio ha anche fornito migliori vincoli sulla massa dei neutrini, che sebbene influenzino in modo molto lieve il modello di raggruppamento delle galassie, danno comunque un risultato apprezzabile con la qualità dei dati di Desi. A oggi, i vincoli di Desi sono i più stringenti e integrano quelli delle misure di laboratorio.
Una rappresentazione artistica dei dati del primo anno del Dark Energy Spectroscopic Instrument (Desi), che mostra una fetta della più ampia mappa 3D che Desi sta costruendo durante i suoi cinque anni di survey. Mappando gli oggetti in più periodi della storia cosmica con una precisione estremamente elevata, Desi permette agli astronomi di effettuare misure senza precedenti dell’energia oscura e del suo effetto sull’accelerazione dell’espansione dell’universo. Crediti: Desi Collaboration/Kpno/NoirLab/Nsf/Aura/P. Horálek/R. Proctor
Lo studio ha richiesto mesi di lavoro supplementare e controlli incrociati. Come lo studio precedente, ha utilizzato una tecnica per nascondere i risultati agli scienziati fino alla fine, attenuando eventuali pregiudizi inconsci. «Questa ricerca fa parte di uno dei progetti chiave dell’esperimento Desi: conoscere gli aspetti fondamentali del nostro universo su grandi scale, come la distribuzione della materia e il comportamento dell’energia oscura, nonché gli aspetti fondamentali delle particelle», dice Stephanie Juneau, astronoma del NoirLab Nsf e membro della collaborazione Desi. «Confrontando l’evoluzione della distribuzione della materia nell’universo con le previsioni esistenti, tra cui la teoria della relatività generale di Einstein e le teorie concorrenti, stiamo davvero restringendo le possibilità dei nostri modelli di gravità».
La collaborazione sta attualmente analizzando i primi tre anni di dati raccolti e prevede di presentare misure aggiornate dell’energia oscura e della storia dell’espansione dell’universo nel corso del prossimo anno. Questi nuovi risultati sono coerenti con le conclusioni precedenti che indicano una preferenza per un’energia oscura in evoluzione. E aumenta l’attesa per i risultati della prossima analisi.
Per saperne di più:
- Consulta la pagina con gli articoli pubblicati nella release di novembre 2024
I primi quasar sfidano i limiti della fisica
In un articolo pubblicato oggi sulla rivista Astronomy & Astrophysics emergono nuove indicazioni che suggeriscono come i buchi neri supermassicci, con masse pari ad alcuni miliardi di volte quella del Sole, si siano formati così rapidamente in meno di un miliardo di anni dopo il Big Bang. Lo studio, guidato dai ricercatori dell’Istituto nazionale di astrofisica (Inaf), analizza un campione di 21 quasar, tra i più distanti scoperti finora, osservati nei raggi X dai telescopi spaziali Xmm-Newton e Chandra. I risultati suggeriscono che i buchi neri supermassicci al centro di questi titanici quasar, i primi a essersi formati durante l’alba cosmica, potrebbero aver raggiunto le loro straordinarie masse grazie a un accrescimento molto rapido e intenso, fornendo così una spiegazione plausibile alla loro esistenza nelle prime fasi dell’universo.
Rappresentazione artistica generata tramite intelligenza artificiale di un buco nero supermassiccio in accrescimento, circondato da gas che sta cadendo al suo interno, spiraleggiando lungo la regione equatoriale (il disco di accrescimento) ed emettendo potenti venti di materia. Crediti: Emanuela Tortosa
I quasar sono galassie attive, alimentate da buchi neri supermassicci al loro centro (chiamati nuclei galattici attivi), che emettono enormi quantità di energia mentre attraggono materia. Sono estremamente luminosi e lontani da noi. Nello specifico, i quasar esaminati in questo studio sono tra gli oggetti più distanti mai osservati e risalgono a un’epoca in cui l’universo aveva meno di un miliardo di anni.
In questo lavoro, l’analisi delle emissioni nei raggi X di tali oggetti ha rivelato un comportamento completamente inaspettato dei buchi neri supermassicci al loro centro: è emerso un legame tra la forma dell’emissione in banda X e la velocità dei venti di materia lanciati dai quasar. Questa relazione associa la velocità dei venti, che può raggiungere migliaia di chilometri al secondo, alla temperatura del gas nella corona, la zona che emette raggi X più prossima al buco nero, legata a sua volta ai potenti meccanismi di accrescimento del buco nero stesso. I quasar con emissione X a bassa energia, quindi con una minore temperatura del gas nella corona, mostrano venti più veloci. Ciò è indice di una fase di crescita estremamente rapida che valica un limite fisico di accrescimento di materia denominato limite di Eddington: per questo motivo tale fase viene chiamata “super Eddington”. Viceversa, i quasar con emissioni più energetiche nei raggi X tendono a presentare venti più lenti.
«Il nostro lavoro suggerisce che i buchi neri supermassicci al centro dei primi quasar che si sono formati nel primo miliardo di anni di vita dell’universo possano effettivamente aver aumentato la loro massa molto velocemente, sfidando i limiti della fisica», dice Alessia Tortosa, prima autrice del lavoro e ricercatrice presso l’Inaf di Roma. «La scoperta di questo legame tra emissione X e venti è cruciale per comprendere come buchi neri così grandi si siano formati in così poco tempo, offrendo in tal modo un’indicazione concreta per risolvere uno dei più grandi misteri dell’astrofisica moderna».
Il risultato è stato raggiunto soprattutto grazie all’analisi di dati raccolti con il telescopio spaziale Xmm-Newton dell’Agenzia spaziale europea (Esa), che ha permesso di osservare i quasar per circa 700 ore, fornendo dati senza precedenti sulla loro natura energetica. La maggior parte dei dati, raccolti tra il 2021 e 2023 nell’ambito del Multi-Year Xmm-Newton Heritage Programme, sotto la direzione di Luca Zappacosta, ricercatore dell’Inaf di Roma, fa parte del progetto Hyperion, che si propone di studiare i quasar iperluminosi all’alba cosmica dell’universo. L’estesa campagna di osservazioni è stata guidata da un team di scienziati italiani e ha ricevuto il sostegno cruciale dell’Inaf, che ha finanziato il programma, sostenendo così una ricerca di avanguardia sulle dinamiche evolutive delle prime strutture dell’universo.
«Per il programma Hyperion abbiamo puntato su due fattori chiave: da una parte l’accurata scelta dei quasar da osservare, selezionando i titani, cioè quelli che avevano accumulato la maggior massa possibile, e dall’altra lo studio approfondito delle loro proprietà nei raggi X, mai tentato finora su così tanti oggetti all’alba cosmica», sostiene Zappacosta. «Direi proprio che abbiamo fatto bingo! I risultati che stiamo ottenendo sono davvero inaspettati e puntano tutti su un meccanismo di crescita dei buchi neri di tipo super Eddington».
Questo studio fornisce indicazioni importanti per le future missioni in banda X, come Athena (Esa), Axis e Lynx (Nasa), il cui lancio è previsto tra il 2030 e il 2040. Infatti, i risultati ottenuti saranno utili per il perfezionamento degli strumenti di osservazione di nuova generazione e per la definizione di migliori strategie di indagine dei buchi neri e dei nuclei galattici nei raggi X a epoche cosmiche più remote, elementi essenziali per comprendere la formazione delle prime strutture galattiche nell’universo primordiale.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “HYPERION. Shedding light on the first luminous quasars: A correlation between UV disc winds and X-ray continuum”, di A. Tortosa, L. Zappacosta, E. Piconcelli, M. Bischetti, C. Done, G. Miniutti, I. Saccheo, G. Vietri, A. Bongiorno, M. Brusa, S. Carniani, I.V. Chilingarian, F. Civano, S. Cristiani, V. D’Odorico, M. Elvis, X. Fan, C. Feruglio, F. Fiore, S. Gallerani, E. Giallongo, R. Gilli, A. Grazian, M. Guainazzi, F. Haardt, A. Luminari, R. Maiolino, N. Menci, F. Nicastro, P.O. Petrucci, S. Puccetti, F. Salvestrini, R. Schneider, V. Testa, F. Tombesi, R. Tripodi, R. Valiante, L. Vallini, E. Vanzella, A. Vasylenko, C. Vignali, F. Vito, M. Volonteri e F. La Franca
Federico reshared this.
Nello spazio il cervello rallenta ma non si danneggia
media.inaf.it/2024/11/20/nello…
Il corpo umano non è progettato per lo spazio. Un’affermazione ovvia, banale, penserete. In virtù della quale non dovremmo stupirci ogni qualvolta uno studio sugli effetti fisiologici della permanenza nello spazio porta una cattiva notizia. Cosa che accade quasi sempre, infatti. Ma non questa volta: un nuovo studio, pubblicato oggi su Frontiers in Physiology, afferma che non vi sarebbe alcun deterioramento delle capacità cognitive degli astronauti a causa della permanenza in microgravità. Effetti sulle prestazioni, quelli sì, e li vedremo a breve, ma tutti reversibili e che non comprometterebbero la loro capacità di prendere decisioni e svolgere al meglio i compiti assegnati.
Gli astronauti della Nasa (in senso orario dal basso) Matthew Dominick, Jeanette Epps, Sunita Williams, Mike Barratt, Tracy Dyson e Barry Wilmore, in posa per un ritratto di squadra sulla Stazione spaziale internazionale l’11 luglio 2024. Crediti: Nasa
Studiare come la permanenza nello spazio altera la fisiologia degli astronauti è importante, non solo per progettare missioni spaziali di lunga durata, ma innanzitutto per valutare quali danni – permanenti e non – possono insorgere in chi trascorre svariati mesi in orbita nella Stazione spaziale internazionale (Iss). Il corpo e il cervello degli astronauti sono infatti esposti a fattori di stress ambientale che includono condizioni di rischio intrinseche al volo spaziale (come radiazioni, alterazione della gravità, isolamento e confinamento, permanenza in ambiente ostile/chiuso e distanza dalla Terra) e sfide operative (sovraccarico di lavoro, alterazione dei ritmi circadiani, ritardi nelle comunicazioni). Fattori, questi, che potrebbero compromettere il funzionamento cognitivo, fondamentale non solo per la qualità della vita degli astronauti, ma per la loro stessa sopravvivenza in orbita, dal momento che piccoli errori nei compiti complessi che devono svolgere quotidianamente possono portare a conseguenze anche drammatiche.
Alla domanda se le prestazioni cognitive degli astronauti cambiano durante la permanenza nello spazio, tuttavia, ancora non si sa dare una risposta precisa. Ora, un gruppo di ricercatori statunitensi ha lavorato con 25 astronauti che hanno trascorso una media di sei mesi sulla Iss per esaminare se abbiano riportato cambiamenti in un ampio spettro di prestazioni cognitive. Si tratta del campione di dati più ampio sulle prestazioni cognitive di astronauti professionisti pubblicato finora.
«Dimostriamo che non vi è alcuna prova di un significativo deterioramento cognitivo o di un declino neurodegenerativo negli astronauti che trascorrono sei mesi sulla Iss», commenta Sheena Dev, ricercatrice al Behavioral Health and Performance Laboratory della Nasa e prima autrice dell’articolo. «Vivere e lavorare nello spazio non è stato associato a un diffuso deterioramento cognitivo che sarebbe sintomatico di un danno cerebrale significativo».
Un’affermazione, quella della prima autrice, che rincuora. Ma che non significa che il cervello e le funzioni cognitive rimangano inalterate durante il soggiorno nello spazio. Vediamo i dettagli. Gli astronauti, tutti rimasti non più di sei mesi in orbita bassa sulla Iss, sono stati sottoposti a una serie di test sviluppati per valutare diversi domini cognitivi. Per ognuno di questi test, i ricercatori hanno misurato la velocità e l’accuratezza delle risposte in cinque momenti: una volta prima della missione, due volte in missione (rispettivamente entro 30 giorni dal lancio e dal ritorno) e due volte dopo la missione (rispettivamente entro 10 e 30 giorni dall’atterraggio).
Nelle prime fasi del volo è stato osservato un rallentamento delle prestazioni nei test che valutavano la velocità di elaborazione, la memoria di lavoro visiva e la capacità di mantenere l’attenzione per un tempo prolungato. Non solo, è stata notata anche una diminuzione della propensione al rischio durante la fase finale del volo e quella successiva alla missione.
«Anche sulla Terra, la velocità di elaborazione, la memoria di lavoro e l’attenzione sono domini cognitivi che possono mostrare cambiamenti temporanei quando un individuo è sotto stress. Altri domini, come la memoria, sono meno vulnerabili ai fattori di stress. Per esempio, se si ha una giornata molto impegnativa, ma la notte precedente non si è riusciti a dormire molto, si può avere la sensazione che sia difficile prestare attenzione o che sia necessario più tempo per completare i compiti», spiega Dev. Come a dire che le funzionalità cerebrali più vulnerabili quando gli astronauti sono a bordo della Iss sono le stesse che, qui sulla Terra, risentono maggiormente dello stress.
Delle ripercussioni, dunque, ci sarebbero. Ma non devono preoccupare troppo, secondo quanto trovato finora. Primo perché si parla sempre di rallentamento, e non di deterioramento delle funzioni cognitive. Secondo, perché una volta rientrati sulla Terra questi cambiamenti non sono rimasti a lungo. Il rallentamento nelle prestazioni che riguardavano l’attenzione, ad esempio, è stato osservato solo all’inizio della missione, mentre il rallentamento nella velocità di elaborazione è tornato ai livelli di base dopo la fine della missione con il ritorno dell’equipaggio sulla Terra. Nel complesso, comunque, le prestazioni cognitive degli astronauti sono rimaste stabili e i ricercatori non hanno trovato prove che suggerissero danni al sistema nervoso centrale durante una missione spaziale di sei mesi.
In futuro, bisognerà capire se e come questi risultati cambiano quando si tratta di una permanenza nello spazio prolungata e a distanza maggiore dalla Terra – come nel caso di un viaggio verso la Luna o su Marte. Rimane da scoprire anche quale sia il motivo fisiologico per cui si verificano questi cambiamenti, e valutare se le prestazioni operative degli astronauti ne abbiano risentito.
Per saperne di più:
- Leggi su Frontiers in Physiology l’articolo “Cognitive Performance in ISS Astronauts on 6-month Low Earth Orbit Missions Provisionally accepted“, di Sheena Dev, Alaa M Khader, Sydney R Begerowski, Steven Anderson, Gilles Clément e Suzanne T. Bell
La madre dei buchi neri all’origine dei getti
Ha i capelli di sua madre. Può sembrare buffo ma il titolo dello studio di cui vi sto scrivendo, appena pubblicato su The Astrophysical Journal Letters, inizia proprio così: she’s got her mother’s hair. Lo studio parla di buchi neri e di improbabili getti relativistici. Parla di stelle di neutroni, anzi di proto-stelle di neutroni, la cui vita è brevissima: giusto il tempo di un’esplosione. Ma per capire cosa centri “la madre” dobbiamo fare un passo indietro.
Rendering 3D del disco di accrescimento di un buco nero in rapida rotazione e del conseguente getto alimentato da un buco nero. Crediti: Ore Gottlieb et al. (2024)
I buchi neri sono tra gli oggetti stellari più enigmatici e affascinanti dell’universo. Sebbene siano noti per la loro capacità di inghiottire tutto ciò che li circonda in un abisso gravitazionale da cui nulla può fuggire, possono anche emettere potenti getti di particelle cariche, provocando esplosioni di raggi gamma in grado di rilasciare in pochi secondi più energia di quanta ne emetta il Sole in tutta la sua vita. Ovviamente i getti non escono dal buco nero in sé, ma da materiale che interagisce con il campo gravitazionale e magnetico intorno al buco nero. L’orizzonte degli eventi resta una barriera invalicabile, ma i fenomeni al di fuori di esso sono incredibilmente energetici e complessi, e possono dare origine a strutture come, appunto, i getti relativistici. Perché si verifichi un evento così spettacolare, un buco nero deve avere un potente campo magnetico. Da dove provenga questo magnetismo, tuttavia, è un mistero di lunga data.
Utilizzando calcoli basati sulla teoria della formazione dei buchi neri, un gruppo internazionale di scienziati – tra cui l’italiano Matteo Cantiello del Flatiron Institute (New York, Usa), esperto della vita e della morte delle stelle, nonché di simulazioni degli interni stellari – guidati dal Flatiron Institute, ha finalmente trovato l’origine di questi campi magnetici: le stelle madri dei buchi neri stessi.
I buchi neri possono formarsi in seguito all’esplosione di una stella molto massiccia come supernova, lasciando dietro di sé un denso nucleo residuo chiamato proto-stella di neutroni, uno stadio iniziale e transitorio nella formazione di una stella di neutroni. «Le proto-stelle di neutroni sono le madri dei buchi neri: quando collassano, nasce un buco nero. Quello che vediamo è che quando questo buco nero si forma, il disco che circonda la proto-stella di neutroni essenzialmente ancora le sue linee magnetiche al buco nero», spiega Ore Gottlieb, primo autore dello studio e ricercatore presso il Centro di astrofisica computazionale (Cca) del Flatiron Institute di New York. «È molto emozionante capire finalmente questa proprietà fondamentale dei buchi neri e come essi alimentino i gamma ray burst, le esplosioni più luminose dell’universo».
Inizialmente gli scienziati si erano proposti di modellare l’evoluzione di una stella dalla nascita al collasso, fino alla formazione del buco nero. Con le loro simulazioni, intendevano studiare i flussi in uscita dal buco nero, come i getti che generano esplosioni di raggi gamma. Tuttavia, hanno incontrato un problema con i modelli. «Non eravamo sicuri di come modellare il comportamento di questi campi magnetici durante il collasso della stella di neutroni verso il buco nero», spiega Gottlieb.
Esistevano alcune teorie sui buchi neri e sul loro magnetismo, ma nessuna sembrava funzionare quando si teneva conto della potenza dei getti e delle esplosioni di raggi gamma. «Ciò che si pensava fosse vero è che anche i campi magnetici delle stelle collassassero, insieme alle stelle stesse, nel buco nero», spiega Gottlieb. «Durante il collasso, queste linee di campo magnetico si rafforzano perché vengono compresse, quindi la densità dei campi magnetici diventa più alta».
Il problema di questa spiegazione è che il forte magnetismo nella stella fa sì che questa perda la sua rotazione. Senza una rapida rotazione, un buco nero appena nato non può formare un disco di accrescimento – il flusso di gas, plasma, polvere e particelle intorno a un buco nero – e non potrebbe quindi produrre i getti e le esplosioni di raggi gamma che abbiamo osservato.
«Sembra che le due cose si escludano a vicenda», dice Gottlieb. «Per la formazione dei getti sono necessarie due cose: un forte campo magnetico e un disco di accrescimento. Ma un campo magnetico acquisito da una tale compressione non formerà un disco di accrescimento, e se si riduce il magnetismo al punto in cui il disco può formarsi, allora non è abbastanza forte da produrre i getti».
Infografica che spiega come i buchi neri ereditano il loro magnetismo (cliccare per ingrandire). Crediti: Lucy Reading-Ikkanda / Simons Foundation
Questo significa che dev’esserci qualcos’altro che sta accadendo e gli scienziati hanno cercato di scoprirlo andando direttamente alla fonte: il genitore del buco nero. Si sono così resi conto che forse le simulazioni di stelle di neutroni in collasso non stavano fornendo un quadro completo. «Le simulazioni precedenti hanno preso in considerazione solo stelle di neutroni isolate e buchi neri isolati, dove tutto il magnetismo viene perso durante il collasso. Tuttavia, abbiamo scoperto che queste stelle di neutroni hanno dischi di accrescimento propri, come i buchi neri», spiega Gottlieb. «E così, l’idea è che forse un disco di accrescimento può salvare il campo magnetico della stella di neutroni. In questo modo, si formerà un buco nero con le stesse linee di campo magnetico che hanno attraversato la stella di neutroni».
I calcoli del team hanno mostrato che quando una stella di neutroni collassa, prima che tutto il suo campo magnetico venga inghiottito dal buco nero appena formato, il disco della stella di neutroni viene ereditato dal buco nero e le sue linee di campo magnetico rimangono ancorate. «Abbiamo eseguito calcoli per i valori tipici che ci aspettiamo di vedere in questi sistemi e, nella maggior parte dei casi, i tempi di formazione del disco del buco nero sono più brevi di quelli in cui il buco nero perde il suo magnetismo», spiega Gottlieb. «Quindi il disco permette al buco nero di ereditare un campo magnetico dalla madre, la stella di neutroni».
Gottlieb è entusiasta della nuova scoperta non solo perché risolve un mistero di lunga data, ma anche perché apre le porte a ulteriori studi sui getti. «Questo studio cambia il modo in cui pensiamo a quali tipi di sistemi possono supportare la formazione di getti, perché se sappiamo che i dischi di accrescimento implicano il magnetismo, allora in teoria basta una formazione precoce del disco per alimentare i getti», conclude. «Penso che sarebbe interessante ripensare a tutte le connessioni tra popolazioni stellari e formazione di getti, ora che sappiamo questo».
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “She’s Got Her Mother’s Hair: Unveiling the Origin of Black Hole Magnetic Fields through Stellar to Collapsar Simulations” di Ore Gottlieb, Mathieu Renzo, Brian D. Metzger, Jared A. Goldberg e Matteo Cantiello
Come se l’universo suggerisse di fermarci
Nell’ambito della 24ª edizione del lTrieste Science+Fiction Festival, l’Istituto nazionale di astrofisica ha premiato il film U Are The Universe del regista e sceneggiatore ucraino Pavlo Ostrikov con il riconoscimento Inaf-Event Horizon. Il premio celebra opere cinematografiche che esplorano in modo innovativo tematiche scientifiche e umane, unendo sensibilità narrativa e riflessioni sul progresso scientifico, come evidenziato dalla giuria nella sua motivazione. Abbiamo parlato con il regista dell’ispirazione dietro il suo film, che mescola omaggi al cinema sci-fi classico e temi scientifici moderni, dalla solitudine nello spazio alla relazione tra umani e intelligenza artificiale, riflettendo anche sulle difficoltà della realizzazione del film in tempi di guerra, sulle sfide tecniche e la ricerca dell’autenticità.
Il regista e sceneggiatore ucraino Pavlo Ostrikov. Crediti: Trieste Science+Fiction Festival
Nel tuo film, sono evidenti riferimenti a classici della fantascienza come 2001: Odissea nello spazio, Gravity, Moon. Cosa ti ha ispirato nella realizzazione?
«Sì, è come dici tu. 2001: Odissea nello spazio è stato il mio riferimento principale ed è difficile fare un nuovo film di fantascienza senza citarlo. Quindi abbiamo incluso un omaggio esplicito a Stanley Kubrick. Tra l’altro, proprio la figlia di Stanley Kubrick era nella giuria del Festival del cinema di Strasburgo e ha visto il nostro film. Le è piaciuto e mi ha mandato una foto di quella serata con parole molto gentili, cosa che mi ha reso davvero felice. L’inclusione di questo omaggio nel film è stata importante perché, per me, Kubrick è uno dei più grandi registi di tutti i tempi. Nella realizzazione sono stato anche ispirato da film più recenti, come The Martian di Ridley Scott e Interstellar di Christopher Nolan, che amo per il loro tentativo di rendere la fantascienza più scientifica. Ho cercato di replicare questo approccio nel mio film, ma ovviamente non è un esempio perfetto, perché una tale precisione richiede un budget molto più grande. È stato un compromesso tra la mia visione di fantascienza realistica e il budget a nostra disposizione».
In interviste precedenti hai detto che l’idea originale per questo film ti è venuta mentre studiavi all’università. Quante volte hai riscritto la sceneggiatura e come si è evoluta nel tempo?
«La bozza finale è stata la numero 11, anche se ho fatto alcune correzioni significative anche nelle versioni 11.2 e 11.3. Ci sono state molte bozze, ma i cambiamenti principali sono arrivati con la terza, quando mi sono reso conto che non volevo fare un film sullo spazio senza scienza o astrofisica. È stato allora che ho ristrutturato tutto, cercando di andare oltre la semplice storia emotiva. Per esempio, ho introdotto il ritardo di comunicazione tra i due personaggi che parlano a lunghe distanze. Questo cambiamento ha complicato la sceneggiatura, ma per me era importante perché rappresentava un vero problema scientifico nello spazio. Ho rivisitato la sceneggiatura dal punto di vista dell’accuratezza scientifica, e ciò ha cambiato anche la mia visione del film. Quello che inizialmente era una commedia nella prima bozza, alla fine si è trasformato in un film drammatico.
Perché hai deciso di rappresentare l’isolamento di Andriy nello spazio in modo così personale e profondo? Cosa ti ha spinto a raccontare il suo viaggio da ultimo sopravvissuto umano?
«Volevo raccontare una storia di solitudine, e lo spazio mi sembrava l’ambiente perfetto per farlo. Per qualche motivo, penso che l’amore potrebbe essere la risposta alla solitudine, ed è per questo che la storia è come una montagna russa. L’amore non è facile, ti porta attraverso diverse emozioni: tristezza, felicità e tutto ciò che c’è in mezzo».
Il regista Pavlo Ostrikov e l’attore Volodymyr Kravchuk, che nel film che interpreta Andriy, sul set di “U are the Universe”. Crediti: immagini fornite dal regista
Tu hai studiato giurisprudenza e aviazione prima di entrare nel mondo del cinema. In che modo i tuoi studi e le tue esperienze precedenti hanno influenzato il tuo approccio alla regia, soprattutto in U Are the Universe?
«Ho studiato giurisprudenza all’Università nazionale di aviazione, e naturalmente questo mi ha ispirato e spinto a pensare allo spazio. L’università ha un grande aereo nel cortile principale, mostre e docenti fantastici, quindi questi argomenti sono sempre stati nell’aria. Al contrario, studiare giurisprudenza probabilmente è stato un errore, forse mi ha solo aiutato a gestire meglio i contratti».
Il rapporto di Andriy con Maksym, il robot AI, solleva domande interessanti sull’interazione umano-computer e sull’intelligenza artificiale. Quale messaggio volevi trasmettere attraverso questo legame, e come riflette la nostra dipendenza dalla tecnologia nel mondo reale?
«Penso che l’intelligenza artificiale potrebbe essere utile all’umanità in futuro. Spesso temiamo i robot perché abbiamo visto tanti film in cui diventano malvagi. Mentre creavamo il personaggio Maksym, abbiamo avuto molte discussioni sul tema. Personalmente, credo che l’intelligenza artificiale sarà sicura e utile, finché saremo cauti. Stiamo entrando in una nuova era tecnologica e forse avremo bisogno dell’intelligenza artificiale per fare il prossimo grande passo. Ma le emozioni sono importanti per noi, e penso che l’amore sia l’emozione più potente dell’universo. Se potessimo creare robot che sperimentano emozioni, credo saremmo più sicuri. Quindi il mio messaggio è semplice: dobbiamo trovare un modo per coesistere con l’intelligenza artificiale, ma dovremmo cercare di renderla meno razionale e più umana».
Lo scenario di una Terra distrutta e deserta aggiunge un tono pesante, quasi apocalittico alla storia. In che modo la situazione in Ucraina ha influenzato l’ambientazione e l’atmosfera del film?
«In realtà, abbiamo girato la maggior parte di questo film prima dell’invasione e della guerra in Ucraina. Nel film non specifichiamo perché la Terra è distrutta. La guerra potrebbe essere la causa, non necessariamente questa guerra, ma potrebbe simboleggiare una scintilla che porta a qualcosa di peggio. Siamo consapevoli di un cambiamento in atto, ma non in senso positivo, e amo il cinema perché può riflettere la realtà».
Hai affrontato particolari difficoltà nella creazione del film a causa della situazione in Ucraina? Come le circostanze hanno condizionato la produzione o i temi di U Are the Universe?
«Prima dell’invasione, abbiamo affrontato le difficoltà tipiche per i registi di film di fantascienza. Dopo l’invasione, tutto è cambiato. Abbiamo girato la maggior parte delle scene in anticipo, ma avevamo ancora bisogno di completare alcune scene finali nello spazio con fili e coinvolgendo un’attrice francese. Il giorno dell’invasione dovevo incontrarmi con la costumista per finalizzare il design della tuta spaziale per Katherine, ma quell’incontro è stato annullato. Abbiamo messo il progetto in pausa, poiché fare un film non era una priorità in quel momento. Dopo un anno, abbiamo pensato che dovevamo finire la storia in qualche modo e condividerla con il pubblico. Così abbiamo riunito la nostra squadra, ma naturalmente era più piccola di prima: il produttore precedente e l’attore che ha doppiato il robot Maksym hanno prestato servizio nell’esercito, il protagonista Andriy si è arruolato come volontario nell’esercito, il supervisore degli effetti speciali è stato chiamato nell’esercito e purtroppo è morto in prima linea. È stato un grosso problema riunire queste persone e per girare alcune scene è stato necessario ottenere un permesso.
Il set del film “U are the Universe” in Ucraina. Crediti: immagini fornite dal regista
Inoltre, abbiamo cercato di invitare un’attrice francese per le scene finali. Il personaggio principale francese ha accettato inizialmente, ma quando la Russia ha lanciato il primo grande attacco alle strutture energetiche, non è potuta venire all’estero per il film. Abbiamo dovuto cercare una nuova attrice e alla fine abbiamo trovato un’attrice ucraina per l’apparizione e una francese per il doppiaggio. Ulteriori difficoltà le abbiamo avuto per le scene con fili perché c’erano allarmi aerei e non sapevamo cosa fare: dobbiamo fermare gli attori? O è solo un allarme aereo? È stato surreale, non avevamo pianificato di fare il film in questo modo e nessuno di noi era preparato. Abbiamo cercato di improvvisare, ed è stato anche un incubo per il rendering delle scene Cgi (computer generated imagery), poiché convivevamo con i blackout energetici: non è una cosa buona in queste condizioni, dato che un rendering di una scena può durare uno o due giorni. Quindi tutto sembrava andare contro la realizzazione di questo film, era come se tutto l’universo ci stesse dicendo di fermarci. Ma siamo andati avanti e l’abbiamo finito. Non è un film perfetto. Vedo esattamente cosa voglio migliorare, e so che posso farlo. Ma purtroppo, è stato davvero un problema anche solo finire il film. Magari tra dieci anni potrò fare un remake con la mia visione perfetta, con il budget giusto e il tempo giusto».
I dettagli visivi e tecnici, come il design della nave spaziale e la fisica del viaggio nello spazio, sono davvero molto realistici e accurati. Che tipo di ricerca o consulenza tecnica avete fatto per ottenere tale autenticità?
«Intorno alla metà dello sviluppo della sceneggiatura, nel 2019, ho capito che volevo rendere il film più scientifico e ho invitato a collaborare due importanti astrofisici ucraini, Dmytro Yakubovskiy e Oleksii Parnovskiyi. Parlare con menti così brillanti è stato fonte d’ispirazione. Ho anche iniziato a leggere libri di astrofisica e a interessarmi profondamente alla materia. Abbiamo fatto molte ricerche. Per esempio, dovevamo trovare un modo per simulare la gravità senza un grande budget e senza poterla girare nel vuoto, quindi abbiamo pensato all’idea di utilizzare la forza centrifuga. Non potevamo permetterci un set più grande, quindi abbiamo raggiunto un compromesso cercando di mantenere il tutto il più realistico possibile».
Il set del film “U are the Universe” in Ucraina. Crediti: immagini fornite dal regista
La nave spaziale nel film appare incredibilmente autentica e dettagliata. Puoi raccontarci di più sul processo di design e costruzione?
«La creazione di un set per una nave spaziale reale ha richiesto molta attenzione. Inizialmente, avevamo considerato un setup simile a una scatola, come in Star Trek o Star Wars, ma col tempo abbiamo raffinato il concetto. Abbiamo finito per progettare una nave più simile a quella di The Martian. Poi dovevamo comprendere il sistema di propulsione, e abbiamo scelto i motori a ioni poiché sono più moderni. Abbiamo anche incluso alcuni razzi per una spinta aggiuntiva. Si è cercato di rendere tutto il più realistico possibile, dai motori agli alloggi dell’equipaggio fino ai contenitori per le scorie nucleari. Sono soddisfatto del risultato finale».
In un’era di effetti avanzati, U Are the Universe utilizza uno stile minimalista per esplorare grandi domande. Questa scelta ha inciso sull’impatto emotivo del film?
«Ottimo punto. Questa scelta di stile è stata intenzionale. Il nostro film parla degli ultimi due esseri umani superstiti, quindi non volevo che fosse epico, non è il mio approccio. Volevo raccontare una piccola storia in un universo vasto. È per questo che ci siamo concentrati su un solo personaggio, una sola nave spaziale, evitando riprese spettacolari e dinamiche come quelle nei blockbuster. Abbiamo puntato su un approccio semplice e intimo, privilegiando la profondità emotiva rispetto allo spettacolo».
La mia formazione è in scienze ambientali, quindi ho trovato intrigante il tema delle scorie nucleari nel film. Come ti è venuta quest’idea? È stato un elemento casuale o è derivato da una fonte specifica?
«Sono davvero felice che tu me lo abbia chiesto, nessuno lo aveva fatto prima. L’ispirazione iniziale è arrivata da un articolo sui depositi di scorie nucleari in Ucraina, sepolti in profondità. Mi è sembrata un’idea critica: è pericoloso semplicemente nasconderle. Con il ricordo di Chernobyl in mente, mi sono chiesto cos’altro si potesse fare, così ho immaginato una soluzione estrema: mandare i rifiuti nello spazio. Di recente, ho letto anche qualcosa sull’idea di spedire le scorie nucleari nel Sole per bruciarle; secondo me interessante ma poco praticabile. Nel mio Paese esiste una consapevolezza culturale e sociale dei rischi nucleari, quindi probabilmente ne sono stato influenzato. Non è un tema centrale nel film, ma è qualcosa che volevo includere».
Il premio Asteroide viene assegnato al miglior film di fantascienza, horror o fantasy realizzato da un regista emergente, per la sua prima, seconda o terza opera. Come ti sei sentito nel vincere l’Asteroide 2024 e altri premi al Trieste Science+Fiction Festival? Quanto vale questo riconoscimento per la tua carriera?
«Aver vinto il premio Asteroide 2024 significa molto per me. È il risultato di tutto il duro lavoro che il nostro team ha dedicato al film. Non è un risultato solo mio, ma di tutti coloro che hanno lavorato a questo progetto. La troupe sapeva del premio ed era entusiasta perché ci siamo impegnati così tanto per realizzare e condividere questa storia. La reazione positiva delle persone è stata così commovente e il premio del pubblico The Begin Hotels è come l’apice di un riconoscimento: è come se dicessero “L’abbiamo visto e ci è piaciuto”. In questo momento, provo un senso di sollievo per il fatto che il lavoro è stato portato avanti e che, alla fine, è anche piaciuto».
Il regista riceve il premio Inaf-Event Horizon da Stefano Cristiani, presidente della giuria Inaf composta da Chiara Badia, Vincenzo Cardone, Fabrizio Fiore, Paolo Soletta, Paolo Tozzi. Crediti: Trieste Science+Fiction Festival
Il film ha anche ricevuto l’Inaf-Event Horizon Award per la sua esplorazione innovativa di temi scientifici e umani. Cosa significa per te questo riconoscimento da parte della comunità scientifica, soprattutto considerando l’attenzione che il film riserva ai temi dello spazio e dell’umanità?
«Sono molto felice di questo particolare premio che ha una valenza particolare per me. Non so se tutti coloro che guarderanno il film capiranno quanto impegno abbiamo profuso per realizzare una vera fantascienza, piuttosto che una semplice storia ambientata nello spazio. Abbiamo fatto ricerche scientifiche approfondite per rendere il film il più realistico possibile. Ricevere non uno ma ben tre premi al Trieste Science+Fiction Festival è stato incredibile. Ricordo ancora quel momento: è stato davvero l’attimo più felice in questa fase della mia vita. E, per noi, attimi così sono rari in questo preciso momento storico».
Per saperne di più:
- Visita il portale del Festival Science+Fiction di Trieste
Guarda il trailer di U Are The Universe:
Hubble racconta la storia di una sopravvissuta
Rappresentazione artistica della Grande Nube di Magellano – o Lmc, in primo piano – mentre attraversa l’alone gassoso della ben più massiccia Via Lattea. L’incontro ha spazzato via la maggior parte dell’alone sferico di gas che circonda la Lmc, come illustra la scia di gas che ricorda la coda di una cometa. Rimane un alone compatto che non dovrebbe andare perduto. Grazie alla luce di 28 quasar sullo sfondo, si è riusciti a studiare l’alone. Crediti: Nasa, Esa, Ralf Crawford (Stsci)
La Grande Nube di Magellano, conosciuta come Lmc, è una delle galassie più vicine alla Via Lattea. Dal nostro emisfero non riusciamo a vederla: si staglia nel cielo notturno meridionale con un diametro apparente 20 volte superiore a quello della Luna piena. Molti ricercatori ritengono che non stia orbitando attorno alla nostra galassia, ma che sia solo di passaggio. Pensano che si sia avvicinata solo recentemente alla Via Lattea, molto più massiccia, e che questo passaggio abbia spazzato via la maggior parte dell’alone sferico di gas che circonda la Lmc. Ora, per la prima volta, gli astronomi sono riusciti a misurare le dimensioni di questo alone, servendosi del telescopio spaziale Hubble.
In un nuovo studio in uscita su The Astrophysical Journal Letters, i ricercatori hanno riportato come l’alone della Lmc sia estremamente piccolo, circa 50mila anni luce di diametro: una dimensione circa 10 volte inferiore a quella degli aloni di altre galassie che hanno la stessa massa della Lmc.
Ecco, secondo gli autori, la sua compattezza evoca la storia del suo incontro con la Via Lattea. «La Lmc è una sopravvissuta», dice Andrew Fox di Aura/Stsci per l’Agenzia spaziale europea a Baltimora, principal investigator delle osservazioni. «Anche se ha perso molto gas, ne ha ancora abbastanza per continuare a formare nuove stelle. Quindi, si possono ancora creare nuove regioni di formazione stellare. Una galassia più piccola non avrebbe resistito: non sarebbe rimasto gas, ma solo un insieme di vecchie stelle rosse».
Quindi, anche se un po’ malridotta, la Lmc ha conservato un alone compatto di gas, che non sarebbe stato in grado di trattenere se fosse stata meno massiccia. La Lmc ha una massa pari al 10 per cento di quella della Via Lattea, il che la rende più pesante della maggior parte delle galassie nane. «A causa dell’alone gigante della Via Lattea, il gas della Lmc viene ridotto», spiega Sapna Mishra dello Stsci, prima autrice dell’articolo che racconta questa scoperta. «Ma anche con questa interazione catastrofica con la Via Lattea, la Lmc è in grado di conservare il 10 per cento del suo alone grazie alla sua massa elevata».
Nel pannello superiore, al centro del lato destro, la Lmc arriva contro l’alone molto più massiccio della nostra galassia. Nel riquadro centrale, una parte dell’alone viene strappata e soffiata indietro in una coda di gas in movimento che alla fine “pioverà” sulla Via Lattea. Il pannello inferiore mostra la progressione di questa interazione, mentre la coda della Lmc diventa più definita. Rimane un alone compatto della Lmc. Crediti: Nasa, Esa, Ralf Crawford (Stsci)
La maggior parte dell’alone della Lmc è stato spazzato via da un fenomeno chiamato ram-pressure stripping. L’ambiente denso della Via Lattea spinge contro la Lmc in arrivo e crea una scia di gas che segue la galassia nana, come la coda di una cometa. «Mi piace pensare alla Via Lattea come a un gigantesco asciugacapelli che soffia via il gas dalla Lmc mentre si avvicina», dice Fox. «La Via Lattea sta spingendo indietro con tale forza che la ram-pressure ha portato via la maggior parte della massa originale dell’alone della Lmc. Ne rimane solo un po’, ed è questo avanzo piccolo e compatto che vediamo ora». Man mano che questa pressione spinge via gran parte dell’alone della Lmc, il gas rallenta e alla fine “ricadrà” nella Via Lattea. Ma poiché la Lmc ha appena superato il suo massimo avvicinamento alla Via Lattea e si sta muovendo di nuovo verso l’esterno nello spazio profondo, gli scienziati non si aspettano che l’intero alone vada perso.
Per condurre questo studio, il team ha analizzato le osservazioni ultraviolette del Mikulski Archive for Space Telescopes dell’Stsci. La maggior parte della luce ultravioletta è bloccata dall’atmosfera terrestre, quindi non può essere osservata con i telescopi a terra. Il telescopio spaziale Hubble è l’unico telescopio spaziale attualmente in grado di rilevare queste lunghezze d’onda.
Il team ha analizzato l’alone utilizzando la luce proveniente da 28 quasar sullo sfondo, nuclei galattici attivi estremamente luminosi. Brillando come fari, hanno permesso di “vedere” indirettamente il gas dell’alone circostante la galassia nana, grazie all’assorbimento della loro luce. Per farlo, hanno utilizzato i dati dello spettrografo Cosmic Origins Spectrograph (Cos) per rilevare la presenza del gas dell’alone in base al modo in cui assorbe determinati colori della luce emessa dai quasar sullo sfondo. Grazie a Cos è stata misurata la velocità del gas intorno alla Lmc, che ha permesso di determinare le dimensioni dell’alone.
Per la sua massa e la vicinanza alla Via Lattea, la Lmc è un laboratorio astrofisico unico. Vedere l’interazione tra la Lmc e la nostra galassia aiuta gli scienziati a capire cosa è accaduto nell’universo primordiale, quando le galassie erano più vicine tra loro. Inoltre, mostra quanto sia disordinato e complicato il processo di interazione tra le galassie.
Il team intende studiare anche la parte anteriore dell’alone della Lmc, un’area che non è ancora stata esplorata. «In questo nuovo programma, sonderemo cinque linee di vista nella regione in cui l’alone della Lmc e quello della Via Lattea si scontrano», conclude il co-autore Scott Lucchini del Center for Astrophysics | Harvard & Smithsonian. «Questa è la regione in cui gli aloni sono compressi, come due palloncini che si spingono l’uno contro l’altro».
Per saperne di più:
- Leggi su arXiv il pre-print dell’articolo in uscita su The Astrophysical Journal Letters “The Truncated Circumgalactic Medium of the Large Magellanic Cloud” di Sapna Mishra, Andrew J. Fox, Dhanesh Krishnarao, Scott Lucchini, Elena D’Onghia, Frances H. Cashman, Kathleen A. Barger, Nicolas Lehner e Jason Tumlinson
Telescopio Roman, tutti gli specchi al loro posto
La scorsa settimana, la Nasa ha messo un’altra spunta nella to do list per la costruzione del telescopio spaziale Nancy Grace Roman: l’Optical Telescope Assembly. È stato cioè completato il montaggio e l’allineamento delle ottiche del telescopio, che comprendono uno specchio primario di 2,4 metri, nove altri specchi, le strutture di supporto e l’elettronica. Il tutto era stato consegnato il 7 novembre alla più grande camera bianca del Goddard Space Flight Center della Nasa a Greenbelt, nel Maryland, dove si sta costruendo l’osservatorio.
In questa foto, l’ingegnere ottico Bente Eegholm ispeziona la superficie dello specchio primario del telescopio spaziale Nancy Grace Roman della Nasa. Questo specchio di 2,4 metri è uno dei componenti principali del gruppo ottico del telescopio, che contiene anche altri nove specchi, strutture di supporto ed elettronica. Crediti: Nasa/Chris Gunn
Il telescopio, il cui lancio è previsto entro maggio 2027, raccoglierà la luce a lunghezze d’onda infrarosse e la invierà a due strumenti: il Wide Field Instrument, una fotocamera a infrarossi da 300 megapixel, e il coronografo. Progettato e costruito dalla L3Harris Technologies di Rochester, New York, la fase di Optical Telescope Assembly prevedeva di assemblare le ottiche chiave (compreso lo specchio primario) messe a disposizione della Nasa dal National Reconnaissance Office. L3Harris ha quindi rimodellato lo specchio e costruito l’hardware per garantire la conformità alle specifiche di Roman per le osservazioni in un ampio intervallo di lunghezze d’onda infrarosse, e con un’elevata sensibilità.
l team di Goddard ha lavorato a stretto contatto con L3Harris per garantire il rispetto dei rigorosi requisiti richiesti alle ottiche e per l’integrazione del telescopio nel resto dell’osservatorio di Roman. Requisiti, quelli sulle ottiche, che devono essere rispettati scrupolosamente al fine di garantire la qualità dei risultati della missione, e che hanno richiesto uno scambio costate e continuo fra l’azienda costruttrice e il team di Roman alla Nasa. Ogni componente ottica è stata testata singolarmente prima di essere assemblata. Sono poi stati eseguiti dei test per verificare il cambiamento nell’allineamento degli specchi del telescopio che si verificherà quando il telescopio raggiungerà la sua temperatura operativa nello spazio. Poi, il telescopio è stato sottoposto a test che simulano le scosse estreme e le intense onde sonore associate al lancio. Scosse che muoveranno, ad esempio, gli attuatori, dei piccoli componenti che regolano la posizione e la forma di alcuni specchi nello spazio. Il team ha anche misurato i gas che verranno rilasciati nel passaggio dalla normale pressione dell’aria al vuoto e che, se non controllati attentamente, potrebbero contaminare il telescopio o gli strumenti. Infine, il telescopio è stato sottoposto a un test di vuoto termico della durata di un mese, per garantire che resista alla temperatura e alla pressione dello spazio. È stata verificata anche la funzionalità dei 100 riscaldatori di Roman, installati per mantenere costante la temperatura entro una frazione di grado. Una condizione, la stabilità termica, cruciale affinché il telescopio abbia una messa a fuoco stabile, e produca quindi immagini ad alta risoluzione sempre nitide.
Ora che il gruppo ottico è arrivato a Goddard, sarà installato assieme agli strumenti sull’Instrument Carrier di Roman, una struttura portastrumenti che manterrà il telescopio, le ottiche e i due strumenti otticamente allineati. La scatola elettronica – essenzialmente il cervello del telescopio – sarà infine montata all’interno del veicolo spaziale insieme agli altri componenti elettronici di Roman.
«Abbiamo un telescopio di prim’ordine, ben allineato e con ottime prestazioni ottiche alle fredde temperature a cui sarà sottoposto nello spazio», dice Bente Eegholm, responsabile delle ottiche nella fase di Optical Telescope Assembly presso il Goddard Space Flight Center. «Ora attendo con ansia la fase successiva, in cui il telescopio e gli strumenti verranno assemblati per formare l’osservatorio Roman».
Sul Roman Telescope, guarda su MediaInaf Tv questo servizio del 2022 di Stefano Parisini:
Principio antropico? C’è chi dice no
Un sistema di tre stelle, visto dal telescopio spaziale Hubble, che può ospitare pianeti potenzialmente abitabili. Il sistema di Alpha Centauri, a noi vicino, comprende tre stelle. Crediti: Nasa, Esa, G. Duchene (Universite de Grenoble I); Elaborazione immagini: Gladys Kober (Nasa/Università Cattolica d’America)
Le possibilità di vita intelligente nell’universo – e in altri ipotetici universi, al di fuori del nostro – ora possono essere stimate grazie a un modello teorico elaborato da tre astrofisici, tra cui l’italiano Daniele Sorini, ricercatore all’Istituto di cosmologia computazionale dell’Università di Durham. A distanza di oltre 60 anni dalla definizione della famosa equazione di Drake, il nuovo modello si concentra sulle condizioni create dall’accelerazione dell’espansione dell’universo, presumibilmente guidata dall’energia oscura, e sulla quantità di stelle formate. Poiché le stelle sono un prerequisito per l’emergere della vita come la conosciamo, il modello può quindi essere usato per stimare la probabilità di esistenza di vita intelligente nell’universo. Per addentrarsi nel modello e cercare di capire ciò che i ricercatori hanno concluso, Media Inaf ha intervistato Sorini, primo autore dello studio pubblicato su Monthly Notices of the Royal Astronomical Society.
Sorini, i nostri lettori sono molto affezionati all’equazione di Drake e ora sembra che voi abbiate trovato qualcosa di meglio. Qual è la differenza tra la famosa equazione e il vostro approccio?
«L’equazione di Drake cerca di stimare il numero di civiltà intelligenti all’interno della nostra galassia, la Via Lattea. Il nostro lavoro, invece, non ha a che vedere con la ricerca di civiltà extraterrestri. Ma in un certo senso, si possono trovare dei punti di contatto con la logica sottostante l’equazione di Drake. L’equazione, infatti, parte dal numero di stelle formate annualmente nella Via Lattea, chiedendosi poi quante di esse possano ospitare pianeti abitabili, e su quanti di questi pianeti possano svilupparsi forme di vita in grado di inviare segnali rilevabili della propria presenza. Perciò, l’equazione di Drake mette in relazione l’efficienza della nostra galassia nel formare stelle con la comparsa di vita intelligente. Tuttavia, la Via Lattea non è l’unica galassia: nell’universo visibile ce ne sono centinaia di miliardi. Nel nostro articolo, dunque, ci chiediamo quanto sia facile formare vita intelligente, a qualunque punto nell’evoluzione dell’universo e in qualunque galassia. In effetti, facciamo un ulteriore balzo concettuale, chiedendoci: quante stelle si formerebbero nell’universo, se i suoi ingredienti fondamentali fossero differenti? Precisamente, se ci fosse più o meno energia oscura di quella che effettivamente osserviamo, avremmo più o meno stelle? E ciò come influenzerebbe la formazione di vita intelligente nell’universo? In un certo senso, dunque, la nostra ricerca si potrebbe in parte considerare come un’estensione della logica dell’equazione di Drake su scala cosmica: ben oltre la nostra galassia, appunto».
In questa immagine viene mostrato come apparirebbe la stessa regione dell’universo (in termini di quantità di stelle) per diversi valori della densità di energia oscura. In senso orario, dall’alto a sinistra: nessuna energia oscura, stessa densità di energia oscura del nostro universo, 30 e 10 volte la densità di energia oscura nel nostro universo. Le immagini sono generate da una serie di simulazioni cosmologiche. Crediti: Oscar Veenema
Che tipo di calcolo avete fatto?
«Innanzi tutto, abbiamo calcolato la quantità di galassie, in funzione della loro massa, che si formano nel nostro universo e in ipotetici universi alternativi contenenti diverse quantità di energia oscura (nello specifico, tra 0 e 100mila volte l’ammontare osservato nel nostro universo). Ciò è determinato essenzialmente dall’azione della forza di gravità, che tende a compattare la materia presente nell’universo e formare strutture – le galassie, appunto. L’energia oscura, invece, accelera l’espansione dell’universo, rendendo così più difficile la formazione di strutture. Dopodiché, abbiamo calcolato la quantità di stelle formate nelle varie galassie nel corso del tempo, basandoci su un modello di formazione stellare che avevo sviluppato nel 2021. Infine, abbiamo calcolato la frazione della materia ordinaria (cioè quella a cui siamo abituati, che costituisce noi stessi e gli oggetti con cui abbiamo a che fare ogni giorno) che viene convertita in stelle, nell’intera vita degli universi considerati (passata e futura). Assumendo che tale frazione sia proporzionale alla generazione di vita intelligente, abbiamo potuto determinare quali abbondanze di energia oscura siano più favorevoli alla formazione della vita».
E qual è il risultato? Il nostro universo è quello ottimale per la formazione di vita intelligente?
«Non proprio. La nostra conclusione è che l’universo ottimale conterrebbe circa un decimo della quantità di energia oscura presente nel nostro universo. La frazione di stelle rispetto alla quantità di materia ordinaria, e quindi la probabilità di generare vita intelligente, diminuisce all’aumentare dell’abbondanza di energia oscura. Ciò avviene perché l’universo si espande più velocemente, formando dunque meno galassie. Ma osserviamo una diminuzione di tale probabilità anche al diminuire dell’energia oscura al di sotto del valore ottimale. In questo caso, benché ci siano più galassie, esse contengono generalmente una densità di gas più bassa, che le rende meno efficienti nel formare stelle».
Beh, ma allora il nostro universo si discosta solo di un fattore 10 da quello ottimale. Questo spiegherebbe quindi la quantità di energia oscura che osserviamo?
«No, ed è qui che viene il bello. Consideriamo infatti un “multiverso” di possibili universi. Non si tratta per forza di universi “reali”, potrebbe anche essere un esperimento concettuale, ma non cambia la sostanza delle conclusioni. Supponiamo ora di prendere un osservatore (cioè, una forma di vita intelligente) a caso nel multiverso e di chiedergli quale sia la densità di energia oscura che egli osserva nel proprio universo di appartenenza. Il nostro risultato è nel che 99.5 per cento dei casi, ci risponderebbe con un numero più alto rispetto a quello che osserviamo noi. Ciò significa che, almeno secondo il nostro modello, noi ci ritroveremmo ad abitare un universo molto inusuale. In altre parole, il nostro universo non sarebbe “fatto su misura” per lo sviluppo della vita intelligente».
Daniele Sorini, ricercatore all’Istituto di Cosmologia Computazionale dell’Università di Durham, si occupa di cosmologia e struttura su grande scala dell’universo. In particolare, studia il ruolo di supernove e buchi neri supermassicci nella formazione di stelle all’interno delle galassie e sulla distribuzione di materia nell’universo. Crediti: D. Sorini
Questo non contraddice il fatto che se abbiamo più energia oscura allora sopprimiamo la formazione di galassie, e quindi la possibilità che ci sia vita?
«Questo è un punto sottile, ma non c’è contraddizione. Per analogia, supponiamo di voler disporre 300 biglie all’interno di 100 scatolette, che etichettiamo progressivamente da 1 a 100. Diciamo che ne inseriamo 100 nella scatola numero 1, quattro nella scatola numero 2, e due in ciascuna delle successive scatole, dalla 3 alla 100. Senza dubbio, la scatola numero 1 è quella che contiene più biglie – potremmo dire la scatola “favorita dalle biglie”. Ma se prendiamo una biglia a caso tra tutte le scatole, sarà molto più probabile che questa venga estratta da una scatola diversa dalla numero 1. Allo stesso modo, presi individualmente, universi con poca energia oscura sono più ospitali per la vita. Ma, visto che la vita può formarsi lo stesso anche sui tanti possibili universi contenenti molta energia oscura, in fin dei conti l’osservatore medio dovrebbe aspettarsi di misurare una quantità di energia oscura più alta».
Quali sono le implicazioni di queste conclusioni?
«Le nostre conclusioni sollevano dubbi sulla validità del principio antropico, cioè l’idea che il nostro universo possa essere particolarmente “su misura” per la formazione di vita intelligente. La rilevanza cosmologica del principio antropico nasce a fronte della difficoltà nello spiegare la densità di energia oscura misurata nel nostro universo a partire da principi primi. Le osservazioni, infatti, rilevano una densità molto più bassa di quella che ci aspetteremmo. Nel 1989, il premio Nobel per la fisica Steven Weinberg suggeriva una possibile soluzione invocando il principio antropico. Una sovrabbondanza di energia oscura sopprimerebbe la formazione di strutture, dunque delle stelle, dunque della vita. La nostra esistenza, ragionava Weinberg, spiegherebbe la bassa densità di energia oscura che noi osserviamo. Le nostre conclusioni, però, ci dicono che potrebbe non essere così».
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “The impact of the cosmological constant on past and future star formation” di Daniele Sorini, John A Peacock, Lucas Lombriser
- Guarda su YouTube il Cosmology Talk di Daniele Sorini “How Dark Energy Affects Past and Future Star Formation“
C’era acqua su Marte, 742 milioni di anni fa
Le meteoriti sono delle vere e proprie capsule del tempo. Questi pezzi di roccia, spesso grandi quanto una noce, portano infatti con sé preziose informazioni sul corpo celeste dal quale provengono. Uno dei modi con cui gli addetti ai lavori possono estrapolare queste informazioni è attraverso la geocronologia, un insieme di metodi usati per stabilire l’età dei minerali e datare così gli eventi che hanno interessato la storia geologica del corpo celeste. La datazione radiometrica argon-40/argon-39 – un metodo che si basa sul raffronto tra le abbondanze dell’isotopo radioattivo dell’argon e dei suoi prodotti di decadimento – è uno dei più potenti metodi di indagine geocronologica.
Utilizzando questa tecnica, apportando piccole modifiche rispetto al metodo standard, un team di ricercatori guidati dalla Purdue University, negli Usa, ha determinato l’età di alcuni minerali contenuti in una meteorite proveniente da Marte, ottenendo nuove informazione sulla storia geologica del pianeta. I risultati dello studio, pubblicati la settimana scorsa sulla rivista Geochemical Perspective Letters, suggeriscono la presenza di acqua liquida sul nostro vicino cosmico 742 milioni di anni fa.
Un frammento della meteorite marziana Lafayette. Crediti: Purdue University
La meteorite oggetto dello studio, appartenente a un gruppo delle rocce ignee chiamate Nakhliti, è la meteorite Lafayette, un pezzo di roccia di circa cinque centimetri di lunghezza e di ottocento grammi di peso espulso da Marte a seguito di un impatto circa 11 milioni di anni fa, caduto sulla Terra molto probabilmente nel 1919 e ritrovato nella collezione geologica della Purdue University solo nel 1931. Il minerale sottoposto alle analisi è l’iddingsite, costituita da microcristalli di silicati idrati che si originano per alterazione acquosa dell’olivina, un altro dei minerali presenti in queste meteoriti. La tecnica utilizzata, come anticipato, è stata la datazione 40Ar/39Ar, un metodo in grado di studiare le relazioni tra microstruttura mineralogica e record isotopici.
Per la ricerca, gli scienziati hanno utilizzando 0,216 grammi del frammento meteorico conservato presso la Smithsonian Institution, Lafayette Usnm 1505 – uno dei pochi pezzi del meteorite esistenti in circolazione. La preparazione del campione ha previsto la separazione fisica delle inclusioni di iddingsite dai grani di olivina, seguita – e questa è la modifica apportata alla tecnica rispetto al metodo standard – dalla micro-incapsulazione di dodici aliquote da circa un microgrammo (un milionesimo di grammo) di campione. L’irradiazione neutronica delle micro-capsule e la misurazione della composizione isotopica di argon sono stati gli step successivi dell’esperimento.
I risultati delle indagini condotte dai ricercatori fanno risalire la formazione dei minerali di iddingsite a circa 742 ± 15 milioni di anni fa, all’interno del periodo geologico più recente della storia di Marte, iniziato circa 2,9 miliardi di anni fa, il cosiddetto Amazzoniano. E poiché l’iddingsite è un minerale che si forma per interazione acqua-roccia, la conclusione dei ricercatori è che, molto probabilmente, a quell’epoca sul pianeta era ancora presente acqua liquida.
«La datazione dei minerali di iddingsite nella meteorite Lafayette ci ha permesso di scoprire che si sono formati 742 milioni di anni fa», spiega Marissa Tremblay, ricercatrice alla Purdue University e prima autrice dello studio. «La cronogeologia di questi minerali può dirci quando c’era ancora acqua liquida sulla superficie di Marte o nelle sue vicinanze nel suo passato geologico».
Petrografia della meteorite di Lafayette. A destra, un’immagine che mostra un grano di olivina (Ol) contenente inclusioni di iddingsite (Id). A sinistra, immagine che mostra l’arricchimento di potassio (grigio più brillante) nell’iddingsite. I dati sono stati raccolti utilizzando un microscopio elettronico a scansione (Sem) presso l’Università di Glasgow. Crediti: M.M. Tremblay et al., Geochemical Perspective Letters, 2024
L’acqua in questione, tuttavia, non è quella dei laghi e dei fiumi che un tempo scorrevano copiosi sulla superficie del pianeta. Si tratterebbe piuttosto di acqua proveniente dallo scioglimento di permafrost. Considerato che l’Amazzoniano è stato un periodo caratterizzato da attività vulcanica, gli autori suggeriscono infatti che il magmatismo abbia agito come una fonte di calore localizzata sciogliendo il ghiaccio sottosuperficiale di Marte. L’acqua così prodotta avrebbe interagito con la roccia, formando l’iddingsite presente nelle meteoriti del gruppo delle Nakhliti, alla quale la meteorite Lafayette appartiene.
«Non pensiamo che in quel periodo ci fosse abbondante acqua liquida sulla superficie di Marte», dice Tremblay. «Supponiamo invece che l’acqua provenisse dallo scioglimento del permafrost causato dall’attività magmatica che si verifica periodicamente su Marte anche ai giorni nostri».
Nello studio il team di ricerca ha dimostrato che l’età della meteorite è affidabile e che questa non sia stata influenzata da eventi accaduti dopo l’interazione con l’acqua.
«L’età dei minerali potrebbe essere stata influenzata dall’impatto che ha espulso la meteorite Lafayette da Marte, dal riscaldamento sperimentato dalla meteorite durante gli undici milioni di anni in cui è rimasta fluttuante nello spazio, o dal riscaldamento sperimentato quando è caduta sulla Terra bruciando nell’atmosfera terrestre», ricorda la ricercatrice. «Tuttavia, siamo stati in grado di dimostrare che nessuno di questi eventi ha influenzato l’età alla quale è avvenuta l’alterazione acquosa della meteorite».
La datazione 40Ar/39Ar dell’iddingsite all’interno della meteorite marziana Lafayette suggerisce che questi minerali abbiano interagito con l’acqua liquida 742 milioni di anni fa, concludono i ricercatori. Questa età è il vincolo più preciso finora raggiunto circa l’interazione acqua-roccia su Marte. L’attività magmatica ha molto probabilmente indotto lo scioglimento del permafrost locale portando all’alterazione delle nakhliti, deducono gli autori dello studio, e l’attivazione localizzata di cicli idrologici su Marte nel periodo Amazzoniano da parte del magmatismo, sebbene transitoria, non era insolita.
Per saperne di più:
- Leggi su Geochemical Perspective Letters l’articolo “Dating recent aqueous activity on Mars” di M.M. Tremblay, D.F. Mark, D.N. Barfod, B.E. Cohen, R.B. Ickert, M.R. Lee, T. Tomkinson e C.L. Smith
Tracce d’attività vulcanica sull’altro lato della Luna
media.inaf.it/wp-content/uploa…
Distribuzione di distinti episodi vulcanici sul lato nascosto della Luna. L’immagine di telerilevamento evidenzia il sito di atterraggio di Chang’e-6 insieme alle vicine unità basaltiche di mari e criptomari. Crediti: Yang Muhan
Un biglietto andata/ritorno per la Luna in cinquantatré giorni, un orbiter, un lander, un modulo di risalita e uno di rientro. E una valigia che parte vuota e torna piena. Questa in due righe la missione cinese Chang’e-6, partita per visitare brevemente il lato nascosto della Luna e riportarne alcuni campioni, per la prima volta, sulla Terra. Campioni che, già alle prime analisi, hanno mostrato dettagli inediti: il sito da cui provengono era vulcanicamente attivo circa 2,8 miliardi di anni fa. Lo studio, condotto nel laboratorio di Li Qiuli all’Istituto di geologia e geofisica dell’Accademia cinese delle scienze, è stato pubblicato oggi su Nature, e suggerisce che l’attività vulcanica sul mare basaltico in questa regione è stata presente per più di 1,4 miliardi di anni.
La missione cinese Chang’e-6 è partita lo scorso 3 maggio. Direzione, l’enorme bacino bacino Polo Sud-Aitken, su cui è atterrata il 2 giugno: si tratta di un cratere meteoritico di oltre duemila chilometri di diametro situato sul lato a noi nascosto della Luna, vicino al polo sud lunare. Qui, con l’aiuto di una trivella e una paletta, il lander ha prelevato del materiale e l’ha riportato sulla Terra appena 23 giorni dopo, il 25 giugno. Una missione lampo che ha fatto la storia, consegnando circa due chilogrammi di materiale da una regione lunare finora inesplorata. Sul lato della Luna che guarda la Terra, infatti, di visite e prelievi di materiale ce ne sono stati numerosi. I campioni lunari provenienti dalle missioni Apollo, Luna e Chang’e-5, in particolare, hanno stabilito che il vulcanismo sul lato a noi vicino della Luna ha avuto luogo tra 4 e 2 miliardi di anni fa. Tuttavia, la mancanza di campioni provenienti dal lato a noi nascosto della superficie lunare non ha permesso di confermare i tempi dell’attività vulcanica per quella regione.
Cosa che è stata ora possibile grazie a Chang’e-6, che ha recuperato campioni dal bacino Apollo, situato nel bacino nord-orientale del Polo Sud-Aitken: un’area in cui la crosta lunare è più sottile, e che offre l’opportunità di studiare il vulcanismo dell’altra faccia della Luna. E che, stando ai risultati, conferma la storica e ben nota asimmetria fra il volto a noi visibile e quello nascosto del nostro satellite.
Gli autori dell’articolo hanno analizzato 108 frammenti di basalto (un tipo di roccia vulcanica) contenuti in due campioni di suolo raccolti da Chang’e-6, utilizzando un processo chiamato datazione piombo-piombo, che misura gli isotopi del piombo per determinare l’età dei campioni. Fra questi hanno trovato un frammento di basalto ad alto contenuto di alluminio di circa 4,2 miliardi di anni, mentre la maggior parte dei frammenti di basalto studiati aveva un’età di formazione risalente a circa 2,8 miliardi di anni fa. Secondo gli autori, questa età rappresenta l’episodio vulcanico principale nel sito di atterraggio di Chang’e-6: un’eruzione sorprendentemente giovane e non riconosciuta dalle osservazioni effettuate su campioni provenienti dal lato a noi vicino della Luna.
Per saperne di più:
- Leggi su Nature l’articolo “Lunar farside volcanism 2.8 billion years ago from Chang’e-6 basalts“, di Qian W. L. Zhang, Mu-Han Yang, Qiu-Li Li, Yu Liu, Zong-Yu Yue, Qin Zhou, Liu-Yang Chen, Hong-Xia Ma, Sai-Hong Yang, Xu Tang, Guang-Liang Zhang, Xin Ren e Xian-Hua Li
The post Tracce d’attività vulcanica sull’altro lato della Luna first appeared on MEDIA INAF.
Cinquina di galassie per il Vst
La Girandola del Sud, una galassia a spirale a circa 15 milioni di anni luce da noi, ritratta dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
L’Istituto nazionale di astrofisica (Inaf) rilascia oggi le immagini di cinque galassie dell’universo locale, riprese con il telescopio italiano Vst (Vlt Survey Telescope) gestito da Inaf in Cile. Le nuove immagini mostrano queste iconiche galassie nei minimi dettagli, immortalandone la forma, i colori e la distribuzione delle stelle fino a grandi distanze dal centro. Due di esse, la galassia irregolare Ngc 3109 e la irregolare nana Sestante A, si trovano ai confini del cosiddetto Gruppo Locale, di cui fa parte anche la nostra galassia, la Via Lattea, e si trovano a circa quattro milioni di anni luce da noi. Altre due galassie, la splendida galassia a spirale nota come Girandola del Sud (ma anche Ngc 5236 o M 83) e la irregolare Ngc 5253, si trovano, rispettivamente, a circa quindici e undici milioni di anni luce dalla nostra, mentre la quinta e più lontana, la galassia a spirale Ic 5332, dista circa trenta milioni di anni luce.
Le osservazioni sono state realizzate in tre filtri, o colori, nell’ambito della survey Vst-Smash (Vst Survey of Mass Assembly and Structural Hierarchy), un progetto guidato da Crescenzo Tortora, ricercatore dell’Inaf a Napoli, per comprendere i meccanismi che portano alla formazione delle tante e diverse galassie che popolano il cosmo.
La galassia irregolare Ngc 3109, a circa 4 milioni di anni luce da noi, ritratta dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
Le cinque galassie di cui oggi vengono diffuse le immagini sono parte di un campione di 27 galassie che il team sta studiando con il Vst, telescopio dotato di uno specchio dal diametro di 2,6 metri, costruito in Italia e ospitato dal 2012 presso l’Osservatorio Eso di Cerro Paranal, in Cile. Queste galassie sono state selezionate accuratamente nella porzione di cielo che, nel corso dei prossimi anni, sarà osservata anche dal satellite Euclid dell’Agenzia Spaziale Europea (Esa) per fornire una controparte ottica più dettagliata (fino a lunghezze d’onda corrispondenti al colore blu) ai dati spaziali raccolti dallo strumento Vis (a lunghezze d’onda corrispondenti al colore rosso) e dallo strumento Nisp nel vicino infrarosso. Il gruppo ha presentato la survey in un articolo pubblicato sulla rivista The Messenger dell’Eso.
«Cerchiamo di capire come si formano le galassie, in funzione della loro massa e del loro tipo morfologico. Questo significa chiedersi come si formano le stelle in situ, all’interno delle galassie, ma anche come vengono accumulate (ex situ) attraverso processi di merging, cioè di fusione, con altre galassie» spiega Tortora, alla guida di un team internazionale che coinvolge molti ricercatori e ricercatrici di svariate sedi Inaf. «Per fare questo, dobbiamo tracciare i colori di queste galassie fino alle regioni periferiche, per poter investigare la presenza di strutture molto deboli appartenenti a queste galassie, e popolazioni di galassie poco brillanti che vi orbitano attorno. Questo è utile per poter tracciare i residui delle interazioni galattiche, e quindi vincolare il processo gerarchico della formazione delle strutture cosmiche».
La galassia irregolare nana Sestante A, a circa 4 milioni di anni luce da noi, ritratta dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
L’analisi dei dati raccolti è ancora all’inizio, ma le osservazioni si sono già dimostrate efficaci, permettendo al team di esaminare le galassie fino a brillanze superficiali molto basse, che fino a qualche anno fa erano difficili da osservare. Il telescopio Vst, grazie al suo grande campo di vista di un grado quadrato, pari a circa quattro volte l’area della luna piena nel cielo, è stato lo strumento fondamentale che ha permesso di realizzare queste immagini in un tempo relativamente breve – osservando il campo intorno a queste galassie, nei tre filtri, con 10 ore di osservazioni per grado quadrato. In confronto, realizzare una sola di queste immagini con il telescopio spaziale Hubble avrebbe richiesto molti puntamenti consecutivi.
«È la prima volta che tutte queste galassie vengono osservate in maniera così profonda e dettagliata, e con dati omogenei», aggiunge Tortora. «Negli anni a venire, solo Euclid raggiungerà le nostre profondità ottiche, ma non potrà contare sulla vasta copertura nelle lunghezze ottiche del Vst. Il Vera Rubin Observatory, invece, pur osservando in regioni spettrali simili alle nostre, raggiungerà profondità simili solo dopo molti anni di osservazione. Questo rende Vst uno strumento che può ancora dire la sua, e dà speranze per interessanti risultati all’interno della nostra survey», conclude.
La galassia irregolare Ngc 5253, a circa 11 milioni di anni luce da noi (sinistra), e la galassia a spirale Ic 5332, a circa 30 milioni di anni luce da noi (destra), ritratte dal Vst. Crediti: Inaf/Vst-Smash/C. Tortora et al. 2024
Per saperne di più:
- Leggi su The Messenger l’articolo “Vst-Smash: the Vst survey of Mass Assembly and Structural Hierarchy”, di Crescenzo Tortora, Rossella Ragusa, Massimiliano Gatto, Marilena Spavone, Leslie Hunt, Vincenzo Ripepi, Massimo Dall’Ora, Abdurro’uf, Francesca Annibali, Maarten Baes, Francesco Michel Concetto Belfiore, Nicola Bellucco, Micol Bolzonella, Michele Cantiello, Paola Dimauro, Mathias Kluge, Federico Lelli, Nicola R. Napolitano, Achille Nucita, Mario Radovich, Roberto Scaramella, Eva Schinnerer, Vincenzo Testa e Aiswarya Unni
Le prime immagini di Vst-Smash illustrate da Crescenzo Tortora su MediaInaf Tv:
youtube.com/embed/AYssTg1zdk4?…
Cronologia di una supernova
Nel pannello a sinistra: immagine a luce visibile del Sloan Digital Sky Survey della galassia Ngc 7331, dove è stata osservata la supernova Sn 2014C. Le immagini nell’inserto del Chandra X-ray Observatory mostrano una regione della galassia prima e dopo l’esplosione, con colori che rappresentano raggi X a bassa (rosso), media (verde) e alta energia (blu). Pannello in alto a destra: il modello che mostra la densità del mezzo circumstellare intorno alla supernova. La stella segna la posizione della supernova, e le frecce indicano la velocità del vento stellare negli ultimi stadi di vita della stella massiccia. Pannello in basso a destra: spettro osservato ai raggi X con NuStar (simboli rossi) confrontato con quello sintetico (blu) previsto dal modello. Crediti: S. Orlando et al. ApJ, 2024
Le proprietà e la morfologia dei resti di supernova sono il risultato dei complessi processi fisici che avvengono nella stella progenitrice sia nelle fasi che precedono l’esplosione sia durante l’evento stesso (dal rapido collasso del nucleo, che avviene in pochi secondi, fino all’emergenza dell’onda d’urto dalla superficie della stella). Sono inoltre influenzate dalle interazioni tra i frammenti della stella espulsi durante l’esplosione (gli ejecta) e le onde d’urto generate dalla supernova con le nubi interstellari (materiale eventualmente presente attorno alla stella) e circumstellari (materiale espulso dalla stella prima dell’esplosione). Queste nubi sono sempre presenti in quanto le stelle massive, soprattutto al termine della loro evoluzione, sono caratterizzate da intensi venti stellari ed eventi di perdita di massa impulsivi, che trasferiscono nel mezzo circostante diverse masse solari di gas.
Queste complesse interazioni possono anche influenzare l’evoluzione temporale delle supernove. Ad esempio, a seguito dell’impatto delle onde d’urto con il materiale circumstellare, si può osservare un aumento della luminosità della supernova in specifiche bande. È ciò che è accaduto, per esempio, alla supernova Sn 2014C, esplosa nella galassia Ngc 7331 a quasi 50 milioni di anni luce da noi. La supernova è stata osservata e monitorata con vari telescopi in diverse bande dello spettro elettromagnetico. In particolare, ai raggi X e nelle onde radio, Sn 2014C ha mostrato un aumento di luminosità circa 200 giorni dopo l’esplosione, suggerendo che l’onda d’urto avesse investito dense nubi circumstellari.
Un team di ricerca guidato dall’astrofisico Salvatore Orlando dell’Inaf di Palermo ha creato un modello dettagliato che riproduce le varie osservazioni di Sn 2014C, descrivendo le caratteristiche della stella, del suo vento e del materiale circumstellare prima, durante e dopo l’esplosione. Le proprietà osservate oggi nel resto di supernova sono spiegate dal modello, assumendo che la stella progenitrice avesse espulso i suoi strati esterni ricchi di idrogeno durante un intenso periodo di perdita di massa, iniziato circa 5000 anni prima dell’esplosione e terminato circa 4000 anni dopo. Al termine di questa fase, la stella progenitrice aveva espulso circa 2.5 masse solari di gas, che hanno formato una struttura a ciambella nel piano equatoriale della stella, estesa tra circa 2900 e 10000 unità astronomiche (un’unità astronomica equivale a circa 150 milioni di km, ossia la distanza media tra Terra e Sole). Il modello spiega anche la presenza di due componenti con temperature diverse nel resto di supernova osservate ai raggi X: la componente più calda è costituita dal materiale circumstellare investito dall’onda d’urto, mentre la componente a temperatura inferiore proviene dai frammenti stellari espulsi durante l’esplosione.
Salvatore Orlando (Inaf – Osservatorio astronomico di Palermo), primo autore dello studio pubblicato su The Astrophysical Journal. Crediti: Inaf
«Sn 2014C rappresenta un caso di studio affascinante nel campo delle supernove», spiega Orlando a Media Inaf, «poiché offre nuove prospettive sulle ultime fasi di vita delle stelle massicce. Nei primi giorni successivi all’esplosione, questa supernova era stata classificata come “povera di idrogeno” (di tipo Ib) in base alle sue caratteristiche spettroscopiche. Ciò indicava che la stella progenitrice aveva perso il proprio inviluppo di idrogeno prima dell’esplosione. Tuttavia, circa 200 giorni dopo il collasso del nucleo, Sn 2014C ha subito una sorprendente metamorfosi: si è improvvisamente arricchita di idrogeno, accompagnata da un marcato aumento di emissioni in banda X e radio, trasformandosi in una supernova di tipo IIn. Questa evoluzione suggerisce che la stella avesse espulso grandi quantità di materiale (soprattutto idrogeno) secoli o millenni prima dell’esplosione, un fenomeno spesso associato alla presenza di un sistema binario. La trasformazione osservata è stata quindi causata dall’interazione dell’onda d’urto della supernova con il materiale stellare precedentemente espulso».
«Studiare questa classe di oggetti, noti come supernove interagenti», continua Orlando, «permette di approfondire i processi estremi di perdita di massa che caratterizzano la fase finale della vita delle stelle massicce. La vera novità è che, per la prima volta, abbiamo potuto ricostruire in dettaglio la geometria e la distribuzione di densità del mezzo circumstellare attorno alla stella progenitrice e tracciare la sua storia di perdita di massa, grazie a un modello tridimensionale idrodinamico. Questo modello ha seguito l’evoluzione del sistema dalle fasi precedenti all’esplosione, durante la perdita di massa della stella, fino all’interazione della supernova con il mezzo circumstellare. In tal modo, sebbene non sia stato possibile osservare direttamente la struttura di questo materiale (vista anche la notevole distanze dell’oggetto), il modello ne ha consentito una ricostruzione dettagliata grazie ai vincoli offerti dai dati osservativi non risolti spazialmente. Questo approccio innovativo apre nuove prospettive per comprendere i processi che precedono l’esplosione delle supernove e offre indizi preziosi sui meccanismi di evoluzione delle stelle massicce».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Constraining the CSM structure and progenitor mass-loss history of interacting supernovae through 3D hydrodynamic modeling: The case of SN 2014C”, di S. Orlando, E. Greco, R. Hirai, T. Matsuoka, M. Miceli, S. Nagataki, M. Ono, K.-J. Chen, D. Milisavljevic, D. Patnaude, F. Bocchino, N. Elias-Rosa
Trio di mostri galattici nell’universo primordiale
Immagine Jwst dei tre Mostri Rossi. Crediti: Nasa/Csa/Esa, M. Xiao & P. A. Oesch (Università di Ginevra), G. Brammer (Istituto Niels Bohr), Archivio Dawn Jwst
Un team internazionale di ricercatori guidato dall’Università di Ginevra (Unige) ha identificato tre galassie ultramassicce – quasi quanto la Via Lattea – già presenti nel primo miliardo di anni dopo il Big Bang. I risultati indicano che la formazione stellare nell’universo primordiale dev’essere stata molto più efficiente di quanto si pensasse, mettendo in discussione i modelli di formazione delle galassie. La sorprendente scoperta, descritta sulla rivista Nature, è stata effettuata dal James Webb Space Telescope (Jwst) nell’ambito del programma Fresco.
Il programma si propone di analizzare sistematicamente un campione completo di emission line galaxies (Elg, ossia galassie che presentano forti righe di emissione nei loro spettri) nei primi miliardi di anni di storia cosmica. La presenza di righe di emissione consente di valutare con precisione la distanza delle galassie e, di conseguenza (dall’intensità delle righe), la quantità di stelle contenute nelle stesse. In particolare, nel campione analizzato tre galassie si sono distinte per il loro grande contenuto stellare. Queste galassie stanno formando stelle con un’efficienza quasi doppia rispetto alle galassie di massa inferiore della stessa epoca o alle galassie ordinarie di epoche successive della storia cosmica. A causa del loro elevato contenuto di polvere, che conferisce a queste tre galassie massicce un colore rossastro nelle immagini di Jwst, sono state chiamate i tre Mostri Rossi.
«Trovare tre bestie così massicce nel campione rappresenta un bel rompicapo», afferma Stijn Wuyts, coautore dello studio dell’Università di Bath. «Molti processi nell’evoluzione delle galassie tendono a introdurre una fase che limita l’efficienza con cui il gas può convertirsi in stelle, ma in qualche modo questi mostri rossi sembrano aver eluso rapidamente la maggior parte di questi ostacoli».
Finora si riteneva che tutte le galassie si fossero formate gradualmente all’interno di grandi aloni di materia oscura, in grado di catturare gas (atomi e molecole) in strutture legate dalla gravità. In genere, nelle galassie al massimo il 20 per cento di questo gas viene trasformato in stelle. Tuttavia, le nuove scoperte mettono in discussione questa visione, rivelando che le galassie massicce nell’universo primordiale potrebbero essere cresciute in modo molto più rapido ed efficiente.
Sebbene questi risultati non siano in conflitto con il modello cosmologico standard, sollevano interrogativi non trascurabili per le teorie sulla formazione delle galassie, in particolare per quanto riguarda la questione delle galassie troppo numerose e troppo massicce nell’universo primordiale. I modelli attuali potrebbero dover prendere in considerazione processi unici che hanno permesso a certe galassie massive di avere una formazione stellare così efficiente e quindi di formarsi molto rapidamente e molto presto. Le future osservazioni con Jwst e il telescopio Atacama Large Millimeter Array (Alma) forniranno ulteriori informazioni su questi mostri rossi ultramassicci e riveleranno campioni più ampi di tali sorgenti.
«Questi risultati indicano che le galassie dell’universo primordiale potevano formare stelle con un’efficienza inaspettata. Quando studieremo queste galassie in modo più approfondito, esse offriranno nuovi spunti di riflessione sulle condizioni che hanno plasmato le prime epoche dell’universo. I Mostri Rossi sono solo l’inizio di una nuova era nella nostra esplorazione dell’universo primordiale», conclude il primo autore dello studio, Mengyuan Xiao.
Per saperne di più:
- Leggi su Nature l’articolo “Accelerated formation of ultra-massive galaxies in the first billion years” di Mengyuan Xiao, Pascal A. Oesch, David Elbaz, Longji Bing, Erica J. Nelson, Andrea Weibel, Garth D. Illingworth, Pieter van Dokkum, Rohan P. Naidu, Emanuele Daddi, Rychard J. Bouwens, Jorryt Matthee, Stijn Wuyts, John Chisholm, Gabriel Brammer, Mark Dickinson, Benjamin Magnelli, Lucas Leroy, Daniel Schaerer, Thomas Herard-Demanche, Seunghwan Lim, Laia Barrufet, Ryan Endsley, Yoshinobu Fudamoto, Carlos Gómez-Guijarro, Rashmi Gottumukkala, Ivo Labbé, Dan Magee, Danilo Marchesini, Michael Maseda, Yuxiang Qin, Naveen A. Reddy, Alice Shapley, Irene Shivaei, Marko Shuntov, Mauro Stefanon, Katherine E. Whitaker & J. Stuart B. Wyithe
Ricetta per la chimica del Sole: cambiano le dosi
media.inaf.it/wp-content/uploa…
Istantanea del Sole ottenuta dallo strumento Atmospheric Imagery Assembly (Aia) a bordo del telescopio spaziale Solar Dynamics Observatory (Sdo) della Nasa. Crediti: Nasa/Sdo/Aia
La composizione chimica della nostra stella, in particolare per quel che riguarda le abbondanze di elementi pesanti, svolge un ruolo cruciale in numerose aree dell’astronomia. Nelle campo delle scienze planetarie ed esoplanetarie, ad esempio, è utilizzata come tester per comprendere le composizioni di altre stelle e per sondare le condizioni di formazione planetaria.
Sebbene le abbondanze solari di elementi pesanti (così gli astronomi chiamano tutti gli elementi della tavola periodica diversi da idrogeno ed elio) siano note con una precisione molto maggiore rispetto ad altre stelle, sul loro conto permangono notevoli incertezze. I dubbi sono legati soprattutto al disaccordo dei valori di abbondanza di carbonio, ossigeno e azoto tra i dati ottenuti con l’eliosismologia – una tecnica che permette di esplorare l’interno del Sole analizzando le onde di pressione che lo attraversano – rispetto a quelli ottenuti con la spettroscopia – un metodo che rivela la composizione superficiale in base alla firma spettrale prodotta da ciascun elemento chimico – e con le simulazioni.
In questo senso, la sfida degli astronomi è dunque trovare una quadra tra i valori di abbondanza di questi elementi determinati con le varie tecniche. Una sfida che ora un team di ricercatori guidati dal Southwest Research Institute pare aver vinto, combinando i dati di composizione di vari corpi primitivi della fascia di Kuiper con nuovi set di dati solari. Le nuove indagini, i cui risultati sono stati pubblicati questa settimana su The Astrophysical Journal, hanno permesso di ottenere una ricetta con i dosaggi rivisti, relativamente alla composizione degli elementi pesanti della nostra stella, che potenzialmente concilia per la prima volta le misurazioni spettroscopiche ed eliosismiche.
«Questo tipo di analisi interdisciplinare non era mai stato eseguito prima», sottolinea Ngoc Truong, ricercatore al Southwest Research Institute e primo autore dello studio. «Il nostro ampio set di dati suggerisce livelli di carbonio, azoto e ossigeno solari più abbondanti di quanto si pensasse in precedenza».
Per ottenere i nuovi dati composizionali del Sole, il team di ricerca ha combinato nuove misurazioni di neutrini solari – come quelle ottenute con lo strumento Borexino, un rivelatore situato presso i Laboratori nazionali del Gran Sasso (Infn), il cui scopo primario è lo studio delle proprietà di neutrini solari a bassa energia – con i dati di composizione del vento solare ottenuti dalla missione Genesis della Nasa, insieme ai dati di abbondanza di acqua trovata nelle meteoriti primitive che hanno avuto origine nel Sistema solare esterno e di densità di grandi oggetti della fascia di Kuiper, come Plutone e la sua luna Caronte, determinate dalla missione Nasa New Horizons.
«Con questa ricerca, pensiamo di aver finalmente ricostruito il mix di elementi chimici che ha prodotto il Sistema solare», dice Christopher Glein, esperto di geochimica planetaria, anche lui in servizio al Southwest Research Institute e co-autore dello studio. «Questa nuova conoscenza ci fornisce una base più solida per comprendere quali abbondanze di elementi nelle atmosfere dei pianeti giganti possono dirci qualcosa circa la loro formazione».
La ricerca non si è limitata allo studio della composizione degli elementi pesanti della nostra stella. Utilizzando le nuove abbondanze come input per un modello di formazioni planetaria, i ricercatori hanno infatti stimato le abbondanze di elementi pesanti nella nebulosa protosolare, valutando poi gli effetti di tale abbondanza sulle composizioni degli oggetti della fascia di Kuiper e delle condriti carbonacee, resti dell’epoca alla quale è avvenuta la formazione dei pianeti. I risultati della simulazione, sottolineano gli scienziati, hanno riprodotto con successo le composizioni sia dei grandi oggetti della fascia di Kuiper che delle condriti carbonacee.
Il team ha inoltre esaminato il ruolo dei composti organici come principale vettore di carbonio nella nebulosa protosolare, concludendo che la loro funzione è fondamentale per spiegare la chimica del Sistema solare.
I rapporti di abbondanza carbonio/ossigeno della nebulosa solare ottenuti, osservano gli autori dello studio, sono sufficienti a produrre una quantità tale di roccia da spiegare la densità del sistema Plutone-Caronte, che è stato utilizzato come valore rappresentativo della composizione in massa dei grandi corpi della fascia di Kuiper. Per contro, l’utilizzo delle abbondanze solari precedentemente note ha reso il sistema Plutone-Caronte “sottodenso”. Quanto alla materia organica, incorporarla nei modelli non è solo un mero dettaglio compositivo: la sua presenza influisce in modo significativo sulla composizione chimica della nebulosa e sui “mattoni” che hanno formato i corpi planetari.
Il futuro promette grandi risultati per nuovi modelli e dati in grado di fornire una comprensione più coerente della composizione interna del Sole, concludono i ricercatori. Poiché le abbondanze solari di elementi pesanti servono come parametri di riferimento per conoscere le composizioni elementari di altre stelle, ciò avrà implicazioni significative per comprendere la formazione e l’evoluzione di altri sistemi planetari e, ancora di più, per ottenere una prospettiva più ampia dell’evoluzione della chimica galattica.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “A broad set of solar and cosmochemical data indicates high C-N-O abundances for the solar system” di Ngoc Truong, Christopher R. Glein e Jonathan I. Lunine
Con i nuclei radioattivi sveliamo la nascita del Sole
Un isotopo instabile potrebbe riscrivere la storia della formazione del Sistema solare. Pubblicato oggi su Nature, uno studio condotto da un team internazionale di fisici e astrofisici indaga su alcuni nuclei radioattivi con tempi di decadimento di milioni di anni, capaci di svelare informazioni cruciali sull’origine del nostro sistema planetario e sugli eventi nucleari che hanno determinato la nascita di stelle simili al Sole. Un’importante collaborazione di scienziati guidata dal Centro nazionale canadese per gli acceleratori di particelle Triumf ha infatti ottenuto la prima misurazione del decadimento beta a stato legato degli ioni di tallio completamente ionizzati (205Tl81+) – in condizioni simili a quelle di un plasma astrofisico – presso il Gsi Helmholtzzentrum für Schwerionenforschung, un centro di ricerca sugli ioni pesanti a Darmstadt, in Germania. Questa misurazione ha effetti profondi sulla produzione di piombo radioattivo (205Pb) nelle stelle del ramo gigante asintotico e può essere utilizzata per aiutare a determinare il tempo di formazione del Sole.
Eruzione solare. Crediti: Nasa
Il decadimento beta a stato legato è una modalità rara di decadimento (processo attraverso il quale un nucleo atomico instabile si trasforma in un altro nucleo, emettendo radiazioni e particelle, fino a raggiungere uno stato più stabile) che si verifica solo in ioni altamente carichi. Finora, questa forma è stata osservata solo all’Experimental Storage Ring, un apparato unico nel suo genere capace di immagazzinare milioni di ioni completamente ionizzati per diverse ore. L’esperimento ha rivelato che il tempo di dimezzamento del 205Tl81+ è di 291 giorni, due volte superiore rispetto alle stime precedenti.
Come detto, il risultato dell’esperimento ha significative implicazioni per la generazione dell’isotopo radioattivo del piombo (205Pb) nelle stelle del ramo asintotico delle giganti(Asymptotic Giant Branch, Agb). Di cosa si tratta? Parliamo di quelle stelle, con una massa compresa tra 0,5 e 8 volte quella del Sole e quindi giunte alla fine del loro ciclo vitale, che, oltre a produrre circa la metà degli elementi più pesanti del ferro, sono le principali fornaci cosmiche di carbonio, elemento chiave alla base della biologia umana.
Lo studio della produzione degli elementi chimici nelle stelle è parte di quella branca dell’astrofisica chiamata nucleosintesi stellare. A differenza degli elementi cosiddetti leggeri (facilmente identificabili perché sono tutti quelli prima del ferro nella tavola periodica degli elementi), che sono prodotti attraverso reazioni nucleari tra particelle cariche (ad esempio, ioni di idrogeno o di elio), per produrre gli elementi pesanti (pensiamo ad argento, oro e piombo) sono necessari i neutroni. Queste particelle sono piuttosto rare negli interni stellari, anche perché un neutrone decade rapidamente in un protone.
Al centro dello studio pubblicato su Nature, a cui ha partecipato anche l’Istituto nazionale di astrofisica (Inaf), c’è appunto il piombo-205 (205Pb), un isotopo già presente al momento della formazione del Sistema solare, prodotto principalmente attraverso un processo di cattura neutronica lenta (in inglese s process) e che decade con un’emivita di 17,0 milioni di anni. Questo isotopo, le cui tracce sono state trovate nelle meteoriti più antiche, può fornire informazioni preziose sulle sorgenti stellari che hanno contaminato la nebulosa da cui si è formato il Sole e il Sistema solare. Tuttavia, fino a oggi, predire con precisione la produzione di 205Pb negli interni stellari è stato difficile e calcolare con precisione l’abbondanza del 205Pb è stato estremamente complesso, a causa dell’incertezza sui tassi di decadimento a temperature stellari.
Il primo autore dello studio Guy Leckenby al lavoro con l’Experimental Storage Ring del Gsi/Fair, Darmstadt
«La misurazione del 205Tl81+ era stata proposta negli anni ’80, ma ci sono voluti decenni di sviluppo degli acceleratori e il duro lavoro di molti colleghi per realizzarla», spiega Yury Litvinov di Gsi/Fair, portavoce dell’esperimento. «Il fascio di 205Tl è stato creato nel separatore di frammenti (Frs) attraverso una reazione nucleare, con numerose iniezioni necessarie per raggiungere un numero sufficiente di ioni immagazzinati. Il team dell’Frs ha sviluppato una nuova impostazione rivoluzionaria per ottenere l’intensità del fascio richiesta per il successo dell’esperimento».
L’esperimento è stato condotto nel 2020, nelle prime settimane dei lockdown a causa della pandemia di Covid-19. «La pandemia ha creato molte difficoltà, ma la dedizione del team ha permesso di salvare la situazione», ricorda Guy Leckenby, dottorando presso il centro di ricerca Triumf e primo autore dell’articolo. «Abbiamo perfezionato l’analisi per tre anni, uno sforzo che si è rivelato fruttuoso, dato che il tempo di dimezzamento misurato di 291 giorni è il doppio rispetto a quanto stimato teoricamente. Questo dimostra quanto sia importante effettuare misurazioni sperimentali».
Il contributo dei ricercatori dell’Inaf è stato determinante per la complessa interpretazione astrofisica della nuova misura. «In una prima fase», dice Sergio Cristallo, ricercatore di Inaf d’Abruzzo, «abbiamo partecipato al calcolo dei modelli teorici di stelle in fase di ramo asintotico delle giganti, ossia la categoria di oggetti che ha “contaminato” la nube protosolare con svariati isotopi radioattivi (come il palladio 107Pd, il cesio 135Cs e il 205Pb). Questi modelli sono stati confrontati con gli equivalenti di altri due gruppi di ricerca teorica, mostrando in generale un buon accordo».
«In una seconda fase», continua Diego Vescovi, anche lui ricercatore presso lo stesso osservatorio, «il nostro gruppo Inaf ha apportato un contributo ancora più importante, partecipando all’identificazione nel dettaglio della fase stellare in cui domina il decadimento beta del 205Pb (in 205Tl) e quella in cui invece domina il processo inverso (la cattura elettronica sul Tl205). L’abbondanza superficiale del 205Pb dipende infatti in modo sostanziale dall’interazione reciproca dei due processi».
Grazie a queste nuove misurazioni, gli autori hanno avuto modo di determinare il tempo di “isolamento” del materiale che ha formato il Sole all’interno della sua nube molecolare madre, confermando che la nostra stella è nata in una nube molecolare gigante a lunga vita. Questa scoperta non solo rafforza l’attuale teoria sulla nascita del Sole, ma apre la strada all’utilizzo del sistema di decadimento 205Pb–205Tl come cronometro per tracciare la storia della formazione del Sistema solare.
Per saperne di più:
- Leggi l’articolo “High-temperature 205Tl decay clarifies 205Pb dating in early Solar System”, di Guy Leckenby et al., pubblicato su Nature
Abbuffata cosmica per due buchi neri lontanissimi
Caotici e voraci, caratteristiche che potrebbero descrivere perfettamente due buchi neri mostruosi scoperti con l’Osservatorio Neil Gehrels Swift della Nasa, satellite con una importante partecipazione dell’Agenzia spaziale italiana (Asi) e dell’Istituto nazionale di astrofisica (Inaf). Pubblicando i risultati oggi sulla rivista Astronomy and Astrophysics, un gruppo di ricerca ha infatti rilevato per la prima volta un evento transiente di distruzione mareale in cui una coppia di buchi neri supermassivi sta interagendo con una nube di gas nel centro di una galassia distante. Il segnale di questo fenomeno, noto come At 2021hdr, si ripete periodicamente, offrendo agli astronomi un’opportunità unica di studiare il comportamento di questi oggetti cosmici estremi. Tra gli enti di ricerca coinvolti nello studio c’è anche l’Inaf.
Rappresentazione artistica di una coppia di buchi neri supermassicci che vortica all’interno di una nube di gas distruggendola. L’evento si chiama At 2021hdr, un brillamento ricorrente studiato dal Neil Gehrels Swift Observatory della Nasa e dalla Ztf Transient Facility presso l’Osservatorio Palomar, in California. Crediti: Nasa/Aurore Simonnet (Sonoma State University)
«È un evento molto strano, chiamato At 2021hdr, che si ripete ogni pochi mesi», spiega Lorena Hernández-García, ricercatrice al Millennium Institute of Astrophysics e al Millennium Nucleus for Transversal Research and Technology to explore Supermassive Black Holes, prima autrice dello studio e leader del team di ricerca. «Crediamo che una nube di gas abbia inghiottito i buchi neri; mentre orbitano l’uno attorno all’altro, i buchi neri interagiscono con la nube, perturbando e consumando il suo gas. Questo produce oscillazioni che si osservano nella luce del sistema». At 2021hdr è stato scoperto grazie al sistema Alerce broker e osservato per la prima volta nel 2021 con la Zwicky Transient Facility (Ztf) presso l’Osservatorio Palomar, in California.
Nell’animazione una nube di gas incontra due buchi neri supermassicci. La complessa interazione di forze gravitazionali e di attrito fa sì che la nube si condensi e si riscaldi; parte del gas viene quindi espulsa dal sistema a ogni orbita dei buchi neri. Crediti: F. Goicovic et al. 2016
Cosa provoca questo fenomeno? Dopo aver esaminato diversi modelli per spiegare ciò che vedevano nei dati, i ricercatori hanno dapprima considerato l’ipotesi di un evento di distruzione mareale (in inglese tidal disruption event), vale a dire la distruzione di una stella che si era avvicinata troppo a uno dei buchi neri, per poi convergere su un’altra possibilità: la distruzione mareale di una nube di gas, più grande del sistema binario stesso. Analizzando i dati raccolti, la dinamica è apparsa subito chiara: quando la nube si è scontrata con i due buchi neri, la loro forza di attrazione gravitazionale l’ha fatta a pezzi, formando filamenti attorno alla coppia. La nube si è poi riscaldata per attrito, il gas è diventato particolarmente denso e caldo vicino ai buchi neri, mentre la complessa interazione di forze ha fatto sì che parte del gas venisse espulso dal sistema a ogni rotazione.
Ztf ha rilevato esplosioni da At 2021hdr ogni 60-90 giorni dal primo brillamento. Il gruppo di Hernández-García ha osservato la sorgente con Swift da novembre 2022. Il satellite della Nasa li ha aiutati a determinare che la coppia di buchi neri produce oscillazioni nella luce ultravioletta e nei raggi X simultaneamente a quelle viste nella luce visibile.
«È la prima volta che si osserva un evento di distruzione mareale di una nube di gas da parte di una coppia di buchi neri supermassivi», dice Gabriele Bruni, ricercatore presso l’Inaf di Roma. «In particolare, l’oscillazione periodica misurata in banda ottica, ultravioletta e raggi X ha una durata mai osservata in precedenza per un evento di distruzione mareale. Grazie al monitoraggio costante di Ztf è stato possibile scoprire questo peculiare sistema, e avviare osservazioni in diverse bande. La survey dello Ztf infatti copre il cielo intero ogni tre giorni, permettendo per la prima volta di scoprire un grande numero di questi fenomeni astrofisici transitori».
Da sinistra: Francesca Panessa (Inaf Roma), Lorena Hernández-García (Millennium Institute of Astrophysics), Gabriele Bruni (Inaf Roma). Crediti: L. Sidoli/Inaf
«I fenomeni transienti permettono di studiare “in diretta” l’evoluzione dei sistemi di accrescimento su buchi neri supermassicci, dove la gravità e il campo magnetico si trovano a un regime energetico estremo. Sono quindi laboratori, che non riusciremo mai a riprodurre sulla terra, dove testare nuove leggi della fisica», sostiene Francesca Panessa, ricercatrice presso l’Inaf di Roma.
La coppia di due buchi neri si trova nel centro di una galassia chiamata 2Masx J21240027+3409114, situata a un miliardo di anni luce di distanza in direzione della costellazione del Cigno. I due buchi neri sono separati da circa 26 miliardi di chilometri e insieme contengono 40 milioni di volte la massa del Sole. Gli scienziati stimano che i buchi neri completino un’orbita ogni 130 giorni e che si fonderanno tra circa 70 mila anni.
«Finora sono pochi i fenomeni transienti osservati che presentano un oscillazione nella curva di luce come questo», sottolinea Bruni. «Le coppie di buchi neri supermassicci sono ancora un fenomeno raramente osservato, e ne vedremo molti di più con la prossima generazione di antenne gravitazionali a bassa frequenza (come Lisa, la Laser Interferometer Space Antenna). Inoltre, si aspettiamo di scoprire altri casi come questo nei prossimi anni, anche con l’accensione del Vera Rubin Telescope, che sarà in grado di scrutare ancora più a fondo l’universo».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “AT 2021hdr: A candidate tidal disruption of a gas cloud by a binary super massive black hole system”, di Hernández-García, A.M. Muñoz-Arancibia, P. Lira, G. Bruni, J. Cuadra, P. Arévalo, P. Sánchez-Sáez, S. Bernal, F.E. Bauer, M. Catelan, F. Panessa, M. Pávez-Herrera, C. Ricci, I. Reyes-Jainaga, B. Ailawadhi, V. Chavushyan, R. Dastidar, A. Deconto-Machado, F. Förster, A. Gangopadhyay, A. García-Pérez, I. Márquez, J. Masegosa, K. Misra, V.M Patiño-Alvarez, M. Puig-Subirà, J. Rodi e M. Singh
Domani, giovedì 14 novembre, dalle 20, ci troviamo in sede in Via Zauli Naldi 2 a #Faenza per osservare il cielo con #binocoli e #telescopi
Vedremo la #Luna quasi piena, #Saturno, #Giove, le #Pleiadi e tanto altro
Ingresso libero e #gratis, non mancare!
mobilizon.it/events/91717a30-e…
#astronomia #spazio #space #astronomy #astrofili #scienza #divulgazione #divulgazionescientifica #telescopio #binocolo #osservatorio #stargazing #starparty #evento #eventi #romagna #italia
Astronomia - Gruppo Forum reshared this.
Coincidenza cosmica spiega l’anomalia di Urano
Il Voyager 2 della Nasa ha catturato questa immagine di Urano mentre lo sorvolava nel 1986. Una nuova ricerca basata sui dati della missione mostra che poco prima del flyby si è verificato un evento inconsueto in cui il vento solare ha compresso la magnetosfera di Urano, spazzando via il plasma intorno al pianeta e alimentando fasce di radiazione intorno al pianeta con particelle cariche molto energetiche. Crediti: Nasa/Jpl-Caltech
Quando nel 1986 la sonda Voyager 2 della Nasa sorvolò Urano, regalò agli scienziati il primo – e finora unico – sguardo ravvicinato a questo strano pianeta che sembra rotolare lungo la sua orbita. Oltre alla scoperta di nuove lune e anelli, gli scienziati si trovarono di fronte a un mistero: un campo magnetico fortemente asimmetrico e fasci di particelle cariche altamente energetiche attorno al pianeta, tali da fargli guadagnare la reputazione di “anomalia” del Sistema solare.
Ora, una nuova ricerca ha analizzato i dati raccolti durante quel flyby, scoprendo che la fonte di quel mistero non fu altro che una coincidenza cosmica. È infatti emerso che nei giorni immediatamente precedenti il flyby del Voyager 2, il pianeta era stato colpito da un insolito vento solare che aveva “schiacciato” il campo magnetico del pianeta, comprimendo drasticamente la magnetosfera di Urano.
«Se il Voyager 2 fosse arrivato solo pochi giorni prima, avrebbe osservato una magnetosfera completamente diversa su Urano», dichiara Jamie Jasinski del Jet Propulsion Laboratory della Nasa, primo autore dello studio pubblicato su Nature Astronomy. «La sonda ha visto Urano in condizioni che si verificano solo il 4 per cento delle volte».
Le magnetosfere fungono da bolle protettive attorno ai pianeti con nucleo magnetico e campi magnetici, compresa la Terra, schermandoli dai getti di gas ionizzato – o plasma – che fuoriescono dal Sole nel vento solare. Imparare a conoscere meglio il funzionamento delle magnetosfere è importante per comprendere il nostro pianeta e quelli che si trovano in angoli poco visitati del Sistema solare, e oltre.
Ecco perché gli scienziati erano ansiosi di studiare la magnetosfera di Urano e ciò che videro nei dati del Voyager 2 nel 1986 li sconcertò. La sonda rilevò particelle cariche in movimento attorno a Urano, che creavano “cinture di radiazioni”. Le caratteristiche delle particelle cariche non seguivano i modelli magnetosferici tradizionali, probabilmente proprio a causa della forma irregolare del campo magnetico. Inoltre, apparentemente non c’era alcuna sorgente di particelle cariche per alimentare queste cinture; infatti, il resto della magnetosfera di Urano era quasi privo di plasma.
Il primo riquadro mostra la magnetosfera di Urano prima del sorvolo del Voyager 2 della Nasa. Il secondo pannello mostra come doveva essere la situazione durante il flyby del 1986, che ha dato agli scienziati una visione distorta della magnetosfera. Crediti: Nasa/Jpl-Caltech
La mancanza di plasma ha lasciato perplessi gli scienziati anche perché sapevano che le cinque principali lune di Urano nella bolla magnetica avrebbero dovuto produrre particelle ionizzate, come fanno le lune ghiacciate intorno ad altri pianeti esterni. Hanno quindi concluso che le lune dovevano essere inerti, senza alcuna attività in corso.
Perché non venne osservato alcun plasma e cosa stava alimentando le cinture di radiazioni? L’analisi dei nuovi dati indica proprio il vento solare come responsabile. Quando il plasma proveniente dal Sole ha colpito e compresso la magnetosfera, probabilmente ha spinto il plasma fuori dal sistema. Questo evento avrebbe anche intensificato la dinamica della magnetosfera, che avrebbe alimentato le cinture di radiazioni iniettandovi elettroni.
I risultati potrebbero essere una buona notizia per le cinque lune principali di Urano: alcune di esse potrebbero essere geologicamente attive. Avendo trovato una spiegazione per la temporanea mancanza di plasma, i ricercatori affermano che è plausibile che le lune abbiano in realtà sempre emesso ioni nella bolla circostante.
Gli scienziati planetari stanno cercando di approfondire le loro conoscenze sul misterioso sistema di Urano, che la National Academies’ 2023 Planetary Science and Astrobiology Decadal Survey ha indicato come obiettivo prioritario per una futura missione della Nasa. Nel frattempo, il Voyager 2 si trova a quasi 21 miliardi di chilometri dalla Terra. E prosegue il suo volo indomito.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “The anomalous state of Uranus’s magnetosphere during the Voyager 2 flyby” di Jamie M. Jasinski, Corey J. Cochrane, Xianzhe Jia, William R. Dunn, Elias Roussos, Tom A. Nordheim, Leonardo H. Regoli, Nick Achilleos, Norbert Krupp & Neil Murphy
Gruppo Astrofili Faenza APS
in reply to Gruppo Astrofili Faenza APS • • •E non temere il freddo! Segui i nostri consigli su come vestirsi per uscire a vedere le stelle d'inverno!
youtu.be/vMA_6Qgz_lE
- YouTube
youtu.beAstronomia - Gruppo Forum reshared this.