Prevedere il vento solare con le onde magnetiche
Immagine corona del Sole a disco intero, acquisita dallo strumento Aia a bordo della missione spaziale Solar Dynamic Observatory della Nasa, raffigurante la regione studiata nel lavoro pubblicato su PrL. Crediti: Adattata da Murabito et al. 2024
Capire appieno i processi fisici che governano l’attività del Sole, la nostra stella, è uno dei principali modi per migliorare la capacità di prevedere i fenomeni solari che possono produrre effetti nello spazio interplanetario e sui pianeti, in particolar modo la Terra, nell’ambito della cosiddetta meteorologia dello spazio (o space weather). Un nuovo passo in questa direzione arriva dal lavoro di un gruppo di ricercatrici e ricercatori dell’Istituto nazionale di astrofisica (Inaf) e dell’Agenzia spaziale italiana (Asi) pubblicato oggi sulla rivista Physical Review Letters. Lo studio suggerisce che, attraverso l’osservazione dei moti e delle riflessioni di un particolare tipo di onde magnetiche che si propagano negli strati più esterni dell’atmosfera del Sole sia possibile risalire alle regioni da cui si è originato il vento solare che possiamo osservare e analizzare quando raggiunge l’ambiente terrestre, migliorando così le informazioni sul suo percorso nello spazio e, quindi, le previsioni dei suoi potenziali effetti sul nostro pianeta.
Il lavoro, guidato dalla ricercatrice Inaf Mariarita Murabito, ha utilizzato i dati acquisiti dallo spettrografo ad alta risoluzione Eis a bordo della missione Hinode dell’agenzia spaziale giapponese Jaxa e dallo spettropolarimetro italiano ad alta risoluzione Ibis realizzato dall’Istituto Nazionale di Astrofisica e installato fino al 2019 al telescopio Dst (New Mexico, Usa) per studiare le onde di Alfvén. Queste, sono onde magnetiche prodotte nello strato visibile di colore rossastro dell’atmosfera solare, che prende il nome di cromosfera. Le onde di Alfvén possono trasportare quantità significative di energia lungo le linee del campo magnetico fino alla porzione più esterna dell’atmosfera solare, la corona, dove è stata osservata la presenza di un elevato flusso di questo tipo di onde. Infatti, nella corona, il campo magnetico gioca un ruolo fondamentale ed è responsabile di tutta l’attività solare che osserviamo: brillamenti, espulsioni di massa coronale, vento solare ed emissione di particelle energetiche.
Studi precedenti hanno rilevato che la composizione chimica della cromosfera e corona solare differiscono da quella della fotosfera. La teoria proposta nel 2004 da Laming per spiegare questo inatteso comportamento, attribuisce la variazione nella composizione chimica alla forza che agisce sulle particelle cariche quando esse si muovono nel campo elettromagnetico del Sole. Questo nuovo studio dimostra la connessione tra le onde di Alfvén e le anomalie di abbondanza degli elementi chimici presenti nella corona, misurando la direzione di propagazione delle onde stesse. Questa connessione è dovuta proprio all’azione di questa forza sul plasma della cromosfera.
«Le onde magnetiche e il loro legame con le anomalie chimiche erano state già rilevate nel 2021. Con il nostro studio abbiamo messo in evidenza, per la prima volta, la direzione di propagazione, ovvero la riflessione, di queste onde. Usando lo stesso modello teorico proposto e modificato negli ultimi 20 anni l’accordo con i dati è sorprendente», commenta l’autrice dell’articolo, Mariarita Murabito, ricercatrice dell’Inaf.
Questa connessione tra le onde di Alfvén e le proprietà del vento solare offre uno sguardo innovativo su come le interazioni magnetiche nel Sole possano influenzare l’ambiente spaziale circostante, portando a una maggiore comprensione dei processi che governano la fisica solare e dell’influenza dell’attività solare sui pianeti e corpi minori del Sistema solare.
«Le proprietà̀ chimiche del plasma solare restano invariate attraversando lo spazio interplanetario e possono essere utilizzate come tracciante delle sorgenti del vento solare e delle perturbazioni che in esso si propagano. Capire l’origine di questo tracciante ci offre uno strumento nuovo per comprendere in prospettiva in che modo il Sole governi le condizioni fisiche dello spazio interplanetario e quindi progredire anche nella comprensione dei fenomeni space weather», spiega Marco Stangalini, ricercatore dell’Asi e coautore dell’articolo. «Questi risultati, inoltre, ci permetteranno di sfruttare al meglio i dati ottenuti dalla missione Solar Orbiter dell’Esa e dalle future missioni Solar-C e Muse, alle quali l’Italia contribuisce, e che si focalizzeranno sullo studio della dinamica dell’atmosfera solare».
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Observation of Alfv́en Wave Reflection in the Solar Chromosphere: Ponderomotive Force and First Ionization Potential Effect”, di Mariarita Murabito, Marco Stangalini, J. Martin Laming, Deborah Baker, Andy S. H. To, David M. Long, David H. Brooks, Shahin Jafarzadeh, David B. Jess e Gherardo Valori
Come rivelare la natura quantistica della gravità
Ludovico Lami, fisico, primo autore dello studio pubblicato su Physical Review X. Originario di Pisa, dopo la laurea alla Scuola Normale, un dottorato a Barcellona, due post-doc a Nottingham (Regno Unito) e in Germania, ora è assistant professor all’Università di Amsterdam. Crediti: QuSoft
Cercare di comprendere quale sia la natura della forza di gravità è una delle sfide della fisica moderna. È una forza quantistica? Oppure è una forza “classica”, per cui una descrizione geometrica su larga scala è sufficiente? O è qualcosa di ancora diverso? Fino ad ora, tutte le proposte sperimentali per rispondere a queste domande si sono basate sulla creazione del fenomeno quantistico dell’entanglement tra masse pesanti e macroscopiche. Ma più un oggetto è pesante, più tende a perdere le sue caratteristiche quantistiche e diventare “classico”, rendendo incredibilmente difficile far comportare una massa pesante come una particella quantistica.
Sembrerebbe dunque di essere in una sorta di vicolo cieco: abbiamo teoricamente uno strumento, l’entanglement, che potrebbe aiutarci a chiarire dubbi fondamentali sulla natura della gravità, ma non riusciamo a mettere in piedi alcun esperimento, per adesso, che ci possa aiutare a raggiungere un tanto agognato responso. Ora potrebbe esserci un piccolo spiraglio, seppur ancora teorico, di via d’uscita: un articolo pubblicato questo mese su Physical Rewiew X da Ludovico Lami dell’Università di Amsterdam (Paesi Bassi) e Julen Pedernales e Martin B. Plenio, due fisici dell’Università di Ulm (Germania) propone un modo alternativo per testare la natura della gravità.
Qual è questa proposta? Quale idea ci sta dietro? Lo abbiamo chiesto al primo autore dell’articolo, Ludovico Lami appunto, fisico originario di Pisa, laurea alla Scuola Normale, dottorato a Barcellona, due postdoc a Nottingham (Regno Unito) e in Germania e oggi assistant professor all’Università di Amsterdam.
Lo scopo del vostro studio è rivelare la “quantumness of gravity”. Di che si tratta? E come la tradurrebbe in italiano?
«La natura quantistica della gravità, non c’è traduzione migliore. Semplicemente, si tratta di capire se l’interazione gravitazionale tra sistemi quantistici è quantistica, più genericamente non classica, oppure è descritta, come dice Einstein, da un campo puramente classico».
Quindi il vostro obiettivo è trovare un modo per mettere alla prova questa natura quantistica della gravità?
«In realtà si dovrebbe dire più accuratamente non classica. Questo perché l’esperimento che proponiamo non confermerebbe la natura quantistica della gravità: il suo scopo principale è confutare la sua natura puramente classica. L’esperimento potrebbe anche fornire indizi a supporto del fatto che sia quantistica, ma appunto, lo scopo primo è falsificare l’ipotesi che sia un campo classico a mediare le interazioni gravitazionali».
Dagli studi precedenti sembrava che gli unici esperimenti possibili dovessero basarsi sul fenomeno dell’entanglement. In che modo?
«Il metodo che fa affidamento sull’entanglement è stato proposto da Richard Feynman in una famosa conferenza a Chapel Hill nel 1957 e si basa su un’idea abbastanza semplice. Praticamente, si prende una massa sorgente che può trovarsi in uno stato di sovrapposizione, cioè sostanzialmente può trovarsi in due punti diversi dello spazio (immaginiamo uno a destra e uno a sinistra). Poi si considera di avere un’altra massa di test. Come si comporterà quest’ultima? Verrà attratta dalla massa precedente. Ma poiché la massa sorgente può trovarsi in due punti diversi dello spazio, avremo che la massa di test entrerà in uno stato di sovrapposizione anch’essa. Si forma perciò uno stato entangled: se la massa sorgente è a sinistra, la massa di test viene attratta a sinistra, se la massa sorgente è a destra viene attratta a destra. Perciò se in qualche modo possiamo certificare che l’unica interazione fra la massa sorgente e quella di test è la gravità e si è formato entanglement, allora vuol dire che il campo gravitazionale della massa sorgente è entrato in una sovrapposizione anch’esso, dunque non potrebbe avere una natura semplicemente classica».
E questo tipo di esperimento ha portato a qualche risultato concreto?
«No, perché si sta parlando di esperimenti estremamente complicati da realizzare. Per essere posta in uno stato quantistico di sovrapposizione, la massa deve essere molto piccola. Questo perché questi stati quantistici sono assai fragili, perciò è necessario che la massa sia completamente isolata, cioè si trovi in uno stato delocalizzato. Questo però non si riesce a fare per una massa abbastanza grande da generare un campo gravitazionale misurabile».
Schema della bilancia di torsione utilizzata da Henry Cavendish nel 1797 per misurare la forza di gravità. Analoghi “oscillatori armonici” potrebbero ora essere utilizzati per rivelare la natura quantistica della gravità
Il vostro approccio invece qual è?
«Quello che Feymann intendeva dire con il suo esperimento è che, se la gravità è classica, si comporta come un sistema puramente classico che però parla localmente con i due sistemi quantistici. Questo paradigma di due soggetti quantistici che comunicano attraverso un canale classico prende il nome di paradigma Locc (Local Operations and Classical Communication). Dunque, quello che diciamo nel nostro articolo è: partendo dal presupposto che se la gravità è classica agisce come una Locc, riusciamo a trovare delle condizioni a cui queste Locc devono per forza obbedire? E riusciamo a progettare un esperimento che potenzialmente violi queste condizioni? Quindi quello che noi deriviamo sono le condizioni che una qualunque dinamica su un sistema bipartito deve avere se vuole essere Locc. Noi, perciò, progettiamo un esperimento che cerchi di testare se queste condizioni, che chiamiamo Locc inequalities, siano verificate o meno».
Ma concretamente in cosa consiste?
«Allora questa è l’idea generale dell’esperimento. Poi noi nell’articolo consideriamo anche un’implementazione specifica, però, secondo me, è importante dire che indipendentemente dall’implementazione il concetto dell’esperimento è generale. Comunque, l’applicazione specifica di cui noi parliamo nell’articolo è molto semplice: prendiamo n oscillatori armonici quantistici, cioè n “massine” attaccate a molle quantistiche, che essendo dotate di massa interagiscono con la gravità. Le prepariamo in quelli che in fisica chiamiamo stati coerenti, stati molto classici ed estremamente facili da preparare. Le masse iniziano ad oscillare e si influenzano a vicenda, ma nonostante interagiscano tra di loro, dopo l’interazione rimangono ancora degli stati coerenti: non si è creato entanglement. Quello che noi riusciamo a dimostrare è che questa dinamica sul sistema quantistico non è una Locc. Quindi, sostanzialmente, l’esperimento funziona così: si prendono degli oscillatori armonici, noi abbiamo preso per esempio dei pendoli a torsione, si osserva quello che succede e si cerca di verificare che questa dinamica non sia compatibile con un campo gravitazionale puramente classico».
Ma è tutto teorico o si potrebbe realizzare? Che cosa manca per farlo?
«Sì, per ora è soltanto una proposta. Sostanzialmente quello che manca sono degli oscillatori di qualità. Infatti, prima di tutto bisognerebbe raffreddarli fino allo stato vicino al vuoto. Poi occorrerebbe conoscere con estrema precisione le frequenze di oscillazione, che tra l’altro dovrebbero essere molto basse, affinché gli oscillatori abbiano il tempo di influenzarsi. Io sono un teorico, non uno sperimentale, però da quello che so non esistono ancora degli oscillatori di cui si possa conoscere la frequenza esatta con una precisione così alta».
Per saperne di più:
- Leggi su Physical Review X l’articolo “Testing the Quantumness of Gravity without Entanglement”, di Ludovico Lami, Julen S. Pedernales e Martin B. Plenio
Raggi X da una bocca di scarico del centro galattico
L’immagine che vedete in questa pagina (in particolare il riquadro evidenziato in alto) mostra quella che sembra essere una “bocca di scarico” collegata a un camino, dalla quale fuoriesce gas caldo proveniente da una regione in prossimità del buco nero supermassiccio al centro della Via Lattea, Sagittarius A* (o Sgr A*). Questo “sfiato” si trova a circa 700 anni luce dal centro della nostra galassia ed è stato descritto in uno studio pubblicato su The Astrophysical Journal Letters che vede tra gli autori Gabriele Ponti dell’Inaf di Brera.
L’immagine mostra una regione vicina al centro della nostra galassia, in luce X e radio. Nella parte inferiore, vicino al centro, c’è una regione particolarmente brillante, dove si annida Sagittarius A*. Gran parte dell’immagine è piena di vaporose nubi blu che mostrano i raggi X rilevati da Chandra. In alcuni punti, le nubi blu sembrano formare delle sfere di luce color verde acqua: sono aloni di polvere, che riflettono i raggi X di sorgenti al loro interno. Al centro dell’immagine, da Sagittarius A* sembra ergersi un pilastro di luce blu. Si tratta di un camino di gas caldo circondato da nubi rosse piene di stelle, che si presentano come piccole macchie rosse. Vicino alla cima del pilastro blu c’è una strisciolina blu, inclinata, delineata da un riquadro grigio, che si ritiene essere lo “sfiato” del camino. A sinistra è riportato il contenuto del riquadro ingrandito e osservato da Chandra. Crediti: X-ray: Nasa/Cxc/Univ. of Chicago/S.C. Mackey et al.; Radio: Nrf/Sarao/MeerKAT; Image Processing: Nasa/Cxc/Sao/N. Wolk
Il camino di gas caldo vicino al centro galattico era già stato individuato utilizzando i dati a raggi X di Chandra della Nasa e di Xmm-Newton dell’Esa. Nell’immagine qui riportata, i raggi X osservati da Chandra (in blu) sono stati combinati con i dati radio del telescopio MeerKat (in rosso). L’emissione radio rilevata da MeerKat mostra l’effetto dei campi magnetici che racchiudono il gas nel camino.
«In questo studio ci siamo focalizzati nell’analisi di un puntamento particolarmente profondo di una parte della chimney (in italiano, camino) effettuato con il satellite per astronomia X della Nasa Chandra. In particolare, Chandra ha osservato una piccola regione di circa 0.01 gradi quadri per un periodo molto lungo equivalente a circa 12 giorni. Questo ci ha permesso di ottenere, almeno in questa regione, una visione molto dettagliata dell’emissione diffusa», racconta Ponti a Media Inaf. «Grazie alla qualità dei dati e agli eccellenti specchi di Chandra, una miriade di sorgenti puntiformi deboli, che normalmente non riusciremmo a distinguere e ci apparirebbero come emissione diffusa (non essendo risolte individualmente) sono state risolte e rimosse. Quindi la lunga esposizione e la rimozione del contributo delle sorgenti puntiformi ci hanno permesso di avere una migliore visione dell’emissione diffusa. Lo spettro Chandra dell’emissione diffusa ci ha confermato che la radiazione diffusa è prodotta da plasma caldo e dall’immagine è emerso che questo plasma si distribuisce formando quello che appare come la sezione di un canale, attraverso cui potrebbe appunto passare un flusso di gas caldo».
Per enfatizzare le caratteristiche del camino e dello sfiato, l’immagine è stata ruotata di 180 gradi rispetto all’orientamento convenzionale utilizzato dagli astronomi, in modo che il camino sia puntato verso l’alto. La condotta di scarico è evidenziata nell’inserto in alto a sinistra, che include solo i dati di Chandra. In bianco appaiono diverse creste di raggi X più luminosi, approssimativamente perpendicolari al piano della Via Lattea. I ricercatori pensano che si tratti delle pareti di un camino cilindrico, che aiuta a incanalare il gas caldo mentre si muove verso l’alto lungo il camino e si allontana dal centro galattico.
«È interessante che questo canale punta verso la direzione di Sgr A*, il buco nero supermassiccio al centro della Via Lattea, suggerendo quindi una possibile relazione causale (sebbene questa relazione non sia ancora provata)», spiega Ponti. «Attorno a questo canale osservato in banda X, si trova emissione in banda radio, il che è normalmente osservato quando un potente vento o shocks interagiscono con il mezzo interstellare, scaldandolo o spazzandolo via. Pensiamo quindi che questi camini siano prodotti dall’attività presente e/o passata che è avvenuta al centro della Via Lattea, per esempio dovuta a Sgr A*».
Una versione etichettata dell’immagine fornisce la posizione del condotto di scarico, del camino, del buco nero supermassiccio al centro della Via Lattea e del piano della galassia. Crediti: X-ray: Nasa/Cxc/Univ. of Chicago/S.C. Mackey et al.; Radio: Nrf/Sarao/MeerKAT; Image Processing: Nasa/Cxc/Sao/N. Wolk
Gli autori dello studio ritengono che la condotta di scarico si sia formata quando il gas caldo che sale attraverso il camino ha colpito il gas più freddo che si trovava sul suo percorso. La luminosità delle pareti della condotta nei raggi X sarebbe causata dalle onde d’urto – simili ai boom sonici degli aerei supersonici – generate da questa collisione. Il lato sinistro del condotto di scarico è probabilmente particolarmente luminoso ai raggi X perché il gas che scorre verso l’alto colpisce la parete del canale con un angolo più diretto e con maggiore forza rispetto alle altre regioni.
I ricercatori pensano che il gas caldo provenga molto probabilmente da una sequenza di eventi che coinvolgono materiale in caduta verso Sgr A*, e che le eruzioni dal buco nero abbiano poi spinto il gas verso l’alto, lungo il camino e verso l’esterno, attraverso la condotta di scarico.
Non è chiaro quanto spesso il materiale cada su Sgr A*. Studi precedenti hanno indicato che ogni poche centinaia di anni si verificano drammatici brillamenti di raggi X in corrispondenza o in prossimità della posizione del buco nero centrale, per cui questi potrebbero svolgere un ruolo importante nello spingere il gas caldo verso l’alto attraverso il condotto di scarico. Gli astronomi stimano inoltre che il buco nero galattico manifesti potenti ed esplosivi rilasci di energia ogni 20mila anni circa. Gran parte di questa energia sarebbe destinata a salire attraverso lo sfiato del camino.
«Per il momento l’associazione tra questo camino e l’attività al centro della Via Lattea è basata sulla sua morfologia, cioè il camino punta verso il centro. Infatti, se il camino fosse dovuto a Sgr A*, allora ci dovrebbe essere (o essere stato) un flusso di plasma caldo da Sgr A*, attraverso questo camino, fino alla base delle bolle di Fermi e di eRosita», conclude Ponti. «In futuro, avendo a disposizione un calorimetro in banda soft X, potremmo misurare le proprietà, come la velocità di deflusso o la turbolenza, del plasma all’interno di questi camini e quindi misurare se effettivamente è presente un vento prodotto da Sgr A* e quali sono le sue proprietà».
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “X-rays from a Central “Exhaust Vent” of the Galactic Center Chimney” di Scott C. Mackey, Mark R. Morris, Gabriele Ponti, Konstantina Anastasopoulou e Samaresh Mondal
Alla ricerca di anomalie con il transfer learning
A breve uscirà sulla rivista Astronomy & Astrophysics uno studio relativo a un nuovo metodo basato sul transfer learning che si sta rivelando molto utile per trovare anomalie nelle serie temporali astronomiche. Il transfer learning (o apprendimento per trasferimento) è una tecnica di apprendimento automatico in cui un modello addestrato su un compito specifico viene riutilizzato come punto di partenza per un altro compito. Questo approccio è particolarmente utile quando si hanno pochi dati per il nuovo compito, poiché sfrutta la conoscenza acquisita durante l’addestramento su un set di dati più ampio e diverso. Per capire come lavora il nuovo metodo ideato e realizzato anche grazie a ricercatori dell’Inaf, Media Inaf ne ha parlato con il primo autore, Stefano Cavuoti dell’Inaf di Napoli, ricercatore ed esperto di intelligenza artificiale, e con la coautrice Demetra De Cicco, ricercatrice dell’Università di Napoli Federico II.
Demetra De Cicco, ricercatrice dell’Università degli Studi di Napoli Federico II.
Nel vostro articolo presentate un nuovo metodo per l’identificazione di epoche problematiche nelle serie temporali astronomiche. Di quale serie temporali si tratta e cosa si intende per epoche problematiche?
[De Cicco] «Si tratta di osservazioni ripetute con un’elevata cadenza (circa ogni tre giorni, anche se divise in stagioni temporalmente separate) della stessa regione di cielo; dunque, le stesse sorgenti (o oggetti) vengono osservate ripetutamente, in tempi diversi. In totale possediamo oltre ventimila sorgenti con una cinquantina di osservazioni ciascuna, che diverranno di più non appena finiremo la riduzione dei dati. Nei dati astronomici possono esserci problemi, a volte relativi alla procedura che passa dal dato grezzo al dato anche detto ridotto su cui normalmente si lavora, ma per lo più dovuti a qualcosa che accade visivamente in prossimità dell’oggetto. Ad esempio, per le osservazioni da terra un tipico problema è il transito di un satellite o di qualche altro corpo celeste, che si manifesta con una traccia lineare nelle immagini. Questo transito nei casi peggiori può completamente coprire l’oggetto di interesse in una delle osservazioni, ma anche quando è solo relativamente vicino può andare a influenzare il calcolo del background o la fotometria di apertura, alterando la misura della magnitudine e quindi tutti i valori statistici che possiamo estrarre dalla curva di luce. In alcuni casi questo effetto è poco rilevante ma in alcuni casi può essere piuttosto evidente e falsare parzialmente l’analisi delle curve di luce stesse».
In che cosa consiste questo nuovo metodo che avete sviluppato?
[Cavuoti] «Il nostro metodo utilizza una metodologia dell’intelligenza artificiale chiamata transfer learning ovvero la capacità di trasferire parte di ciò che hanno imparato da un ambito a un altro. Vogliamo fare questa cosa perché come spesso si dice gli algoritmi di intelligenza artificiale sono buoni tanto quanto i dati con cui si vanno ad addestrare, frase che è in parte un’esagerazione ma non del tutto. Spesso in astrofisica uno dei problemi che si hanno applicando questo tipo di metodologie è proprio avere un insieme di dati abbastanza ampio e abbastanza ben definito da poterli applicare. Nella maggioranza dei casi abbiamo o insiemi di dati molto grandi ma con incertezze significative su “chi è cosa” oppure insiemi molto ben conosciuti ma di dimensioni relativamente piccole (per gli standard di questi algoritmi). La terza strada sono ovviamente le simulazioni che però pure sono soggette a criticità quando poi ci si confronta con il dato reale. In questo caso la dimensione della singola serie temporale è abbastanza ridotta, al di sotto del centinaio di epoche e rende problematico un addestramento specifico».
Stefano Cavuoti è un ricercatore dell’Osservatorio Astronomico di Capodimonte, esperto di Intelligenza Artificiale. Nel 2016 ha ricevuto il premio “Outstanding Publication in Astrostatistics PostDoc Award” dell’International Astrostatistics Association. È uno dei builder della missione Euclid. Crediti: S. Cavuoti
E come avete fatto?
[Cavuoti] «Abbiamo considerato un dataset molto noto e molto utilizzato nell’ambito dell’intelligenza artificiale: ImageNet. Si tratta di un insieme estremamente eterogeneo che contiene milioni di immagini suddivise in migliaia di categorie che vanno da cani, gatti, biciclette e auto. Su questo dataset si sono cimentati, e si cimentano ogni anno, alcuni tra i migliori metodi per la classificazione di immagini sviluppati nell’ambito dell’intelligenza artificiale. Noi siamo andati a considerare quello che è uno dei metodi che ha funzionato meglio EfficientNet-b0 e ne abbiamo estratto un pezzo».
Perché solo un pezzo? In che senso?
[Cavuoti] «Semplificando al massimo, praticamente tutti i metodi di intelligenza artificiale che lavorano sulla classificazione delle immagini sono composti da due parti: la prima, tramite la convoluzione con dei filtri (o Kernel) e tramite degli strati di compressione, estrae quelle che si chiamano in gergo feature e che sono dei parametri che rappresentano l’immagine. La seconda è il classificatore vero e proprio che lavora sulle feature estratte e può essere ad esempio una rete neurale. L’algoritmo da un lato deve imparare quali sono le feature più efficienti per effettuare il compito che gli è stato affidato (nel caso di ImageNet, classificare immagini), ossia deve imparare quali feature sono in grado di rappresentare in maniera quanto più efficace possibile l’immagine di partenza. Dall’altro, deve ottimizzare il processo di apprendimento vero e proprio del classificatore. Quello che andiamo a fare noi è eliminare la seconda parte dal sistema che ha imparato a classificare le immagini, lasciando solo quella di estrazione delle feature, sperando che la varietà delle immagini sia tale da permettere a queste feature di essere così generali da essere adeguate per descrivere anche le immagini astrofisiche».
Lo avete già testato su dati astronomici?
[De Cicco] «Sì, lo abbiamo utilizzato su un dataset di immagini prese da Vst (Vlt Survey Telescope) che sono per noi particolarmente interessanti perché sono uno dei pochi dataset che sarà confrontabile con i dati survey Lsst del Vera C. Rubin Observatory».
Alcune immagini problematiche identificate dal metodo presentato in questo articolo, che verrà illustrato anche al simposio Bridging Knowledge: Artificial Intelligence organizzato da Agenzia spaziale italiana questa settimana. Crediti: Cavuoti et al. 2024
Quali sono i vantaggi nella sua applicazione?
[Cavuoti] «Nel momento in cui i dati astronomici stanno aumentando sempre più, e in particolare le serie temporali che arriveranno da Lsst, non è ovviamente possibile analizzare le curve di luce una per una come magari si faceva in passato, attualmente nella maggior parte dei casi si fanno dei tagli – come ad esempio il sigma clip – che rimuovono alcuni valori estremi ma non riescono a individuare tutte le possibili problematiche che possiamo andare a trovare nelle immagini. Il nostro metodo, non cercando semplicemente un picco (o una valle) nella curva di luce, è in grado di identificare alcune di queste epoche che erano sfuggite, come ad esempio quelle che si possono vedere nella figura accanto».
Esistono limitazioni alla sua applicazione?
[De Cicco] «Sì, ci siamo resi conto che anche il nostro metodo da solo trascurava alcune epoche che invece il sigma clip riusciva a individuare (sebbene va detto che entrambi i metodi riescono a identificare agilmente tutte le epoche più catastrofiche). Abbiamo quindi deciso di applicarli in sequenza e, almeno nel dataset che abbiamo utilizzato per i test, dopo una lunga ispezione manuale non abbiamo trovato alcuna epoca problematica ulteriore da eliminare».
Per saperne di più:
- Leggi su arXiv il preprint dell’articolo in uscita su Astronomy & Astrophysics “Identification of problematic epochs in Astronomical Time Series through Transfer Learning” di Stefano Cavuoti, Demetra De Cicco, Lars Doorenbos, Massimo Brescia, Olena Torbaniuk, , Giuseppe Longo e Maurizio Paolillo
Viaggio al termine della pipeline
Le unità di campo integrale combinano le capacità di imaging e spettroscopiche per acquisire una spettroscopia bidimensionale risolta spazialmente in una singola esposizione astronomica. Disperdendo la luce da elementi spaziali discreti del campo visivo, viene acquisita un’immagine della sorgente a ogni lunghezza d’onda e, in modo equivalente, uno spettro per ogni posizione spaziale. Crediti: Stsci
Lo studiano da così tanto tempo che ormai lo chiamano semplicemente il quasar. I suoi fotoni hanno viaggiato per 13 miliardi di anni. E alcuni di loro – i protagonisti dell’osservazione che stiamo per raccontarvi – una fine migliore non potevano farla: la loro avventura si è infatti conclusa, a circa un milione e mezzo di km dalla Terra, andando a impattare sull’unità a campo integrale (Ifu, Integral Field Unit) dello spettrografo NirSpec di Jwst, il telescopio spaziale Webb.
Questo avveniva fra il 22 e il 23 settembre 2022, durante le sette ore e mezza d’esposizione dedicate al Programma 1554, uno dei nove progetti a guida italiana del primo ciclo osservativo di Jwst. Il Programma 1554 è guidato da un ricercatore dell’Istituto nazionale di astrofisica, Roberto Decarli, e ha come obiettivo osservare la fusione fra la galassia che ospita il quasar – nome in codice, PJ308-21 – e due sue galassie satelliti. Per ottenere quelle sette ore e mezza di tempo del miglior telescopio spaziale mai realizzato, Decarli e la sua squadra si sono dati da fare per anni, e hanno dovuto superare una durissima selezione. D’altronde stiamo parlando di tempo davvero prezioso: volendo dargli un prezzo, oltre 200mila euro all’ora, dicono le stime. Detto altrimenti, il pacchetto di dati scientifici – uno fra i primi inviati a terra dal telescopio – contenente quelle sette ore e mezza d’osservazioni valeva più o meno un milione e mezzo di euro. Possiamo immaginare l’eccitazione con la quale Decarli e colleghi, appena saputo che era pronto per essere prelevato, lo hanno scaricato dall’archivio di Jwst e lo hanno aperto.
Il quasar – il loro quasar – era finalmente lì, nel disco del pc. Ed è da lì che ha inizio la seconda parte del viaggio dei suoi fotoni, divenuti a questo punto bit. Bit che solo poche persone al mondo sono in grado d’interpretare. Una di queste persone è Federica Loiacono, astrofisica che lavora con Decarli all’Inaf di Bologna. Ancora le vengono i brividi a ricordare quell’insolito unboxing. «All’inizio, quando sono arrivati i dati, non si capiva niente», dice a Media Inaf. «Non si vedeva proprio, questo quasar. Eravamo preoccupati. Ci siamo messi attorno a un tavolo per cercare di capire cosa c’era che non andava».
In realtà non c’era nulla che non andava. È solo che le osservazioni, in particolare queste spettroscopiche, non vengono servite bell’e pronte, chiavi in mano: richiedono una paziente opera di pulitura e ricostruzione, la cosiddetta riduzione. Una serie precisa di algoritmi da applicare a cascata che gli addetti ai lavori chiamano pipeline, nel corso della quale l’immagine – o meglio, in questo caso, lo spettro – pian piano emerge. È un po’ come quando si fa una risonanza magnetica: senza una complessa fase di post-processing, i dati acquisiti dai ricevitori sarebbero del tutto incomprensibili.
Se la pipeline di Jwst è dunque una sorta di bacchetta magica in grado di svelare l’autentico aspetto degli oggetti che si celano nel mare di zeri e di uni inviati dal telescopio, la sua Hermione – perlomeno qui in Italia, dov’è referente per la riduzione dei dati NirSpec al Jwst Support Center – è proprio Federica Loiacono. Originaria di Sannicandro di Bari, appassionata di fotografia e da qualche mese anche collaboratrice di Media Inaf, quando l’abbiamo raggiunta per farci raccontare la storia del “suo” quasar si trovava alle Hawaii, nella città di Hilo, alle pendici del vulcano Manua Kea, a insegnare ad alcuni astronomi che lavorano laggiù come si riducono i dati di Webb: una competenza che Loiacono si è costruita nel tempo, partendo da una serie di webinar organizzata dallo Space Telescope Science Institute di Baltimora, e che ora si sta rivelando preziosissima.
Spettro del quasar PJ308-21 ottenuto con lo strumento NirSpec di Webb. Si notano le quattro righe dell’idrogeno (H) alfa, beta, gamma e delta della serie di Balmer. Crediti: F. Loiacono et al., A&A, 2024
Ed è così che in pochi giorni, adattata la pipeline ad abili colpi di Python, Loiacono riesce a estrarre il grafico che vedete qui sopra. A noi può lasciarci del tutto indifferenti, ma per chi sa cosa significhi ottenere lo spettro del cuore di una galassia nata a ridosso del big bang, e distante oggi da noi decine di miliardi di anni luce, è qualcosa di arduo anche solo da descrivere.
«Quando ho visto le righe», dice Loiacono riferendosi ai picchi della curva nera, «sono rimasta impressionata. Lo abbiamo presentato a un workshop in Germania la settimana successiva, era la prima volta che venivano mostrati dati da Jwst di un quasar così distante, e sono rimasti tutti a bocca aperta: non s’era mai vista una cosa del genere. È una fra le prime volte in cui riusciamo a distinguere le righe H-alfa e H-beta in un oggetto a questa distanza. E quest’ultima è il tracciante principe per stimare la massa di un buco nero».
Le righe H-alfa e H-beta citate da Loiacono sono le firme della presenza, là attorno al buco nero supermassiccio che alimenta il quasar, di nubi di idrogeno. La riga H-beta, in particolare, è un indicatore molto affidabile per stimare la velocità alla quale il gas sta orbitando intorno al buco nero. E mettendo insieme raggio e velocità diventa possibile calcolare la massa di quell’antichissimo buco nero: il risultato, riportato questa settimana su Astronomy & Astrophysics in uno studio guidato da Loiacono e Decarli, dice 2.7 miliardi di masse solari. Confermando una precedente stima ottenuta da un’altra riga spettrale, quella del magnesio, osservata con Vlt, il Very Large Telescope dell’Eso.
Federica Loiacono, ricercatrice all’Inaf di Bologna e prima autrice dello studio su PJ308-21 in uscita su A&A, qui alle Hawaii davanti allo spettro del quasar da lei ottenuto usando i dati dello spettrografo NirSpec di Jwst. Crediti: F. Loiacono/Inaf
Un buco nero di mole spaventosa, per un’epoca così remota. Cresciuto dunque molto velocemente. Troppo, secondo alcuni modelli teorici. Ma l’incredibile nitidezza dello spettro di Webb non lascia scelta: se c’è qualcosa da rivedere, non sono i dati, piuttosto sono le teorie – alcune teorie, alcuni modelli, appunto.
«Paradossalmente, ottenere uno spettro così perfetto ci ha messo in crisi», spiega infatti Loiacono. «Trovare un modello che potesse riprodurre questi dati non è stato facile. Avendo questa forma estremamente definita, che sembra essa stessa un modello, ci ha dato del filo da torcere. Ci permette di escludere molti modelli, certo, e al tempo stesso ne mette in evidenza i limiti».
E a proposito di limiti: finora abbiamo parlato di un solo quasar. Per rimettere mani alla teoria occorrerà osservarne parecchi – sempre con Webb, sempre con il suo impareggiabile strumento NirSpec. «La nostra speranza è di poter ripetere lo studio su un’altra ventina di oggetti simili», conclude Loiacono. La pipeline è già lì pronta, non aspetta altro.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “A quasar-galaxy merger at z∼2: black hole mass and quasar properties from the NIRSpec spectrum”, di Federica Loiacono, Roberto Decarli, Marco Mignoli, Emanuele Paolo Farina, Eduardo Bañados, Sarah Bosman, Anna-Christina Eilers, Jan-Torge Schindler, Michael A. Strauss, Marianne Vestergaard, Feige Wang, Laura Blecha, Chris L. Carilli, Andrea Comastri, Thomas Connor, Tiago Costa, Massimo Dotti, Xiaohui Fan, Roberto Gilli, Hyunsung D. Jun, Weizhe Liu, Alessandro Lupi, Madeline A. Marshall, Chiara Mazzucchelli, Romain A. Meyer, Marcel Neeleman, Roderik Overzier, Antonio Pensabene, Dominik A. Riechers, Benny Trakhtenbrot, Maxime Trebitsch, Bram Venemans, Fabian Walter e Jinyi Yang
Tre lampi gamma al rallentatore cosmologico
Carlo Luciano Bianco, ricercatore all’Icranet e primo autore dello studio pubblicato su ApJ
I lampi di raggi gamma – o Grb, dall’inglese gamma ray burst – hanno una caratteristica antipatica, dal punto di vista di chi si trova a studiarli: durano quanto un lampo, appunto. Come il lampo di Pascoli, quello che “s’aprì si chiuse, nella notte nera”. Dunque per analizzarli fin dagli esordi occorre coglierli nel tratto – perlopiù brevissimo – fra la loro comparsa e la loro scomparsa. Come fare? Occorrono telescopi rapidissimi, telescopi spaziali come Swift, pronti a reagire senza indugio al cosiddetto trigger, l’istante in cui la sorgente del Grb preme il grilletto. Ma viene in aiuto anche la Natura: grazie a un fenomeno noto come dilatazione cosmologica del tempo – cosmological time dilation, in inglese – che consente di osservare eventi molto distanti al rallentatore. Permettendo così di guadagnare secondi preziosi.
Ed è proprio avvalendosi di questo effetto che un team di ricercatori guidato dall’Icranet di Pescara, fra i quali Massimo Della Valle dell’Inaf, ha studiato attentamente 368 Grb osservati da Swift tra il 2005 e il 2023. Concentrandosi in particolare su tre fra i più lontani, e dunque più rallentati, sono riusciti a ricostruire uno scenario che unifica i progenitori dei Grb “lunghi”, quelli di solito associati al collasso di una stella di grande massa, e dei Grb “corti”, associati invece alla fusione di stelle di neutroni. Entrambi potrebbero avere un’origine comune: un sistema binario di stelle massicce. In che modo? Lo abbiamo chiesto al primo autore dello studio pubblicato la settimana scorsa su ApJ, Carlo Luciano Bianco – nato a Roma nel 1977 «da genitori entrambi chimici, quindi io sono la pecora nera della famiglia», dice a Media Inaf, e con «un figlio che per il momento è ancora troppo piccolo per interessarsi a questi problemi».
Il vostro studio si basa su un fenomeno fisico, la dilatazione cosmologica del tempo, grazie al quale più un processo è avvenuto lontano nello spaziotempo e più lo vediamo accadere rallentato. È così? E rallentato quanto, nel caso dei vostri Grb – i tre lampi gamma sui quali vi siete concentrati?
«Sì, è precisamente così. A causa dell’espansione dell’universo, quanto più un fenomeno si svolge lontano da noi tanto più lo vediamo “rallentato”. Se il fenomeno dura un tempo t, a noi appare durare un tempo t moltiplicato per (1+z), dove z è un numero corrispondente al cosiddetto redshift cosmologico del punto in cui il fenomeno si sviluppa: più è distante da noi, più z aumenta. I Grb sono tra gli oggetti più luminosi dell’universo, se i nostri occhi potessero vedere nei raggi gamma ci abbaglierebbero. Quindi li possiamo vedere anche a distanze molto grandi, fin quasi a z=10, corrispondente a poche centinaia di milioni di anni dopo il Big Bang, per capirci. Per un Grb a z=3, per esempio, vediamo l’emissione durare il quadruplo di quello che è durata in realtà, essendo 1+z=4. I tre Grb analizzati in dettaglio nel nostro articolo, che si trovano a z=4.6, z=8.2 e z=9.4, li vediamo rallentati rispettivamente di 5.6, 9.2 e 10.4 volte».
Questo rallentamento cosmologico è un fenomeno che riguarda solo i Grb o è comune a tutti i processi osservati ad alto redshift?
«È un effetto di cosmologia assolutamente generale, non riguarda un oggetto specifico. Qualsiasi fenomeno osservato a un redshift z ci appare rallentato di un fattore 1+z. Si vede molto bene nei Grb perché li osserviamo a grande distanza. Ma anche, ad esempio, nelle supernove che osserviamo tra z=0.5 e z=1 l’effetto è ben visibile».
Veniamo allo strumento da voi utilizzato, il telescopio spaziale Swift. Il suo limite, scrivete, è che, per quanto sia velocissimo, dal momento del trigger – vale a dire, da quando si accorge del lampo gamma – impiega circa 40 secondi per puntare verso la sorgente. In che modo la dilatazione cosmologica del tempo lo aggirerebbe? Voglio dire, se il tempo apparisse rallentato dieci volte vi perdereste comunque i primi 4 secondi…
«Va anzitutto ricordato che Swift ha portato una vera e propria rivoluzione nel settore. Basti pensare che prima di Swift il tempo necessario a ripuntare un Grb per osservarlo nei raggi X era di almeno 8 o 10 ore. Grazie a Swift è sceso di colpo a qualche decina di secondi, e questo ci ha permesso di scoprire una quantità impressionante di fenomeni che si svolgono nei raggi X nelle prime decine di minuti di un Grb. Chiaramente, da bravi astrofisici, chiediamo sempre la Luna, e quindi adesso vogliamo cercare di arrivare a osservare nei raggi X il più vicino possibile al momento dell’esplosione. Nel nostro articolo facciamo appunto vedere che già adesso, grazie all’effetto di dilatazione cosmologica del tempo, per i Grb più lontani possiamo arrivare a osservare con Swift nei raggi X fino a quasi 7 secondi dopo l’esplosione. Ci perdiamo ancora qualche secondo, certamente, ma per fare meglio di così servirà aspettare le prossime missioni spaziali attualmente in fase di progettazione».
Infografica sull’origine dei Grb lunghi (a sinistra), di durata superiore a due secondi, e corti (a destra), di durata inferiore. Crediti: Nasa
Voi non siete i primi a usare la dilatazione cosmologica del tempo per lo studio dei Grb: cosa vi ha permesso di scoprire di nuovo, che non si sapesse già prima? E perché sarebbe utile ai fini dell’altro risultato che presentate nell’articolo, quello sui progenitori dei Grb short – i lampi di raggi gamma corti?
«Per capirlo dobbiamo fare una piccola digressione. Tradizionalmente, i Grb sono classificati in “lunghi” e “corti”, a seconda che il lampo iniziale nei raggi gamma sia visto durare più o meno di due secondi. Il modello che inizialmente si era imposto come “standard” prevedeva che i Grb lunghi avessero origine nel collasso di stelle massicce singole, mentre i corti nella coalescenza di sistemi binari. In questo modello, sia l’emissione iniziale nei raggi gamma che quella successiva nei raggi X hanno origine dall’espansione di un plasma ultrarelativistico formatosi rispettivamente nel collasso o nella coalescenza. Il modello che stiamo sviluppando noi, invece, prevede che tutti i Grb, sia corti che lunghi, abbiano origine in sistemi binari. In particolare, nel caso dei lunghi, il sistema progenitore è formato da una stella massiccia prossima all’esplosione come ipernova e da una stella di neutroni compagna. Quello che si realizza è un vero e proprio “ping-pong” tra le due: la prima esplode come ipernova, forma una nuova stella di neutroni e trasferisce materia alla stella di neutroni compagna, che a sua volta può collassare a buco nero e produrre l’esplosione del lampo di raggi gamma. L’emissione X che si osserva subito dopo questo lampo, in questo modello, proviene dalla nuova stella di neutroni che si è appena formata nell’esplosione dell’ipernova. Pertanto, è fondamentale poter osservare l’emissione X il prima possibile, per verificare che ci troviamo effettivamente di fronte all’emissione di una stella di neutroni appena formata e poter discriminare tra i vari modelli».
Mi sto perdendo… quanti Grb producono, queste binarie di stelle massicce?
«Un sistema binario può produrre un’ipernova, un Grb lungo e infine, eventualmente, un Grb corto. Il fatto è che, dopo il ping-pong che dicevamo prima, in cui si formano un’ipernova e un Grb lungo, può rimanere un sistema binario formato dalla nuova stella di neutroni e dalla vecchia compagna – che potrebbe essere diventata un buco nero oppure essere rimasta una stella di neutroni più massiccia di prima, seconda di quanta massa ha preso dalla compagna. Dico “può rimanere” perché può anche darsi che nell’esplosione di ipernova e Grb lungo il sistema si separi e i due oggetti non siano più legati. Se però rimangono legati in un sistema binario, questo in seguito può coalescere, formando un Grb corto».
Quali sono i tempi di questa sequenza? Intendo dire, quant’è l’intervallo fra una racchettata e l’altra del “ping pong”? E fra il Grb lungo e quello corto?
«Per quanto riguarda la durata del “ping pong”, nel modello che stiamo sviluppando l’intervallo di tempo tra l’esplosione dell’ipernova e quella del Grb è dell’ordine di qualche secondo, al limite magari una decina o giù di lì. Ma tutto quello che vediamo del momento dell’esplosione dell’ipernova è un primo lampo nei raggi gamma – quello che nell’articolo chiamiamo supernova rise, o episodio 1. L’emissione ottica dell’ipernova è dovuta a processi molto più lenti e diventa visibile solo una decina di giorni dopo. Quindi il “ping pong” nelle osservazioni tra l’emissione di una stella e l’emissione dell’altra in realtà continua a lungo. L’eventuale Grb corto successivo, invece, nel caso in cui si verificasse, potrebbe avvenire dopo un tempo dell’ordine di milioni o miliardi di anni… in altre parole, io non rimarrei qui fermo ad aspettare».
C’è una cosa che continua a non essermi chiara: a cosa è servito l’effetto della dilatazione cosmologica del tempo ai fini del vostro studio?
«Le osservazioni dell’emissione X nei primi secondi servono proprio per poter confermare lo scenario che ho appena descritto. Ma il legame è anche un altro, e ben rappresenta il modo in cui certi risultati vengono ottenuti».
Cioè?
«Praticamente, stavamo lavorando su quelle tre sorgenti ad alto redshift, per studiare i primi secondi dell’emissione X sfruttando la dilatazione dei tempi cosmologica. A quel punto ci siamo detti: ma per quante altre sorgenti potremmo fare questa analisi? E così abbiamo analizzato tutti i quasi 400 Grb con redshift misurato visti da Swift dal 2005 a fine 2023, e abbiamo visto che per una gran parte di essi l’effetto di dilatazione dei tempi è molto evidente. Ma, una volta che abbiamo avuto tra le mani questo campione di quasi 400 Grb con redshift misurato, ci è venuta l’idea di vedere la distribuzione dei redshift, dividendo il campione nelle diverse famiglie di Grb previste dal nostro modello. In questo modo ci siamo resi conto che queste distribuzioni supportavano un’ipotesi che avevamo proposto anni fa».
Quale?
«L’idea che i Grb lunghi potessero produrre sistemi binari a loro volta sorgenti di Grb corti. Non ci siamo ovviamente fermati qui, e un nuovo articolo dedicato ad approfondire questo aspetto è già in fase di referaggio. Ma il risultato era troppo interessante per non annunciarlo fin da subito, anche in considerazione del fatto che era stato ottenuto proprio come effetto collaterale dell’analisi dei Grb ad alto redshift presentata nel nostro articolo».
Un’ultima cosa: scrivete che il vostro studio evidenzia l’importanza di future missioni, come Theseus, in grado di osservare le emissioni gamma e X sin dal trigger del Grb – da quando il lampo gamma viene emesso, dunque. Però mi pare d’aver letto che Theseus sarà forse persino più lento di Swift, nelle manovre di puntamento. Perché dovrebbe dunque portare a risultati migliori?
«Il punto centrale è il campo di vista dello strumento. Il telescopio Xrt a bordo di Swift ha un campo di vista molto ristretto, quindi è sempre necessario effettuare un puntamento per poter osservare una sorgente. Nel caso di Theseus, invece, il campo di vista è molto più ampio e quindi potrebbe osservare un segnale senza doverlo ripuntare, semplicemente perché il segnale è capitato già nel campo di vista dello strumento. Per usare un’analogia con il mondo della fotografia, Swift ha un teleobiettivo, mentre con Theseus avremo a disposizione un grandangolo che ci permetterà di osservare il segnale fin dall’inizio, semplicemente perché sarà nel campo di vista dello strumento fin dall’inizio».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Probing electromagnetic-gravitational wave emission coincidence in type I binary-driven hypernova family of long GRBs at very-high redshift”, di C.L. Bianco, M.T. Mirtorabi, R. Moradi, F. Rastegarnia, J.A. Rueda, R. Ruffini, Y. Wang, M. Della Valle, Liang Li e S.R. Zhang
BepiColombo, abbiamo un problema di propulsione
Essenziali la nota stampa, e il tweet, pubblicati dall’Esa, l’Agenzia spaziale europea, riguardo il problema ai propulsori emerso durante l’ultima manovra di BepiColombo. Poco tradiscono sull’effettiva gravità della situazione e, soprattutto, sulla possibilità di recuperare la piena funzionalità in vista dell’ultimo anno e mezzo di viaggio prima dell’inserimento in orbita attorno a Mercurio, previsto per dicembre 2025.
The ESA/JAXA BepiColombo mission to Mercury has experienced a technical issue that is preventing its thrusters from operating at full power.Top spaceflight experts from ESA and its partners are working the problem, but the long-term impact on the mission is uncertain.
Details:… pic.twitter.com/vt89lFDbdT
— ESA Operations (@esaoperations) May 15, 2024
Il problema, secondo quanto riportato dall’Agenzia, sarebbe emerso il 26 aprile durante una manovra orbitale, quando il modulo responsabile del trasporto non sarebbe riuscito a fornire sufficiente energia elettrica ai propulsori della sonda. BepiColombo è una missione congiunta dell’Esa e dell’agenzia spaziale giapponese Jaxa formata da tre unità: due orbiter (il Mercury Magnetospheric Orbiter della Jaxa, e il Mercury Planetary Orbiter dell’Esa), e un modulo responsabile del trasporto, il Mercury Transport Module (Mtm), che utilizza una combinazione di propulsione elettrica e spinta gravitazionale.
«Durante l’utilizzo della propulsione elettrica abbiamo riscontrato un problema per cui il satellite non è stato in grado di fornire tutta la potenza elettrica necessaria», spiega a Media Inaf Andrea Accomazzo, responsabile della Divisione missioni interplanetarie al centro di controllo dell’Esa a Darmstadt, dal quale si controllano le operazioni di volo e le manovre orbitali di BepiColombo. «Questo ha causato uno spegnimento della propulsione elettrica, come previsto in questi casi. Questi archi di propulsione elettrica fanno parte delle manovre necessarie per guidare la sonda nel suo avvicinamento a Mercurio. La situazione è stata temporaneamente stabilizzata riducendo il livello di spinta dei motori e altri carichi elettrici del satellite, così da avere una fornitura di potenza stabile. In assenza di altri problemi, questa soluzione è in grado di raggiungere le condizioni orbitali per effettuare i tre passaggi gravitazionali con Mercurio previsti tra settembre e gennaio. Le investigazioni per capire l’origine del problema riscontrato continuano con il supporto necessario. Occorrerà del tempo per avere un quadro più preciso della situazione».
Le componenti della navicella BepiColombo. Dal basso verso l’alto: modulo di trasferimento di Mercurio, orbiter planetario di Mercurio, schermo solare e struttura di interfaccia e orbiter magnetosferico di Mercurio. Le navicelle sono mostrate con gli array solari e gli strumenti dispiegati. Crediti: Esa/Atg medialab
Il team dell’Esa a Darmstadt sta lavorando assieme ai partner industriali da fine aprile per risolvere il problema in vista delle prossime manovre orbitali. Sono riusciti, entro il 7 maggio, a riportare la spinta di BepiColombo a circa il 90 per cento del suo livello precedente. Tuttavia, la potenza disponibile del modulo di trasferimento è ancora inferiore a quella che dovrebbe essere, cosa che impedisce di ripristinare la spinta completa.
«La situazione al momento è sotto controllo e i motori stanno funzionando quasi a pieno regime, una leggera riduzione della potenza che non mette a rischio il prossimo flyby a settembre», rassicura Gabriele Cremonese, responsabile scientifico dello strumento Symbio-Sys a bordo di BepiColombo. Il flyby di cui parla è quello che sta portando la sonda a incontrare nuovamente Mercurio per la sua quarta manovra di assistenza gravitazionale. Mentre, come dicevamo, l’inserimento in orbita attorno al pianeta è previsto per la fine del 2025, con l’inizio delle operazioni scientifiche nella primavera 2026. «Come in tutte le risorse e sistemi di una missione spaziale ci sono dei margini, e quindi anche per la potenza dell’Mtm (il modulo di trasferimento responsabile della propulsione, ndr). Esa e le aziende coinvolte stanno lavorando per ottimizzare la potenza anche includendo i margini. In questo momento non sono previste variazioni nelle attività degli strumenti».
«I rischi associati a questo problema potrebbero anche avere effetti sulla definizione della missione», conclude Accomazzo, «pertanto richiedono massima attenzione e prudenza da parte nostra». Insomma, per il momento si lavora di conserva, e la fattibilità delle prossime manovre sembra non essere in discussione. L’Esa fa sapere che pubblicherà nuovi aggiornamenti non appena ci saranno avanzamenti di rilievo sui lavori.
Com’è fatto BepiColombo? Guarda il servizio di MediaInaf Tv:
youtube.com/embed/VQuSiLRhUsE?…
Speculoos-3 b, un pianeta simile alla Terra
Rappresentazione artistica dell’esopianeta Speculoos-3 b in orbita attorno alla sua stella. Il pianeta è grande come la Terra, mentre la sua stella è leggermente più grande di Giove, ma molto più massiccia. Crediti: Lionel Garcia.
È bene dirlo subito: non è un pianeta adatto alla vita. Nonostante sia roccioso e simile per dimensioni alla Terra, il pianeta scoperto dal progetto Speculoos non ha le caratteristiche giuste per ospitare la vita. Ma si tratta comunque di una scoperta importante nella ricerca di pianeti potenzialmente abitabili, perché ha centrato in pieno l’obiettivo del progetto: trovare pianeti di tipo terrestre attorno a stelle nane ultrafredde.
Forse ricorderete il sistema planetario Trappist-1, il primo ad essere scoperto attorno a una stella dello stesso tipo, e che quanto a ricchezza – con i suoi sette pianeti terrestri – ha davvero esagerato. Il progetto Speculoos – letteralmente Search for Planets Eclipsing Ultra-cool Stars, e sì, il nome vuole ricordare i biscottini alla cannella – guidato dall’astronomo Michaël Gillon dell’Università di Liegi, è il suo erede più diretto. Il progetto è infatti nato nel 2017 con l’intento di cercare esopianeti intorno alle stelle nane ultrafredde più vicine usando come prototipo il telescopio Trappist.
La stella in questione si trova a 55 anni luce dalla Terra, ha dimensioni simili a Giove, è calda meno della metà del Sole, dieci volte meno massiccia e cento volte meno luminosa. Vivrà però circa cento volte più a lungo, tanto che stelle come questa si pensa rimarranno le ultime a brillare quando l’universo diventerà freddo e buio. Non si tratta di una categoria di stelle particolare, anzi, sono piuttosto comuni, ma è difficile osservarle perché sono – appunto – poco luminose e dunque poco visibili. E poco si sa anche dei loro pianeti, sebbene si ritenga che rappresentino una frazione significativa della popolazione planetaria della Via Lattea.
Per avere buone possibilità di individuare un transito di pianeti attorno a stelle nane ultrafredde, occorre osservarle una per una, per intere settimane. Cosa che richiede una rete dedicata di telescopi robotici professionali. Per questo gli astronomi dell’Università di Liegi hanno dato il via al progetto Speculoos (cominciato a livello prototipale con Trappist), gestito congiuntamente dalle università di Liegi, Cambridge, Birmingham, Berna, Mit ed Eth Zürich. I quattro telescopi robotici da un metro di diametro della rete australe del progetto Speculoos si trovano a Cerro Paranal, in Cile, a oltre 2500 metri di altezza s.l.m., e osservano il cielo alle lunghezze d’onda del vicino infrarosso. Il loro primo pianeta scoperto, di cui si parla in un articolo pubblicato oggi da Nature Astronomy, si chiama Speculoos 3-b.
«Ha praticamente le stesse dimensioni del nostro pianeta», spiega l’astronomo Michaël Gillon, primo autore dell’articolo e guida del progetto. «Un anno, cioè un’orbita intorno alla stella, dura circa 17 ore. I giorni e le notti, invece, sembra non finiscano mai. Riteniamo infatti che il pianeta ruoti attorno alla stella in modo sincrono, ovvero rivolgendo a essa sempre lo stesso lato – il lato a giorno appunto, proprio come fa la Luna per la Terra. Il lato notturno, invece, rimane bloccato in un’oscurità senza fine».
La stella Speculoos-3 è di gran lunga più fredda rispetto al Sole: ha una temperatura media di circa 2.600 gradi. A causa della sua orbita iper-corta, il pianeta riceve dalla sua stella ogni secondo un’energia quasi sedici volte superiore a quella che riceve la Terra dal Sole, ed è quindi letteralmente bombardato da radiazioni ad alta energia. È improbabile – ritengono i ricercatori – che in condizioni simili si possa sviluppare un’atmosfera attorno al pianeta. Così come è improbabile che possa sviluppare e sostenere qualunque forma di vita. Rimane però un pianeta interessante da studiare anche con il telescopio spaziale Webb, pensano gli autori, che potrebbe vederne la mineralogia e approfittare dell’assenza dell’atmosfera per studiare più approfonditamente la sua stella. Per candidati più promettenti per la vita, invece, bisognerà attendere le prossime rilevazioni.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Detection of an Earth-sized exoplanet orbiting the nearby ultracool dwarf star SPECULOOS-3“, di Michaël Gillon e tutta la collaborazione Speculoos
Più grande di Giove, leggero come zucchero filato
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di un pianeta “super-puff”. Crediti: Baperookamo/Wikimedia – Own work, Cc By-Sa 4.0
È un mondo enorme e leggerissimo, un immenso peluche di idrogeno ed elio dal diametro pari a una volta e mezzo quello di Giove ma dalla massa che non è nemmeno un settimo di quella del gigante del Sistema solare. Di conseguenza la sua densità è bassissima: 59 milligrammi per centimetro cubo. Praticamente quella dello zucchero filato. Quella di Giove, per dire, è di 1.3 grammi per centimetro cubo, dunque oltre venti volte maggiore. Il suo nome è Wasp-193 b, si trova a 1200 anni luce da noi e per densità è il secondo mondo super-puff più light che si conosca, superato in leggerezza solo da Kepler-51 d, che però è assai più piccolo.
«È così leggero che è difficile pensare a un materiale analogo allo stato solido», dice Julien de Wit del Massachusetts Institute of Technology (Mit), coautore dello studio – guidato da Khalid Barkaoui dell’Università di Liegi e pubblicato oggi su Nature Astronomy – che riporta la scoperta. «A renderlo così simile allo zucchero filato è che entrambi sono praticamente fatti d’aria: è un pianeta super soffice».
La densità record di Wasp-193 b è stata misurata attraverso un procedimento ormai ben collaudato nello studio dei pianeti extrasolari. Anzitutto ne è stato calcolato il volume attraverso il metodo dei transiti: usando le fotocamere del telescopio Wasp-South della collaborazione Wasp (Wide Angle Search for Planets), installato a Sutherland (in Sudafrica), è stato misurato il calo di luce dovuto al passaggio – ogni 6.25 giorni, questo il periodo di rivoluzione – del pianeta davanti alla sua stella, osservato a più riprese, derivandone così la circonferenza del disco e da questa, appunto, il volume. Poi è stato il turno dei telescopi Trappist-South e Speculoos-South, anch’essi nell’emisfero australe, che ne hanno confermato la natura planetaria. Infine, avvalendosi questa volta degli spettrografi Harps e Coralie, attraverso il metodo delle velocità radiali è stato possibile stimarne la massa – e dunque la densità.
Per quel che riguarda la composizione, come dicevamo, secondo gli autori dello studio gli ingredienti principali del pianeta sarebbero idrogeno ed elio, come per la maggior parte degli altri giganti gassosi della nostra galassia. Gas che nel caso di Wasp-193 b danno luogo a un’atmosfera enormemente gonfia, probabilmente decine di migliaia di chilometri più estesa di quella di Giove. Gonfia al punto che nessuna teoria esistente sulla formazione dei pianeti è in grado di spiegarne il processo di formazione: senz’altro è necessaria la presenza di una significativa fonte d’energia nelle viscere del pianeta, ma il meccanismo alla base di ciò non è ancora stato compreso in modo dettagliato.
«Fra le teorie sulla formazione a oggi disponibili non ce n’è una nella quale lo sapremmo collocare: questo pianeta è un outlier, per tutte. Non riusciamo a spiegare come si sia formato. Osservare più da vicino la sua atmosfera ci permetterà di circoscriverne il percorso evolutivo», si augura un altro fra i coautori dello studio, Francisco Pozuelos, dell’Instituto de Astrofisica de Andalucia (Spagna). E come spesso accade a tutti gli astronomi che negli ultimi anni si trovano ad aver firmato qualche scoperta, ora anche per il team guidato da Khalid Barkaoui l’auspicio è di poter osservare Wasp-193 b almeno per qualche minuto con il telescopio spaziale James Webb.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “An extended low-density atmosphere around the Jupiter-sized planet WASP-193 b”, di
Khalid Barkaoui, Francisco J. Pozuelos, Coel Hellier, Barry Smalley, Louise D. Nielsen, Prajwal Niraula, Michaël Gillon, Julien de Wit, Simon Müller, Caroline Dorn, Ravit Helled, Emmanuel Jehin, Brice-Olivier Demory, Valerie Van Grootel, Abderahmane Soubkiou, Mourad Ghachoui, David. R. Anderson, Zouhair Benkhaldoun, Francois Bouchy, Artem Burdanov, Laetitia Delrez, Elsa Ducrot, Lionel Garcia, Abdelhadi Jabiri, Monika Lendl, Pierre F. L. Maxted, Catriona A. Murray, Peter Pihlmann Pedersen, Didier Queloz, Daniel Sebastian, Oliver Turner, Stephane Udry, Mathilde Timmermans, Amaury H. M. J. Triaud e Richard G. West
Il mondo incandescente di Hd 104067
media.inaf.it/wp-content/uploa…
Illustrazione di un esopianeta vulcanico. Crediti: Nasa, Esa, Csa, Dani Player
L’astrofisico Stephen Kane della UC Riverside ha dovuto ricontrollare più volte i suoi calcoli perché non riusciva a capacitarsi di come il pianeta che stava studiando potesse essere così estremo. Simile a Io, il corpo vulcanicamente più attivo del Sistema solare, anche questo pianeta sembra essere ricoperto da così tanti vulcani attivi che, visto da lontano, parrebbe incandescente. L’articolo che descrive l’inusuale scoperta è stato pubblicato su The Astronomical Journal.
Lanciato nel 2018, il Transiting Exoplanet Survey Satellite (Tess) della Nasa, cerca esopianeti che orbitano attorno alle stelle più luminose del cielo. Kane stava studiando un sistema stellare chiamato Hd 104067, distante circa 66 anni luce dal Sole, già noto per ospitare un pianeta gigante. In quel sistema, Tess aveva appena trovato le evidenze di un nuovo pianeta roccioso e, nel raccogliere dati su quel pianeta, ne ha inaspettatamente trovato un altro, portando a tre il numero totale di pianeti conosciuti nel sistema.
Il nuovo pianeta scoperto da Tess è un pianeta roccioso come la Terra, ma più grande del 30%. Tuttavia, a differenza della Terra, ha più punti in comune con Io, la luna rocciosa più interna di Giove del Sistema solare. La temperatura superficiale del nuovo pianeta, Toi-6713.01, è di 2.600 gradi Kelvin, più calda di quella di alcune stelle. «Alle lunghezze d’onda ottiche si potrebbe vedere un pianeta incandescente e rovente, con una superficie di lava fusa», spiega Kane.
Responsabile dell’attività vulcanica su Io e su questo pianeta sono le forze gravitazionali. Anche se Io è molto vicino a Giove, le altre lune lo costringono a un’orbita eccentrica intorno al pianeta, che a sua volta esercita una fortissima attrazione gravitazionale. «Se non ci fossero le altre lune, Io avrebbe un’orbita circolare intorno al pianeta e la sua superficie sarebbe tranquilla. Invece, la gravità di Giove lo spreme a tal punto che erutta continuamente vulcani», riferisce Kane.
Allo stesso modo, nel sistema di Hd 104067 ci sono due pianeti più lontani dalla stella rispetto a questo nuovo pianeta. Questi pianeti esterni costringono il pianeta roccioso interno a un’orbita eccentrica intorno alla stella, che lo schiaccia mentre orbita e ruota. È un effetto, questo, chiamato tidal energy o energia mareale.
In futuro, Kane e i suoi colleghi vorrebbero misurare la massa del pianeta incandescente e conoscerne la densità, per valutare quanto materiale è disponibile per essere espulso dai vulcani. Kane sostiene che gli effetti delle maree sui pianeti non sono stati storicamente oggetto di grande attenzione nella ricerca sugli esopianeti e che forse con questa scoperta le cose cambieranno.
«Quanto trovato ci insegna molto sugli estremi della quantità di energia che può essere immessa in un pianeta terrestre e sulle sue conseguenze», conclude Kane. «Sappiamo che le stelle contribuiscono al calore di un pianeta, ma la maggior parte dell’energia è dovuta alle maree e questo non può essere ignorato».
Per saperne di più:
- Leggi su The Astronomical Journal l’articolo “A Perfect Tidal Storm: HD 104067 Planetary Architecture Creating an Incandescent World” di Stephen R. Kane, Tara Fetherolf, Zhexing Li, Alex S. Polanski, Andrew W. Howard, Howard Isaacson, Teo Močnik e Sadie G. Welter
Così potremo vedere le prime stelle dell’universo
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di un evento di distruzione mareale di una stella mentre passa nelle vicinanze di un buco nero massiccio. Crediti: Space Telescope Science Institute/Ralf Crawford
Le primissime stelle che si sono accese dopo il Big bang sono quelle che hanno dato l’impronta chimica all’universo in cui viviamo oggi, e che hanno preparato il terreno sul quale sono nate ed evolute tutte le stelle successive. Per distinguerle da queste, gli astronomi hanno chiamato le stelle di prima generazione popolazione III, e da quando hanno capito che le altre due generazioni conosciute e osservate – le popolazioni II e I – non bastavano a spiegare l’esistente, le stanno cercando. Senza risultati convincenti.
Su The Astrophysical Journal Letters è stata pubblicata, per mano di un gruppo di ricercatori di Hong Kong, una nuova idea: invece di provare a osservarle direttamente, si può cercare le stelle di Popolazione III attraverso l’emissione che produrrebbero qualora fossero entrate in contatto con un buco nero massiccio.
L’idea è promettente per almeno due motivi. Il primo, il più ovvio, è che finora la ricerca diretta non ha sortito alcun effetto. Le stelle di Popolazione III erano infatti tremendamente calde, di dimensioni e massa gigantesche, ma di vita molto breve. Vivevano nell’universo primordiale, e quindi molto lontano, e apparirebbero, agli occhi degli attuali telescopi a terra o nello spazio, troppo deboli.
Il secondo è che il meccanismo proposto, invece, produrrebbe un’emissione rilevabile da alcuni telescopi attualmente operativi – come il James Webb Space Telescope – o in costruzione – come il Nancy Grace Roman Telescope. Vediamo perché.
Passando abbastanza vicino a un buco nero massiccio una stella può essere fatta a pezzi dalle forze mareali generate dal suo intensissimo campo gravitazionale, in quello che in inglese si definisce tidal disruption event (Tde). Succede nell’universo attuale e succedeva nell’universo primordiale, in cui le uniche stelle in circolo erano quelle di Popolazione III. E mentre il buco nero si nutre dei detriti stellari, produce brillamenti molto luminosi, che gli autori dello studio hanno investigato a fondo dimostrando che potrebbero percorrere miliardi di anni luce e giungere fino a noi. Arrivando, per altro, con delle caratteristiche uniche rispetto a tutti gli altri. Viaggiando da una distanza così lontana, infatti, lungo il tragitto risentirebbero dell’espansione dell’universo che ne allungherebbe la durata. Questi brillamenti sorgerebbero e decadrebbero, pertanto, in un periodo di tempo molto più lungo rispetto agli analoghi più recenti. Non solo, anche la loro lunghezza d’onda, come per qualunque radiazione proveniente da lontano – per effetto del cosiddetto redshift cosmologico – si sposterebbe dall’ottico/ultravioletto all’infrarosso.
Dove cercare questi eventi, però? A priori, una domanda alla quale non si può dare una risposta. Per questo l’arrivo di un telescopio come il Nancy Grace Roman potrebbe fare la differenza: sarà infatti in grado di coniugare una perfetta visione nell’infrarosso a grandissima distanza con un grande campo di vista, in grado di cogliere, a una sola occhiata, una vasta area di cielo. Gli autori dello studio si sono anche sbilanciati in previsioni sul numero di eventi che potrebbero essere trovati: «se viene seguita una strategia osservativa adeguata» – dicono – «ci aspettiamo alcune dozzine di rilevazioni». Il lancio del Nancy Grace Roman è ora programmato per il 2027: staremo a vedere.
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “Detecting Population III stars through tidal disruption events in the era of Jwst and Roman“, di Rudrani Kar Chowdhury, Janet N. Y. Chang, Lixin Dai e Priyamvada Natarajan
Pint of Science: tre giorni di scienza a tutta birra
Appuntamento immancabile ormai per gli appassionati di scienza e birra, torna, in 24 città italiane e in oltre 400 in tutto il mondo, la manifestazionePint of Science. In Italia, alla sua nona edizione, saranno servite pinte di scienza in 76 pub e, come da tradizione, tratteranno temi di grande attualità scientifica: specie aliene, stelle e pianeti, energie alternative e ancora, neutrini, aree interne e società a rischio sono solo alcuni degli argomenti che sarà possibile sorseggiare nei pub di tutta Italia.
Pint of Science è l’appuntamento di divulgazione scientifica per gli appassionati di scienza e birra. Crediti: Pint of Science
Nelle serate del 13, 14 e 15 maggio sarà possibile parlare di scienza davanti a un boccale di birra con più di duemila scienziati coinvolti in tutti i continenti, durante quella che, di fatto è la più grande manifestazione mondiale del suo genere.
Protagonisti nelle città italiane coinvolte – Avellino, Bari, Bologna, Cagliari, Catania, Ferrara, Frascati, Genova, L’Aquila, Lucca, Messina, Milano, Napoli, Padova, Palermo, Pavia, Pisa, Reggio Calabria, Roma, Salerno, Siena, Torino e Trieste – saranno oltre 210 ricercatori che, come da tradizione, si districheranno tra le sei differenti aree tematiche in cui si articolano i talk di Pint of Science: Atoms to Galaxies (chimica, fisica e astronomia), Beautiful Mind (neuroscienze, psicologia e psichiatria), Our Body (biologia umana), Planet Earth (scienze della terra, evoluzione e zoologia), Social Sciences (legge, storia e scienze politiche) e Tech Me Out (tecnologia).
L’Istituto nazionale di astrofisica (Inaf) – insieme all’Infn – è sponsor nazionale di Pint of Science Italia e molti saranno i nostri ricercatori presenti nelle varie località.
A Milano si parlerà di “50 sfumature di raggi gamma” con Andrea Giuliani (Iasf Milano) e di “Galassie: tipi, colori e spettri (non fantasmi!)” con Angela Iovino dell’Inaf di Brera.
A Torino, Luigi Guzzo (Università Statale di Milano, associato Inaf) presenterà “Euclid: il cartografo dell’Universo Oscuro”, mentre a Padova il ricercatore Inaf Davide Ricci terrà il talk “Polvere di Stelle” sugli elementi di cui sono composti gli interni stellari.
Big Bang e origine del cosmo saranno al centro dell’incontro “When stars go bang at night: l’Universo esplosivo e transiente” a Ferrara con Mattia Bulla, dell’Università di Ferrara e associato Inaf. Sempre in Emilia Romagna e sempre sull’Universo primordiale, ma questa volta a Bologna, Fabio Finelli dell’Inaf di Bologna parlerà di “Risultati ottenuti e prospettive future dalla prima luce dell’universo”.
Scendendo nel Lazio, più precisamente a Frascati, il 15 maggio troviamo un doppio appuntamento con i ricercatori dell’Inaf di Roma: uno sul “James Webb space Telescope: l’Universo in un granello di sabbia, verso l’infinito ed oltre” con Silvia Piranomonte e l’altro sulla “Guida astronomica per viaggiatori curiosi, tesori nascosti negli itinerari romani” con Maria Teresa Menna e Giangiacomo Gandolfi.
Due incontri anche a L’Aquila: il 14 maggio si parlerà di telescopi, o meglio, dei “Giganti tecnologici che osservano l’Universo” con Benedetta Di Francesco e Ivan Di Antonio dell’Inaf d’Abruzzo. Il 15 maggio, Mauro Dolci, sempre dell’Inaf d’Abruzzo, con il talk “Il cielo d’Abruzzo: un’avventura scientifica” racconterà come dalla semplice passione per lo spettacolo della volta celeste, si è arrivati a grandi collaborazioni internazionali e come sono nate le due stazioni osservative di Campo Imperatore e Collurania.
Grafica dell’edizione Pint 2024. Crediti: Pint of Science
Ma se di parla di pinte, non poteva mancare l’incontro “Birre stellari…..anzi extragalattiche!” con Amata Mercurio dell’Università di Salerno, associata Inaf, previsto il 14 maggio a Napoli, dove si parlerà anche di “Astrobiolog-IA” con Maria Teresa Muscari Tomajoli e Stefano Fiscale dell’Inaf di Napoli.
Anche in Sardegna, arriva Pint of Science con Mauro Pilla dell’Inaf di Cagliari che parlerà di “Fulmini e saette: i tromboni tristi dell’universo” il 13 maggio nel capoluogo sardo.
A Trieste, arrivano due proposte non strettamente attinenti all’astronomia ma ugualmente molto interessanti: entrambi ricercatori dell’Inaf di Trieste, Thomas Gasparetto parlerà di cosa vuol dire “Lavorare (veramente) da remoto: un anno in Antartide” e Nathan Neri di smartphone addiction e dipendenza digitale con il suo talk “Connessi/Sconnessi”.
Infine, per gli amanti di stelle, pianeti, universo, particelle, misteri della fisica vi segnaliamo tanti altri incontri a tema “From Atoms to Galaxies“ offerti dal fitto programma di Pint of Science 2024.
Tutti i dettagli, la lista dei pub, gli orari e le date e l’elenco completo dei talk organizzati in questa edizione sono sul sito ufficiale dell’iniziativa, www.pintofscience.it.
Per saperne di più:
- Visita il sito dell’iniziativa Pint of Science Italy
- I social di Pint of Science: Facebook, Twitter, Instagram
- Sito di Pint of Science international
Un libro per chi ha tante domande e poco tempo
Umberto Battino, Daniele Gasparri, Tommaso Nicolò, Pasquale D’Anna, Livio Bordignon, “Alla scoperta di una passione chiamata astronomia”, Cairo editore, 2022, 272 pagine, 17,10 euro
Tante sono le domande che nascono dalla curiosità di sapere com’è fatto il cosmo e spesso ci si trova sopraffatti da formuloni matematici e teorie fisiche complicate che allontanano dall’idea di approfondire, lasciando idee confuse e tanti dubbi.
Il libro “Alla scoperta di una Passione chiamata Astronomia” del collettivo Passione Astronomia (Cairo editore, 2022) si propone di fornire un quadro chiaro e ampio sullo status attuale delle conoscenze astronomiche. Il libro è infatti diviso in cinque parti, per cercare di condensare anni di sviluppo in una narrazione completa e scorrevole.
Ad aprire le danze è Pasquale D’Anna, che in breve racconta il passato della ricerca astronomica, dalle antiche popolazioni cinesi, indiane e greche, ancora convinte della correlazione tra moti celesti e religione, passando da grandi pensatori come Galileo e Newton e arrivando all’avvento della spettrografia. La nostra storia infatti è piena di passi indietro, le ipotesi nel tempo si sono evolute più volte insieme alla cultura e agli strumenti dell’epoca. «Se tutto quello che conosciamo oggi ci sembra scontato è perché le menti più brillanti di ogni generazione hanno portato lavoro di ricerca tanto complesso che si fatica persino a immaginare come sia stato possibile per loro scoprire e dimostrare quello che oggi diamo per scontato», scrive lo stesso.
Si procede poi con un’analisi della vita delle stelle e l’origine degli elementi. In questa parte Umberto Battino spiega come, in base alla loro massa, le stelle nascono e si evolvono, descrivendo i processi interni che portano a fenomeni spettacolari quali supernove e buchi neri. Lo scrittore inoltre fornisce svariati esempi, correlando stelle in fase evolutiva giovane con stelle più vecchie. Qui fa notare le grandi differenze che le caratterizzano e le rendono diverse, persino a occhio nudo, che pensandoci era l’unico strumento a disposizione delle civiltà antiche, nonché un grande limite per gli astronomi del tempo. La svolta più importante infatti fu quella dell’introduzione dei telescopi, di cui ci parla Daniele Gasparri, che espone la storia tortuosa dei telescopi ottici e di come, grazie a essi, l’astronomia sia diventata quel che è oggi.
Per gli appassionati dell’esplorazione spaziale, nel quarto capitolo Livio Bordignon fornisce una narrazione completa e dettagliata a partire dalla famosa corsa allo spazio della seconda metà del ‘900. Spiega tutti i problemi tecnici che hanno caratterizzato questo grande momento della storia e come il tutto sia stato possibile, aprendo e analizzando una delle questioni più d’interesse negli ultimi anni, come andare su Marte.
Sul filo di Bordignon, Tommaso Nicolò, nell’ultima parte del libro, ci parla di vita in ambienti estremi, spiegando come molti organismi, chiamati “estremofili”, siano capaci di vivere in condizioni molto avverse per gli esseri umani e di come, in conseguenza, la vita su altri pianeti non sia impossibile. Ci parla quindi di astrobiologia ed esopianeti, sottolineando le innumerevoli qualità che un pianeta deve avere per definirsi abitabile.
Questo libro è sicuramente ricco di informazioni e cattura facilmente il lettore grazie alla passione e alla semplicità con la quale gli autori si propongono di spiegare fenomeni così complessi. Come scrive Ylenia Tartaglione nell’introduzione del libro: «Se i tuoi occhi hanno smesso già da tempo di guardare l’universo per come appare in superficie, e le domande che affollano la tua mente sono diventate troppe, mi duole comunicarti che sei ormai spacciato. Non ti resta, allora, altro da fare se non seguire il concatenarsi delle parole che questi cinque, straordinari ragazzi, hanno intrecciato per te».
Cosa può (e cosa non può) l’ozono nell’atmosfera
Rappresentazione artistica del pianeta Proxima Centauri B. Crediti: Eso/M. Kornmesser.
Di ozono nell’atmosfera si è sentito parlare, negli anni, soprattutto riguardo il suo assottigliamento (il cosiddetto “buco nell’ozono”) causato dalle azioni negative dell’uomo sul clima terrestre. Ma qual è il ruolo di questo gas nell’atmosfera di un pianeta? Si tratta, innanzitutto, di un gas imprescindibile per la nascita della vita, poiché agisce da filtro per alcune frequenze distruttive della radiazione di una stella. Quale sia però l’effetto della sua presenza sul clima l’ha indagato, per il pianeta Proxima Centauri b, uno studio teorico pubblicato su Monthly Notices of the Astronomical Society.
Lo studio – osservativo – delle atmosfere degli esopianeti richiede strumenti e tecniche che sono diventate possibili solo negli ultimi anni con la nascita, ad esempio, del telescopio spaziale James Webb. Per comprendere bene quel che si osserva, da un lato, e per sapere che cosa andare a cercare esattamente, dall’altro, simulare il comportamento di gas e molecole nelle atmosfere degli esopianeti è fondamentale. Lo studio guidato da Paolo De Luca, 36enne umbro dottorato in geografia fisica e ora postdoc al Barcelona Supercomputing Center con una borsa Marie Curie, si concentra in particolare su Proxima Centauri b, un esopianeta incredibilmente vicino al Sistema solare.
«Tra le varie categorie di esopianeti, quelli terrestri sono i migliori candidati sui quali potrebbero già esserci o svilupparsi forme di vita simili a come noi le conosciamo», spiega a Media Inaf De Luca. «Abbiamo scelto Proxima Centauri b perché volevamo diversificare i nostri studi, in quanto già avevamo due pubblicazioni su Trappist-1e. Ad ogni modo, l’idea è quella di usare specifici esopianeti terrestri come casi studio per rappresentare l’intera categoria».
Lo scopo, dunque, era comprendere quale ruolo gioca l’ozono nel plasmare le dinamiche climatiche di Proxima Centauri b, attraverso simulazioni di modelli chimici climatici che sfruttano i recenti progressi nella teoria dei sistemi dinamici, e che hanno messo in luce una relazione tra i livelli di ozono e la stabilità atmosferica. Questo gas, in particolare, influirebbe sulla temperatura e sulla velocità del vento. Incorporando l’influenza dell’ozono nei modelli climatici, De Luca e colleghi hanno osservato una riduzione delle differenze di temperatura tra gli emisferi e un aumento della temperatura atmosferica a determinate altitudini.
Paolo De Luca, 36 anni, originario di Terni, primo autore dell’articolo pubblicato su Mnras. Dopo la laurea in scienza ambientali e il dottorato in Geografia Fisica è ora postdoc al Barcelona Supercomputing Center con una borsa Marie Curie. Studioso di estremi climatici, dal 2021 si interessa di esopianeti di tipo terrestre, come il pianeta Proxima Centauri b scelto per questo studio.
«Simulazioni climatiche teoriche come queste mettono alla luce dei cambiamenti e caratteristiche che di solito non vengono studiati nei processi atmosferici terrestri. Semplicemente l’assenza di ozono ci fa capire quanto la temperatura possa diminuire rispetto alla presenza di quest’ultimo», continua De Luca. «Inoltre, la presenza di ozono rimane un elemento fondamentale per la presenza di vita, in quanto quest’ultimo protegge dalla radiazione dannosa Uv emessa dalla stella di riferimento (nel nostro caso il Sole)».
Dunque, può la presenza di ozono o le alterazioni climatiche da esso indotte determinare se si sviluppi, o meno, vita su un pianeta?
«I cambiamenti dinamici che abbiamo trovato nel nostro studio non dovrebbero influenzare la presenza di forme di vita, ma la presenza o meno di ozono sì», risponde De Luca. «In futuro abbiamo in mente di usare molte simulazioni climatiche di vari esopianeti, per aggiungere robustezza ai risultati di uno o più studi».
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “The Impact of Ozone on Earth-like Exoplanet Climate Dynamics: The Case of Proxima Centauri b“, di Paolo De Luca, M Braam, T D Komacek, A Hochman
Buchi neri che hanno fretta di diventare grandi
Immagine catturata da Webb di uno dei quasar protagonisti dalla ricerca. I due riquadri mostrano uno zoom sulla sorgente prima e dopo la sottrazione della luce del quasar. L’emissione residua è quella stellare (riquadro in basso). Crediti: Yue et al. 2024; Nasa.
Nell’ultimo quarto di secolo si è scoperto che le proprietà di galassie e buchi neri non sono distribuite a caso ma sono legate da precise relazioni di scala. Non stiamo parlando dei buchi neri stellari, relitti delle tumultuose e rapide esistenze delle stelle di grande massa, ma dei buchi neri supermassicci, oggetti con una massa di ordini di grandezza maggiore e le cui origini sono ancora avvolte nel mistero, e che risiedono nelle regioni nucleari delle galassie.
A dispetto del loro nome, i buchi neri supermassicci sono comunque molto piccoli rispetto alle galassie in cui dimorano. Nell’universo attuale si è riusciti a stimare con una certa accuratezza che la massa dei buchi neri è circa mille volte più piccola di quella delle galassie ospitanti. All’incirca la differenza che c’è tra il pianeta Giove e il Sole. Questa relazione di scala è stata osservata in numerose galassie vicine alla nostra. È come se la galassia “sapesse” del buco nero centrale e viceversa.
È sempre stato così? Nell’universo, regno della mutevolezza per eccellenza, non è detto infatti che ciò che avviene comunemente al giorno d’oggi sia sempre accaduto. Per rispondere a questa domanda è dunque necessario scrutare il cosmo nei suoi recessi più reconditi per stanare galassie e buchi neri durante l’infanzia dell’universo.
Più o meno è quello che hanno provato a fare alcuni ricercatori guidati da Minghao Yue, postdoc presso il Massachusetts Institute of Technology (Mit) di Cambridge, negli Stati Uniti. Utilizzando il Telescopio Spaziale James Webb, Yue e collaboratori hanno osservato sei quasar, ovvero oggetti dalla luminosità prodigiosa dovuta all’accrescimento di materiale su un buco nero supermassiccio, la cui luce è stata emessa oltre tredici miliardi di anni fa. Durante l’infanzia dell’universo insomma. Obiettivo dell’osservazione: misurare la massa del buco nero centrale e della galassia ospitante. Più facile a dirsi che a farsi. I quasar sono oggetti così brillanti da sommergere letteralmente la luce delle stelle che risplendono nella galassia. L’astronomo che voglia misurarsi con l’osservazione di una galassia custode di un quasar, si troverà di fatto in una condizione non dissimile da chi voglia localizzare lo scintillio di una manciata di fiammiferi all’interno di un incendio.
Senza perdersi d’animo, gli autori dello studio, uscito lunedì su The Astrophysical Journal, hanno elaborato un modello per riprodurre l’emissione delle sorgenti osservate, in modo tale da sottrarre la luce emessa dal quasar e isolare l’emissione rimanente. Tale fioco segnale residuo è proprio la luce delle stelle che popolano la galassia ospitante, che può dunque essere convertita in una massa utilizzando delle relazioni opportune. La tecnica, utilizzata anche in altri studi, comporta notevoli difficoltà, tant’è che l’ardua misurazione è riuscita solo per tre dei sei quasar osservati nel programma.
Una volta stimata la massa della galassia, l’ingrediente mancante è la massa del buco nero. La misura di questa quantità risulta in confronto meno problematica e può essere effettuata attraverso le righe di emissione del gas che ruota forsennatamente nelle vicinanze del buco nero. Con le due masse a disposizione, gli astronomi hanno potuto confrontare la massa dei buchi neri con quella delle galassie, provando a replicare quel che viene fatto nell’universo attuale. E pare che ci siano delle sorprese.
Se, come dicevamo, nelle galassie vicine la massa del buco nero è un millesimo di quella della galassia ospitante, nel primo miliardo di anni dell’universo il rapporto fra queste due quantità risulta essere di uno a dieci. Non più come Giove e il Sole, piuttosto come Marte e la Terra. Questo ha delle implicazioni in ambito astrofisico. Sembra infatti che i buchi neri crescessero più rapidamente nel passato rispetto a quanto avviene attualmente. «Dev’esserci stato qualche meccanismo che consenta ai buchi di accrescere la propria massa prima delle galassie ospitanti nei primi miliardi di anni», afferma il primo autore dell’articolo.
Fondamentale è stato l’utilizzo del telescopio Webb, puntato per oltre cento ore sui quasar protagonisti dello studio. «La risoluzione delle immagini precedenti non era infatti sufficiente per distinguere le galassie ospitanti», spiega Yue. La ricerca fa parte del programma Eiger, che si propone di studiare le proprietà dei quasar e l’ambiente in cui risiedono un miliardo di anni dopo il Big Bang.
Può questo studio dirci qualcosa riguardo a come si formano i buchi neri supermassicci? Come si diceva agli inizi, misteriose sono infatti le origini di questi oggetti. I modelli attuali prevedono masse che possono variare fra le cento e e le centomila volte la massa del Sole per quelli che potrebbero essere stati i nuclei originari dei buchi neri. A tal proposito Anna-Christina Eilers, seconda autrice dell’articolo, afferma «Questi buchi neri sono miliardi di volte più massicci del Sole, in un tempo in cui l’universo era ancora nella sua infanzia. I nostri risultati implicano che nell’universo lontano, i buchi neri supermassicci sembrano crescere più rapidamente rispetto alle galassie che li ospitano e che i “semi” iniziali da cui sono nati i buchi neri potrebbero essere stati più massicci all’epoca che al giorno d’oggi».
Non c’è da aspettare che uno studio simile venga esteso a campioni più vasti di quasar distanti per comprendere meglio come si evolvono le relazioni fra galassie e buchi neri e svelare l’enigma sull’origine di questi ultimi.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “EIGER. V. Characterizing the Host Galaxies of Luminous Quasars at z ≳ 6” di Minghao Yue, Anna-Christina Eilers, Robert A. Simcoe, Ruari Mackenzie, Jorryt Matthee, Daichi Kashino, Rongmon Bordoloi, Simon J. Lilly, and Rohan P. Naidu
Webb trova un’atmosfera sull’esopianeta Janssen
Rappresentazione artistica di come potrebbe apparire l’esopianeta 55 Cancri e in base alle osservazioni del telescopio spaziale James Webb e di altri osservatori. Le osservazioni di NirCam e Miri suggeriscono che il pianeta potrebbe essere circondato da un’atmosfera ricca di anidride carbonica o monossido di carbonio. I ricercatori ritengono che i gas che compongono l’atmosfera potrebbero essere fuoriusciti da un oceano di magma che si pensa ricopra la superficie del pianeta. Crediti: Nasa, Esa, Csa, Ralf Crawford (StScI)
L’esopianeta 55 Cancri-e, noto anche come Janssen, è uno dei cinque pianeti conosciuti che orbitano attorno alla stella 55 Cancri, simile al Sole, nella costellazione del Cancro. Con un diametro quasi doppio rispetto a quello della Terra e una densità leggermente superiore, il pianeta è classificato come super-Terra: più grande della Terra, più piccolo di Nettuno e probabilmente simile per composizione ai pianeti rocciosi del Sistema solare.
Tuttavia, descrivere 55 Cancri-e come “roccioso” potrebbe dare un’impressione sbagliata. Il pianeta orbita così vicino alla sua stella – circa 1,4 milioni di chilometri, ovvero un venticinquesimo della distanza tra Mercurio e il Sole – che la sua superficie è probabilmente fusa: un oceano ribollente di magma. Con un’orbita così stretta, è probabile che il pianeta sia anche in una condizione di risonanza spin-orbita, con un lato sempre rivolto verso la stella e l’altro in una perenne oscurità.
Nonostante le numerose osservazioni effettuate da quando è stato scoperto con il metodo dei transiti, nel 2004, la domanda se 55 Cancri-e abbia o meno un’atmosfera – o se possa averne una, data la sua elevata temperatura e il continuo bombardamento di radiazioni dalla sua stella – è rimasta senza risposta. A differenza delle atmosfere dei pianeti giganti gassosi, che sono relativamente facili da individuare (la prima è stata rilevata dal telescopio spaziale Hubble della Nasa più di due decenni fa), le atmosfere più sottili e dense che circondano i pianeti rocciosi sono sfuggenti.
Studi precedenti su 55 Cancri-e, effettuati utilizzando i dati del telescopio spaziale Spitzer della Nasa, ormai in pensione, hanno suggerito la presenza di un’atmosfera ricca di molecole volatili (ossia molecole presenti in forma gassosa sulla Terra) come ossigeno, azoto e anidride carbonica. Ma i ricercatori non hanno potuto escludere un’altra possibilità, ossia che il pianeta sia in realtà spoglio, salvo un tenue velo di roccia vaporizzata, ricca di elementi come silicio, ferro, alluminio e calcio.
Una curva di luce da 7,5 a 11,8 micron catturata dallo strumento Miri del James Webb Space Telescope nel marzo 2023 mostra la diminuzione della luminosità del sistema 55 Cancri quando il pianeta roccioso 55 Cancri e si sposta dietro la stella, un fenomeno noto come eclissi secondaria. La quantità di luce nel medio infrarosso emessa dal pianeta (la differenza di luminosità tra la stella e il pianeta insieme e la stella da sola) indica che la temperatura del lato giorno del pianeta è di circa 1540 gradi Celsius. Questa temperatura, bassa se paragonata a quella di un pianeta simile privo di atmosfera, indica che il calore viene distribuito dal lato giorno al lato notte del pianeta, forse da un’atmosfera ricca di molecole volatili. Crediti: Nasa, Esa, Csa, Joseph Olmsted (StScI), Aaron Bello-Arufe (Jpl)
Per distinguere tra le due possibilità, il team ha utilizzato la NirCam (Near-Infrared Camera) e il Miri (Mid-Infrared Instrument) di Webb per misurare la luce infrarossa da 4 a 12 micron proveniente dal pianeta. Sebbene Webb non possa catturare un’immagine diretta di 55 Cancri-e, è in grado di misurare i sottili cambiamenti di luce del sistema mentre il pianeta orbita intorno alla stella.
Sottraendo la luminosità durante l’eclissi secondaria, ossia quando il pianeta si trova dietro la stella (solo luce stellare), dalla luminosità quando il pianeta si trova proprio accanto alla stella (luce della stella e del pianeta combinate), il team è stato in grado di calcolare la quantità di luce infrarossa proveniente dal lato illuminato a giorno del pianeta, a varie lunghezze d’onda. Questo metodo, noto come spettroscopia secondaria dell’eclissi, è simile a quello utilizzato da altri team di ricerca per cercare atmosfere su altri esopianeti rocciosi, come Trappist-1 b.
La prima indicazione che 55 Cancri-e potrebbe avere un’atmosfera è venuta dalle misurazioni della temperatura basate sulla sua emissione termica, irradiata sotto forma di luce infrarossa. Se il pianeta fosse ricoperto da roccia fusa scura con un sottile velo di roccia vaporizzata o se non avesse alcuna atmosfera, il lato giorno dovrebbe essere intorno ai 2200 gradi Celsius. «Invece, i dati di Miri hanno mostrato una temperatura relativamente bassa, di circa 1540 gradi Celsius», riporta Renyu Hu del Jet Propulsion Laboratory (Jpl) della Nasa, autore principale dello studio pubblicato ieri su Nature. «Questa è un’indicazione molto forte del fatto che l’energia viene distribuita dal lato giorno al lato notte, molto probabilmente da un’atmosfera ricca di sostanze volatili». Sebbene le correnti di lava possano trasportare un po’ di calore verso il lato notturno, non possono spostarlo in modo abbastanza efficiente da spiegare il raffreddamento.
Quando il team ha esaminato i dati della NirCam, ha riscontrato che erano coerenti con i modelli con un’atmosfera ricca di sostanze volatili. «Vediamo l’evidenza di un calo nello spettro tra i 4 e i 5 micron: meno luce raggiunge il telescopio», spiega il coautore Aaron Bello-Arufe, del Jpl. «Questo suggerisce la presenza di un’atmosfera contenente monossido di carbonio o anidride carbonica, che assorbono queste lunghezze d’onda della luce». Un pianeta senza atmosfera o con un’atmosfera composta solo da rocce vaporizzate non avrebbe questa specifica caratteristica spettrale.
Lo spettro di emissione termica dell’esopianeta 55 Cancri e, catturato da NirCam e Miri del James Webb Space Telescope, mostra che il pianeta potrebbe essere circondato da un’atmosfera ricca di anidride carbonica o monossido di carbonio e altri molecole volatili, non solo roccia vaporizzata. Crediti: Nasa, Esa, Csa, Joseph Olmsted (StScI), Renyu Hu (Jpl), Aaron Bello-Arufe (Jpl), Michael Zhang (University of Chicago), Mantas Zilinskas (Sron Netherlands Institute for Space Research)
Il team ritiene che i gas che ricoprono 55 Cancri-e siano fuoriusciti dall’interno, piuttosto che essere presenti fin dalla formazione del pianeta. «L’atmosfera primordiale sarebbe scomparsa da tempo a causa dell’alta temperatura e delle intense radiazioni della stella», dice Bello-Arufe. «Si tratterebbe di un’atmosfera secondaria che viene continuamente rifornita dall’oceano di magma. Il magma non è solo cristalli e roccia liquida, ma contiene anche molti gas disciolti».
Anche se 55 Cancri-e è troppo caldo per essere abitabile, i ricercatori pensano che potrebbe fornire una finestra unica per studiare le interazioni tra le atmosfere, le superfici e gli interni dei pianeti rocciosi, e forse fornire intuizioni sulle prime condizioni della Terra, di Venere e di Marte, che si pensa siano stati ricoperti da oceani di magma molto tempo fa. «In definitiva, vogliamo capire quali siano le condizioni che permettono a un pianeta roccioso di sostenere un’atmosfera ricca di gas: un ingrediente fondamentale per un pianeta abitabile», conclude Hu. Intanto, le osservazioni su questo esopianeta stanno continuando.
Per saperne di più:
- Leggi su Nature l’articolo “A secondary atmosphere on the rocky Exoplanet 55 Cancri e” di Renyu Hu, Aaron Bello-Arufe, Michael Zhang, Kimberly Paragas, Mantas Zilinskas, Christiaan van Buchem, Michael Bess, Jayshil Patel, Yuichi Ito, Mario Damiano, Markus Scheucher, Apurva V. Oza, Heather A. Knutson, Yamila Miguel, Diana Dragomir, Alexis Brandeker & Brice-Olivier Demory
L’lnaf porta Roma al Salone del libro di Torino
La prestigiosa cornice del Salone internazionale del Libro di Torino ospiterà, venerdì pomeriggio alle 14:30, la presentazione in anteprima del libro “Roma. Seconda stella a destra“, ultima uscita della collana di guide astroturistiche dedicate alla scoperta del cielo nascosto in città, realizzata dall’Istituto nazionale di astrofisica in collaborazione con lo Studio Bleu.
La presentazione si svolgerà nell’ambito del programma di eventi “La Farnesina incontra…”, presso lo Spazio Maeci del Salone, dove il Ministero degli Affari Esteri e della Cooperazione (Maeci) presenta i suoi progetti editoriali di punta. E tra questi rientra la guida “Roma. Seconda stella a destra”, fortemente voluta dal Ministero nell’ambito delle azioni messe in campo dalla Direzione Generale Promozione del Sistema Paese, e già presentata nel corso dell’ultima conferenza degli Addetti Scientifici.
Alessandra Tognonato, Capo Ufficio per la cooperazione scientifica bilaterale del Maeci, quando le abbiamo chiesto perché il Maeci abbia deciso di produrre una guida di Roma così particolare affidandone la realizzazione all’Inaf, ha risposto: «Spazio, cultura e innovazione sono parti essenziali della politica estera del nostro Paese a cui istituzioni di ricerca, come l’Inaf, contribuiscono in modo fondamentale. Roma e il suo territorio esprimono un intreccio perfetto: conoscenza, bellezza, competenza e dopo avere visto la guida realizzata da Inaf per la città di Padova abbiamo voluto usare lo stesso linguaggio per valorizzare il “saper fare” italiano e celebrarne l’importanza partendo proprio da Roma». E ha concluso: «La lunga collaborazione in essere con l’Inaf ci ha consentito di realizzare in tempi brevissimi il progetto e il risultato è davvero bello. Lo abbiamo presentato in anteprima alla recente Conferenza degli Addetti scientifici ed ora al Salone del Libro di Torino prima della distribuzione alle nostre sedi diplomatico consolari. Ci tengo a ringraziare coloro che hanno sostenuto e partecipato a questa nuova iniziativa del Maeci».
La Torre Solare della sede Inaf di Roma a Monte Mario. Crediti: Inaf
Un grande riconoscimento della qualità del prodotto ideato dall’Inaf, che vedrà, grazie alla promozione del Ministero degli Affari Esteri, una larga diffusione anche fuori dal Paese.
La collana “Seconda stella a destra”, nata nel 2015 , è la prima collana di questo genere in Italia e ha portato fino a oggi all’uscita delle guide di Padova, Firenze, Palermo, cui a breve si aggiungerà quella di Catania. Le guide sono state concepite in formato tascabile, in modo da poter essere utilizzate con praticità, e allo stesso tempo sono ricche di informazioni culturali e turistiche.
Roma ha un patrimonio immenso, come immensa è la città e le storie che l’hanno attraversata e inserire tutto quello che si sarebbe desiderato nei limiti editoriali del volume ha comportato un grande sforzo di sintesi. L’effetto che si è cercato di ottenere è quello di dare una suggestione di ciò che è accaduto nella città nelle diverse epoche e di come questa storia possa essere letta negli edifici e nelle opere d’arte.
È una città di stelle e cieli dipinti, di storie di scienza e grandi astronomi quella che si scopre negli itinerari di “Roma. Seconda stella a destra”: un percorso tra arte, astronomia e conoscenza per scoprire la città in una chiave insolita. Sei itinerari, cinque nel centro della città e uno fuori porta, accompagneranno il lettore in un percorso di scoperta, immersi nel respiro potente della città eterna.
La volta affrescata di Palazzo Patrizi Montoro, un gioiello nascosto nel cuore di Roma. Crediti: Gianluca Masi.
«Di cielo e stelle è intessuta a ogni livello la storia della cultura. Quella scientifica nell’accezione moderna è solo l’ultima incarnazione dell’indagine sulla natura e il significato delle luci del firmamento», commenta Giangiacomo Gandolfi dell’Inaf di Roma, responsabile scientifico della guida. «In questa guida abbiamo provato a riscoprire, indicare e raccontare con passione e curiosità questo retaggio culturale, svelando le molte tracce del mondo celeste riflesse nell’arte e nell’urbanistica della Capitale e spaziando dai monumenti antichi agli attuali Osservatori. Ovunque si guarda con attenzione si ritrovano i semi della straordinaria arrampicata verso gli astri della nostra specie, un afflato che è particolarmente evidente in questa città dalla classica bellezza e dalla smisurata ambizione cosmica e spirituale».
Una mappa parziale della città di Roma tratta dalla guida “Roma. Seconda stella a destra”.
Questa “tensione al cielo” è evidente in ogni angolo della città. Dalle simmetrie del Pantheon alle allegorie celesti affrescate a Villa Medici, Palazzo Barberini e nei palazzi nobili della città; dal Foro Romano intessuto di riferimenti astronomici alle meridiane dipinte a Palazzo Spada e Trinità dei Monti, dalla Luna “di Galileo” a S. Maria Maggiore fino alle colline ‘dei castelli’, poco fuori città, dove si trovano la Specola Vaticana e uno degli Osservatori Inaf.
Per seguire gli itinerari l’aletta della copertina è stata progettata per fare da tasca a una mappa, che mostra i punti di interesse della città e alcune informazioni di base su ciascuno di essi.
Roma si svela così nei suoi luoghi celesti: le rappresentazioni di stelle, segni zodiacali e pianeti sono indicati in mappa con l’arancione; troverete i luoghi del tempo come orologi e meridiane segnalati in verde; infine, in giallo, le tappe dedicate all’astronomia di ieri e di oggi e ai suoi protagonisti.
La cupola in vetro dell’artista italo-americano Narcissus Quagliata realizzata per Santa Maria degli Angeli in occasione del Grande Giubileo dell’anno 2000, è stata collocata a 28 metri di altezza nel vestibolo circolare. Crediti: Maria Teresa Menna.
«Una guida come questa permette di riscoprire una città in chiave nuova, testimoniando a cittadini e turisti come la scienza, e nello specifico l’astronomia, siano parte del nostro patrimonio culturale. E l’itinerario “Seconda Stella a Destra” si rivela un’esperienza ricca, accessibile, per tutti», conclude Valeria Cappelli di Studio Bleu, che ha partecipato alla realizzazione della guida di Roma.
Scopriremo come l’obelisco di Montecitorio fosse una meridiana al tempo di Augusto, come pure il Pantheon, e di quando Galileo venne nominato Linceo dopo una fatidica riunione sulla sommità del Gianicolo.
Copernico, Giordano Bruno, Galileo, sono alcuni dei protagonisti i cui cammini hanno incrociato le strade di Roma e per l’Inaf è un piacere poter accompagnare i lettori sui loro passi e su quelli dei tanti altri grandi scienziati, e artisti, che hanno che hanno contribuito all’evoluzione del pensiero e hanno fatto la storia dell’astronomia.
Subito dopo la presentazione, la guida sarà acquistabile online sullo shop di Studio Bleu.
A caccia di buchi neri con il Roman Telescope
Questa rappresentazione artistica ha un approccio fantasioso rispetto a come potrebbero apparire i piccoli buchi neri primordiali, che in realtà avrebbero difficoltà a formare dischi di accrescimento come quelli rappresentati. Crediti: Goddard Space Flight Center della Nasa
Gli astronomi hanno scoperto buchi neri che vanno da poche masse solari a decine di miliardi. Nel primo caso si parla di buchi neri stellari, nel secondo di buchi neri supermassicci. L’anello di congiunzione tra i due sono (o meglio, sarebbero) i buchi neri di massa intermedia, che però non si stanno riuscendo a trovare. In realtà, la teoria suggerisce che ne esista anche un quarto tipo: buchi neri dal “peso piuma”, diciamo. Ora, un gruppo di scienziati ha previsto che il telescopio spaziale Nancy Grace Roman della Nasa potrebbe trovare quest’ultima classe di buchi neri, finora sfuggita alla rilevazione.
Sappiamo che i buchi neri si formano quando una stella massiccia collassa o quando oggetti pesanti si fondono. Tuttavia, gli scienziati sospettano che i buchi neri primordiali più piccoli, tra cui alcuni con una massa simile a quella della Terra, possano essersi formati nei primi momenti caotici dell’universo.
«Individuare una popolazione di buchi neri primordiali di massa terrestre sarebbe un passo incredibile sia per l’astronomia che per la fisica delle particelle, perché questi oggetti non possono essersi formati da nessun processo fisico conosciuto», spiega William DeRocco, ricercatore dell’Università della California Santa Cruz, che ha guidato uno studio pubblicato sulla rivista Physical Review D.
I buchi neri più piccoli nascono quando una stella massiccia esaurisce il suo combustibile. La sua pressione verso l’esterno diminuisce con l’esaurirsi del combustibile che alimenta la fusione nucleare. Così l’attrazione gravitazionale verso l’interno vince il braccio di ferro e la stella si contrae, aumentando densità e temperatura fino a trasformarsi, se ci sono le condizioni, in un buco nero. Non tutte le stelle, infatti, diventano buchi neri nel corso della loro evoluzione: è necessaria una massa minima, pari ad almeno otto volte quella del Sole. Le stelle più leggere diventano nane bianche o stelle di neutroni.
Tuttavia, le condizioni dell’universo primordiale potrebbero aver permesso la formazione di buchi neri molto più leggeri. Pensate che un buco nero di massa terrestre avrebbe un orizzonte degli eventi largo quanto una moneta da dieci centesimi!
Stephen Hawking ha teorizzato che i buchi neri possono lentamente ridursi a causa della fuoriuscita di radiazione, nota come radiazione di Hawking, in grado di causare, nel tempo, l’evaporazione dei buchi neri stessi. Questa infografica mostra i tempi di vita stimati e il diametro dell’orizzonte degli eventi di buchi neri di varie (piccole) masse. Crediti: Goddard Space Flight Center della Nasa
Proprio mentre l’universo stava nascendo, si pensa che abbia vissuto una breve ma intensa fase nota come inflazione cosmica, nella quale la sua espansione è stata estremamente rapida. In queste condizioni particolari, le aree più dense dell’ambiente circostante potrebbero essere collassate formando buchi neri primordiali di piccola massa.
Sebbene la teoria preveda che i buchi neri più piccoli siano evaporati prima che l’universo abbia raggiunto l’età attuale, quelli con una massa simile a quella della Terra potrebbero essere sopravvissuti.
La scoperta di questi minuscoli oggetti avrebbe un enorme impatto sulla fisica e sull’astronomia. «Influirebbe su tutto, dalla formazione delle galassie al contenuto di materia oscura dell’universo, alla storia cosmica», spiega Kailash Sahu, astronomo dello Space Telescope Science Institute di Baltimora, che non ha partecipato allo studio.
Le osservazioni hanno già rivelato indizi che tali oggetti potrebbero essere in agguato nella nostra galassia. I buchi neri primordiali, se esistessero, sarebbero invisibili, ma piccole “rughe” dello spaziotempo – il cosiddetto microlensing, un caso particolare del lensing gravitazionale – hanno aiutato a individuare alcuni possibili sospetti.
Il lensing gravitazionale è un effetto osservativo che si verifica perché la presenza di massa deforma il tessuto dello spaziotempo, come l’impronta che fa una palla da bowling quando viene messa sulla superficie elastica di un trampolino. Ogni volta che un oggetto si trova prospetticamente vicino a una stella (o a una galassia) che sta sullo sfondo rispetto al nostro punto di osservazione, la sua luce deve attraversare lo spaziotempo deformato intorno all’oggetto massivo. Se i due oggetti (quello intermedio e quello sullo sfondo) sono particolarmente vicini (da un punto di vista prospettico), l’oggetto intermedio può agire come una lente naturale, focalizzando e amplificando la luce di quello sullo fondo.
Gruppi distinti di astronomi, utilizzando i dati del Moa (Microlensing Observations in Astrophysics) – una collaborazione che conduce osservazioni di microlensing utilizzando l’Osservatorio dell’Università Mount John in Nuova Zelanda – e dell’Ogle (Optical Gravitational Lensing Experiment) hanno trovato una popolazione inaspettatamente grande di oggetti isolati di massa terrestre.
Le teorie sulla formazione e l’evoluzione dei pianeti prevedono determinate masse e abbondanze di pianeti vagabondi – mondi che vagano per la galassia senza essere gravitazionalmente legati a una stella. Ecco, le osservazioni di Moa e Ogle suggeriscono che ci sono più oggetti di massa terrestre alla deriva nella galassia di quanto ne prevedano i modelli.
«Non c’è modo di distinguere tra buchi neri di massa terrestre e pianeti vagabondi», avverte DeRocco, che ha guidato uno sforzo per determinare quanti pianeti vagabondi dovrebbero trovarsi in questa fascia di massa e quanti buchi neri primordiali Roman potrebbe individuare tra questi. Gli scienziati si aspettano che Roman trovi un numero di oggetti di questa massa dieci volte superiore a quello dei telescopi a terra, e che avrà le capacità di distinguerli.
Trovare questi piccoli buchi neri rivelerebbe nuove informazioni sull’universo primordiale e darebbe ulteriore credito all’ipotesi dell’inflazione cosmica. Potrebbe anche spiegare una piccola percentuale della misteriosa materia oscura che, secondo gli scienziati, costituisce la maggior parte della massa del nostro universo, ma che finora non si è riusciti a identificare. Non sarà semplice trovarli, ma l’obiettivo vale sicuramente lo sforzo della ricerca.
Per saperne di più:
- Leggi su Physical Review D l’articolo “Revealing terrestrial-mass primordial black holes with the Nancy Grace Roman Space Telescope” di William DeRocco, Evan Frangipane, Nick Hamer, Stefano Profumo e Nolan Smyth
Sulle diverse “taglie” dei buchi neri, guarda il video di Gabriele Ghisellini:
youtube.com/embed/JCpHLjiiCCs?…
Piacere, sono l’Universo nascosto
media.inaf.it/wp-content/uploa…
Alessandro De Angelis , “L’Universo nascosto. La nuova astronomia dei raggi cosmici e delle onde gravitazionali ”, Castelvecchi, 2024, pp. 256, € 20,00. Crediti: S. Cussini/Inaf
Gli appassionati del mondo Marvel sentendo nominare i raggi cosmici penseranno probabilmente ai Fantastici Quattro. Nei fumetti, infatti, viene raccontato che, dopo essere stati esposti ai raggi cosmici nello spazio, Reed Richards, Sue Storm, Johnny Storm e Ben Grimm hanno subito cambiamenti mutageni permanenti che li hanno trasformati – appunto – nei famosissimi supereroi.
Sfortunatamente – o fortunatamente, dipende dai punti di vista – l’esposizione ai raggi cosmici è relativamente bassa per la maggior parte delle persone sulla Terra; quindi, il rischio di diventare una torcia umana o invisibili è alquanto ridotto. I raggi cosmici sono particelle che urtano l’atmosfera terrestre, a volte con energie che raggiungono le soglie più elevate osservate in natura, il che fa supporre che provengano da potentissimi acceleratori cosmici, come resti di supernova e buchi neri supermassicci; mentre raggi cosmici di minore energia provengono dal Sole.
Sono particelle molto interessanti da più punti di vista: climatico, evolutivo, astrofisico e anche archeologico. A metà del secolo scorso, infatti, si sono cominciati a utilizzare i muoni cosmici come sonde per esplorare l’interno di grandi strutture solide, come per esempio la Grande Piramide di Cheope, in cui nel 2017 è stata scoperta una grande stanza fino a allora sconosciuta. Le applicazioni dei raggi cosmici non si fermano qui, ce ne sarebbero molte altre, ma continuare a elencarle sarebbe uno spoiler. Leggendo L’Universo nascosto. La nuova astronomia dei raggi cosmici e delle onde gravitazionali del fisico Alessandro De Angelis (Castelvecchi editore, 2024) è possibile scoprire tante altre curiosità sui raggi cosmici e capire meglio cosa sono e come funzionano.
I contenuti del libro non si fermano a queste particelle, ma esplorano un’area dell’astrofisica un po’ trascurata dal grande pubblico, ovvero quella in cui il “messaggero” – il nuncius, come avrebbe detto Galileo – non è la lunghezza d’onda visibile, e nemmeno un’onda elettromagnetica in generale. Nell’epigrafe, tratta da L’altro mondo. Gli Stati e gli Imperi della Luna di Savinien Cyrano de Bergerac, si ammonisce il lettore a non diffidare di quel che non si vede o non si capisce con i soli sensi. L’astrofisica è piena di cose invisibili agli occhi ma che possono essere rivelate con alcuni strumenti. Il libro si immerge nella loro trattazione: dedica un capitolo a tutte le lunghezze d’onda della luce e agli strumenti utilizzati per osservarle; all’astronomia multimessaggero, che ha fatto grandi progressi nell’ultimo decennio; le particelle elementari, con la scoperta dell’antimateria e i laboratori nelle montagne; il nostro universo e le più grandi energie in esso; e infine i raggi cosmici, dalla loro scoperta alla loro influenza sulla nostra vita.
Il libro contiene, oltre ad alcune nozione astrofisiche di base per chi desidera comprendere meglio questi fenomeni e capire anche di cosa si occupano gli astrofisici, la storia dei progressi fatti fino ad ora nello studio di questi eventi. Ma non solo, vengono anche evidenziati le scoperte e i ruoli chiave di scienziati italiani all’interno del processo che ha portato alla comprensione dei raggi cosmici. Il racconto dell’avanzamento della conoscenza non viene esposto solo come una serie di successi ma anche come una serie di incomprensioni dei fenomeni, in quanto la scienza progredisce anche per errori. All’interno del libro si trovano anche le descrizioni degli strumenti, sia quelli nuovi sia i primi utilizzati, e i riferimenti alle collaborazioni per i nuovi progetti in corso.
Non bisogna temere, però, perché oltre alla parte più tecnica all’interno del libro si trovano anche numerosi aneddoti divertenti come, per esempio, una delle battute che circolava su Millikan, che aveva la fama di scienziato rapace, al California Institute of Technology: “Jesus saves, and Millikan takes the credit” (“Gesù ci salva e Millikan se ne prende il merito”).
Per chi è interessato all’astronomia multimessaggero e ai raggi cosmici, questo libro è sicuramente una risorsa valida. All’interno sono presenti anche numerose fotografie e disegni che aiuteranno il lettore a comprendere meglio di cosa si sta parlando, oltre a una serie di tavole centrali a colori.
Niente descrive meglio l’astrofisica – e la storia del progresso della scienza – delle parole di Bruno Rossi riportate nel libro: «La mia lunga esperienza come fisico dei raggi cosmici mi aveva insegnato che quando si entra in un territorio inesplorato esiste sempre la possibilità di trovare qualcosa di imprevedibile».
Con Lofar, a bassissima frequenza oltre la ionosfera
In alto, un’immagine di una porzione di cielo osservata con la tecnica di calibrazione finora migliore. In basso, la stessa porzione di cielo osservata con la nuova tecnica. Sono visibili moli più dettagli, e quelle che prima apparivano come chiazze sfocate ora si distinguono come singoli punti. Crediti: Lofar/Groeneveld et al.
Un team guidato da astronomi dell’Università di Leiden (Paesi Bassi), e del quale fanno parte anche ricercatori dell’Istituto nazionale di astrofisica, è riuscito a ottenere per la prima volta immagini in banda radio nitide dell’universo eccezionalmente nitide e a frequenze eccezionalmente basse: comprese tra 16 e 30 MHz. Un’impresa ritenuta quasi impossibile, perché la ionosfera, a circa 80 chilometri di altitudine sul suolo terrestre, interferisce con le osservazioni in questo intervallo di frequenze.
Le immagini sono state acquisite utilizzato le antenne del radiotelescopio Lofar installate a Drenthe, nei Paesi Bassi. La rete Lofar, che si estende su mezza Europa e presto avrà anche una stazione in Italia, è uno fra i migliori radiotelescopi a bassa frequenza del mondo. Per aggirare i disturbi introdotti dalla ionosfera terrestre, gli autori dello studio, i cui risultati sono stati pubblicati questa settimana su Nature Astronomy, si sono avvalsi di una tecnica di calibrazione derivata da quella in uso per osservazioni a frequenze molto più elevate, intorno ai 150 MHz, sulle quali negli ultimi anni si sono visti notevoli miglioramenti. «Speravamo di poter estendere questa tecnica anche alle frequenze più basse, al di sotto dei 30 MHz», spiega l’ideatore del test, Reinout van Weeren, dell’Università di Leiden. «E ci siamo riusciti».
«Sebbene molto lavoro sia stato fatto per migliorare la nostra abilità di osservare a radio frequenze ultra-basse negli ultimi anni», ricorda a Media Inaf un altro fra i coautori dello studio, Francesco De Gasperin, dell’Inaf Ira di Bologna, «la calibrazione della ionosfera è sempre stata un fattore limitante. Questo risultato mostra che, con i giusti codici di calibrazione, possiamo spingerci alle frequenze più basse raggiungibili con radio telescopi da terra (circa 10-15 MHz) mantenendo una risoluzione angolare che permetta di ricostruirne la struttura degli oggetti osservati».
Per mettere la nuova tecnica alla prova, sono stati osservati alcuni ammassi di galassie – e in particolare i getti di plasma emessi da antichi buchi neri – che in precedenza erano stati studiati in dettaglio solo a frequenze più elevate. Le immagini ottenute mostrano che l’emissione radio di questi ammassi non è uniforme lungo l’intero ammasso: è infatti emersa una distribuzione a macchie. «È stato come indossare per la prima volta un paio di occhiali e non vedere più in modo sfocato», dice il primo autore dello studio, Christian Groeneveld, dell’Università di Leiden (Paesi Bassi).
Secondo gli autori dello studio, la nuova tecnica di calibrazione permette di studiare fenomeni prima inaccessibili, compresi quelli riguardanti i pianeti extrasolari. «Una delle prede più ambite per questo tipo di osservazioni a bassissima frequenza saranno gli esopianeti. La scoperta di emissione radio a bassissima frequenza in questi oggetti», conclude De Gasperin, «proverebbe la presenza di campi magnetici intorno ad alcuni esopianeti, campi magnetici che si pensa siano un prerequisito importante per supportare la vita proteggendo l’atmosfera del pianeta stesso».
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Characterisation of the decameter sky at sub-arcminute resolution”, di C. Groeneveld, R.J. van Weeren, E. Osinga, W.L. Williams, J.R. Callingham, F. de Gasperin, A. Botteon, T. Shimwell, F. Sweijen, J. de Jong, L.F. Jansen, G.K. Miley, G. Brunetti, M. Brüggen e H.J.A. Röttgering
La Mano di Dio immortalata dalla DeCam
Il globulo cometario Cg 4, soprannominato Mano di Dio, è uno dei tanti globuli cometari presenti all’interno della Via Lattea. Questa immagine è stata catturata dalla Dark Energy Camera montata sul telescopio di 4 metri Víctor M. Blanco presso l’Osservatorio Interamericano di Cerro Tololo. Crediti: Ctio/NoirLab/Doe/Nsf/Aura, T.A. Rector (University of Alaska Anchorage/Nsf’s NoirLab), D. de Martin & M. Zamani (Nsf’s NoirLab)
A circa 1300 anni luce di distanza, nella costellazione Poppa, una mano spettrale sembra emergere dal mezzo interstellare e protendersi verso il cosmo. Questa struttura solo apparentemente minacciosa è Cg 4, un cosiddetto globulo cometario a cui è stato dato il soprannome di “Mano di Dio”. Si tratta di uno dei tanti globuli cometari presenti nella Via Lattea, la cui morfologia ha origini che sono ancora oggetto di dibattito tra gli astronomi.
I globuli cometari sono una sottoclasse delle nebulose oscure note come globuli di Bok: dense nubi isolate di gas e polveri cosmiche circondate da materiale caldo e ionizzato. Sono tra gli oggetti più freddi conosciuti in campo astrofisico, con temperature interne dell’ordine di 10 Kelvin. Quando queste nubi presentano una scia simile a una lunga coda, vengono chiamate globuli cometari per la loro vaga somiglianza con le comete, anche se di fatto non hanno nulla in comune.
Le caratteristiche tipiche di un globulo cometario sono difficili da notare in questa immagine catturata con la Dark Energy Camera (DeCam), montata sul telescopio di 4 metri Víctor M. Blanco presso il Cerro Tololo Inter-American Observatory (Ctio), del Nsf NoirLab. La sua testa polverosa – con un diametro di 1,5 anni luce – e la sua debole coda – lunga circa 8 anni luce – fanno di Cg 4 un globulo di Bok relativamente piccolo.
Individuati per la prima volta nel 1976 da immagini scattate con il telescopio Uk Schmidt in Australia, i globuli cometari sono rimasti a lungo inosservati dagli astronomi perché molto deboli. Le loro code, avvolte da scura polvere stellare, bloccano la maggior parte della luce. Ma con il suo speciale filtro H-alfa, DeCam è stata in grado di cogliere il debole bagliore rosso dell’idrogeno ionizzato presente all’interno della testa di Cg 4 e intorno al suo bordo esterno. Questa luce si produce quando l’idrogeno si eccita dopo essere stato bombardato dalle radiazioni delle stelle calde e massicce vicine.
L’intensa radiazione generata da queste stelle massicce sta gradualmente distruggendo la testa del globulo e spazzando via le minuscole particelle che disperdono la luce stellare. Tuttavia, Cg 4 contiene abbastanza gas per alimentare la formazione attiva di diverse nuove stelle della dimensione del Sole.
In questo primo piano, sembra che Cg 4 stia per divorare la galassia a spirale Eso 257-19 (Pgc 21338). In realtà, questa galassia si trova a più di cento milioni di anni luce da Cg 4 e sembra esserle vicina solo per un allineamento prospettico. Vicino alla testa del globulo cometario si trovano due giovani oggetti stellari: stelle nella fase iniziale della loro evoluzione, prima di diventare stelle di sequenza principale, che spesso presentano caratteristiche come getti, flussi bipolari, dischi protoplanetari e altri indicatori della nascita di una nuova stella. Crediti: Ctio/NoirLab/Doe/Nsf/Aura, T.A. Rector (University of Alaska Anchorage/Nsf’s NoirLab), D. de Martin & M. Zamani (Nsf’s NoirLab)
Sebbene gli astronomi abbiano osservato queste strutture in tutta la Via Lattea, la stragrande maggioranza di esse, compresa Cg 4, si trova all’interno di un’enorme macchia di gas incandescente chiamata Nebulosa di Gum, un probabile resto di supernova esplosa circa un milione di anni fa. Attualmente, la Nebulosa di Gum è nota per contenere almeno 31 globuli cometari, oltre a Cg 4.
Il meccanismo con cui questi oggetti assumono la loro forma distintiva non è del tutto noto, ma gli astronomi hanno sviluppato due idee sulle loro origini. La prima è che potrebbero essere state originariamente delle nebulose sferiche – come la ben nota Nebulosa Anello – successivamente sconvolte dall’esplosione di una supernova vicina, forse la stessa che ha creato la Nebulosa di Gum. La seconda idea è che i globuli cometari siano modellati da una combinazione di venti stellari e dalla pressione delle radiazioni provenienti dalle vicine stelle calde e massicce.
In effetti, tutti i globuli cometari trovati all’interno della Nebulosa di Gum sembrano avere code che puntano lontano dal centro della nebulosa, dove si trovano il resto della supernova Vela e la pulsar Vela. Quindi è possibile che i venti stellari della pulsar e la pressione delle radiazioni stiano modellando i globuli vicini.
Oggi è la giornata internazionale dei planetari
Uno dei primi sistemi optomeccanici messi a punto in Germania negli anni ’20. Crediti: Zeiss
Esattamente 99 anni fa, il 7 maggio del 1925, cominciava la programmazione regolare di spettacoli al pubblico del planetario del Deutsches Museum di Monaco di Baviera. Questo evento fu in realtà preceduto da dimostrazioni e proiezioni riservate cominciate il 21 ottobre del 1923, quando l’azienda ottica di Carl Zeiss presentò a un pubblico ristretto la prima proiezione artificiale del cielo. Non a caso, a cavallo tra il 2023 e il 2025 e non in una data unica, è stato deciso di festeggiare i cento anni di questo meraviglioso strumento di conoscenza e di divulgazione.
La data del 7 maggio è stata comunque scelta dall’International Planetarium Society (Ips) per rappresentare – da quest’anno e per gli anni a venire – la Giornata internazionale dei planetari, che tradizionalmente, dal 1991, veniva celebrata la seconda domenica di marzo su iniziativa dell’italianissimo gruppo “Amici dei Planetari”, che in poco tempo contagiò il resto d’Europa e del mondo. Gruppo che diede vita a quella che oggi è l’Associazione dei planetari italiani (Planit), il cui meeting annuale si è concluso a fine aprile.
Oggi nel mondo si contano oltre quattromila planetari, circa 120 dei quali in Italia, per la maggior parte stabili ma con lodevoli eccezioni anche itineranti. Sul sito Planit è disponibile una mappa completa ed aggiornata di questi strumenti nonché un sintetico excursus delle tappe fondamentali della loro storia.
google.com/maps/d/embed?mid=1b…
L’Istituto nazionale di astrofisica può contare su tre planetari ospitati negli osservatori astronomici di Bologna, Napoli e Cagliari, ai quali si aggiunge un planetario a gestione privata a cui l’Inaf partecipa con un sostegno scientifico che è il planetario di Torino.
Buona giornata internazionale dei planetari!
Nane bianche affamate di metallo
Orbite planetesimali attorno a una nana bianca. Inizialmente, ogni planetesimo ha un’orbita circolare, prograda. L’impulso forma un disco eccentrico di detriti con orbite prograde (blu) e retrograde (arancione). Crediti: Steven Burrows/Madigan
Le nane bianche, stelle di massa simile a quella del Sole pur avendo dimensioni simili a quelle della Terra, sono molto comuni nella nostra galassia, in quanto rappresentano la fase finale della maggior parte delle stelle. Si stima, infatti, che il 97 per cento delle stelle che accendono la Via Lattea siano nane bianche. Sono tutt’altro che piccole stelle evanescenti, poiché la forte attrazione gravitazionale esercitata dalla loro massa compatta attira e disintegra tutto ciò che si avvicina a esse, inquinando la loro superficie.
La composizione chimica di questi resti stellari è rimasta per anni un enigma, ma uno studio guidato da ricercatori dell’University of Colorado Boulder, negli Stati Uniti, e pubblicato su The Astrophysical Journal Letters lo scorso 23 aprile, potrebbe aver trovato risposta ad alcuni interrogativi. Silicio, magnesio e calcio: sono alcuni degli elementi pesanti rilevati sulla superficie di molti di questi oggetti compatti. «Questi metalli pesanti dovrebbero affondare molto rapidamente verso il nucleo», spiega Tatsuya Akiba, primo autore dello studio. «Quindi, non dovremmo rilevare metalli sulla superficie di una nana bianca, a meno che la nana bianca non stia mangiando attivamente qualcosa.»
Le nane bianche si nutrono di planetesimi (piccoli corpi di roccia e metallo), asteroidi, comete e persino pianeti. Le complessità di questo processo di attrazione gravitazionale devono ancora essere pienamente esplorate, tuttavia, secondo gli autori, la chiave per risolvere il mistero della composizione metallica della superficie di una nana bianca si potrebbe celare proprio in questo comportamento.
Utilizzando simulazioni al computer, i ricercatori hanno così ricostruito l’interazione gravitazionale di una nana bianca in formazione aggiungendo un impulso iniziale – causato da una perdita di massa asimmetrica – tale da alterare il suo movimento e la dinamica dei materiali circostanti presenti. «Le simulazioni ci aiutano a capire le dinamiche di diversi oggetti astrofisici», spiega Akiba. «In quella da noi realizzata, abbiamo lanciato un mucchio di asteroidi e comete intorno alla nana bianca, che è significativamente più grande, per osservare come si evolve la simulazione e quale di questi asteroidi e comete viene catturato dall’evento di accrescimento». Nell’80 per cento dei casi simulati, è stato osservato che, a seguito dell’impulso, le orbite di comete e asteroidi entro un intervallo da 30 a 240 unità astronomiche dalla nana bianca – la distanza di Nettuno dal Sole e oltre – si sono allungate e allineate. Inoltre, circa il 40 per cento dei planetesimi successivamente dissolti possedevano orbite retrogade.
Le dinamiche della nana bianca sono state simulate per una durata di 100 milioni di anni, periodo al termine del quale i planetesimi più vicini presentavano ancora delle orbite allungate e si muovevano come un’unità coerente: un risultato mai visto prima. «Questo è qualcosa che penso sia unico nella nostra teoria: possiamo spiegare perché gli eventi di accrescimento siano così duraturi», sottolinea Ann-Marie Madigan, co-autrice dello studio. «Gli altri meccanismi possono spiegare l’evento di accrescimento originario, mentre le nostre simulazioni con l’impulso generato durante la formazione mostrano perché l’accrescimento accada ancora centinaia di milioni di anni dopo».
Il risultato spiegherebbe, dunque, perché i metalli pesanti si trovano sulla superficie di una nana bianca, poiché la nana bianca continua sempre a consumare oggetti più piccoli che si imbattono nel suo percorso. «La stragrande maggioranza dei pianeti dell’universo finirà per orbitare attorno a una nana bianca», ricorda Madigan. «Forse il 50 per cento di questi sistemi verrà inglobato dalla propria stella, compreso il nostro Sistema solare. Ora, abbiamo un meccanismo che spiega come questo possa accadere».
Studiare le interazioni tra stelle come le nane bianche con gli altri corpi celesti aiuta a far luce sulle origini e la futura evoluzione del nostro Sistema solare e a scoprire la chimica coinvolta in questi processi, conclude Selah McIntyre, anch’essa coautrice dello studio: «Le nane bianche non sono solo una lente nel passato. Sono anche una specie di lente nel futuro».
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “Tidal Disruption of Planetesimals from an Eccentric Debris Disk Following a White Dwarf Natal Kick” di Tatsuya Akiba, Selah McIntyre e Ann-Marie Madigan
Su Encelado come in California
Illustrazione artistica di una sezione di Encelado in cui sono visibili i getti di materiale dalle faglie tiger stripes. Crediti: James Tuttle Keane
Al polo sud di Encelado, una delle lune di Saturno, sono ben visibili quattro fratture frastagliate e parallele chiamate tiger stripes (o strisce di tigre), lunghe fino a 150 km, dalle quali fuoriescono periodicamente getti di cristalli ghiacciati. Questo fenomeno è chiamato criovulcanismo, e si ritiene che i getti provengano dall’oceano sotterraneo di Encelado, contribuendo alla formazione di un ampio pennacchio di materiale che si estende per oltre 9600 km dalla superficie del satellite. Dalle osservazioni emerge che sia l’attività del getto che la luminosità del pennacchio variano con un periodo simile a quello di rivoluzione di Encelado intorno a Saturno, pari a poco meno di 33 ore. Saturno – ricordiamo che si tratta del secondo pianeta più massiccio del Sistema solare – esercita sul satellite una forte attrazione gravitazionale che varia durante la sua orbita. Questo fa sì che Encelado subisca uno stress ciclico che causa deformazioni sulla superficie del satellite e un fenomeno interno chiamato “riscaldamento mareale” in grado di dissipare energia sufficiente per mantenere quello che si ritiene essere un oceano liquido sotto la sua crosta ghiacciata. Questa correlazione temporale ha portato gli scienziati a ipotizzare che l’attività dei getti aumenti quando lo stress mareale agisce sulle faglie superficiali del satellite, facendo sì che le strisce di tigre si aprano e si chiudano consentendo la fuoriuscita di materiale in modo ciclico.
Tuttavia, questi modelli non sono in grado di prevedere con precisione la tempistica dei picchi di luminosità del pennacchio visibili poche ore dopo il massimo stress mareale e di un secondo picco più piccolo osservabile poco dopo l’avvicinamento di Encelado a Saturno. Un ulteriore dilemma ancora irrisolto è che il meccanismo di apertura della faglia richiederebbe una quantità di energia superiore a quella disponibile dalla sola forza delle maree.
Lo studio pubblicato alla fine dello scorso aprile su Nature Geoscience, guidato da Alexander Berne del Caltech, in California, suggerisce una nuova interpretazione di questi fenomeni. Berne e il suo gruppo hanno sviluppato un modello geofisico molto dettagliato per caratterizzare il movimento delle faglie a strisce di tigre di Encelado e in grado di fornire nuovi elementi sui processi che controllano l’attività dei getti. La comprensione di questi e altri fattori – come la misura in cui il materiale del getto rappresenta l’oceano del sottosuolo, la durata dell’attività dei getti, la topografia del guscio di ghiaccio – è fondamentale per ottenere un quadro dettagliato anche sulla potenziale abitabilità della luna di Saturno.
Rappresentazione della possibile relazione tra il
movimento strike-slip della faglia e l’attività del getto su Encelado. Crediti: James Tuttle Keane
I risultati di questo studio suggeriscono che le variazioni osservate nell’intensità del pennacchio di Encelado potrebbero essere dovute a un movimento delle strisce di tigre di tipo strike-slip, ovvero con un lato della faglia che si sfila dall’altro: un meccanismo del tutto simile a quello dei terremoti lungo la faglia di San Andreas, in California. L’energia necessaria per tale movimento di faglia è notevolmente inferiore a quella richiesta dal meccanismo di apertura/chiusura ipotizzata in un primo momento per la fuoriuscita dei getti di ghiaccio dal polo sud di Encelado, e questo spiegherebbe molto meglio il fenomeno osservato. Alcune sezioni frastagliate delle fratture, in presenza di un ampio movimento di scivolamento (detto di pull-apart) si aprirebbero, consentendo all’acqua di risalire dall’oceano sotterraneo attraverso il guscio ghiacciato per alimentare i getti criovulcanici. La simulazione tiene conto, inoltre, del ruolo dell’attrito tra le pareti ghiacciate delle faglie, che rende la deformazione sensibile sia alle sollecitazioni compressive, che tendono a bloccare e sbloccare la faglia, sia alle sollecitazioni di taglio, che tendono a provocare lo slittamento dei bordi della faglia stessa.
Già nel 2005, la sonda Cassini della Nasa ha sorvolato Encelado e campionato il materiale del getto, scoprendo che il pennacchio contiene elementi come il carbonio e l’azoto. Questi elementi indicano che l’oceano sotterraneo potrebbe presentare condizioni favorevoli alla vita, anche se per l’abitabilità sono necessarie condizioni geofisiche specifiche, tra cui una produzione di calore sufficiente e un flusso di sostanze chiave tra il nucleo, l’oceano e la superficie.
Mosaico di immagini di Encelado osservato nell’infrarosso dalla sonda Cassini. Crediti: Nasa/Jpl-Caltech/University of Arizona/Lpg/Cnrs/University of Nantes/Space Science Institute
«Per confermare le ipotesi formulate nel nostro lavoro, sono necessarie misurazioni dettagliate del movimento delle strisce di tigre», spiega Alexander Berne, primo autore dell’articolo. «Oggi siamo in grado di visualizzare lo slittamento delle faglie, come i terremoti, sulla Terra utilizzando le misurazioni radar dei satelliti in orbita. L’applicazione di questi metodi dovrebbe permetterci di comprendere meglio il trasporto di materiale dall’oceano alla superficie, lo spessore della crosta ghiacciata e le condizioni a lungo termine che possono consentire la formazione e l’evoluzione della vita su Encelado».
«Affinché la vita si evolva, le condizioni di abitabilità devono essere giuste per un lungo periodo di tempo, non solo per un istante», sottolinea Mark Simons, coautore dell’articolo. «Su Encelado è necessario un oceano di lunga durata. Le osservazioni geofisiche e geologiche possono fornire vincoli fondamentali sulla dinamica del nucleo e della crosta e sulla misura in cui questi processi sono stati attivi nel tempo».
Per saperne di più:
- Leggi su Nature Geoscience l’articolo “Jet activity on Enceladus linked to tidally driven strike-slip motion along tiger stripes” di A. Berne, M. Simons, J. T. Keane, E. J. Leonard e Ryan S. Park
Venere è senz’acqua, ecco come l’ha perduta
Venere oggi è secco grazie alla perdita di acqua nello spazio sotto forma di idrogeno atomico. Nel processo di perdita dominante, uno ione HCO+ si ricombina con un elettrone, producendo veloci atomi di H (arancione) che usano le molecole di CO (blu) come rampa di lancio per fuggire. Crediti: Aurore Simonnet / Laboratory for Atmospheric and Space Physics / Università del Colorado a Boulder
Viene chiamato spesso il pianeta gemello arido e inospitale della Terra. Ma, in realtà, Venere non è sempre stato un deserto privo di acqua. Durante la sua formazione avvenuta miliardi di anni fa, il pianeta avrebbe avuto – a seconda delle varie teorie – oceani o un’atmosfera ricca di vapore acqueo, così come la Terra. Quale catastrofe può essere allora avvenuta per renderlo così secco e infernale?
Gli scienziati planetari dell’Università del Colorado a Boulder hanno provato a far luce su una delle più grandi lacune nella comprensione della “storia dell’acqua” su Venere. Utilizzando simulazioni al computer, il team di ricerca ha identificato un processo noto come “ricombinazione dissociativa” quale responsabile principale della siccità estrema del pianeta venusiano.
Nonostante sia un nostro “vicino di casa” e sia simile per dimensioni e materiale di partenza alla Terra, Venere è, infatti, estremamente secco. Se, ad esempio, si prendesse tutta l’acqua presente sulla Terra e la si spargesse sul pianeta come marmellata su un toast, si otterrebbe uno strato liquido profondo di circa tre chilometri; su Venere, dove tutta l’acqua è intrappolata nell’aria, si otterrebbero solo tre centimetri, appena sufficienti per bagnarsi le dita dei piedi. «Venere ha una quantità d’acqua 100mila volte inferiore a quella della Terra, pur avendo sostanzialmente le stesse dimensioni e la stessa massa», spiega Michael Chaffin, primo autore di uno studio pubblicato ieri su Nature e ricercatore presso il Laboratory for Atmospheric and Space Physics (Lasp), in Colorado.
Secondo le teorie più diffuse, le nubi di anidride carbonica presenti nell’atmosfera di Venere hanno innescato il più potente effetto serra del Sistema solare, portando le temperature in superficie fino a 500 gradi Celsius e facendo evaporare l’acqua presente. Tuttavia, quell’antica evaporazione non è sufficiente a spiegare perché Venere sia oggi così secco o come possa continuare ancora a disperdere acqua nello spazio. «Per analogia, diciamo che se buttassi via l’acqua dalla mia bottiglia, rimarrebbero ancora alcune gocce», ha detto Chaffin. Su Venere, invece, quasi tutte le gocce sono scomparse. Qualcosa non torna, quindi: il processo di evaporazione ipotizzato finora dagli studiosi non è riuscito a rendere conto delle condizioni attuali di siccità, e altri meccanismi di fuga possibili sono troppo lenti per completare il processo di rimozione quasi totale dell’acqua.
Nello studio guidato da Chaffin, i ricercatori hanno utilizzato modelli computerizzati per fare di Venere un gigantesco laboratorio di chimica, ponendo lo zoom sulle diverse reazioni che avvengono nell’atmosfera vorticosa del pianeta. I risultati della ricerca suggerirebbero che l’acqua dell’atmosfera di Venere, un tempo dominata dal vapore, sia stata dispersa nello spazio attraverso un meccanismo chiamato “deflusso idrodinamico” (hydrodynamic outflow, in inglese). Il colpevole di tale siccità, secondo il nuovo lavoro, sarebbe l’elusivo HCO+, uno ione composto da un atomo ciascuno di idrogeno, carbonio e ossigeno, presente nell’atmosfera di Venere.
In analisi precedenti, il team di ricerca avrebbe già confermato che HCO+ sia la molecola sospettata responsabile dell’aridità su Marte. Allo stesso modo, secondo gli scienziati, su Venere funzionerebbe così: lo ione HCO+ viene prodotto costantemente nell’atmosfera, ma i singoli ioni, non sopravvivendo a lungo, si ricombinano con gli elettroni presenti nei gas, dividendo la molecola originaria. A quel punto, i veloci atomi di H (idrogeno) usano le molecole di CO (monossido di carbonio) come una sorta di “rampa di lancio” per fuggire dall’atmosfera. Nel processo così ipotizzato, gli atomi di idrogeno si allontanerebbero nello spazio, privando Venere di uno dei due componenti fondamentali dell’acqua: l’idrogeno, appunto. In questo modo, a causa della ricombinazione dissociativa di HCO+, che produce una maggiore quantità di idrogeno in uscita rispetto ai processi precedentemente suggeriti, Venere perderebbe ogni giorno circa il doppio della quantità di acqua ipotizzata prima d’ora.
Venere potrebbe aver avuto oceani d’acqua nel suo lontano passato. Un modello terra-oceano come quello qui sopra è stato utilizzato in un modello climatico per mostrare come le nubi temporalesche avrebbero potuto schermare l’antico Venere dalla forte luce solare e rendere il pianeta abitabile. Crediti: Nasa
«L’acqua è davvero importante per la vita», dice Eryn Cangi, ricercatrice presso il Laboratory for Atmospheric and Space Physics (Lasp) e coautrice dello studio. «Dobbiamo capire quali sono le condizioni che supportano l’acqua liquida nell’universo e che potrebbero aver prodotto l’attuale stato su Venere». Il gruppo di ricerca ha calcolato che l’unico modo per spiegare lo stato di aridità di Venere è che il pianeta ospiti nella sua atmosfera, oltre ai vari gas, volumi di HCO+ superiori al previsto. «Una delle conclusioni sorprendenti di questo nostro lavoro è che HCO+ potrebbe essere tra gli ioni più abbondanti nell’atmosfera di Venere», aggiunge Chaffin.
La recente scoperta del team ha però uno scomodo risvolto: finora, gli scienziati non hanno mai osservato HCO+ intorno a Venere, poiché non hanno mai avuto a disposizione gli strumenti per osservare e misurare correttamente la concentrazione in atmosfera. Il meccanismo proposto è stato trascurato, infatti, per oltre 50 anni, in parte a causa dei limiti di progettazione degli strumenti delle precedenti navicelle spaziali di Venere.
Negli ultimi anni, tuttavia, un numero crescente di scienziati ha messo gli occhi sul pianeta venusiano e le future missioni spaziali su Venere proveranno a misurare le abbondanze di HCO+ per determinare se la ricombinazione dissociativa di HCO+ è effettivamente il meccanismo dominante per la perdita di acqua. «Non ci sono state molte missioni su Venere. Ma le nuove in programma», conclude Cangi, «sfrutteranno decenni di esperienza collettiva per esplorare gli estremi delle atmosfere planetarie, dell’evoluzione e dell’abitabilità sui diversi pianeti».
Per saperne di più:
- Leggi su Nature l’articolo “Venus water loss is dominated by HCO+ dissociative recombination” di M. S. Chaffin, E. M. Cangi, B. S. Gregory, R. V. Yelle, J. Deighan, R. D. Elliott e H. Gröller
Le cefeidi: ieri, oggi e domani
La stella RS Puppis, una delle variabili cefeidi più luminose della Via Lattea, ripresa da Hubble. Crediti: Nasa, Esa, and the Hubble Heritage Team (Stsci/Aura)-Hubble/Europe Collaboration Acknowledgment: H. Bond (Stsci and Penn State University)
Con il nome di cefeidi vengono indicate tre diverse categorie di stelle variabili (stelle la cui luminosità varia periodicamente con il tempo) che hanno la caratteristica di essere delle ottime candele campione, le cui distanze individuali possono essere stimate con un’accuratezza di qualche percento. Le cefeidi classiche pulsano con periodi che vanno dal giorno a poche centinaia di giorni e sono traccianti di popolazioni stellari giovani (età inferiore a 200-300 milioni di anni) tipicamente associate a regioni di formazione stellare, mentre le cefeidi di tipo II pulsano con periodi che vanno dal giorno a un centinaio di giorni, sono traccianti di popolazioni stellari vecchie (età superiore a 10 miliardi di anni) e vengono principalmente identificate nel nucleo e nell’alone della nostra galassia. Tra queste due categorie principali si inseriscono le meno numerose cefeidi anomale che pulsano con periodi che vanno da qualche dozzina di ore a pochi giorni, associate a popolazioni stellari di età intermedia (qualche miliardo di anni).
Le strade della moderna astrofisica e quelle delle cefeidi si sono intrecciate diverse volte.
La prima cefeide galattica è stata scoperta nell’ottobre 1784 da un astrofilo britannico, John Goodricke, che facendo osservazioni regolari con il suo telescopio si era reso conto che la stella delta della costellazione del Cefeo era una stella variabile. In realtà la prima cefeide era stata scoperta il mese prima fa Edward Pigott ed era la stella eta della costellazione dell’Aquila. Edward era anche lui un astrofilo ed era non solo vicino di casa del giovane John ma anche suo amico e mentore. Decise di fare un passo indietro e di dare al giovane John (diciasettenne, sordomuto) la possibilità di annunciare per primo la sua scoperta. Se Edward non avesse fatto questo grande gesto di nobiltà d’animo oggi le chiameremmo ‘aquileidi’ e non ‘cefeidi’.
A sinistra, stelle cefeidi nella galassia a spirale Ngc 5584 (crediti: Nasa, Esa, and L. Frattare/Stsci). A destra, frontespizio originale dell’articolo di Edwin Hubble “Cepheids in Spiral Nebulae” (crediti: Huntington Digital Library)
Il prossimo anno ricorre il centenario della pubblicazione dell’articolo di Edwin Hubble (1925) sulla scoperta delle cefeidi classiche nella galassia di Andromeda. Questo articolo segna la nascita della cosmologia osservativa e sancisce la fine dell’annosa disputa tra Curtis e Shapley a proposito della natura delle cosiddette “nebulae”. Curtis aveva ragione: si trattava di galassie esterne simili alla nostra e non di nebulose appartenenti alla nostra galassia.
È stato grazie alla scoperta di Walter Baade (1956) delle popolazioni stellari che ci si rese conto che le cefeidi classiche e le cefeidi di tipo II obbedivano a due diverse relazioni periodo-luminosità (PL). Questa fu una rivoluzione di proporzioni copernicane, sia per la stima dell’età dell’universo (che per la prima volta risultava maggiore dell’età della Terra basata sui decadimenti radioattivi) che per le sue dimensioni. La relazione PL era stata scoperta da Henrietta Leavitt nel suo studio delle cefeidi delle Nubi di Magellano (1912) e consente, una volta calibrata, di fornire distanze molto accurate.
A queste vanno aggiunte molte altre rilevanti scoperte che hanno utilizzato le cefeidi come fari per investigare la curva di rotazione della nostra galassia o come laboratori per fornire delle stime molto accurate delle proprietà fisiche (evolutive, pulsazionali) di stelle in fasi evolutive avanzate con masse che vanno da poco meno di una massa solare a una decina di masse solari.
Le rivoluzioni e le scoperte che abbiamo discusso si trovano in molti testi di storia dell’astrofisica. Sarebbe lecito pensare che le cefeidi possano essere considerate dal punto di vista astrofisico delle vegliarde sul viale del tramonto. Ma questa è un’illazione priva di fondamento. Le cefeidi continuano a essere il crocevia di importanti problemi astrofisici e cosmologici.
Le recenti identificazioni di cefeidi classiche in sistemi binari a eclisse nelle Nubi di Magellano hanno consentito di poter misurare la loro massa con un’accuratezza dell’uno per cento e di fornire dei limiti molto stringenti sui fenomeni di mixing che avvengono al loro interno. Queste stesse cefeidi sono state utilizzate per misurare, per la prima volta con un metodo geometrico, la distanza della Grande e della Piccola Nube di Magellano con un’accuratezza dell’uno e del due per cento.
Utilizzando due dei più potenti telescopi spaziali al mondo – Hubble della Nasa e Gaia dell’Esa – gli astronomi hanno effettuato le misurazioni più precise fino ad oggi del tasso di espansione dell’universo. Questo viene calcolato misurando le distanze tra le galassie vicine usando tipi speciali di stelle chiamate variabili Cefeidi come metri cosmici. Confrontando la loro luminosità intrinseca misurata da Hubble, con la loro luminosità apparente vista dalla Terra, gli scienziati possono calcolare le loro distanze. Gaia perfeziona ulteriormente questo metro misurando geometricamente le distanze dalle variabili Cefeidi all’interno della nostra galassia della Via Lattea. Ciò ha permesso agli astronomi di calibrare con maggiore precisione le distanze dalle Cefeidi che si osservano nelle galassie esterne. Crediti: Nasa, Esa e A. Feild (STScI)
Le Nubi di Magellano rivestono un ruolo fondamentale nella scala delle distanze cosmiche, perché vengono utilizzate come primo piolo nella determinazione della costante di Hubble. I risultati più recenti sulla stima di questa constante suggeriscono una tensione a livello di otto sigma tra la stima diretta basata su un campione locale di 42 supernove di tipo Ia calibrate con cefeidi classiche (H0=73.04±1.04 m/s/Mpc) e la stima della stessa costante basata sulla radiazione cosmica di fondo del satellite Planck (H0=67.4±0.5 km/s/Mpc). Questa tensione sembra suggerire che, attualmente, il nostro universo si stia espandendo con una velocità che è circa l’8 per cento più rapida rispetto alle previsioni dal modello cosmologico più accreditato (LambdaCdm). Questa differenza, se confermata, implicherebbe non solo un superamento del modello standard ma anche un’interessante opportunità per nuova fisica.
La comunità astrofisica si sta muovendo su tre strade diverse: a) verificare l’universalità, e in particolare la dipendenza dalla metallicità, delle relazioni PL utilizzate per stimare le distanze delle cefeidi; b) utilizzare candele campione traccianti di popolazioni stellari antiche come le cefeidi di tipo II e il tip del ramo delle giganti; c) ricerca di possibili errori sistematici. Questo sforzo titanico è ancora in atto, ma ci sono fondati motivi per pensare che i nuovi risultati del satellite Gaia e le nuove survey spettroscopiche da terra ci consentiranno di dipanare la matassa.
La misura delle abbondanze delle cefeidi sono importanti non solo per la scala delle distanze cosmiche ma anche per investigare la storia di arricchimento chimico della nostra galassia. Le cefeidi classiche vengono utilizzate per misurare i gradienti di composizione chimica del disco sottile in cui si trova il nostro Sistema solare e ci aiutano a capire come vengono formati molti elementi chimici, compresi quelli che sono alla base della vita – i cosiddetti Chnops (carbonio, idrogeno, azoto, ossigeno, fosforo, zolfo).
Ci sembra opportuno sottolineare che il prossimo anno ricorre anche il centenario della pubblicazione della tesi di dottorato di Cecilia Payne, la prima donna ad aver ottenuto un dottorato in astrofisica. Lei usa per la prima volta l’equazione di Saha per la determinazione delle abbondanze stellari e dimostra che l’elemento più diffuso nell’universo è l’idrogeno. L’approccio da lei adottato apre la strada alla spettroscopia quantitativa e alla nucleosintesi.
Per saperne di più:
- Leggi su The Astronomy and Astrophysics Review l’articolo “Cepheids as distance indicators and stellar tracers”, di G. Bono, V. F. Braga e A. Pietrinferni
Guarda su MediaInaf Tv il servizio video sulla misura delle distanze nel cosmo:
youtube.com/embed/CXOTemDI27I?…
Alla conquista del Far West lunare
David W. Brown, “Spazio. La sfida del presente”, Hoepli, 2023, 174 pagine, 24,90 euro
Omero sarebbe stato contento di sapere che nei pressi del polo sud lunare c’è un lander chiamato Odysseus. In effetti, pur essendo allunato di fianco con serie difficoltà a inviare i dati a terra, Odysseus ha rappresentato una pietra miliare perché è stata la prima missione “privata” a posarsi sulla Luna facendo entrare la compagnia Intuitive Machines nella storia dell’esplorazione spaziale. Era questo l’obiettivo immediato del programma commerciale della Nasa Clps (Commercial Lunar Payload Services), nato per stimolare l’ingresso dei privati nelle missioni lunari al fine di abbassare il costo del trasporto di strumenti sulla Luna. In pratica si accetta una maggiore componente di rischio, in cambio della nascita di un mercato lunare.
Era sottinteso che qualche missione potesse andare male, come è successo a inizio gennaio a Peregrine di Astrobotic. Peregrine ha perso la chance di allunare a causa di una perdita di carburante, ma il budget della missione fornisce un buon esempio del mercato della logistica lunare, dove è il trasporto a fare la parte del leone. Infatti, nel caso di Peregrine, la Nasa aveva finanziato cinque strumenti per un ammontare di 9 milioni di dollari mentre il trasporto era costato 108 milioni.
A risollevare il morale degli entusiasti dell’esplorazione lunare ci ha pensato la missione Slim dell’agenzia spaziale giapponese, che il 20 gennaio scorso ha realizzato un allunaggio morbido, rendendo il Giappone la quinta nazione a essere riuscita nella manovra e la prima a realizzare un allunaggio di grande precisione. In effetti, l’allunaggio di Slim è stato un po’ “scomposto” visto che la sonda ha toccato il suolo a testa in giù, cosa che ha impedito il normale funzionamento dei pannelli solari. Con un po’ di pazienza il Sole li ha finalmente illuminati e la sonda ha dimostrato di essere perfettamente operativa sopravvivendo al gelo di tre notti lunari, con stupore dei suoi costruttori.
Poi è arrivato Odysseus, la prima missione privata e la prima ad allunare vicino al polo sud. Era quello che voleva la Nasa che, in qualità di cliente principale, ha pagato 118 milioni di dollari per il trasporto di 6 strumenti del costo di 11 milioni. Odysseus trasportava anche strumenti forniti da altri clienti. A causa dell’allunaggio storto non tutti hanno funzionato come previsto, ma la missione è stata archiviata come un successo.
Tre missioni lunari nei primi due mesi del 2024 testimoniano il rinato interesse per l’esplorazione del nostro satellite, che continua con Chang’è 6, una missione cinese partita il 3 maggio con l’obiettivo di posarsi sulla faccia nascosta per raccogliere campioni da riportare a terra.
Simonetta Di Pippo, “Luna, laboratorio di pace”, Egea, 2024, 152 pagine, 17 euro
Poi ci saranno altre missioni commerciali più ambiziose. A fine anno il rover Nasa Viper si poserà nella regione del polo sud lunare, dove dovrebbe cercare il ghiaccio d’acqua. Astrobotic ha un contratto da 200 milioni per il trasporto del rover, che costa più del doppio. L’anno prossimo anche la missione cinese Chang’è 7 sarà diretta in un’area limitrofa, perché tutti vogliono essere vicino ai depositi di ghiaccio e in zone che godano di illuminazione pressoché costante.
Per questo bisogna agire d’anticipo, per evitare che sorgano conflitti o, peggio ancora, per evitare che la luna diventi un Far West cosmico, come spiega molto bene Simonetta di Pippo nel suo libro Luna laboratorio di pace. Astrofisica con una vasta esperienza nell’ufficio per lo spazio esterno delle Nazioni Unite, l’autrice sa bene che la situazione non è semplice, perché tutti vogliono la stessa proprietà immobiliare, che devono occupare il prima possibile per evitare che altri li precedano. Poiché nessuno stato può rivendicare la proprietà di corpi celesti, bisogna assicurarsi il diritto di utilizzo perché, fino a quando la zone è occupata, non sarà possibile che altri vi si installino. Gli insediamenti dovranno essere costruiti e gestiti con strategie di sostenibilità a lungo termine che implicano rispetto per l’ecosistema delicatissimo della Luna, utilizzo di materiale locale e un riciclo puntiglioso.
In effetti la parola sostenibilità è il mantra della nuova esplorazione spaziale. Lo capiamo leggendo le interviste che compongono Spazio la sfida del presente di David Brown. Gli intervistati rappresentano diverse figure professionali tutte collegate allo spazio: si va dall’astronauta, al manager, all’ingegnere, agli architetti, agli esperti di comunicazione, di diplomazia e diritto internazionale, di detriti spaziali, delle problematiche dell’estrazione mineraria su altri corpi celesti. Tutti concordano sul fatto che ogni intervento deve essere sostenibile e fatto in modo da rispettare le norme internazionali che, però, spesso non sono accettate da tutti, oppure non esistono proprio. Scorrendo le interviste si scopre che sostenibilità spaziale e terrestre vanno di pari passo. I dati raccolti dai satelliti di osservazione della Terra sono fondamentali per misurare la salute del pianeta e migliorare le politiche terrestre. D’altro canto, le centrali solari orbitali, capaci di produrre energia in modo continuato, possono essere un prezioso complemento alle rinnovabili terrestri, irrinunciabili ma discontinue. Lo spazio è soprattutto una palestra dove provare le strategie dell’economia circolare perché, in mancanza di materie prime, i rifiuti diventano una risorsa e le coltivazioni devono consumare il meno possibile. Soprattutto bisogna avere ben chiaro che si sta utilizzando un bene comune che deve continuare a rimanere tale.
Chang’e 6 è in volo verso il lato nascosto della Luna
Rappresentazione artistica del lander delle missioni Chang’e 5 e 6. Crediti: Wikimedia Commons
Partita l’ambiziosa missione cinese per la Luna, Chang’e 6 che punta a raggiungere il polo sud e riportare per la prima volta a Terra campioni di terreno dal lato nascosto del nostro satellite. Il lancio è avvenuto alle 11:27 ora italiana con un razzo Lunga Marcia 5 dallo spazioporto di Wenchang, e a bordo c’è anche uno strumento scientifico italiano dell’Istituto nazionale di fisica nucleare.
Dopo il successo della missione Chang’e 5, che nel 2020 aveva raggiunto la Luna e riportato a Terra 1,7 chili di campioni di terreno lunare, l’agenzia spaziale cinese Cnsa punta a replicare la missione dandosi questa volta un obiettivo ancora più ambizioso: il lato nascosto della Luna nei pressi del polo sud, il sito considerato più interessante per la realizzazione di futuri avamposti.
La missione, che come tutte le precedenti missioni lunari cinesi prende nome dalla divinità Chang’e, durerà complessivamente 53 giorni e si compone di 4 parti: un orbiter, un lander, un modulo di risalita e un modulo di rientro. L’obiettivo è riportare per la prima volta campioni del lato nascosto della Luna, che presenta molte caratteristiche differenti, ancora poco comprese, rispetto a quello visibile. La missione accoglie sono anche alcune partecipazioni straniere, tra cui uno strumento francese per il rilevamento di gas radon e il retroriflettore laser passivo italiano dell’Infn, denominato Innri (Instrument for landing-Roving laser Retroreflector Investigations), che aiuterà a controllare il posizionamento della sonda.
Concluso il lancio, Chang’e 6 ha iniziato ufficialmente il suo viaggio verso la Luna, che durerà diversi giorni, ma solo dopo aver completato una serie di orbita sempre più larghe attorno alla Terra. Una volta raggiunta l’orbita lunare, tra 5 giorni, la missione si dividerà in due: una parte composta da orbiter e modulo di rientro che resterà in orbita, l’altra composta da lander e modulo di risalita che scenderà verso la superficie. L’allunaggio è previsto nel cratere Apollo, un enorme cratere che occupa gran parte della regione polare e che si stima si sia formato in seguito a un violento impatto con un grande meteorite circa 4 miliardi di anni fa. Proprio per questo campioni di terreno di questa area risultano particolarmente interessanti per comprendere meglio alcune questioni ancora misteriose riguardo all’origine del nostro satellite.
Una volta sceso il lander userà un’innovativa trivella che tenterà di raccogliere campioni fino a 2 metri di profondità mentre a permettere le comunicazioni sarà il satellite Queqiao-2, lanciato a marzo 2024, che grazia alla sua potente antenna parabolica di ben 4,2 metri di diametro garantirà una sorta di ponte radio con il lato nascosto della Luna. I materiali raccolti saranno poi trasferiti a bordo del modulo di risalita che ripartirà per ricongiungersi con il modulo di rientro in attesa in orbita. Completata la manovra il modulo si dirigerà nuovamente verso la Terra per portare i campioni, si spera circa due chili.
Fonte: Ansa
Rivedi il video del lancio sul canale YouTube della Cctv:
youtube.com/embed/WpDd8VFHXf8?…
Campo geomagnetico, trovate le tracce più antiche
Il campo magnetico terrestre può essere pensato come un’enorme bolla, che ci protegge dalle radiazioni cosmiche e dalle particelle cariche che bombardano la Terra con il vento solare. Crediti: Esa/Atg Medialab
L’odierno campo magnetico della Terra è prodotto e mantenuto grazie alla dinamica del ferro presente nelle sue profondità. Nel cuore del nostro pianeta, in particolare all’interno del nucleo esterno, le alte temperature ionizzano il ferro liquido presente, producendo correnti elettriche che danno origine a una geodinamo autorigenerante: il motore che alimenta il campo geomagnetico. La sua importanza risiede nel fatto che, estendendosi nello spazio fino all’alta atmosfera, crea una bolla protettiva attorno alla Terra – la magnetosfera – che ci protegge delle particelle cariche provenienti dal Sole e dallo spazio interstellare, riducendo così l’esposizione a radiazioni dannose.
Le prove più antiche che oggi possediamo circa la sua esistenza risalgono a diversi miliardi di anni fa: circa 3.5 miliardi di anni, per essere precisi. E provengono da studi paleomagnetici condotti su rocce raccolte dalla cintura di rocce verdi di Barberton, in Sudafrica. In campioni di rocce prelevate in un luogo remoto della Groenlandia, un team di geologi del Massachusetts Institute of Technology (Mit) e dell’Università di Oxford ha ora scoperto prove che suggeriscono che la Terra possedesse un campo magnetico già 3.7 miliardi di anni fa, dunque 200 milioni di anni prima. I risultati dello studio sono stati pubblicati la settimana scorsa sulla rivista Journal of Geophysical Research.
«Il campo magnetico è, in teoria, uno dei motivi per cui riteniamo che la Terra sia davvero unica come pianeta abitabile», dice Claire Nichols, geologa planetaria all’Università di Oxford e prima autrice dello studio. «Esso ci protegge infatti dalle radiazioni dannose provenienti dallo spazio. Inoltre, ci aiuta anche ad avere oceani e atmosfere che possono essere stabili per lunghi periodi di tempo»
Il team di ricercatori ha trovato le antiche firme del campo magnetico terrestre analizzando campioni di roccia prelevate dalla cintura di rocce verdi di Isua, un’imponente formazione rocciosa situata nella parte sudoccidentale della Groenlandia. «La Cintura di rocce verdi di Isua si trova a circa 150 chilometri dalla capitale. È un luogo spettacolare, in cui si arriva solo in elicottero volando sopra la calotta glaciale della Groenlandia», aggiunge la scienziata. «Qui si trovano le rocce più antiche del mondo, circondate da questa drammatica espressione dell’era glaciale».
Immagine che mostra una roccia di ferro a bande prelevata prelevate dalla cintura di rocce verdi di Isua. Crediti: Claire Nichols
Nella loro indagine, gli scienziati si sono concentrati su particolari rocce chiamate formazioni di ferro a bande, banded iron formation in inglese, un tipo di roccia composta da strati alternati di minerali ricchi di ossido di ferro. Il motivo di tale scelta non è casuale. Gli ossidi di ferro si comportano infatti come minuscoli magneti che si orientano a seconda del campo magnetico che risentono – un processo noto come magnetizzazione. Se la magnetizzazione nel corso del tempo geologico non è alterata da eventi termici prodotti dalla tettonica a placche – metamorfismo regionale – o da attività idrotermale – metamorfismo idrotermale –, queste rocce possono conservare l’orientamento collettivo degli atomi di ferro e dunque possono portare con sé l’impronta del campo magnetico della Terra primordiale.
È esattamente il caso delle rocce in questione: le analisi petrologiche e geocronologiche condotte dai ricercatori indicano che a partire dall’Eoarcheano – un’era geologica che va da 4 a 3.6 miliardi di anni fa – la parte più settentrionale di Isua non ha sperimentato temperature superiori a 380 gradi Celsius, il che significa che le rocce presenti non sono state riscaldate in modo significativo e che la loro magnetizzazione è quella risalente all’epoca in questione. Detto in altri termini, le rocce della cintura sopracrustale di Isua – com’è anche chiamata la formazione rocciosa – conservano una traccia del campo geomagnetico dell’Eoarcheano. A questo punto bisognava capire quanto intenso fosse questo campo magnetico. Per rispondere a questa domanda, i ricercatori hanno sottoposto le loro carote di roccia a diversi test presso il laboratorio di paleomagnetismo del Mit.
«I campioni che riteniamo essere migliori e che hanno una firma molto antica, li smagnetizziamo in laboratorio, in fasi successive», spiega Nichols. « A questo punto, applichiamo loro un campo magnetico di laboratorio di cui conosciamo la forza e poi ri-magnetizziamo gradualmente, in modo da poter confrontare il gradiente di smagnetizzazione con il gradiente di magnetizzazione indotto in laboratorio. Questo gradiente ci dice quanto era forte il campo magnetico».
Claire Nichols e colleghi sullo sperone di una formazione di ferro a bande. Sullo sfondo la calotta di ghiaccio della Groenlandia. Crediti: Claire Nichols
I risultati ottenuti da questi test non solo suggeriscono che le loro rocce hanno memoria di un campo magnetico vecchio di 3,7 miliardi di anni, ma indicano anche che questo campo magnetico avesse una magnitudine di almeno 15 microtesla. «Sebbene sia la metà della forza del campo magnetico odierno, il suo valore è dello stesso ordine di grandezza», sottolinea Nichols. «Il fatto che la sua forza sia simile implica che qualsiasi cosa stia guidando il campo magnetico terrestre, questa non è cambiata in modo massiccio in termini di potenza nel corso di miliardi di anni».
La domanda a questo punto è: cosa alimentava all’epoca un campo magnetico così intenso? Il campo magnetico odierno è generato nel nucleo esterno della Terra grazie all’intenso calore emanato dal nucleo interno. Gli scienziati ritengono tuttavia che 3.7 miliardi di anni fa questo guscio interno non fosse ancora formato. Come spiegare dunque la genesi di questo campo magnetico? Non lo sappiamo ancora, ma una cosa è certa, osserva Benjamin Weiss, ricercatore al Mit e co-autore dello studio: «Qualsiasi cosa generasse all’epoca il campo magnetico terrestre, era una fonte di energia diversa da quella di cui disponiamo oggi. Ciò suggerisce che i pianeti in tutta la galassia probabilmente hanno molti modi per alimentare un campo magnetico, il che è importante per la questione dell’abitabilità altrove nell’universo».
I risultati ottenuti dai ricercatori sono coerenti con studi precedenti che suggeriscono che la Terra avesse un campo magnetico attivo sin dall’Eoarcheano. È probabile inoltre che la paleointensità stimata nello studio sia inferiore rispetto valore “vero” dell’epoca. Pertanto, i ricercatori non escludono che l’antico campo magnetico terrestre fosse forte almeno quanto quello odierno. Indipendentemente dalla sua forza e stabilità, concludono i ricercatori, i nostri studi suggeriscono che la Terra ha sostenuto un campo magnetico intrinseco già a partire da 3,7 miliardi di anni.
Per saperne di più:
- Leggi su Journal of Geophysical Research l’articolo “Possible Eoarchean Records of the Geomagnetic Field Preserved in the Isua Supracrustal Belt, Southern West Greenland” di Claire I. O. Nichols, Benjamin P. Weiss, Athena Eyster, Craig R. Martin, Adam C. Maloof, Nigel M. Kelly, Mike J. Zawaski, Stephen J. Mojzsis, E. Bruce Watson e Daniele J. Cherniak
Dedicato un asteroide a Filippo Frontera
Filippo Frontera. Crediti: Univ. Ferrara
Grande circa 4.5 km, avvistato per la prima volta dall’astronomo Fabrizio Bernardi la notte del 10 gennaio 2002, usando il telescopio di Campo Imperatore, mentre solcava la fascia principale, l’asteroide 2002 AP12 ha da questa settimana un nuovo nome: 126177 Filippofrontera. Come riporta infatti l’ultimo numero del Wgsbn bulletin (il periodico dello Small Body Nomenclature Working Group, il gruppo di lavoro dell’Unione astronomica internazionale che si occupa della nomenclatura dei corpi minori del Sistema solare), l’asteroide è stato dedicato all’astrofisico dell’Università di Ferrara (e associato Inaf) Filippo Frontera.
L’ambito di ricerca di Frontera, si legge sempre sul Wgsbn Bullettin, riguarda l’astronomia dei raggi X e dei raggi gamma. Nel corso della sua lunga carriera ha ricevuto i premi “Bruno Rossi”, “Cartesio”, “Enrico Fermi” e “Marcel Grossmann”. E più di recente, nel 2024, l’International Collaboration Award dell’Accademia cinese delle scienze. A formulare la proposta di dedicargli l’asteroide sono stati lo stesso Fabrizio Bernardi e l’astronomo Mario Di Martino.
«La cosa mi ha fatto molto piacere», dice Frontera a Media Inaf. «È un po’ come un segno di immortalità fatto non solo di carta (le pubblicazioni), ma anche di pietra, un grande masso, con silicati e altre sostanze che hanno resistito forse per miliardi di anni all’autodistruzione. È una sensazione piacevole, sperando sempre che 126177 Filippofrontera (2002 AP12) non debba interagire con la Terra, cosa per ora esclusa dall’orbita».
Questo dedicato a Filippo Frontera non è che il più recente di un ragguardevole numero di asteroidi ai quali è stato dato il nome di astronome e astronomi dell’Inaf – o associati all’Inaf, com’è appunto il caso di Frontera. Da un rapido confronto incrociato fra l’elenco di tutti i “pianeti minori” con nome proprio del Minor Planet Center e l’anagrafica dell’Istituto nazionale di astrofisica escono, infatti, i nomi di almeno una dozzina fra ricercatrici e ricercatori dell’ente ai quali è stato dedicato un asteroide: Marco Bondi, Marta Burgay, Daniele Gardiol, Daria Guidetti, Simone Ieva, Saverio Lombardi, Alice Lucchetti, Maurizio Pajola, Ernesto Palomba, Davide Perna, Federico Tosi e lo stesso presidente Inaf Roberto Ragazzoni.
Ancor più nutrito il gruppo degli associati Inaf: oltre a Filippo Frontera incontriamo infatti Ester Antonucci, Paolo Bacci, Cesare Barbieri, Ivano Bertini, Oberto Citterio, Carmelo Falco, Luca Fini, Flavio Fusi Pecci, Monica Lazzarin, Paola Leaci, Claudio Maccone, Simone Marchi, Sabrina Masiero, Silvano Massaglia, Roberto Nesci, Emanuele Pace, Giovanni Pratesi, Sandra Savaglio e Paolo Tanga.
Sicuramente ne manca qualcuno: nel caso fateci sapere e lo aggiungeremo qui di seguito.
Arturo, la stella elettricista
Costellazione del Boote con la sua stella principale Arturo
Arturo, il guardiano dell’Orsa, è la stella principale della costellazione del Boote. Essa è ben riconoscibile in cielo e ben visibile in questo mese perché in maggio culmina al meridiano intorno a mezzanotte. Per identificarla basta prolungare le tre stelle del timone del Grande Carro e arrivare fino a una stella brillante e di un bel colore arancione. È la quarta stella più luminosa di tutto il cielo, la seconda del cielo boreale dopo Sirio e addirittura la stella più luminosa con declinazione positiva. È una gigante rossa duecento volte più luminosa del Sole e piuttosto vicina, 37 anni luce in realtà, ma nonostante questo è una stella piuttosto insolita.
È variabile ma non si conosce la causa della sua variabilità su lungo periodo, anche se uno studio del 2008 ipotizza sia dovuta al ciclo magnetico della stella. Probabilmente è una stella doppia, ma ancora non è certo, e forse le oscillazioni della sua posizione sono dovute a un pianeta di tipo gioviano. Inoltre, il suo moto proprio è peculiare rispetto alla rotazione della Via Lattea e comune a una cinquantina di stelle, tanto da battezzare questa associazione stellare con il nome di corrente stellare di Arturo.
Nel 1933, la luce della stella Arturo venne utilizzata per accendere i riflettori della Century of Progress Exposition di Chicago. La luce dell’astro venne focalizzata su una cella fotoelettrica dalle lenti del telescopio dell’Osservatorio di Yerkes. Dall’osservatorio propagò un segnale elettrico che accese l’illuminazione dell’esposizione.
Nel nostro viaggio tra le costellazioni di maggio, a sud possiamo trovare sotto il Boote la costellazione della Vergine, mentre più a sinistra abbiamo la Corona Boreale ed Ercole. Non perdetevi gli ammassi globulari M92 e M13, quest’ultimo visibile facilmente con un binocolo. A ovest invece ritroviamo la costellazione del Leone e del Cancro, entrambe destinate a riposarsi con l’avvicinarsi della stagione estiva, e più in altro quella dell’Orsa Maggiore. A est fanno la comparsa le costellazioni della Lira del Cigno e dell’Aquila. E per finire a nord, oltre l’Orsa Minore, Cefeo e Cassiopea – più bassa sull’orizzonte. Per l’osservazione delle costellazioni e degli oggetti di profondo cielo, approfittate delle notti senza Luna, nei primi giorni del mese.
L’ammasso globulare Messier 4 (M4) nella costellazione dello scorpione e che nel mese di maggio 2024 è occultato dalla luna (crediti Hubble Space Telescope)
Anche in questo mese, i pianeti saranno poco visibili. Venere e Giove troppo vicini al Sole, quest’ultimo addirittura in congiunzione con la nostra stella. Marte e Saturno visibili al mattino, ma immersi nelle prime luci dell’alba a inizio mese, incrementeranno però la loro visibilità con il passare dei gironi anticipando l’ora del loro sorgere. In questo periodo gli anelli di Saturno saranno visti quasi di taglio e perciò poco appariscenti.
La notte tra il 23 e il 24 maggio il nostro satellite naturale occulterà l’ammasso globulare M4 nella costellazione dello Scorpione. La Luna sarà piena e l’ammasso stellare – sebbene M4 abbia una magnitudine inferiore alla sesta e quindi visibile a occhio nudo come una macchia lattiginosa – sarà immerso nella luce della Luna stessa. Complicata da osservare, l’occultazione inizierà alle ore 2 e 15 del 24 maggio e terminerà alle 4. Probabilmente potrà essere vista solo attraverso un telescopio per aumentare il contrasto dell’ammasso stellare. Potrebbe essere un’opportunità per gli astrofotografi che cercano sfide complicatissime.
Guarda su MediaInaf Tv la videoguida al cielo del mese, a cura di Fabrizio Villa:
youtube.com/embed/AyGKbr1wH-A?…
Corsa alla Luna sul muro della morte
Allenamento lungo la parete di M-Wall. Crediti: Unimi, Royal Society Open Science
L’uomo sta per tornare sulla Luna. E questa volta per restarci a lungo, come prevede il programma Artemis della Nasa. Ma vivere in condizioni di microgravità come quelle presenti sul nostro satellite ha effetti negativi sul corpo umano: indebolimento muscolare, perdita di densità ossea, problemi di circolazione.
Ora però i ricercatori e le ricercatrici dell’Università degli studi di Milano hanno individuato un sistema che potrà permettere agli astronauti e alle astronaute di allenarsi anche sulla Luna e prevenire così l’insorgenza di questi disturbi fisici.
Correre sulla Luna è infatti impossibile: se un astronauta ci provasse, finirebbe per saltellare più che muoversi in avanti. La ricerca, pubblicata sulla rivista Royal Society Open Science, ha dimostrato che un astronauta potrebbe però correre orizzontalmente sulla parete verticale di un cilindro di 10 metri di diametro, come quelle all’interno dei cosiddetti muri della morte (wall of death) nei quali si esibiscono i motociclisti.
«Sulla Terra, per un uomo è impossibile correre dentro questi cilindri perché la potenza muscolare della corsa è insufficiente a raggiungere prestazioni tali da contrastare la gravità terrestre e rimanere “attaccati” alla parete», spiega Alberto Minetti, docente di fisiologia all’Università Statale di Milano e coordinatore dello studio. «Nella nostra sperimentazione, invece, abbiamo simulato le condizioni gravitarie lunari, che sono 1/6 di quelle terrestri. Abbiamo noleggiato un’attrazione simile a quelle che si trovano al luna park, ribattezzata “M-Wall” dal gruppo di ricerca su suggerimento Esa (Agenzia spaziale europea), e un braccio telescopico per edilizia, estensibile fino a 40 metri di altezza. A questo braccio abbiamo sospeso alcuni volontari con un’imbragatura a bande elastiche, tese al punto di sgravare il peso corporeo di 5/6 del valore terrestre. Dopo una breve familiarizzazione, i volontari sono riusciti a correre orizzontalmente ad altezza costante sul muro verticale, proprio come i motociclisti acrobatici sulla Terra, con una velocità dai 19 ai 22 km/ora».
Un astronauta, correndo su una parete anche a velocità leggermente inferiori, genera una gravità artificiale laterale ben più alta di quella che agisce verticalmente sul nostro satellite. Questo, sulla Luna, gli permetterebbe di tenersi in allenamento e combattere così lo scadimento delle condizioni osteomuscolari, cardiocircolatorie e di controllo neuromotorio indotte dalla permanenza prolungata in ipogravità. Infatti, l’analisi biomeccanica e, indirettamente, energetica della corsa hanno mostrato che l’intensità della locomozione e le forze di impatto al contatto possono mantenere la massa muscolare e la densità ossea a livelli “terrestri”. Inoltre questo esercizio a corpo libero coinvolgerà il senso dell’equilibrio e quindi anche il controllo motorio.
«Si prevede che saranno sufficienti due sessioni di pochi minuti al giorno e che si potranno utilizzare le pareti dei moduli abitativi degli astronauti (che sono previsti circolari), riducendo al minimo l’extra spazio necessario al soggiorno sul nostro satellite», conclude Minetti.
Fonte: comunicato stampa Unimi
Per saperne di più:
- Leggi su Royal Society Open Science l’articolo “Horizontal running inside circular walls of Moon settlements: a comprehensive countermeasure for low-gravity deconditioning?”, di Alberto E. Minetti, Francesco Luciano, Valentina Natalucci e Gaspare Pavei
Su RaiDue, nove astrofisiche per nove settimane
media.inaf.it/wp-content/uploa…
Da sinistra, Fabio Gallo, Valerio Rossi Albertini e Marita Langella. Crediti: Rai
Valerio Rossi Albertini, Fabio Gallo e Marita Langella ripartono con la terza edizione di Quasar, il programma di scienza e ambiente. Il 4 maggio 2024, alle 10:10, il primo di nove appuntamenti che oltre a confermare l’interesse verso temi quali la mobilità sostenibile, l’economia circolare, la rivoluzione digitale e la transizione energetica, darà vita una nuova serie di rubriche.
Valerio Rossi Albertini, in particolare, avrà l’occasione di intervistare nove astrofisiche di fama internazionale, ampliando le nostre conoscenze sulle scoperte più recenti e le missioni internazionali nelle quali l’Italia è protagonista. Nove astrofisiche tutte già note alle lettrici e ai lettori di Media Inaf. La sua prima ospite, sabato 4 maggio, sarà Sara Lucatello (Inaf Padova). Nelle settimane successive sarà il turno di Eleonora Troja (Università Roma Tor Vergata, 11 maggio), Sandra Savaglio (Università della Calabria, 18 maggio), Alice Borghese (Iac Canarie, 25 maggio), Elena Zucca (Inaf Bologna, 1° giugno), Sara Buson (University of Wurzburg, 15 giugno), Mariafelicia De Laurentis (Università di Napoli Federico II, 22 giugno), Patrizia Caraveo (Inaf Milano, 29 giugno) e Ilaria Caiazzo (Caltech, 6 luglio).
Ma non si parlerà solo di astrofisica, a Quasar. Spetterà a Fabio Gallo fornire un quadro reale sullo stato dei nostri mari, incontrando una serie di esperti sulla tutela della fauna e della flora marina. Nuova veste anche per Marita Langella, che a volte condurrà gli spettatori indietro nel tempo a riscoprire i grandi inventori Italiani, e altre li porterà a conoscere quali sono le ultime novità dal mondo della ricerca tecnologica, come i robot, gli esoscheletri, le protesi elettroniche e molto altro.
Spazio anche a delle clip realizzate con lo scopo di sfatare una serie di luoghi comuni, fake news o vere e proprie “bufale”, spiegabili attraverso la scienza e la conoscenza.
Sorelle diverse: la chimica delle stelle binarie
La mela non cade mai lontano dall’albero, si dice. Ma se raccogliessimo sotto lo stesso albero due mele assai diverse tra loro? È l’enigma innanzi al quale si trovano gli astronomi che studiano la composizione chimica di coppie di stelle binarie, dunque coppie di stelle nate dalla stessa nube molecolare – rispettivamente, le mele e l’albero della nostra analogia. Molti sistemi binari presentano infatti coppie dalla composizione chimica assai diversa, e un nuovo studio, pubblicato a febbraio su Astronomy & Astrophysics, ha ora confermato per la prima volta che questa diversità risale alla nube che le ha generate.
Si stima che fino all’85 per cento delle stelle esista in sistemi binari, alcune anche in sistemi con tre o più stelle. Queste coppie stellari nascono insieme dalla stessa nube molecolare e orbitano attorno al centro di massa del sistema. Essendosi formate dalla stessa nube, gli astronomi si aspetterebbero di osservare che abbiano sistemi planetari quasi identici e che condividano anche le abbondanze di elementi chimici, ma per molti sistemi non è così. Alcune delle spiegazioni proposte attribuivano le differenze a eventi accaduti dopo la formazione delle stelle coinvolte, a uno stadio di evoluzione già avanzato, ma il nuovo studio tende a escludere questa lettura.
Un team guidato da Carlos Saffe dell’Icate Conicet argentino, utilizzando lo spettrografo Ghost (Gemini High Resolution Optical Spectrograph) montato sul telescopio Gemini South, in Cile, ha studiato le diverse lunghezze d’onda – ovvero gli spettri – emessi da una coppia di stelle giganti (quelle del sistema binario HD 138202 + CD−30 12303). Gli astronomi, infatti, utilizzando gli spettri possono comprendere la composizione chimica di un oggetto; si potrebbero immaginare come le analisi del sangue dei corpi: ogni riga corrisponde a un elemento e indica se questo è presente e anche in quale quantità. I risultati hanno rivelato differenze significative nella composizione chimica delle due stelle giganti.
Rappresentazione artistica di una coppia binaria di stelle giganti. Nonostante siano nate dalla stessa nube molecolare, spesso vengono rilevate differenze nella composizione chimica delle stelle binarie e nei sistemi planetari. Utilizzando lo strumento Ghost di Gemini South, un team di astronomi ha confermato per la prima volta che queste differenze possono essere ricondotte a disomogeneità nella nube molecolare primordiale da cui sono nate le stelle. Crediti: NoirLab/Nsf/Aura/J. da Silva (Spaceengine)/M. Zamani
«Gli spettri di altissima qualità di Ghost hanno offerto una risoluzione senza precedenti», dice Saffe, «permettendoci di misurare i parametri stellari e le abbondanze chimiche delle stelle con la maggior precisione possibile». Queste misurazioni hanno rivelato che una stella aveva una maggiore abbondanza di elementi pesanti rispetto all’altra.
Ma perché questa discrepanza? Studi precedenti avevano proposto tre possibili spiegazioni per le differenze chimiche osservate tra le stelle binarie. Due di queste coinvolgono processi che si potrebbero verificare durante l’evoluzione delle stelle: la diffusione atomica, ovvero la sedimentazione degli elementi chimici in strati gradienti diversi a seconda della temperatura di ciascuna stella e della gravità superficiale; e l’inghiottimento di un piccolo pianeta roccioso, che introdurrebbe variazioni chimiche nella composizione della stella.
La terza possibile spiegazione, invece, suggerisce che le differenze abbiano origine in epoca primordiale, da disuniformità presenti già all’interno della nube molecolare. In termini più semplici, se la nube molecolare ha una distribuzione non uniforme di elementi chimici, le stelle nate all’interno di quella nube avranno composizioni diverse a seconda di quali elementi erano disponibili nel luogo in cui si sono formate.
Finora gli studi avevano concluso che tutte e tre le spiegazioni fossero probabili; tuttavia, questi studi si erano concentrati esclusivamente su binarie della sequenza principale. La “sequenza principale” — nome che deriva dal posizionamento di queste stelle su un diagramma HR — è lo stadio in cui una stella trascorre gran parte della sua esistenza: la maggior parte delle stelle nell’universo sono stelle della sequenza principale, compreso il Sole. Saffe e il suo team, invece, hanno osservato una binaria composta da due stelle giganti – una fase evolutiva al di fuori della sequenza principale. Queste stelle possiedono strati esterni estremamente larghi e fortemente turbolenti, ovvero zone convettive. Grazie alle proprietà di queste spesse zone convettive, il team è stato in grado di escludere due delle tre possibili spiegazioni.
Il continuo turbinio del fluido all’interno della zona convettiva renderebbe difficile la sedimentazione del materiale in strati, il che significa che le stelle giganti sono meno sensibili agli effetti della diffusione atomica — quindi è esclusa la prima spiegazione. Lo spesso strato esterno significa anche che un inghiottimento planetario non cambierebbe molto la composizione di una stella, poiché il materiale ingerito verrebbe rapidamente diluito, escludendo la seconda spiegazione. L’unica spiegazione confermata rimane così la presenza di disomogeneità primordiali all’interno della nube molecolare. «Questa è la prima volta che gli astronomi sono riusciti a confermare che le differenze tra le stelle binarie iniziano nelle prime fasi della loro formazione», sottolinea Saffe.
«Utilizzando le capacità di misurazione di precisione fornite dallo strumento Ghost, Gemini South sta ora raccogliendo osservazioni di stelle alla fine della loro vita per rivelare l’ambiente in cui sono nate», afferma Martin Still dell’Nsf, program director del Gemini Observatory. «Questo ci dà la possibilità di esplorare come le condizioni in cui si formano le stelle possono influenzare la loro intera esistenza per milioni o miliardi di anni».
Tre conseguenze di questo studio sono particolarmente significative. Innanzitutto, questi risultati offrono una spiegazione del motivo per cui gli astronomi vedono stelle binarie con sistemi planetari così diversi. «Diversi sistemi planetari», spiega Saffe, «potrebbero significare pianeti molto diversi – rocciosi, simili alla Terra, giganti di ghiaccio, giganti gassosi – che orbitano attorno alle loro stelle ospiti a distanze diverse e dove il potenziale per sostenere la vita potrebbe essere molto diverso». In secondo luogo, questi risultati rappresentano una sfida cruciale al concetto di classificazione chimica — l’utilizzo della composizione chimica per identificare stelle che provengono dallo stesso ambiente o nursery stellare — mostrando che stelle con composizioni chimiche diverse possono ancora avere la stessa origine. Infine, le differenze osservate in precedenza attribuite agli impatti planetari sulla superficie di una stella dovranno essere riviste, poiché ora potrebbero essere viste come presenti fin dall’inizio della vita della stella.
«Dimostrando per la prima volta che le differenze primordiali sono realmente presenti e responsabili delle differenze tra le stelle gemelle, dimostriamo che la formazione di stelle e pianeti potrebbe essere più complessa di quanto si pensasse inizialmente», conclude SAffe. «L’universo ama la diversità!»
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Disentangling the origin of chemical differences using GHOST” di C. Saffe, P. Miquelarena, J. Alacoria, E. Martioli, M. Flores, M. Jaque Arancibia, R. Angeloni, E. Jofré, J. Yana Galarza, E. González e A. Collado
Con Venere, al limite della vita
Immagine di Venere ottenuta combinando i dati delle missioni Magellano e Pioneer venus orbiter. Crediti: Nasa/Jpl-Caltech
Ha una temperatura superficiale che può fondere il metallo, una pressione atmosferica pari a quella che sulla Terra troviamo a circa 900 metri sotto il livello del mare e un cielo coperto da uno strato globale di nubi di acido solforico. Nonostante questo, il gemello infernale della Terra, com’è anche chiamato Venere, può darci importanti informazioni circa il potenziale di vita su altri pianeti, rappresentando un punto di riferimento per comprendere i limiti dell’abitabilità planetaria. È quanto si legge in un recente studio di review condotto dagli scienziati planetari Stephen Kane e Paul Byrne, pubblicato sulla rivista Nature Astronomy.
Uno dei principali obiettivi della ricerca astrobiologica è il rilevamento di biofirme e la comprensione dell’abitabilità dei pianeti extraterrestri, compresa la miriade di fattori che controllano l’evoluzione di questi mondi. Astro2020 e Origins, Worlds, and Life: A Decadal Strategy for Planetary Science and Astrobiology 2023–2032, due indagini che delineano le raccomandazioni per l’esplorazione spaziale futura, danno priorità alla comprensione di questo aspetto, ritenendolo un tema di ricerca chiave. Lo studio di Venere e della sua divergenza in termini di evoluzione climatica rispetto alla Terra sono fondamentali per perseguire quest’obiettivo ad elevata priorità scientifica.
Venere: l’antitesi dell’abitabilità
La domanda che forse vi starete ponendo è perché studiare l’abitabilità esoplanetaria utilizzando un pianeta inospitale come Venere. Nello studio in questione, la risposta dei ricercatori al quesito è chiarificatrice: «Rispetto alla Terra, Venere rappresenta l’antitesi dell’abitabilità, ma poiché illustra il potenziale di inabitabilità della maggior parte degli esopianeti di dimensioni terrestri (e rappresenta forse anche un’anteprima del futuro della Terra stessa), la comprensione del percorso che ha portato il pianeta a essere tale è importante quanto la comprensione del percorso che ha portato la Terra a essere abitabile». C’è inoltre una seconda spiegazione, che è connessa alla prima. La ricerca della vita nell’universo richiede lo sviluppo di una profonda comprensione degli oggetti all’interno del Sistema solare, in modo da poter interpretare meglio i dati dei pianeti in orbita attorno ad altre stelle. Una parte fondamentale di questa comprensione risiede nel confronto tra Venere e la Terra, poiché i due pianeti si trovano agli estremi opposti dello spettro di abitabilità.
«Spesso presumiamo che la Terra sia il modello di abitabilità, ma se consideriamo questo pianeta isolatamente, non sappiamo quali siano i confini e i limiti di questa abitabilità. Venere ci permette di conoscere questi limiti», sottolinea Stephen Kane, astrofisico della Uc Riverside e primo autore dello studio.
Venere e la Terra: gemelli separati alla nascita
Nel Sistema solare, Venere è il pianeta più simile alla Terra. Nati dagli stessi “semi”, i due mondi hanno massa, dimensioni e probabilmente composizione simili. Tra i due ci sono tuttavia grandi differenze, dovute al fatto che a un certo punto della loro storia evolutiva i due corpi hanno preso strade diverse: la Terra è diventata abitabile, mentre Venere è diventato il mondo inospitale che conosciamo oggi.
Venere sembra essere privo di un campo magnetico intrinseco, ha un’insolazione che è quasi il doppio di quella della Terra e un periodo di rotazione retrogrado di 243 giorni. La sua atmosfera, molto densa, è quasi interamente composta da anidride carbonica, con una piccola quantità di azoto e tracce di altri gas come biossido di azoto, argon e vapore acqueo. Il pianeta, inoltre, è avvolto da uno strato globale di nubi di acido solforico. L’insieme di tutte queste proprietà fisiche e chimiche rende la superficie di Venere più calda di un forno, motivo per cui è considerato il gemello infernale della Terra. Venere ci offre quindi un punto di ancoraggio nel discorso sull’abitabilità planetaria, poiché la sua storia evolutiva rappresenta un percorso alternativo rispetto alla Terra, anche se le origini di entrambi i mondi sono, presumibilmente, simili. La possibilità di studiare un pianeta relativamente vicino, di dimensioni terrestri, con un clima e un’abitabilità drammaticamente diversi dal nostro pianeta è un’opportunità che gli esopianeti non possono offrire. Venere rappresenta quindi un mondo accessibile per comprendere come l’abitabilità dei grandi mondi rocciosi si evolve nel tempo e quali condizioni limitano i confini dell’abitabilità.
Schema che mostra le principali caratteristiche della Terra e di Venere a confronto. Crediti: Stephen R. Kane e Paul K. Byrne, Nature Astronomy, 2024
Un mondo, due approcci
Secondo gli scienziati, i modelli evolutivi che hanno portato Venere a essere quello che è oggi sono due. Il primo modello prevede che il pianeta si sia formato con un’atmosfera ricca di vapore d’acqua sopra un oceano di magma. Vista la vicinanza al Sole, il corpo celeste avrebbe poi disperso il suo calore nello spazio attraverso la perdita di quell’acqua atmosferica. In questa ipotesi, il pianeta avrebbe acquisito presto la sua ingombrante atmosfera e le condizioni infernali di superficie, e non sarebbe mai stato abitabile. L’altro modello suggerisce invece che, dopo la sua formazione, il pianeta sia stato in grado di raffreddarsi a sufficienza per far condensare l’acqua atmosferica sulla superficie. In questo caso, le nubi potrebbero aver contribuito a mantenere per un breve periodo condizioni superficiali più clementi anche sotto un Sole cocente, prima che imponenti eruzioni vulcaniche lo portassero nel suo stato attuale, probabilmente negli ultimi miliardi di anni.
Date queste incertezze riguardanti l’evoluzione di Venere e le implicazioni che questa evoluzione ha rispetto agli esopianeti terrestri, gli autori propongono per il loro studio un approccio su due fronti: il primo coinvolge la scienza intrinseca di Venere, che è possibile studiare attraverso missioni spaziali dedicate; l’altro la scienza degli exo-venus, ovvero lo studio degli esopianeti analoghi a Venere.
Lo studio delle proprietà intrinseche del pianeta attraverso missioni spaziali permetterebbe di stabilire definitivamente quale modello evolutivo sia corretto, spiegano i ricercatori. Ad esempio, l’analisi delle composizioni elementari e isotopiche dei gas nobili dell’atmosfera di Venere porrebbe vincoli importanti sull’inventario di sostanze volatili presenti agli albori del pianeta e sulla storia della perdita dell’acqua. Missioni dedicate permetterebbero inoltre di comprendere meglio l’attività vulcanica sul pianeta, consentendo di fare delle stime del tasso di degassamento e creare modelli della sua struttura interna.
A questo proposito, la Nasa ha in programma due missioni gemelle su Venere per la fine di questo decennio, e il planetologo Kane è coinvolto in entrambe. Una è la missione DaVinci (Deep Atmosphere Venus Investigation of Noble Gas, Chemistry, and Imaging), che esplorerà l’atmosfera del pianeta per misurarne i gas nobili e altri elementi chimici. L’altra è la missione Veritas (Venus Emissivity, Radio Science, InSAR, Topography & Spectroscopy), che consentirà agli scienziati di ricostruire mappe dettagliate del paesaggio venusiano in 3d, rivelando se il pianeta abbia una tettonica a placche o vulcani attivi.
L’approccio parallelo allo studio delle proprietà intrinseche di Venere riguarda invece l’analisi del vasto inventario – sempre in rapida crescita – di esopianeti terrestri simili a Venere: i cosiddetti analoghi. In questo senso, sottolineano gli scienziati, uno studio con il metodo dei transiti, che ha una notevole propensione verso il rilevamento di pianeti di breve periodo, è più adatto a scoprire i pianeti che hanno proprietà atmosferiche simili a Venere piuttosto che alla Terra, e dunque a testare i limiti dell’abitabilità.
Rimanendo sempre in tema di indagini per lo studio degli esopianeti e della loro abitabilità, gli autori sottolineano come gli esopianeti in orbita attorno a stelle luminose offrano opportunità ideali per osservazioni di follow-up tramite spettroscopia di trasmissione con Jwst e altri osservatori. Caratteristiche spettroscopiche chiave come l’assorbimento dell’anidride carbonica a 2.7 e 4.3 μm possono essere usate per distinguere un’atmosfera da quella presente sulla Terra, grazie anche all’estensione delle osservazioni alle lunghezze d’onda dell’Uv, dove l’assorbimento dell’ozono è prevalente. Inoltre, il rilevamento di combinazioni di biosignature importanti, come acqua e metano, può identificare pianeti con maggiori probabilità di ospitare condizioni di superficie temperate. È attraverso tali analisi spettroscopiche, comprese quelle nell’infrarosso, che la sfida di distinguere tra condizioni superficiali simili a quelle di Venere e della Terra potrebbe essere meglio superata.
I vari fattori che influenzano le condizioni superficiali di un pianeta e la sua abitabilità. Crediti: Stephen R. Kane e Paul K. Byrne, Nature Astronomy, 2024
Una lezione per tutti noi
In definitiva, l’articolo sottolinea l’importanza di studiare Venere per due ragioni principali. Una è la possibilità, grazie ai dati che saranno ottenuti dalle future missioni, di utilizzare Venere per comprendere i confini dell’abitabilità planetaria di altri pianeti, e garantire così che le deduzioni sulla possibilità che esista vita su altri mondi siano corrette. «La parte sconfortante della ricerca di vita altrove nell’universo è che non avremo mai dati in situ per un esopianeta. Non andremo lì, non atterreremo e non effettueremo misurazioni dirette», dice a questo proposito Kane. «Se pensiamo che un pianeta abbia vita sulla superficie, potremmo non accorgerci mai di sbagliare e sognare un pianeta in cui essa sia presente quando invece non lo è. Riusciremo a capire bene questo aspetto solo studiando adeguatamente gli esopianeti di dimensioni terrestri che possiamo visitare. Venere ci offre questa possibilità».
L’altro motivo riguarda il fatto che una conoscenza più approfondita di Venere è utile in quanto il pianeta potrebbe rappresentare un’anteprima di come potrebbe essere in futuro il nostro pianeta. «Uno dei motivi principali per studiare Venere ha a che fare con il nostro sacro dovere di essere custodi della Terra, per preservarne il futuro», sottolinea Kane. «La mia speranza è che dallo studio dei processi che hanno prodotto le attuali condizioni su Venere, possiamo trarne una lezione. Può succedere anche a noi. È una questione di come e quando».
Comprendere appieno come un pianeta terrestre diventi abitabile e rimanga tale è una sfida fondamentale per la comunità scientifica, data la diversità e la complessità dei processi intrinseci ed estrinseci che contribuiscono a sostenere condizioni abitabili su scale temporali geologiche e biologiche. Di fronte a questa sfida, è imperativo sfruttare l’intera gamma di dati sull’evoluzione atmosferica dei pianeti terrestri all’interno del Sistema solare, concludono i ricercatori. Sebbene Venere rappresenti un mondo inabitabile, lo studio di Venere, la definizione del suo percorso evolutivo rispetto alla Terra e il riconoscimento di potenziali ambienti superficiali di tipo venusiano dedotti dagli spettri atmosferici di altri esopianeti, costituiranno insieme componenti essenziali per migliorare la nostra comprensione dell’abitabilità planetaria.
Il punto di vista di Giuseppe Piccioni, dirigente di ricerca Inaf
«Sono sicuramente d’accordo nell’affermare che il pianeta Venere è un valido punto di riferimento (o di ancoraggio, come riportato in articolo) per sostenere il concetto di abitabilità in termini più generali», dice a Media Inaf il planetologo dell’Inaf Iaps di Roma Giuseppe Piccioni, che abbiamo raggiunto per un commento. «Nella ricerca degli esopianeti, oggi possiamo senz’altro affermare che la stragrande maggioranza degli esopianeti potenzialmente abitabili sono più simili a Venere di quanto possano esserlo alla Terra. Oggi sappiamo che Venere è quanto di più inospitale e inabitabile ci possa essere nel Sistema solare, ma nel passato ha condiviso molte più similitudini con il nostro pianeta di quante ne abbia già oggi di rilevanti. Non è escluso infatti che Venere in passato fosse persino più abitabile della Terra ma che inesorabilmente abbia seguito suo malgrado una evoluzione molto più infausta del nostro pianeta. In questo senso, oggi potremmo osservare degli esopianeti “abitabili” molto simili a quelli del pianeta Venere all’inizio della sua formazione. Il concetto di abitabilità va infatti sempre legato al tempo di osservazione, dunque non è mai assoluto. Occorre anche dire che il concetto di zona abitabile, legato alla distanza del pianeta dalla stella madre, è comunque una semplificazione basata sulla nostra conoscenza terrestre e su quello che oggi possiamo osservare negli esopianeti. Escludiamo in questo modo una vastissima quantità di mondi potenzialmente abitabili come gli ocean worlds, ovvero corpi celesti che hanno oceani sotto-superficiali, come ad esempio i satelliti ghiacciati di Giove e Saturno, che potrebbero ospitare vita ma con una evoluzione molto diversa da quella terrestre. Fino a quando non ne sapremo di più, non potremo includere questi deep habitat nel cesto delle nostre possibilità».
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Venus as an anchor point for planetary habitability” di Stephen R. Kane & Paul K. Byrne
Un ebook sull’universo per i 15 anni di Fermi
Copertina dell’e-book “Our High-Energy Universe: 15 Years with the Fermi Gamma-ray Space Telescope”. Crediti: Nasa
Lanciato l’11 giugno 2008, il satellite della Nasa Fermi rileva i raggi gamma, la componente più energetica dello spettro elettromagnetico, dall’atmosfera terrestre alle galassie più lontane. Le sue ricerche hanno permesso di scoprire dettagli su aspetti che vanno dai brillamenti solari, alla formazione stellare e ai misteri al centro della Via Lattea. Per commemorare un anniversario fondamentale della sua storia, il team della missione ha pubblicato un e-book intitolato “Our High-Energy Universe: 15 Years with the Fermi Gamma-ray Space Telescope”, scaricabile gratuitamente nei formati pdf ed epub.
Attraverso immagini, aneddoti e ricordi del giorno del lancio, l’e-book racconta la storia di Fermi, dalla sua ideazione. Racconta anche alcune delle scoperte rivoluzionarie della missione, approfondendo argomenti di astrofisica ad alta energia come i gamma-ray burst e i blazar.
Fermi, originariamente chiamato Gamma-ray Large Area Space Telescope, nell’agosto 2008 è stato rinominato in onore del fisico italiano Enrico Fermi. «La scienza di Enrico Fermi è stata importante per comprendere le sorgenti che il telescopio Fermi osserva», dichiara Elizabeth Hays, project scientist della missione presso il Goddard Space Flight Center della Nasa a Greenbelt, nel Maryland. «Il cielo dei raggi gamma è alimentato dai meccanismi di accelerazione delle particelle che lui aveva teorizzato».
Ricordiamo ai lettori che il satellite ha due rivelatori di raggi gamma: il Large Area Telescope (Lat) e il Gamma-ray Burst Monitor (Gbm). Lat osserva un quinto del cielo gamma in qualsiasi momento, rilevando luce con energie che vanno da 20 milioni a oltre 300 miliardi di elettronvolt. Gbm osserva circa il 70% del cielo a energie inferiori, alla ricerca di brevi lampi di luce gamma. Insieme, i due strumenti costituiscono l’osservatorio di raggi gamma più sensibile in orbita, attrezzato per studiare i fenomeni ad alta energia dell’universo vicino e lontano.
Nei primi otto anni di attività, Fermi ha rilevato le emissioni gamma di 40 brillamenti solari, alcune delle quali hanno avuto origine sul lato opposto del Sole, consentendo agli scienziati di analizzare come le particelle cariche emesse dai brillamenti solari da un lato del Sole possano produrre raggi gamma sull’altro lato.
Studiando la Via Lattea, Fermi ha trovato due lobi di raggi gamma ad alta energia – chiamati bolle di Fermi – che si estendono sopra e sotto il centro della galassia. Ogni bolla è alta 25mila anni luce. Gli astronomi ritengono che le bolle si siano formate in seguito a un’antica esplosione di attività del buco nero supermassiccio al centro della Via Lattea.
Infine, Fermi aiuta gli scienziati a comprendere anche i buchi neri di altre galassie. «Quando un buco nero si forma, dalla morte di una stella massiccia o dalla collisione di due stelle di neutroni, crea un breve lampo di luce chiamato gamma-ray burst», spiega Judith Racusin del Goddard. «Fermi rileva circa un burst al giorno e ha contribuito a rivoluzionare la nostra comprensione di questi fenomeni».
Anche dopo 15 anni di risultati, tuttavia, Fermi deve ancora affrontare molti misteri. Uno degli obiettivi attuali del telescopio è studiare la natura della materia oscura, la misteriosa componente che costituisce circa il 25% dell’universo. Poiché la materia oscura non riflette, assorbe o emette luce, gli scienziati non sono ancora sicuri della sua composizione. Una teoria popolare suggerisce, tuttavia, che le particelle di materia oscura creino raggi gamma quando interagiscono. Se Fermi riuscisse a individuare questa traccia ad alta energia, potrebbe aiutare gli scienziati a saperne di più sulla composizione della materia oscura.
Troverete buona parte di questa storia, e tanto altro ancora, nell’e-book di Fermi. «Lo e-book di Fermi è un affascinante viaggio nell’universo delle alte energie che, all’occorrenza, si anima con filmati. Per festeggiare il 15 anni della missione, a partire dallo scorso agosto erano state preparate delle schede relative agli aspetti salienti della missione e ai risultati più significativi ottenuti, ma anche per spiegare la natura dei fotoni gamma e il contributo dell’astronomia gamma alla risoluzione del problema dell’origine dei raggi cosmici, dei neutrini, delle onde gravitazionali. Ora il materiale, che era stato presentato sui social mese per mese, è stato organizzato in un libro che offre al lettore la possibilità di imbarcarsi in un viaggio cosmico», racconta a Media Inaf Patrizia Caraveo, responsabile per l’Inaf dello sfruttamento scientifico dei dati Fermi-Lat . «Si parte dalla Terra, che produce flash gamma sopra le nubi temporalesche, per passare ai brillamenti del Sole e alle sorgenti della nostra Galassia (pulsar, novae, resti di supernova, sorgenti binarie) per continuare con altre galassie, perdersi nello zoo dei nuclei galattici attivi a farsi sorprendere dai lampi gamma che ci offrono modo di andare lontanissimi. Per rendere il viaggio più piacevole ci sono intermezzi curiosi e divertenti, come le ricette per trasformare il cielo gamma in una torta o in biscotti. Confesso di avere mangiato il cielo gamma con diverse ricette di pasticceria fino dai tempi remoti di Cos-B».
Se c’è una cosa che Fermi ci ha insegnato è di aspettarci l’inaspettato. La ricerca sui raggi gamma ha portato a scoperte senza precedenti nella comprensione del buco nero al centro della Via Lattea, del Sole e della fusione di stelle di neutroni. Per quanto ci aspettiamo la prossima rivelazione nei raggi gamma, solo il tempo ci dirà cosa ha in serbo Fermi.
Per saperne di più:
Torna “Da zero a infinito”, a Padova
In un triangolo rettangolo la somma dei quadrati costruiti sui cateti è uguale al quadrato costruito sull’ipotenusa. Tutti d’accordo? E invece… «Forse non sapete che questa celebre formula è falsa. Almeno per noi che abitiamo su un pianeta sferico e non piatto come i fogli di un quaderno di geometria». Parola di Alessio Figalli, medaglia Fields 2018 – una sorta di “Nobel per la matematica” nell’approfondimento da lui curato per Da zero a ∞. Equazioni, formule e incognite di una rappresentazione simbolica del cosmo, la mostra itinerante dell’Inaf che racconta le grandi leggi della fisica attraverso un percorso fatto di emozionanti scatti dell’universo conosciuto. Dopo Genova, Napoli, Bergamo, Faenza e Padova, a ospitarla a partire dal 3 maggio 2024 sarà il Castello di San Pelagio a Due Carrare (Padova), luogo di partenza di D’Annunzio nel suo celebre volo verso Vienna. Il castello, infatti, è anche Museo del Volo. L’accesso alla mostra è compreso nel costo del biglietto di ingresso al castello, ovvero 15 euro per adulti e ragazzi di età superiore a 13 anni, e 10 euro dai 5 ai 12 anni. Tutte le informazioni per gruppi e famiglie, o per prenotare visite individuali sono riportate nel sito web del castello.
Ma torniamo alle leggi che governano l’universo, che la mostra si prefigge di mettere in scena. Dalla celebre equazione di Einstein E = mc² alla formula di Drake, da Pitagora a Heisenberg, dall’energia di un fotone alla lunghezza di Planck. La matematica, proprio come l’astrofisica, ha due volti: se da un lato costituisce un insieme di conoscenze a sé stanti, dall’altro è la sola lingua con la quale possiamo descrivere l’oceano di stelle in cui siamo immersi.
Un allestimento avvolgente con immagini giganti e tanti contenuti extra disponibili sul sito di Edu Inaf: immagini, approfondimenti e il commento video di matematici e fisici che hanno partecipato al progetto: oltre ad Alessio Figalli, Stefano Camera e Susanna Terracini dell’Università di Torino, Matteo Viel della Sissa di Trieste, Luigi Guzzo e Piero Benvenuti delle Università di Milano e Padova, oltre agli scienziati Inaf Paola Battaglia, Alessandro Bemporad, Stefano Borgani, Massimo Della Valle, Gabriele Ghisellini, Paolo Molaro, Isabella Pagano, Anna Wolter.
Si parte con una veduta mozzafiato del pianeta Terra, visto dalla Stazione spaziale internazionale, e collegata alla più semplice delle formulazioni: quella del teorema di Pitagora. Dalla Turchia in primo piano, si sale attraverso il Mar Egeo, la Grecia e il Mar Ionio dove si intravedono la Sicilia e il tallone d’Italia – la Magna Grecia dove Pitagora visse e lavorò nel VI secolo a.C.
A partire da maggio e durante i mesi estivi, la mostra sarà accompagnata da una rassegna di eventi speciali per il pubblico, attività per le famiglie e incontri con gli astronomi. Nelle domeniche del 12, 19 e 26 maggio, alle 11.30 e alle 15.30 si svolgerà “Space Game”, un entusiasmante viaggio alla scoperta del Sistema Solare. Una vera e propria corsa alla scoperta del Sistema solare dove i giocatori dovranno seguire una serie di indizi per individuare i pianeti del nostro sistema planetario nascosti nel giardino e tra le stanze del museo.
Nelle serate del 5 e 19 luglio, e 2 agosto, si svolgeranno una serie di incontri con astronomi dell’Inaf, in cui si potranno ascoltare alcuni racconti su temi specifici della ricerca astrofisica. A parlarvene saranno Bianca Poggianti, direttrice dell’Inaf di Padova, Anna Wolter, tra i curatori della mostra è rappresentante, per l’Italia, della rete di divulgazione scientifica dello European Southern Observatory, e Simone Zaggia, ricercatore all’Inaf di Padova.
Troverete tutte le informazioni sugli eventi nella sezione “news” del sito del Castello di San Pelagio.
Guarda e ascolta la playlist con le schede multimediali della mostra:
youtube.com/embed/xZ2ASsWXIlg?…
A volte ritornano: segnali da Voyager 1 e da Slim
Rappresentazione artistica di una sonda Voyager. Crediti: Nasa
Due chiamate dallo spazio hanno raggiunto il nostro pianeta nei giorni scorsi. Una è arrivata dal piccolo lander giapponese Slim, adagiato sul suolo lunare dal 20 gennaio scorso. L’altra da una vecchia conoscenza, la sonda Voyager 1 della Nasa, distante oltre 24 miliardi di km – il manufatto più lontano che ci sia. Per differenti ragioni, entrambe le chiamate – per quanto attesissime – erano tutt’altro che scontate.
Partiamo da quest’ultima. Lanciata nello spazio il 5 settembre 1977, appena due settimane dopo la sonda gemella Voyager 2, e giunta da tempo oltre il confine dell’eliosfera, dunque nello spazio interstellare, non è la prima volta che Voyager 1 mostra comprensibili segni di affaticamento. L’ultimo però stava preoccupando gli scienziati del Jet Propulsion Laboratory della Nasa più del solito: era infatti dal 14 novembre 2023 che la sonda non si faceva più viva. O meglio, non riusciva più a inviare dati leggibili: a Pasadena, in California, al centro di controllo della missione sapevano che la sonda continuava a ricevere i comandi e a funzionare normalmente, ma i pacchetti di telemetria, sia quelli scientifici che quelli ingegneristici, erano del tutto inutilizzabili.
Il responsabile, erano arrivati a stabilire gli ingegneri della Nasa il mese scorso, questa volta era uno dei tre computer di bordo della sonda: l’Fds (dall’inglese flight data subsystem), vale a dire il sottosistema per i dati di volo. Formato da due macchine a 16 bit, l’Fds ha il compito di impacchettare i dati scientifici e ingegneristici prima del loro invio verso la Terra. Compito che evidentemente non riusciva più ad assolvere in modo corretto. Un ingegnere del Deep Space Network della Nasa, la rete che gestisce le antenne radio che comunicano con le due sonde Voyager e con molte altre navicelle spaziali, era comunque riuscito a decodificare il segnale, scoprendo che conteneva una copia dell’intera memoria dell’Fds stesso. Un’informazione preziosa: confrontandola con una delle letture precedenti al malfunzionamento, è stato infatti possibile non solo comprendere la causa esatta del problema, ma anche come risolverlo. A produrre il malfunzionamento è stata la rottura di un chip responsabile della gestione di una porzione della memoria dell’Fds: poiché in quei banchi di memoria c’era parte del codice dello stesso Fds, non potervi più accedere aveva reso i dati scientifici e ingegneristici inutilizzabili.
Sounding a little more like yourself, #Voyager1.
For the first time since November, Voyager 1 is returning useable data about the health and status of its onboard engineering systems. Next step: Enable the spacecraft to begin returning science data again: t.co/eZyqo7uERu pic.twitter.com/6YZM33Mp48— NASA JPL (@NASAJPL) April 22, 2024
Come fare? Essendo impossibile riparare il chip, gli ingegneri della missione hanno deciso di spostare il codice su un’altra porzione di memoria. Non essendocene però una libera abbastanza ampia da ospitarlo per interno, hanno dovuto suddividerlo in parti più piccole e riadattarlo per far sì che potesse continuare a funzionare, sebbene non più contiguo ma spezzettato in tanti segmenti. Compito non semplice ed errori non ammessi, dovendo installare il tutto su un computer di mezzo secolo fa e a 24 miliardi di km dal più vicino servizio di riparazione.
Il team si è dunque messo all’opera trasferendo solo una parte del codice, quella dedicata all’impacchettamento dei dati ingegneristici. L’upload ha avuto inizio lo scorso 18 aprile, ma poiché viaggiando alla velocità della luce un segnale radio impiega oltre 22 ore per raggiungere la sonda e altrettante per tornare indietro, solo due giorni più tardi – il 20 aprile – è stato possibile ottenere una risposta: la modifica ha avuto successo. Per la prima volta in cinque mesi, è stato così possibile verificare lo stato di salute della navicella. Nel corso delle prossime settimane verranno ricollocate anche le restanti porzioni di codice, così che anche il flusso di dati scientifici dall’avamposto umano più remoto possa riprendere regolarmente.
Terzo risveglio per il lander lunare Slim
Nel frattempo, come dicevamo, dopo una lunga e gelida notte lunare – oltre 14 giorni terrestri al buio e con temperature che sfiorano i 170 gradi sotto zero – il 23 aprile sono giunti segni di vita anche dal lander giapponese Slim. Lo ha fatto sapere la Jaxa con un tweet comprensibilmente entusiastico, considerando che il piccolo modulo non era pensato per resistere così a lungo né tanto meno ci si attendeva che avrebbe dovuto trascorrere la sua permanenza sulla Luna in una posizione tutt’altro che ottimale: con il muso rivolto verso il basso.
We successfully communicated with #SLIM on 04/23, confirming that SLIM survived its 3rd night! This is the lunar surface taken by the navigation camera on 04/23. Because this was captured during the earliest Moon phase yet, the Moon is bright and shadows are short. #GoodAfterMoon pic.twitter.com/ppqanYWGvH— 小型月着陸実証機SLIM (@SLIM_JAXA) April 25, 2024
E invece non solo si è risvegliato ma ha anche – non appena riaperti gli occhi – trovato l’energia, grazie ai pannelli solari, per scattare una foto e inviare l’immagine a terra, la possiamo vedere nel tweet qui sopra. Quella che Slim si è appena lasciato alle spalle è la sua terza notte lunare, e per capire quanto l’abbia superata più o meno indenne è ora in corso un’analisi delle sue condizioni e dell’inevitabile deterioramento dovuto all’alternarsi di condizioni diurne e notturne rigidissime. Comunque sia, per il Giappone – quinto paese al mondo, dopo Unione Sovietica, Stati Uniti, Cina e India, ad aver compiuto con successo un approdo soft sul nostro satellite – è già un successo al di là di ogni aspettativa.
Grani di Ryugu analizzati con l’olografia elettronica
Rappresentazione artistica dell’analisi del campione di Ryugu con l’olografia elettronica. Crediti: Yuki Kimura
L’analisi dei campioni recuperati dall’asteroide Ryugu dalla sonda Hayabusa2 dell’agenzia spaziale giappones Jaxa ha rivelato nuovi aspetti sul “bombardamento” fisico e magnetico a cui sono soggetti gli asteroidi nello spazio interplanetario. I risultati dello studio, condotto da Yuki Kimura dell’Università di Hokkaido e da collaboratori di altre tredici istituzioni giapponesi, sono stati pubblicati oggi sulla rivista Nature Communications.
Le indagini degli autori hanno utilizzato una tecnica avanzata di imaging chiamata olografia elettronica, o olografia con elettroni, che utilizza gli elettroni anziché la luce per creare immagini tridimensionali di oggetti microscopici. Nel processo, un fascio di elettroni penetra nel campione, rivelando i dettagli della loro struttura e delle loro proprietà magnetiche ed elettriche.
Hayabusa2 ha raggiunto l’asteroide Ryugu il 27 giugno 2018, ha raccolto campioni durante due delicati touchdown e ha poi riportato a Terra i campioni nel dicembre 2020. Il veicolo spaziale sta ora proseguendo il suo viaggio nello spazio, con l’osservazione di altri due asteroidi, prevista nel 2029 e nel 2031.
Particelle di magnetite (particelle rotonde) tagliate da un campione di Ryugu. (A) Immagine al microscopio elettronico a trasmissione in campo chiaro. (B) Immagine della distribuzione del flusso magnetico ottenuta con l’olografia elettronica. Le strisce circolari concentriche visibili all’interno delle particelle corrispondono a linee di forza magnetiche. Sono chiamate strutture di dominio magnetico a vortice e sono più stabili dei normali dischi rigidi, che possono registrare campi magnetici per oltre 4,6 miliardi di anni. Crediti: Yuki Kimura, et al. Nature Communications, 29 aprile 2024
Un vantaggio della raccolta di campioni direttamente da un asteroide è che consente ai ricercatori di esaminare gli effetti a lungo termine della sua esposizione all’ambiente spaziale. Il vento solare proveniente dal Sole e il bombardamento da parte dei micrometeoriti causano cambiamenti noti come space weathering. È impossibile studiare con precisione questi cambiamenti utilizzando la maggior parte dei campioni di meteoriti che atterrano sulla Terra, in parte a causa della loro provenienza dalle parti interne di un asteroide e anche per gli effetti causati dall’attrito delle rocce in atmosfera, durante la loro discesa.
«Le firme degli agenti atmosferici spaziali che abbiamo rilevato direttamente ci permetteranno di comprendere meglio alcuni dei fenomeni che si verificano nel Sistema solare», spiega Kimura, puntualizzando che la forza del campo magnetico nel Sistema solare primordiale è diminuita con la formazione dei pianeti e la misurazione della magnetizzazione residua sugli asteroidi può rivelare informazioni sul campo magnetico nelle primissime fasi della formazione del Sistema solare. «In futuri lavori, i nostri risultati potrebbero anche aiutare a rivelare l’età relativa delle superfici sui corpi privi di aria e aiutare nell’interpretazione accurata dei dati di telerilevamento ottenuti da questi corpi», aggiunge.
Nanoparticelle di ferro distribuite intorno alla pseudo-magnetite. (A) Immagine in campo oscuro scattata con un microscopio elettronico a trasmissione a scansione. (B) Immagine corrispondente della distribuzione del ferro. Le frecce bianche indicano le nanoparticelle di ferro. (C) Immagine della distribuzione del flusso magnetico della regione centrale di A e B. Nella pseudo-magnetite non si vedono linee di campo magnetico, mentre all’interno delle particelle di ferro sono visibili strutture concentriche di dominio magnetico simili a vortici, come indicato dalle frecce nere. Crediti: Yuki Kimura, et al. Nature Communications, 29 aprile 2024
Una scoperta particolarmente interessante è che i piccoli grani minerali chiamati framboidi, composti da magnetite, una forma di ossido di ferro, hanno perso completamente le loro normali proprietà magnetiche. I ricercatori suggeriscono che ciò sia dovuto alla collisione con micrometeoriti ad alta velocità di diametro compreso tra 2 e 20 micrometri. I framboidi rilevati erano circondati da migliaia di nanoparticelle di ferro metallico. Si spera che i futuri studi su queste nanoparticelle possano rivelare intuizioni sul campo magnetico che l’asteroide ha sperimentato per lunghi periodi di tempo. «Sebbene il nostro studio sia principalmente di interesse scientifico fondamentale e di comprensione, potrebbe anche aiutare a stimare il grado di degrado probabilmente causato dalla polvere spaziale che impatta ad alta velocità con veicoli spaziali robotici o con equipaggio», conclude fiducioso Kimura.
Per saperne di più:
- Leggi su Nature Communications l’articolo “Nonmagnetic framboid and associated iron nanoparticles with a space-weathered feature from asteroid Ryugu” di Yuki Kimura, Takeharu Kato, Satoshi Anada, Ryuji Yoshida, Kazuo Yamamoto, Toshiaki Tanigaki, Tetsuya Akashi, Hiroto Kasai, Kosuke Kurosawa, Tomoki Nakamura, Takaaki Noguchi, Masahiko Sato, Toru Matsumoto, Tomoyo Morita, Mizuha Kikuiri, Kana Amano, Eiichi Kagawa, Toru Yada, Masahiro Nishimura, Aiko Nakato, Akiko Miyazaki, Kasumi Yogata, Masanao Abe, Tatsuaki Okada, Tomohiro Usui, Makoto Yoshikawa, Takanao Saiki, Satoshi Tanaka, Fuyuto Terui, Satoru Nakazawa, Hisayoshi Yurimoto, Ryuji Okazaki, Hikaru Yabuta, Hiroshi Naraoka, Kanako Sakamoto, Sei-ichiro Watanabe, Yuichi Tsuda e Shogo Tachibana
Einstein Probe spalanca gli occhi sul cielo X
Rappresentazione artistica del telescopio spaziale Einstein Probe. Crediti: Chinese Academy of Sciences
Lanciato il 9 gennaio 2024, il telescopio spaziale Einstein Probe dell’Accademia cinese delle scienze (Cas) è andato ad affiancare Xmm-Newton dell’Esa e a Xrism della Jaxa nella ricerca rivolta all’universo in raggi X. Nei mesi successivi al decollo, il team operativo della missione – una collaborazione guidata dalla Cas e della quale fanno parte l’Esa, l’istituto tedesco Max Planck per la fisica extraterrestre (Mpe) e il Cnes francese – ha completato i test necessari per confermare la funzionalità del veicolo spaziale e calibrare gli strumenti scientifici. Durante questa fase cruciale, Einstein Probe ha acquisito dati scientifici da varie sorgenti di raggi X. Queste immagini – dette “di prima luce” – dimostrano le eccezionali capacità dei due strumenti scientifici a bordo della sonda: il Wide-field X-ray Telescope (Wxt), una sorta di “grandangolo” in grado di cogliere in un solo puntamento quasi un undicesimo dell’intera sfera celeste, e il più sensibile Follow-up X-ray Telescope (Fxt), il “teleobiettivo” della coppia, dedicato all’osservazione in dettaglio degli eventi di breve durata catturati dal Wxt.
«Sono felice di vedere queste prime osservazioni di Einstein Probe, che dimostrano la capacità della missione di studiare ampie zone del cielo a raggi X e di scoprire rapidamente nuove sorgenti celesti», dice Carole Mundell, direttrice scientifica dell’Esa. «Questi primi dati ci mostrano uno scorcio affascinante dell’universo dinamico ad alta energia che presto sarà alla portata delle nostre comunità scientifiche. Congratulazioni ai team scientifici e ingegneristici della Cas, dell’Mpe, del Cnes e dell’Esa per il duro lavoro svolto per raggiungere questo importante traguardo».
La capacità della missione di individuare prontamente nuove sorgenti di raggi X e di monitorare il loro cambiamento nel tempo è fondamentale per migliorare la nostra comprensione dei processi più energetici del cosmo. I raggi X, infatti, vengono prodotti e attraversano l’universo a seguito dello scontro fra stelle di neutroni, quando le supernove esplodono e quando la materia viene inghiottita dai buchi neri o espulsa dai campi magnetici che li avvolgono.
Occhi d’aragosta per tenere sotto controllo l’universo
Lo strumento Wxt di Einstein Probe è composto da dodici moduli basati sulle cosiddette ottiche lobster-eye (a “occhi di aragosta”), testata in volo nel 2022 dal dimostratore tecnologico Leia (Lobster Eye Imager for Astronomy). I dodici moduli forniscono un campo visivo di oltre 3600 gradi quadrati, consentendo a Einstein Probe di monitorare l’intero cielo in sole tre orbite. La modalità di funzionamento delle ottiche a occhi di aragosta fa sì che i rilevamenti di oggetti altamente energetici assumano il caratteristico aspetto di un segno ‘più’ luminoso (vedi immagine qui sotto).
Immagine della Via Lattea in raggi X acquisita dallo strumento Wide-field X-ray Telescope (Wxt) di Einstein Probe durante la campagna di calibrazione. Spiccano una ventina di croci violacee: sono i caratteristici segni a forma di ‘più’ e hanno al centro un punto brillante. Crediti: Epsc, Nao/Cas; Dss; Eso
Wxt ha intrapreso la sua missione di sorveglianza del cielo a raggi X già durante i primi mesi di permanenza nello spazio. La prima sorgente X transiente, vale a dire un oggetto astronomico che non brilla continuamente ma che appare e scompare, è stata rilevata da Einstein Probe il 19 febbraio: si trattava di un candidato gamma-ray burst (Grb) durato 100 secondi. Successivamente, Einstein Probe ha scoperto altre 14 sorgenti temporanee di raggi X e ha rilevato i raggi X dovuti ai brillamenti di 127 stelle.
Nel corso della missione, le rilevazioni dello strumento ad ampio campo saranno utilizzate per allertare numerosi telescopi a terra e nello spazio al fine di eseguire osservazioni di follow-up in diverse bande dello spettro elettromagnetico. Relativamente alla banda X, le osservazioni di follow-up possono essere fatte anche direttamente dallo strumento Fxt a bordo del satellite.
Il resto di supernova Puppis A immortalato da Einstein Proble. Crediti: Chinese Academy of Sciences
Osservazioni rapide di follow-up
Lo strumento Fxt di Einstein Probe dispone di due telescopi a raggi X per studi dettagliati di oggetti ed eventi che emettono in questa banda dello spettro. Negli ultimi mesi, Fxt ha dimostrato di essere uno strumento affidabile per osservare vari tipi di sorgenti di raggi X. Le prime immagini che ha acquisito sono quelle di un resto di supernova, di una galassia ellittica, di un ammasso globulare e di una nebulosa.
Fxt è inoltre già riuscito, con un certo stupore da parte dei responsabili della missione, a compiere un’osservazione di follow-up di un evento a raggi X rilevato da Wxt il 20 marzo 2024. «È sorprendente che, pur con gli strumenti non ancora del tutto calibrati, siamo già riusciti a eseguire, utilizzando lo strumento Fxt, un’osservazione di follow-up – critica dal punto di vista temporale – di un transiente veloce ai raggi X individuato per la prima volta da Wxt», dice Erik Kuulkers, project scientist Esa di Einstein Probe. «È una dimostrazione di ciò che Einstein Probe sarà in grado di fare durante la sua survey».
Avvio della campagna scientifica
Nei prossimi mesi, la Einstein Probe continuerà a svolgere le attività di calibrazione in orbita, per poi dare inizio, verso la metà di giugno, alle osservazioni scientifiche di routine. Durante i tre anni di durata prevista della missione, il satellite orbiterà intorno alla Terra a 600 km di altezza mantenendo gli occhi ben puntati sul cielo alla ricerca di eventi transienti a raggi X. E grazie al telescopio di follow-up Fxt studierà in dettaglio sia gli eventi di nuova rilevazione sia altri oggetti interessanti già noti.
«Einstein Probe è la missione giusta al momento giusto. Con i grandi satelliti per raggi X Chandra e Xmm con ciascuno più di vent’anni sulle spalle, eRosita in standby per la guerra in Ucraina e NewAthena previsto nel 2037, a breve e medio termine tocca proprio a Einstein Probe permetterci di catturare e studiare i transienti nel cielo X», concludono Luigi Piro e Giancarlo Ghirlanda dell’Istituto nazionale di astrofisica, entrambi fra gli scienziati selezionati dall’Esa per la partecipazione a Einstein Probe. «La sua strumentazione permette infatti di rivelare, localizzare e poi seguire l’emissione X di transienti, fra cui le controparti di onde gravitazionali e i gamma ray burst nell’universo primordiale».
Fonte: press release Esa
Guarda su MediaInaf Tv un servizio video di gennaio 2024 su Einstein Probe:
youtube.com/embed/shcyiYuakuw?…