Salta al contenuto principale

Nuovo piano di volo per BepiColombo


18970362
Le ultime parole scritte su BepiColombo non erano incoraggianti. Il 26 aprile scorso la sonda dell’Agenzia spaziale europea e della Jaxa aveva riportato un problema al sistema di propulsione durante una manovra orbitale e, da quel momento, alle molte domande circa le condizioni del veicolo e le possibili ripercussioni sulla missione non sono seguite altrettante risposte. Fino a ieri, quando l’Esa ha pubblicato un aggiornamento in vista del prossimo flyby attorno a Mercurio di domani, mercoledì 4 settembre. Le notizie, dunque, sono due. La prima è che il flyby si farà, come previsto, anche se BepiColombo dovrà avvicinarsi un po’ di più alla superficie del pianeta rispetto ai piani iniziali. La seconda è che l’arrivo e l’inserimento in orbita finale attorno a Mercurio, da sempre programmato per dicembre 2025, è stato posticipato di circa undici mesi ed è ora previsto per novembre 2026, proprio a causa della persistenza del problema al sistema di propulsione, che impedisce alla sonda di utilizzarne a pieno la potenza.

18970365
Momenti chiave del quarto flyby di Mercurio di BepiColombo, il 4 settembre 2024. La sonda Esa/Jaxa passerà sopra la superficie del pianeta a una distanza di circa 165 km. È la prima volta che BepiColombo vedrà i poli di Mercurio, offrendoci nuove viste del pianeta dalla sonda. Tutte e tre le telecamere di monitoraggio di BepiColombo saranno attivate. Scatteranno immagini dal momento del massimo avvicinamento a Mercurio fino a circa 24 ore dopo. Crediti: Esa

Già dagli ultimi aggiornamenti di fine maggio la squadra dell’Esa di BepiColombo aveva confermato che il problema riguardava il Mercury Transfer Module (Mtm), che non era in grado di fornire energia sufficiente al sottosistema di propulsione elettrica. Fino ad oggi però non era chiaro se la missione sarebbe proseguita secondo la tabella di marcia prevista, né se il problema riscontrato fosse risolvibile.

«I problemi osservati persistono e sono stati in parte capiti», dice a Media Inaf Andrea Accomazzo, responsabile della Divisione missioni interplanetarie al centro di controllo dell’Esa a Darmstadt, dal quale si controllano le operazioni di volo e le manovre orbitali di BepiColombo. «Purtroppo alcuni effetti di questi problemi non sono risolvibili, altri possono essere mitigati. Siamo ragionevolmente sicuri, al netto di ulteriori problemi, che sia possibile raggiungere Mercurio. Abbiamo deciso di spalmare la realizzazione del “delta-V” finale [il cambiamento di velocità necessario per mettersi in orbita attorno a Mercurio, ndr] su un periodo più lungo, poiché dobbiamo usare i propulsori a una potenza più bassa per via delle limitazioni di performance dei pannelli solari. Per il flyby del 4 settembre, comunque, siamo tranquilli».

Per quanto riguarda l’anomalia al sistema di propulsione, il comunicato dell’Esa riporta che sono state individuate delle correnti elettriche inaspettate tra i pannelli solari del Mtm e l’unità responsabile dell’estrazione dell’energia e della sua distribuzione al resto della navicella, cosa che comporta una minore disponibilità di energia per la propulsione elettrica.

«Il problema è molto difficile da diagnosticare in maniera totalmente univoca», aggiunge Accomazzo. «C’è un’ipotesi, piuttosto articolata, che sembra spiegare quanto osserviamo e reggere ogni possibile confutazione. Questo ci permette di caratterizzare meglio il comportamento della sonda, in particolare dei pannelli solari, e di modellizzare l’evoluzione delle loro prestazioni. Abbiamo basato la pianificazione delle fasi restanti su queste ipotesi».

La prima modifica rispetto ai piani di volo iniziali, lo dicevamo all’inizio, riguarda proprio il prossimo flyby attorno a Mercurio (il quarto dall’inizio della missione), che avverrà mercoledì 4 settembre. Alle 21.48 ora italiana BepiColombo raggiungerà il punto di massimo avvicinamento a 165 km dalla superficie del pianeta, ben 35 km più vicino rispetto a quanto inizialmente pianificato, aggiustamento che dovrebbe contribuire a ridurre la propulsione necessaria per raggiungere il quinto (prossimo) flyby di fine anno. Sarà l’inizio di una nuova traiettoria per la sonda. Durante la manovra di assistenza gravitazionale, la prima che sorvolerà i poli di Mercurio, tutte e tre le telecamere di monitoraggio di BepiColombo saranno attivate. Scatteranno immagini dal momento del massimo avvicinamento a Mercurio fino a circa 24 ore dopo.

Questi passaggi intermedi attorno ad altri pianeti (BepiColombo ha fatto anche un flyby attorno alla Terra e due attorno a Venere, oltre ai sei attorno a Mercurio) sono necessari affinché avvenga l’inserimento in orbita finale, al quale la sonda dovrà arrivare con la giusta velocità e direzione. L’obbiettivo di BepiColombo, infatti, è ambizioso: Mercurio è il pianeta roccioso meno esplorato del Sistema solare, anche perché arrivarci è incredibilmente impegnativo. Quando una sonda si avvicina al Sole, la potente attrazione gravitazionale esercitata della nostra stella la fa accelerare verso di essa. A questa si aggiunge l’energia impartita durante il lancio, che sommandosi alla precedente si traduce in una velocità di arrivo troppo elevata perché la sonda possa essere catturata nell’orbita intorno al piccolo Mercurio. Per rallentare e arrivare con una velocità e una direzione adeguate non si può contare solo sul sistema di propulsione, nemmeno se questo funzionasse al cento per cento. Ci si avvale, pertanto, di un certo numero di manovre di assistenza gravitazionale (o flyby, nove per BepiColombo) che, pur allungandone il viaggio, aiutano la sonda a perdere energia, a rallentare e arrivare con un angolo adeguato all’inserimento in orbita.

Ora, dovendo BepiColombo fare i conti con la riduzione di spinta da parte dei propulsori, si è resa necessaria un’ulteriore riprogrammazione dell’arrivo a Mercurio, che risulterà ritardato di circa 11 mesi. Il quarto (4 settembre), il quinto (dicembre 2024) e il sesto (gennaio 2025) sorvolo di Mercurio di BepiColombo procederanno come previsto. Tutti e tre modificheranno la velocità e la direzione del veicolo spaziale, portandolo più in sintonia con l’orbita di Mercurio intorno al Sole. Il modulo Mtm accenderà i suoi propulsori tra settembre e ottobre 2024 per mettere BepiColombo sulla sua nuova traiettoria, con una manovra che risulterà finalizzata con il sesto flyby a gennaio. Insomma, la situazione sembra essere tornata sotto controllo, al netto delle difficoltà persistenti.


Countdown per Salsa-Cluster 2


18937234
L’8 settembre 2024, il primo dei quattro satelliti che compongono la missione Cluster dell’Esa rientrerà nell’atmosfera terrestre sopra un’area disabitata dell’Oceano Pacifico meridionale. Si tratta del Salsa (Cluster 2), di cui vi avevamo già parlato in una recente news. Questo rientro segnerà la fine di una missione scientifica della durata di più di 24 anni, dedicata allo studio delle strutture su piccola scala che si generano in seguito all’interazione tra il vento solare e il plasma magnetosferico, alla dinamica globale della coda magnetica della Terra e al campo magnetico circumterrestre.

18937237
Immagine che mostra il movimento del satellite Salsa-Cluster 2 (all’interno dei cerchietti bianchi), ripreso nella notte fra il 30 e il 31 agosto 2024 con lo strumento Tandem dalla Stazione astronomica di Loiano. Crediti: Inaf-Oas/Ssa-Sst Group

La strategia seguita dall’Esa per il rientro controllato del satellite consiste in un progressivo aumento dell’eccentricità orbitale mantenendo costante il semiasse maggiore, così da aumentare l’apogeo e abbassare il perigeo fino alle soglie dell’atmosfera. A un certo punto, durante l’ultimo passaggio al perigeo, l’attrito con l’aria sarà così intenso da ridurre drasticamente la velocità di Salsa e far così cadere il satellite verso l’Oceano Pacifico meridionale. Durante la caduta il satellite, non essendo dotato di uno scudo termico, si disintegrerà, anche se qualche frammento potrebbe sopravvivere e cadere in acqua.

Questi sono quindi gli ultimi giorni di Salsa, e dalla Stazione astronomica di Loiano il gruppo Ssa-Sst dell’Inaf Oas Bologna, coordinato da Alberto Buzzoni, ha voluto mettere alla prova le capacità di recovery del nuovo sistema Tandem (Telescope Array Enabling Debris Monitoring) per riprendere, misurare e tracciare una delle ultime orbite seguite dal satellite. Gli elementi orbitali ufficiali del satellite, codificati nel così detto Tle (two-line element), risalivano al 26 agosto scorso, mentre il recovery è stato fatto nella notte fra il 30 e il 31, sotto un cielo loianese trasparente e senza Luna.

18937242
L’orbita del satellite Salsa determinata nella notte fra il 30 e il 31 agosto 2024 con le osservazioni fatte con il sistema Tandem di Inaf-Oas. Crediti: Ssa-Sst Group

Quattro giorni possono sembrare pochi, ma le orbite dei satelliti artificiali cambiano rapidamente per effetto del rigonfiamento equatoriale terrestre, l’attrito con l’atmosfera, le perturbazioni gravitazionali della Luna e così via, quindi la possibilità di ritrovare il satellite in cielo, anche con una posizione imprecisa, è stata demandata al grande campo di vista di 2° × 2° di ciascuno dei quattro telescopi Tandem.

La “caccia notturna” ha avuto successo e il satellite Salsa è stato immortalato con un tempo di posa di solo mezzo secondo come un puntino di magnitudine apparente +13, in rapida fase di allontanamento verso il perigeo. Durante la ripresa il satellite era a una distanza media di circa 35mila km da Loiano, non male per un oggetto di forma cilindrica, con un diametro di 2,9 m e un’altezza di 1,3 m (antenne escluse). Dalle posizioni misurate in cielo nell’arco di soli 40 minuti è stato possibile calcolare con buona precisione l’orbita geocentrica di Salsa, che risulta coerente con gli ultimi dati ufficiali, anche se si notano già dei cambiamenti. Una volta calcolati gli elementi orbitali si può ottenere l’altezza del perigeo che risulta di soli 199 km, oramai vicino alla soglia di 110-120 km al di sotto dei quali Salsa cadrà in atmosfera senza tornare verso l’apogeo.


Eclissi di Luna con Saturno e Cefeo


18932725
18932732
La costellazione di Cefeo, a forma di casetta, con indicate la Stella Granata in alto e la variabile delta Cephei, capostipite delle variabili cefeidi

Con il mese di settembre è arrivato il momento di cambiare stagione. Il 22, precisamente, è l’equinozio di autunno e da questo giorno in avanti le ore di luce diminuiranno, favorendo l’osservazione del cielo notturno. Per gli amanti delle stelle e degli oggetti celesti deboli, il periodo migliore di osservazione è in assenza della Luna, che rischiarerebbe i cieli; e quindi sicuramente nei primi giorni fin quasi alla metà del mese e poi negli ultimi giorni di settembre.

Avremo modo di osservare ancora il triangolo estivo e le costellazioni più appariscenti, come quella del Cigno e della Lira, quella del Capricorno e l’Acquario, che in questo mese ospita Saturno, e ben imponente la costellazione di Pegaso con il suo quadrato e Andromeda. Cassiopea sarà ben alta sull’orizzonte, così pure Perseo. Ben visibili con un binocolo il doppio ammasso di Perseo e la galassia di Andromeda M31.

La costellazione che merita più attenzione in questo mese, anche se tutt’altro che appariscente, è la costellazione di Cefeo. Quasi allo zenith, dalla forma di classica casetta stilizzata con la punta del tetto vicino alla stella polare, da un punto di vista mitologico potrebbe celare un mitico sovrano dell’antica Mesopotamia (figlio di Belos), considerato addirittura l’inventore della scienza delle stelle. In questa costellazione attraversata dalla Via Lattea ci sono ricchi campi stellari e nebulose, e seppur non particolarmente evidenti ci sono due stelle incredibilmente interessanti. La prima è Delta Cephei, la capostipite delle stelle variabili cefeidi, fondamentali indicatori di distanza celeste con un periodo di variabilità che dipende dalla loro luminosità assoluta e che permettono di tarare altri indicatori di distanze in scala cosmica. Per saperne di più potete leggere questo articolo su Media Inaf.

L’altra stella particolare è la stella Mu Cephei o altrimenti chiamata dall’astronomo Giuseppe Piazzi “Stella Granata”. Anche Herschel, osservandola, la citò come stella con un bellissimo e profondo colore granata. Posizionata a circa metà strada delle due stelle che formano la base della casetta, con un binocolo anche in cieli cittadini è facilmente riconoscibile per il suo colore diverso dalle altre stelle e che è dovuto alla sua bassa temperatura superficiale di soli tremila gradi.

18932735
Saturno con Titano prospetticamnente sopra il polo nord del pianeta. Simulazione del giorno 10 settembre 2024 alle ore 2:20 ora locale italiana con il software Stellarium

In questo mese migliorerà l’osservabilità di Marte e Giove che, con il passare dei giorni, anticiperanno il loro sorgere. Saranno sempre visibili nella seconda parte della notte. Venere sarà ancora troppo vicino al Sole per essere facilmente osservabile. Saturno invece sarà il pianeta che ci accompagnerà per tutte le notti. L’8 di settembre infatti Saturno sarà all’opposizione nella costellazione dell’Acquario. In questo giorno sorgerà alle 19:40, transiterà al meridiano all’una e un quarto raggiungendo un’altezza di circa 40 gradi sopra l’orizzonte e tramonterà poco prima delle 7 del mattino. Un’occasione per osservarlo al telescopio con i suoi anelli quasi di taglio. E proprio con questo angolo di vista è possibile, ma solo al telescopio, osservare Titano approcciarsi prospetticamente ai poli del pianeta con gli anelli. Accadrà per il polo sud il 18 alle ore 1:10, mentre per il polo nord il 10 del mese alle 2:20 e a mezzanotte e 10 tra il 25 e il 26 settembre.

18932737
La luna durante la fase di massima eclissi del 18 settembre 2024. È visibile in basso a destra anche il pianeta Saturno dieci giorni dopo la sua opposizione. Simulazione ottenuta con il software Stellarium

Il 18 mattina presto ci sarà un’eclissi parziale di Luna. Purtroppo, la parte oscurata del nostro satellite sarà minima. La Luna entrerà nella penombra della Terra alle 2:41 del 18 in ora locale. In questa fase ci sarà un lievissimo abbassamento della luminosità di circa mezza magnitudine, difficilmente apprezzabile e poco interessante. La fase di ombra inizierà alle 4 e 12 minuti. Il massimo di oscuramento, comunque marginale, avverrà alle 4:44. Poi il nostro satellite inizierà ad uscire dal cono di ombra della Terra a partire dalle 5:15. In questa notte Saturno sarà vicino alla Luna eclissata, poco distante in basso a destra.

Guarda su MediaInaf Tv la videoguida al cielo del mese a cura di Fabrizio Villa:

youtube.com/embed/-i8GFVitj6I?…


Un attimo prima che si scateni l’inferno


18930717
18930719
Rappresentazione artistica di un quasar all’interno di una galassia. Crediti: Nasa, Esa and J. Olmsted (Stsci)

Alimentati da buchi neri supermassicci voracissimi, i quasar sono tra gli oggetti più energetici dell’universo. Negli ultimi anni numerosi studi hanno riportato l’esistenza di buchi neri supermassicci grossi quanto miliardi di soli quando l’universo era ancora un infante, ovvero non aveva compiuto il miliardo di anni di età. Gli astronomi si stanno arrovellando per trovare dei meccanismi che spieghino in che modo i buchi neri possano raggiungere certe stazze mastodontiche in tempi così rapidi. Ma non è solo la taglia dei buchi neri a farsi notare. Le galassie che ospitano questi colossi nelle loro regioni nucleari sono infatti animate da una frenetica attività di formazione stellare, che produce diverse centinaia se non migliaia di nuovi astri ogni anno. Per fare un confronto, la nostra parca galassia partorisce pigramente solo una stella all’anno grossa quanto il Sole. Gli astronomi si sono pertanto chiesti cosa sia in grado di alimentare al contempo lo sviluppo impetuoso dei buchi neri e la vigorosa attività di formazione stellare delle galassie ospitanti. Le fusioni tra galassie (o merger) potrebbero rappresentare una soluzione per tale mistero. Durante questi eventi, considerevoli quantità di gas possono essere infatti spinte verso il buco nero centrale, alimentandone la crescita. Allo stesso tempo, nel corso della collisione, il gas nelle galassie viene compresso, favorendo la costruzione di nuovi astri. Per capire se tale scenario sia effettivamente in atto c’è bisogno di catturare le galassie in procinto di fondersi tra di loro, prima dunque che il buco nero centrale si accenda come un luminosissimo quasar. Il problema è che, mentre i quasar sfavillano, le galassie progenitrici apparirebbero piuttosto blande agli occhi dei telescopi, rendendo estremamente ardua la loro ricerca.

Pare però che alcuni astronomi ci siano riusciti, a osservare due galassie in procinto di fondersi tra di loro, e che queste galassie ospitino non uno ma ben due quasar. E proprio i quasar sono stati stanati per primi. La scoperta è stata guidata da Yoshiki Matsuoka dell’Università di Ehime, in Giappone, ed è stata realizzata con il telescopio Subaru, che si trova alle Hawaii. Gli astronomi hanno utilizzato un set di dati estremamente profondi per delle grandi aree di cielo, che consentono di localizzare oggetti più deboli di quelli tipicamente osservati in survey di aree simili. In questo modo è stato possibile catturare la luce delle due sorgenti, che sono sì quasar ma molto deboli, fino a cento se non mille volte meno luminosi dei quasar più brillanti che si osservano nella stessa epoca. Si tratta attualmente della coppia di quasar più antica mai osservata e testimonierebbero le prime fasi di accrescimento su due buchi neri supermassicci. Tuttavia, se con Subaru si riesce a rivelare l’emissione dei due quasar, celata rimane invece la natura delle due galassie ospitanti, ovvero non si riesce a vedere se esse si stiano effettivamente fondendo.

18930721
Le galassie che ospitano i due quasar osservate con Alma. La morfologia e i moti del gas freddo (tracciato dal carbonio ionizzato) indicano che le galassie sono in procinto di fondersi fra loro. La scala riportata in basso a destra corrisponde a 30 mila anni luce. Crediti: T. Izumi et al.

E qui arriva la seconda parte della storia. Di recente Takuma Izumi del National Astronomical Observatory of Japan e collaboratori hanno utilizzato l’interferometro Alma (Atacama Large Millimeter/submillimeter Array), situato in Cile, per osservare le galassie in cui risiedono i due quasar. Con questo strumento si riescono a osservare molto bene le riserve di gas freddo contenuto nelle galassie e combustibile primario per la formazione di nuove stelle. Quello che i ricercatori hanno trovato è che la coppia letteralmente trabocca di gas freddo, che ha una massa pari a oltre cento miliardi di soli, confrontabile o addirittura maggiore delle tipiche riserve di gas delle galassie che ospitano i quasar più luminosi nell’universo lontano. Soprattutto, dalla morfologia del gas freddo, tracciato dal carbonio ionizzato, si vede che le due galassie sono connesse tra loro e presentano delle code mareali, tratti distintivi di una fusione in corso. Questi elementi, assieme al moto che caratterizza il gas, ci dicono che le due galassie sono in procinto di fondersi fra loro, formando nel prossimo futuro un’unica grande galassia. In questo scenario è estremamente verosimile che l’ampia disponibilità di gas freddo garantisca un’efficiente crescita dei due buchi neri, destinati dunque ad accendersi come un luminosissimo quasar. Allo stesso tempo questo gas può alimentare un’attività di formazione stellare di tipo esplosivo (o starburst) successiva alla fusione. Ci troviamo dunque di fronte ai possibili progenitori dei quasar antichissimi che sfavillavano nel cosmo solo 800 milioni di anni dopo il Big Bang, un “attimo” prima che questi si accendano. Lo studio è uscito la settimana scorsa su The Astrophysical Journal.

«Quando abbiamo osservato per la prima volta l’interazione tra queste due galassie, è stato come assistere a una danza, con i buchi neri nei loro centri che avevano cominciato la loro crescita. È stato davvero bellissimo» commenta Izumi riguardo alla scoperta. E riguardo ai programmi futuri aggiunge: «Combinando il telescopio Subaru e Alma, abbiamo cominciato a svelare la natura dei motori centrali (i buchi neri supermassicci) e del gas nelle galassie ospitanti. Tuttavia, le proprietà delle stelle nelle due galassie rimangono al momento sconosciute. Utilizzando il telescopio spaziale James Webb saremo in grado di imparare qualcosa riguardo alle stelle in questi oggetti. Poiché si tratta dei progenitori dei quasar di alta luminosità che cercavamo da tempo, che dovrebbero costituire dunque un prezioso laboratorio cosmico, spero che approfondiremo la nostra comprensione della loro natura e della loro evoluzione attraverso diverse osservazioni in futuro.»

Per saperne di più:


Quel triangolo di Sole


18929379
18929382
La foto astronomica del giorno selezionata dalla Nasa è di Andrea Vanoni e ritrae una prominenza solare a forma di triangolo poco dopo la separazione dalla superficie della stella. Crediti: Andrea Vanoni

È un triangolo di plasma solare, quello che si libra sopra la superficie infuocata della nostra stella, ed è stato immortalato da Andrea Vanoni, 36enne astrofotografo veronese specializzato in riprese ad alta risoluzione del Sole. L’immagine è stata selezionata dalla Nasa come immagine astronomica del giorno, o Apod, di questo lunedì 2 settembre. Astrofotografo da 16 anni, questo è il primo approdo di Vanoni sotto i riflettori della Nasa. Media Inaf l’ha quindi contattato per sapere tutti i dettagli e i segreti del suo scatto.

Ci può svelare qualche dettaglio sullo scatto? Dove si trovava?

«Ho ripreso questo evento dal mio osservatorio privato, che si trova a Mantova, presso la mia abitazione. Mi sono accorto subito che fosse un evento particolare in quanto la protuberanza era quasi completamente distaccata dalla cromosfera solare, ma manteneva una forma veramente suggestiva. Ho quindi pensato di fare più filmati per immortalarla con il telescopio solare».

Che strumento ha usato?

«Il telescopio che utilizzo è un rifrattore acromatico da 152mm di diametro e 900 di lunghezza focale, abbinato a un filtro solare Daystar Quark Cromosphere e una telecamera Zwo Asi 178mm. In post produzione ho lavorato l’immagine con un software di stacking per avere il massimo dei frames e ottenere un’immagine molto nitida. Successivamente la cromosfera è stata invertita in negativo per dare maggior risalto alla “superficie”. Il colore è stato dato artificialmente in quanto utilizzo una telecamera monocromatica».

18929384
Andrea Vanoni, 36 anni, originario di Verona, astrofotografo e appassionato di astronomia. Autore della Apod selezionata dalla Nasa il 2 settembre 2024, con il suo scatto della protuberanza a forma di triangolo sopra la superifice solare. Crediti: Andrea Vanoni

Come mai quel giorno ha deciso di volgere la camera al Sole?

«Quel giorno (il 26 agosto scorso) il Sole era particolarmente attivo, sia come macchie solari presenti sia come protuberanze. Quando posso riprendo il Sole con costanza, in quanto ogni giorno cambia e regala emozioni diverse».

Rispetto all’astrofotografia “notturna”, quella solare ha bisogno di accortezze in più. Quali?

«Rispetto alla fotografia notturna è necessario utilizzare filtri che siano totalmente sicuri per evitare in primis danni agli occhi e successivamente alla strumentazione. In questo caso è stato utilizzato un filtro solare (Daystar Quark Cromosphere) per permettere di osservare e riprendere il Sole in tutta sicurezza. Purtroppo, sono filtri molto costosi e per avvicinarsi a questo mondo suggerisco ai neofiti di rivolgersi a esperti».

Le capita spesso di fotografare il Sole?

«In tutti questi anni mi sono specializzato in riprese ad alta risoluzione di Sole, Luna e pianeti. Sono inoltre divulgatore scientifico con il gruppo Astroavventura. La mia passione è nata in giovane età, a otto anni, quando i miei genitori mi regalarono un piccolo telescopio per la comunione. Il primo pianeta che osservai fu Saturno e da allora è stato continuo amore».


Per mezzo volt, fuga dall’atmosfera


18928779
18928781
In blu il terzo campo globale fondamentale della Terra recentemente scoperto: il campo elettrico ambipolare. Crediti: Nasa/Conceptual Image Lab

A sessant’anni da quando era stato ipotizzato, è stato rilevato per la prima volta con successo – grazie alle osservazioni del razzo suborbitale della Nasa Endurance – il campo elettrico ambipolare della Terra. Si tratta di un campo elettrico debole, esteso a tutto il pianeta, ritenuto un fattore chiave per la sua evoluzione – in modi che ancora non sono del tutto chiari – e fondamentale quanto i campi gravitazionale e magnetico. Le misurazioni effettuate da Endurance hanno confermato la sua esistenza e ne hanno quantificato la forza, rivelando il suo ruolo chiave nei meccanismi di fuoriuscita di particelle dall’atmosfera e, più in generale, nella forma della ionosfera. I risultati dello studio sono stati pubblicati su Nature mercoledì scorso.

Alla fine degli anni ’60, durante un sorvolo sui poli terrestri, alcuni satelliti avevano rilevato un flusso di particelle diretto dalla nostra atmosfera verso lo spazio esterno. Da allora si sono cercate spiegazioni dettagliate del fenomeno, che gli scienziati avevano nel frattempo chiamato “vento polare”. Ci si aspettava che la luce solare facesse fuoriuscire alcune particelle atmosferiche, come il vapore che evapora da una pentola d’acqua, ma quello che si osservava era un fenomeno diverso: molte particelle all’interno di questo flusso erano fredde, eppure viaggiavano a velocità supersonica.

«Qualcosa doveva attirare queste particelle fuori dall’atmosfera», dice Glyn Collinson, responsabile scientifico della missione Endurance al Nasa Goddard Space Flight Center e primo autore dello studio.

18928784
Il razzo Endurance lanciato da Ny-Ålesund, nelle Isole Svalbard (Norvegia). Crediti: Andøya Space/Leif Jonny Eilertsen

Era stata quindi ipotizzata la presenza di un campo elettrico molto debole generato su scala subatomica, con effetti talmente blandi da non essere percepibili con la tecnologia allora esistente. A partire dal 2016, ha preso vita il progetto di mettere a punto un nuovo strumento in grado di misurare del campo ambipolare della Terra. Il nome scelto per la missione è stato Endurance, in onore della nave che trasportò Ernest Shackleton nel suo famoso viaggio in Antartide del 1914,. Lo strumento è infatti pensato a un volo suborbitale lanciato dai poli, e in particolare dall’Artico – dal centro di lancio per razzi più settentrionale del mondo, che si trova nelle isole Svalbard, un arcipelago norvegese a poche centinaia di chilometri dal Polo Nord. «Le Svalbard sono l’unico posto al mondo da cui è possibile volare attraverso il vento polare ed effettuare le misurazioni di cui avevamo bisogno», spiega Suzie Imber dell’Università di Leicester (Regno Unito), coautrice dell’articolo.

Endurance è stato lanciato l’11 maggio 2022 e ha raggiunto un’altitudine massima di 768 chilometri, precipitando diciannove minuti dopo nel Mare di Groenlandia. Nell’arco dei 518 chilometri in cui ha raccolto i dati, Endurance ha misurato una variazione del potenziale elettrico di soli 0,55 volt. «Mezzo volt non è quasi nulla, è più o meno la tensione della batteria d’un orologio», dice Collinson. «Ma è la quantità giusta per spiegare il vento polare».

Tanto è bastato infatti per provare la presenza del campo elettrico ambipolare terrestre, in quanto gli ioni di idrogeno – il tipo di particella più abbondante nel vento polare – subiscono da parte di questo campo di forza una spinta verso l’esterno 10,6 volte più intensa della gravità. «Questa forza è più che sufficiente per contrastare la gravità, anzi, è sufficiente per lanciarli verso l’alto nello spazio a velocità supersonica», spiega Alex Glocer, scienziato del progetto Endurance al Goddard Space Flight Center della Nasa e coautore dell’articolo.

18928787
Quando i fotoni provenienti dal Sole si scontrano con i gas presenti in atmosfera, gli elettroni possono essere liberati. Quando gli atomi e le molecole perdono elettroni, si caricano positivamente, diventando ioni. Questo processo è noto come ionizzazione. Crediti: Nasa/Conceptual Image Lab

Non solo gli ioni di idrogeno ma anche quelli più pesanti, come gli ioni di ossigeno, ricevono una spinta sufficiente verso l’esterno, e questo fatto comporta che il campo ambipolare aumenti la cosiddetta “altezza di scala” della ionosfera di circa il 271 per cento, permettendo alla ionosfera di rimanere più densa ad altezze maggiori di quanto lo sarebbe in sua assenza, «come si ci fosse un nastro trasportatore che solleva l’atmosfera nello spazio», dice Collinson.

Come funziona effettivamente il campo elettrico ambipolare? I fotoni solari hanno un effetto ionizzante sulle particelle atmosferiche, ovvero causano negli atomi e nelle molecole la perdita di elettroni, conferendo loro una carica positiva. Mentre gli elettroni sono molto leggeri e possono essere facilmente spinti nello spazio da un campo elettrico anche debole, gli ioni positivi sono almeno 1836 volte più pesanti e tendono dunque a ricadere verso il suolo. Se la gravità fosse la sola protagonista in questo bilancio di forze, le due popolazioni, una volta separate, si allontanerebbero nel tempo. A causa delle loro cariche elettriche opposte, però, si forma un campo elettrico che le tiene unite, impedendo la separazione delle cariche e contrastando alcuni degli effetti della gravità.

18928804
Questa animazione mostra un insieme di particelle che sentono l’attrazione della gravità in competizione con quella degli elettroni eccitati. Crediti: Nasa/Conceptual Image Lab

Gli scienziati hanno ipotizzato che questo campo elettrico possa presentarsi a circa 250 chilometri di altitudine, dove gli atomi della nostra atmosfera si ionizzano., e che sia un campo elettrico bidirezionale o “ambipolare”, perché attivo in entrambe le direzioni. L’effetto netto del campo ambipolare è quello di estendere l’altezza dell’atmosfera, sollevando alcuni ioni ad un’altezza sufficiente per fuggire con il vento polare.

La scoperta si rivela preziosa non solo per la comprensione dell’evoluzione dell’atmosfera terrestre e della storia del nostro pianeta ma anche di alcuni aspetti ancora non compresi relativi ad altri pianeti, utili per esempio a determinare quali potrebbero essere ospitali per la vita. «Ogni pianeta con un’atmosfera dovrebbe avere un campo ambipolare», conclude Collinson. «Ora che finalmente lo abbiamo misurato, possiamo iniziare a capire come ha modellato il nostro e altri pianeti nel corso del tempo».

Per saperne di più:

  • Leggi su Nature l’articolo “Earth’s ambipolar electrostatic field and its role in ion escape to space”, di Glyn A. Collinson, Alex Glocer, Robert Pfaff, Aroh Barjatya, Rachel Conway, Aaron Breneman, James Clemmons, Francis Eparvier, Robert Michell, David Mitchell, Suzie Imber, Hassanali Akbari, Lance Davis, Andrew Kavanagh, Ellen Robertson, Diana Swanson, Shaosui Xu, Jacob Miller, Timothy Cameron, Dennis Chornay, Paulo Uribe, Long Nguyen, Robert Clayton, Nathan Graves, Shantanab Debchoudhury, Henry Valentine, Ahmed Ghalib e il team della missione Endurance


Civiltà extragalattiche sintonizzandosi sui 100 Mhz


18735995
18735997
Il radioastronomo Steven Tingay (Curtin Universityt), direttore del Murchison Widefield Array, il radiotelescopio australiano, formato da 4096 antenne (alcune si intravedono nella foto), impiegato per la ricerca di segnali da civiltà extragalattiche. Crediti: Curtin University

Sono andati in cerca di segnali radio emessi da civiltà extraterrestri – anzi, addirittura extragalattiche. Segnali a bassa frequenza: per la precisione, a 100 MHz. Come Ra‌diofreccia‌ a Trebisacce, Radio Gamma a Cesena o Ra‌dio Onda‌ d’Urto a Ponte di Legno, giusto per fare qualche esempio. Solo che questi arriverebbero da distanze che si misurano in milioni di anni luce. Parliamo di un progetto innovativo, illustrato questa settimana sulle pagine di The Astrophysical Journal, condotto dal Seti Institute, dal Berkeley Seti Research Center e dall’Icrar – l’International Centre for Radio Astronomy Research – avvalendosi del Murchison Widefield Array (Mwa), un’enorme distesa di 4096 antenne dalla forma che ricorda quella dei ragni installate nell’Australia Occidentale.

Si è trattato di un tentativo senza precedenti: mai prima d’ora era stata compiuta una ricerca sistematica di segnali di tecnologie aliene provenienti da galassie che non siano la nostra, concentrandosi sulle basse frequenze. A guidare il progetto – che ha passato al setaccio in un’unica osservazione circa 2800 galassie, 1300 delle quali a distanza nota – sono stati Chenoa Tremblay, del Seti Institute, e il direttore dell’Mwa, Steven Tingay, radioastronomo della Curtin University, che Media Inaf ha intervistato.

Professor Tingay, com’è possibile che un segnale artificiale arrivi a coprire distanze addirittura intergalattiche?

«Alle lunghezze d’onda radio, i segnali possono viaggiare nello spazio per distanze molto lunghe senza essere assorbiti da alcun materiale. Tuttavia, man mano che si allontana dalla sorgente, il segnale diventa più debole, perché si diffonde, come le increspature che si ottengono lasciando cadere un sasso in uno stagno. Anche se le onde radio possono viaggiare su tragitti lunghissimi abbiamo dunque bisogno di radiotelescopi molto sensibili per rilevarle, perché quando ci raggiungono i segnali sono estremamente deboli».

Radiotelescopi come il Murchison Widefield Array?

«Esatto. Il Murchison Widefield Array (Mwa) ha inoltre un campo visivo estremamente ampio, e questo ci consente, con una singola osservazione, di acquisire segnali da milioni di stelle e migliaia di galassie, il che lo rende molto efficiente per il Seti: possiamo cercare molti più oggetti e molto più rapidamente».

Perché ascoltare a 100 MHz? È proprio nel mezzo della banda 88-108 delle stazioni radio FM… non è una fonte significativa di rumore?

«Siamo in grado di osservare a 100 MHz – che in effetti è nel mezzo della banda radio FM – perché l’Mwa si trova molto lontano da città, esseri umani e trasmettitori. Pertanto le trasmissioni FM non raggiungono facilmente il telescopio e, quindi, non interferiscono con le nostre misurazioni».

Quanto è durata la vostra survey con l’Mwa? E com’è finita? Avete rilevato qualche segnale promettente, intendo?

«Negli ultimi dieci anni abbiamo trascorso centinaia di ore a fare osservazioni per il Seti. Non abbiamo trovato alcun segnale promettente, ma non stiamo nemmeno scalfendo la superficie del problema, quindi non ci aspettiamo necessariamente di trovare qualcosa a breve. Basti pensare che negli ultimi 50 anni di Seti, utilizzando tutti i telescopi e il tempo di osservazione, l’umanità ha ispezionato una minuscola frazione della nostra galassia. Se rapportassimo la Via Lattea agli oceani terrestri, tutte le osservazioni Seti dell’ultimo mezzo secolo equivarrebbero alla quantità d’acqua di una piscina. Trovare un segnale Seti sarebbe un po’ come estrarre a caso dall’oceano l’acqua di una piscina e trovarci uno squalo».

Ma allora che senso ha cercare segnali di civiltà aliene provenienti altre galassie quando non si è mai riusciti a captarne nemmeno uno dalla nostra?

«Be’, non abbiamo idea di che cosa potrebbe essere capace una civiltà aliena, ammesso che ne esistano. Il punto è che le civiltà aliene potrebbero essere estremamente rare, quindi anche tra i miliardi di stelle della nostra galassia potrebbe essercene un numero molto ridotto, magari una soltanto, la nostra. Osservando altre galassie, abbiamo accesso a molti miliardi di possibili civiltà per ciascuna di esse. Se osserviamo migliaia di galassie, ciò significa migliaia di miliardi di possibilità. Insomma, diventa una questione statistica. Inoltre, se non iniziamo a osservare mettendo un po’ da parte i nostri pregiudizi umani, potremmo perdere un segnale importante».


Per saperne di più:


Tensione di Hubble, la parola alle galassie a spirale


18714688
18714694
In altro, sei galassie a spirale immortalate con la fotocamera infrarossa Hawk-I al Very Large Telescope (crediti: Eso/P. Grosbøl); in basso i tre autori dello studio pubblicato su Mnras (da sinistra, Balakrishna Haridasu, Paolo Salucci e Gauri Sharma)

La teoria del Big Bang è ampiamente confermata da numerose osservazioni che hanno portato al modello cosmologico noto come Lambda-Cdm, dove la ‘lambda’ (Λ) rappresenta la costante cosmologica associata all’energia oscura responsabile dell’accelerazione dell’espansione dell’universo, e ‘Cdm’ sta per cold dark matter (materia oscura fredda), una componente costituita da particelle interagenti solo gravitazionalmente ed essenziale nella formazione delle strutture cosmiche. Un nuovo studio effettuato dai cosmologi della Sissa Sandeep Haridasu, Paolo Salucci e Gauri Sharma, pubblicato lo scorso giugno su Monthly Notices of the Royal Astronomical Society, ha aperto una strada per comprendere una delle predizioni della teoria che sembra essere in serio disaccordo con le osservazioni.

Recenti indagini hanno infatti evidenziato un’anomalia nell’attuale velocità dell’espansione dell’universo H0, nota come tensione di Hubble. «Il valore di H0 sembra essere infatti differente a secondo di come viene misurato», spiega Haridasu. Utilizzando le proprietà delle supernove e delle variabili cefeidi osservate nelle galassie vicine come misuratori delle loro distanze da noi, il valore risultante è H0=73 km/s per megaparsec, mentre le proprietà della radiazione cosmica di fondo che pervade tutto l’universo implicano H0=67 km/s per megaparsec. Queste due determinazioni sono estremamente precise: «la probabilità che siano statisticamente in accordo», , continua Haridasu, «risulta inferiore a una su un miliardo». L’anomalia della tensione di Hubble potrebbe essere il segno della presenza di una fisica sconosciuta, oltre le equazioni di Einstein.

Nel lavoro pubblicato da Monthly Notices of the Royal Astronomical Society, Haridasu, Salucci e Sharma hanno ideato e utilizzato un nuovo metodo per investigare l’espansione dell’universo che si basa sulle proprietà delle galassie a spirale.
In queste, le stelle che si trovano a un certo raggio dai loro centri mantengono un equilibrio gravitazionale grazie alla loro velocità di rotazione: come conseguenza, la luminosità di una galassia e le velocità di rotazione delle stelle a specifici raggi sono strettamente correlate. Ciò porta a un nuovo misuratore delle distanze delle galassie che ha una precisione simile a quelli di cui sopra, ma che può applicarsi a un numero molto maggiore di oggetti.

Utilizzando questa tecnica, spiega Salucci, «siamo riusciti a tracciare l’espansione dell’universo fino a 150 megaparsec, analizzando un campione di 843 galassie a spirale». Il lavoro riporta 3650 misurazioni del rapporto tra il parametro di Hubble a diverse distanze da noi e il suo valore a redshift zero, ognuna con una precisione fino al 15 per cento. Queste misure implicano che, fino a 200 megaparsec da noi, l’espansione dell’universo corrisponde alle previsioni del modello standard Lambda-Cdm con il valore di H0=73. Non si osserva nessuna diminuzione di questa quantità via via che ci si allontana dalla nostra galassia, in contrasto con molte “spiegazioni locali” della tensione di Hubble che sono state proposte, tra tutte la presenza di un gigantesco vuoto cosmico nei pressi della nostra galassia. «Se è la presenza di nuova fisica l’origine della tensione di Hubble», conclude Sharma, «questa deve manifestarsi su scale molto più vaste di 200 Mpc, e forse addirittura nei primi istanti della vita dell’universo».

Per saperne di più:


Così le onde di Alfvén spingono il vento solare


18713277
18713279
Le missioni Parker Solar Probe della Nasa e Solar Orbiter dell’Esa misurano a distanze diverse lo stesso flusso di plasma che si allontana dal Sole. Parker ha misurato abbondanti onde magnetiche vicino al bordo della corona (la “superficie di Alfvén”), mentre Solar Orbiter, situato oltre l’orbita di Venere, ha osservato che le onde erano scomparse e che la loro energia era stata utilizzata per riscaldare e accelerare il plasma. Crediti: Yeimy Rivera e Samuel Badman (i dati delle immagini solari provengono dal Solar Dynamics Observatory della Nasa; le immagini sono state create con il software open source SunPy)

Da dove proviene l’energia che riscalda e accelera il vento solare? Dati cruciali per rispondere a questa domanda, sulla quale gli astrofisici si interrogano da decenni, arrivano ora dalla sonda Solar Orbiter dell’Esa, l’Agenzia spaziale europea. Lavorando in tandem con la sonda della Nasa Parker Solar Probe, Solar Orbiter ha infatti permesso di scoprire che parte dell’energia necessaria ad alimentare il vento solare – un flusso costante di particelle cariche che fuoriesce dalla corona – ha origine nelle grandi fluttuazioni del campo magnetico della nostra stella.

Il vento solare – la cui collisione con l’atmosfera del nostro pianeta genera le aurore polari – può toccare velocità superiori ai 500 km/s, pari a ben 1.8 milioni di km/h. Quando fuoriesce dalla corona, però, ha velocità inferiori. Dunque dev’esserci qualcosa che lo accelera quando si allontana. E che lo “scalda”: dal milione di gradi iniziale, infatti, man mano che il flusso di particelle si espande e diventa meno denso ovviamente si raffredda, proprio come accade qui sulla Terra all’aria salendo in montagna, ma si raffredda più lentamente di quanto ci si attenderebbe.

Cosa fornisce dunque l’energia necessaria per accelerare e riscaldare le componenti più veloci del vento solare? I dati di Solar Orbiter e di Parker Solar Probe hanno fornito la prova definitiva che la risposta sta nelle oscillazioni su larga scala del campo magnetico del Sole, note come onde di Alfvén.

«Prima del nostro lavoro, le onde di Alfvén erano state contemplate tra le potenziali fonti di energia, ma non avevamo prove definitive», ricorda Yeimy Rivera del Center for Astrophysics – Harvard & Smithsonian (Massachusetts, Usa), prima autrice dello studio che illustra la scoperta, pubblicato oggi su Science e al quale ha preso parte anche Rossana De Marco dell’Inaf di Roma. «Il nuovo risultato è stato reso possibile solo grazie a un allineamento molto particolare dei due veicoli spaziali, che hanno potuto campionare lo stesso flusso di vento solare in fasi diverse del suo viaggio dal Sole».

Le onde di Alfvén sono particolari onde magnetoidrodinamiche. A differenza di quanto avviene in un normale gas come può essere l’aria, dove si formano solo onde acustiche, quando un gas raggiunge temperature straordinarie – come nell’atmosfera del Sole – si ionizza e diventa plasma: uno stato in cui risponde ai campi magnetici, consentendo così la formazione di un nuovo tipo di onde – le onde di Alfvén, appunto – capaci di immagazzinare energia e trasportarla in modo efficiente attraverso il plasma.

Sia Solar Orbiter che Parker Solar Probe hanno a bordo gli strumenti necessari per misurare le proprietà del plasma, compreso il suo campo magnetico. Pur operando a distanze diverse dal Sole e su orbite molto differenti, nel febbraio 2022 le due sonde si sono ritrovate allineate lungo lo stesso flusso di vento solare. Parker, in orbita a 13.3 raggi solari (circa 9 milioni di km) dal Sole, dunque ai margini esterni della corona solare, ha attraversato il flusso per primo. Solar Orbiter, che si trovava invece a 128 raggi solari (89 milioni di km), lo ha attraversato uno o due giorni più tardi.

18713281
Infografica sulla doppia osservazione del febbraio 2022. Crediti: Esa

Approfittando di questo raro allineamento, il team ha così potuto confrontare misure dello stesso flusso di plasma ottenute in due punti diversi. Vicino al Sole, dove sono stati raccolti i dati di Parker, circa il dieci per cento dell’energia totale si trovava nel campo magnetico. Nei pressi di Solar Orbiter questa frazione era scesa ad appena l’uno per cento, e al tempo stesso il plasma si era raffreddato più lentamente del previsto e aveva raggiunto una velocità superiore. Confrontando questi dati, il team ha così concluso che ad accelerare il plasma e a rallentarne il raffreddamento – dunque a scaldarlo – è stata proprio l’energia magnetica mancante.

Dai dati è inoltre emerso il ruolo che hanno, nell’accelerazione del vento solare, particolari configurazioni magnetiche note come switchback. Ampie e repentine deviazioni delle linee di campo magnetico del Sole, gli switchback sono stati osservati già dalle prime sonde solari degli anni Settanta, ma la frequenza di rilevamento è aumentata drasticamente da quando Parker Solar Probe è diventato il primo veicolo spaziale a volare attraverso la corona del Sole, nel 2021,e ha rilevato che gli switchback si presentano a gruppi – e che questi gruppi contengono energia a sufficienza da poter essere responsabili della porzione mancante dell’accelerazione e del riscaldamento del vento solare, perlomeno di quello più veloce.

«Questo nuovo lavoro mette sapientemente insieme alcuni grandi pezzi del puzzle solare. Sempre di più, la combinazione dei dati raccolti da Solar Orbiter, Parker Solar Probe e altre missioni ci mostra come diversi fenomeni solari agiscano insieme per formare un ambiente magnetico straordinario», dice Daniel Müller, project scientist dell’Esa per Solar Orbiter.

Il lavoro del team nel frattempo va avanti cercando di estendere la ricerca anche alle forme più lente del vento solare, per capire se l’energia del campo magnetico del Sole gioca un ruolo anche nella loro accelerazione e nel loro riscaldamento.

Per saperne di più:


Buchi neri supermassicci a collasso diretto


18710750
18710752
Un’immagine del James Webb Telescope mostra il quasar J0148 cerchiato in rosso. Due inserti mostrano, in alto, il buco nero centrale e, in basso, l’emissione stellare della galassia ospite. Crediti: Mit/Nasa

La formazione dei buchi neri supermassicci, come quello al centro della Via Lattea, richiede molto tempo. In generale, la nascita di un buco nero necessita di una stella con una massa pari ad almeno 50 masse solari che, in un tempo che può arrivare al miliardo di anni, esaurisce il suo combustibile nucleare e collassa su sé stessa. Tuttavia, con solo poche decine di masse solari il buco nero risultante è ben lontano dal buco nero di 4 milioni di masse solari che si trova al centro della nostra galassia, Sagittarius A*, o dai buchi neri supermassicci di miliardi di masse solari che si trovano in altre galassie. Questi buchi neri giganti possono formarsi da buchi neri più piccoli per accrezione di gas e stelle e per fusione con altri buchi neri, che richiede miliardi di anni.

Allora come mai il telescopio spaziale James Webb sta scoprendo buchi neri supermassicci all’alba dell’universo, quando non dovrebbero aver avuto il tempo di formarsi? È un po’ come trovare un’auto tra i resti di un dinosauro: come fa a essere lì? chi l’ha costruita? Ora gli astrofisici della Ucla sembrano aver trovato una risposta plausibile a questo mistero: se riusciamo a vedere buchi neri supermassicci così “precoci” dobbiamo ringraziare la materia oscura. La scoperta è pubblicata sulla rivista Physical Review Letters.

Alcuni astrofisici ipotizzano che una grande nube di gas potrebbe collassare per creare direttamente un buco nero supermassiccio, aggirando la lunga trafila prevista dalla teoria dell’evoluzione stellare delle stelle di grande massa. Ma c’è una fregatura: la gravità, in effetti, può riunire una grande quantità di gas, ma non in un’unica grande nube. Al contrario, nella nube si verrebbero a formare piccoli addensamenti che fluttuano l’uno vicino all’altro, che non vanno a formare direttamente un buco nero. Questo perché la nube di gas si raffredda troppo rapidamente. Finché il gas è caldo, la sua pressione può contrastare la gravità. Tuttavia, se il gas si raffredda, la pressione diminuisce e la gravità può prevalere in molte piccole regioni, che collassano in oggetti densi prima che la gravità abbia la possibilità di trascinare l’intera nube in un unico buco nero.

«La velocità con cui il gas si raffredda ha molto a che fare con la quantità di idrogeno molecolare», spiega Yifan Lu, primo autore dello studio. «Gli atomi di idrogeno legati insieme in una molecola dissipano energia quando incontrano un atomo di idrogeno libero. Le molecole di idrogeno diventano agenti di raffreddamento in quanto assorbono energia termica e la irradiano. Le nubi di idrogeno nell’universo primordiale avevano una quantità eccessiva di idrogeno molecolare e il gas si è raffreddato rapidamente, formando piccoli aloni invece di grandi nubi».

Lu e Zachary Picker hanno scritto un codice per calcolare tutti i possibili processi coinvolti in questo scenario, scoprendo che radiazioni aggiuntive possono riscaldare il gas e dissociare le molecole di idrogeno, alterando il modo in cui il gas si raffredda. «Se si aggiungono radiazioni in un certo intervallo di energia, si distrugge l’idrogeno molecolare e si creano condizioni che impediscono la frammentazione di grandi nubi», spiega Lu. Ma da dove provengono queste radiazioni?

18710754
Vista in luce polarizzata del buco nero supermassiccio Sagittarius A* al centro della Via Lattea. Crediti: Eso

Solo una piccolissima parte della materia presente nell’universo è quella che costituisce il nostro corpo, il nostro pianeta, le stelle e tutto ciò che possiamo osservare. La stragrande maggioranza della materia, rilevata dagli effetti gravitazionali su oggetti stellari e dalla curvatura dei raggi luminosi provenienti da sorgenti lontane, è costituita da particelle che gli scienziati non hanno ancora identificato: la cosiddetta materia oscura.

Le forme e le proprietà della materia oscura sono quindi un mistero ancora da risolvere. Sebbene non si sappia cosa sia la materia oscura, i teorici delle particelle ipotizzano da tempo che possa essere costituita da particelle instabili in grado di decadere in fotoni. L’inserimento di tale materia oscura nelle simulazioni ha fornito la radiazione necessaria affinché il gas rimanga in una grande nube mentre sta collassando in un buco nero.

La materia oscura potrebbe essere costituita da particelle che decadono lentamente, oppure potrebbe essere composta da più specie di particelle: alcune stabili e altre che decadono velocemente. In entrambi i casi, il prodotto del decadimento potrebbe essere radiazione sotto forma di fotoni, che spezzano l’idrogeno molecolare e impediscono alle nubi di idrogeno di raffreddarsi troppo rapidamente. Anche un decadimento molto lieve della materia oscura produce radiazioni sufficienti a impedire il raffreddamento, formando grandi nubi e, alla fine, buchi neri supermassicci.

«Questo potrebbe essere il motivo per cui i buchi neri supermassicci vengono trovati molto presto», conclude Picker. «Volendo essere ottimisti, si potrebbe anche leggere questo dato come una prova positiva a favore di un tipo di materia oscura. Se questi buchi neri supermassicci si sono formati dal collasso di una nube di gas, forse la radiazione aggiuntiva necessaria proviene dalla fisica sconosciuta del settore oscuro».

Per saperne di più:


Quando la stella collapsar, c’è l’onda gravitazionale


18637508
media.inaf.it/wp-content/uploa…
Simulazione che rappresenta la caduta di materiale stellare attorno al buco nero generato dal collasso di una stella massiccia chiamata collapsar. Secondo un nuovo studio pubblicato su Apj Letters, la caduta del materiale genererebbe onde gravitazionali rilevabili. Crediti: Ore Gottlieb

Le onde gravitazionali, finora, viaggiavano in coppia. Per rivelarle con gli interferometri attualmente costruiti sulla superficie terrestre, che misurano come il passaggio delle perturbazioni dello spaziotempo – le onde gravitazionali, appunto – modifica la lunghezza dei loro bracci, occorreva la forza di due oggetti massicci in fusione: due buchi neri, una stella di neutroni e un buco nero, o due stelle di neutroni. Secondo nuove simulazioni pubblicate su Apj Letters, però, anche le onde gravitazionali generate dal collasso di particolari stelle massicce chiamate collapsar potrebbero essere rivelate. Anche se farlo sarebbe molto più complesso.

Una collapsar è una stella molto massiccia il cui nucleo ha una massa superiore a 30 volte la massa del Sole, e che una volta esaurito il carburante per la fusione nucleare implode in un buco nero, lasciando il materiale residuo della stella spiraleggiare rapidamente verso l’oscurità. La spirale di materiale – che dura pochi minuti – è così densa da distorcere lo spazio-tempo circostante, creando onde gravitazionali che viaggiano attraverso l’universo. E che, secondo le simulazioni condotte al Center for Computational Astrophysics (Cca) del Flatiron Institute di New York, potrebbero essere già presenti nei dati d’archivio raccolti finora dagli interferometri Ligo e Virgo.

«Una delle domande più interessanti nel campo è: quali sono le potenziali sorgenti non fuse che potrebbero produrre onde gravitazionali e che possiamo rilevare con le strutture attuali?», dice Ore Gottlieb, ricercatore al Cca e primo autore dell’articolo. «Una risposta promettente, ora, è collapsar».

Un risultato sorprendente, dato che finora si pensava che le onde gravitazionali generate da oggetti singoli si perdessero nel rumore di fondo dell’universo, ma non esente da vincoli stringenti. Per una serie di ragioni, infatti, trovare le onde gravitazionali prodotte dalle collapsar sarebbe tutt’altro che semplice. Innanzitutto, le simulazioni hanno mostrato che il collasso di questi oggetti può produrre onde gravitazionali visibili dai nostri interferometri solo entro 50 milioni di anni luce di distanza. Distanza che sarebbe meno di un decimo rispetto al limite di rilevazione delle onde gravitazionali più potenti prodotte dalla fusione di buchi neri o stelle di neutroni, ma comunque più forte di qualsiasi altro evento non legato alla fusione finora simulato.

E se è vero che alcuni segnali potrebbero già essere presenti nei dati d’archivio degli interferometri, sapere come dovrebbero essere fatti, esattamente, non è affatto scontato. Nello studio infatti sono stati simulati solo pochi eventi di collasso, mentre le stelle che potrebbero generarli coprono un’ampia gamma di profili di massa e rotazione, cosa che comporta differenze nei segnali di onde gravitazionali in arrivo. Bisognerebbe – dicono gli autori – simulare almeno un milione di collassi per avere un numero sufficiente di casi con cui confrontare i segnali misurati, ma le simulazioni sono molto costose e a oggi questi numeri sono impensabili. Con quanto simulato finora sarebbe davvero improbabile trovare qualunque corrispondenza, poiché ogni stella produce un segnale potenzialmente unico data la propria massa e rotazione. Un’altra strategia potrebbe essere utilizzare altri segnali provenienti da eventi di collasso vicini rilevati con altri strumenti – come supernove o lampi di raggi gamma emessi durante il collasso di una stella – e poi cercare negli archivi di dati se sono state rilevate onde gravitazionali in quell’area del cielo nello stesso momento.

Insomma, c’è del potenziale ma manca una strategia e, forse, anche i mezzi. Trovare questi segnali, però, sarebbe importante non solo per dimostrare che anche eventi singoli generano onde gravitazionali misurabili, ma anche per comprendere meglio la struttura interna della stella al momento del collasso e, con essa, le proprietà dei buchi neri: due argomenti ancora poco conosciuti e, dicono gli autori, non indagabili altrimenti.

Per saperne di più:


Giovani astri negli abissi polverosi di Perseo


media.inaf.it/2024/08/28/webb-…
Il nuovo straordinario mosaico di immagini prodotto dal telescopio spaziale James Webb di Nasa, Esa e Csa che vedete qui sotto mostra il vicino ammasso di formazione stellare Ngc 1333. La nebulosa si trova nella nube molecolare di Perseo, a circa 960 anni luce di distanza da noi.

18637023
L’ammasso di formazione stellare Ngc 1333 immortalato da Jwst. Crediti: Esa/Webb, Nasa & Csa, A. Scholz, K. Muzic, A. Langeveld, R. Jayawardhana

La superba sensibilità di Webb permette agli astronomi di studiare oggetti giovani anche con masse estremamente piccole. Alcune fra le “stelle” più deboli presenti nell’immagine sono in realtà nane brune vagabonde (free-floating) appena nate, con masse paragonabili a quelle dei pianeti giganti.

Lo stesso ammasso era stato presentato come immagine per celebrare il 33esimo anniversario del telescopio spaziale Hubble nell’aprile del 2023. Poiché ci sono nubi di polvere a oscurare gran parte del processo di formazione stellare, l’immagine acquisita per l’occasione da Hubble era riuscita appena a scalfire la superficie di questa regione di cielo. Osservando con un’apertura maggiore e nella parte infrarossa dello spettro, Webb è invece in grado di scrutare attraverso il velo polveroso e rivelare – appunto – stelle neonate, nane brune e oggetti di massa planetaria.

Al centro dell’immagine, uno sguardo profondo nel cuore della nube Ngc 1333. Tutt’attorno si notano ampie macchie di colore arancione: rappresentano il gas che brilla nell’infrarosso. Formazioni come questa sono dette oggetti di Herbig-Haro e si formano quando la materia ionizzata espulsa da giovani stelle si scontra con la nube circostante. Sono segni distintivi di un sito di formazione stellare molto attivo.

Molte delle giovani stelle di questa immagine sono circondate da dischi di gas e polvere che potrebbero evolvere in sistemi planetari. Sulla destra si può intravedere l’ombra di uno di questi dischi orientato di taglio: due coni scuri che si propagano lungo direzioni opposte, visti su uno sfondo luminoso.

Come le giovani stelle di questo mosaico, anche il Sole e i pianeti del Sistema solare – 4,6 miliardi di anni fa – si sono formati all’interno di una nube molecolare polverosa. Il Sole non ha avuto origine in modo isolato, ma come parte di un ammasso, forse ancora più massiccio di Ngc 1333. L’ammasso nel mosaico ha invece solo 1-3 milioni di anni e offre dunque l’opportunità di studiare stelle come il nostro Sole, così come nane brune e pianeti liberi, nelle loro fasi nascenti.

Le immagini sono state acquisite da Webb nell’ambito del programma di osservazione 1202 (principal investigator Aleks Scholz), che ha rilevato una vasta porzione di Ngc 1333. Questi dati costituiscono la prima indagine spettroscopica profonda del giovane ammasso e hanno identificato nane brune fino a masse planetarie utilizzando lo strumento Niriss (Near-InfraRed Imager and Slitless Spectrograph) del telescopio. I primi risultati della survey sono stati accettati per la pubblicazione su The Astronomical Journal.

Per saperne di più:

Guarda il video sul canale YouTube dell’Esa:

youtube.com/embed/Po95FgnpRls?…


Risoluzione senza precedenti per Eht


18573444
18573446
Ubicazione degli osservatori utilizzati nel corso dell’esperimento pilota condotto da Eht: l’Atacama Large Millimeter/submillimeter Array (Alma) e l’Atacama Pathfinder Experiment (Apex), in Cile, il telescopio Iram da 30 metri (30-M) in Spagna e il NOrthern Extended Millimeter Array (Noema) in Francia, nonché il Greenland Telescope (Glt) e il Submillimeter Array (Sma) alle Hawaii. Crediti: Eso/M. Kornmesser

La Collaborazione Eht (Event Horizon Telescope) ha condotto alcune osservazioni di prova, utilizzando Alma (Atacama Large Millimeter/submillimeter Array) e altre strutture, per raggiungere la risoluzione più alta mai ottenuta usando solo telescopi sulla Terra. Sono riusciti a compiere questa impresa rivelando la luce di galassie distanti a una frequenza di circa 345 GHz, equivalente a una lunghezza d’onda di 0,87 mm. La Collaborazione stima che in futuro si potranno realizzare immagini di buchi neri il 50 per cento più dettagliate di quanto possibile in precedenza, consentendo di mettere a fuoco più nitidamente la regione immediatamente al di fuori del confine dei buchi neri supermassicci vicini. Si potranno anche riprendere altri buchi neri oltre a quanto fatto finora. Le nuove osservazioni, parte di un esperimento pilota, sono state pubblicate oggi su The Astronomical Journal.

La Collaborazione Eht ha pubblicato nel 2019 alcune immagini di M87*, il buco nero supermassiccio al centro della galassia M87, e nel 2022 di Sgr A*, il buco nero al centro della nostra galassia, la Via Lattea. Queste immagini sono state ottenute collegando diversi osservatori radio in tutto il pianeta, utilizzando una tecnica chiamata interferometria a base molto lunga (Vlbi, per very long baseline interferometry), in modo da formare un singolo telescopio virtuale “delle dimensioni della Terra”.

Per ottenere immagini ad alta risoluzione, gli astronomi in genere si affidano a telescopi più grandi o a una maggiore separazione tra gli osservatori che lavorano come parte di un interferometro. Ma poiché l’Eht aveva già le dimensioni di tutta la Terra, aumentare la risoluzione delle osservazioni terrestri richiedeva un approccio diverso. Un altro modo per aumentare la risoluzione di un telescopio è di osservare la luce di una lunghezza d’onda più corta: questo è ciò che ha fatto ora la Collaborazione Eht.

«Con l’Eht abbiamo visto le prime immagini di buchi neri usando osservazioni a lunghezza d’onda di 1,3 mm, ma l’anello luminoso, formato dalla luce che si piega a causa della gravità del buco nero, sembrava ancora sfocato perché eravamo ai limiti assoluti della possibilità di rendere nitide le immagini», dice il co-responsabile dello studio Alexander Raymond, in precedenza ricercatore post-dottorato presso il Center for Astrophysics | Harvard & Smithsonian (CfA) e ora presso il Jet Propulsion Laboratory, entrambi negli Stati Uniti. «A 0,87 mm le immagini saranno più nitide e dettagliate, e ciò rivelerà probabilmente nuove proprietà, sia quelle che erano state precedentemente previste sia forse alcune che non lo erano».

18573448
Immagini simulate al computer dell’emissione vicino all’orizzonte degli eventi di un buco nero simile a Sgr A* alle lunghezze d’onda di 1,3 mm (a sinistra) e 0,87 mm (a destra). Mostrano come sia possibile vedere molti più dettagli osservando un buco nero a lunghezze d’onda inferiori. La barra orizzontale indica una scala angolare di 40 microarcsecondi. Crediti:
Christian M. Fromm, Università Julius-Maximilian, Würzburg

Per dimostrare di essere in grado di osservare a 0,87 mm, la Collaborazione ha condotto osservazioni di prova di galassie distanti e luminose a questa lunghezza d’onda. Invece di usare l’intera schiera di Eht, sono stati attivate due sotto-schiere più piccole, entrambe comprendenti sia Alma che Apex (Atacama Pathfinder EXperiment), nel deserto di Atacama in Cile. L’Eso (European Southern Observatory) è un partner di Alma e co-ospita e co-gestisce Apex. Altre strutture utilizzate comprendono il telescopio Iram da 30 metri in Spagna e Noema (Northern Extended Millimeter Array) in Francia, così come il Greenland Telescope e il Submillimeter Array alle Hawaii.

In questo esperimento pilota, la Collaborazione ha ottenuto osservazioni con dettagli minuti fino a 19 microarcosecondi, corrispondente alla massima risoluzione mai ottenuta dalla superficie della Terra. Tuttavia, non sono ancora riusciti a ottenere immagini: mentre la rivelazione della luce da diverse galassie distanti è robusta, non sono state utilizzate abbastanza antenne per poter ricostruire accuratamente un’immagine dai dati ottenuti.

Questo test tecnico ha aperto una nuova finestra per studiare i buchi neri. Con l’intera schiera, l’Eht potrebbe vedere dettagli piccoli fino a 13 microarcosecondi, equivalenti a vedere dalla Terra un tappo di bottiglia sulla Luna. Ciò significa che, a 0,87 mm, si potranno ottenere immagini con una risoluzione circa il 50 per cento superiore rispetto a quella delle immagini di M87* e SgrA* da 1,3 mm pubblicate in precedenza. Inoltre, si potrebbero anche osservare buchi neri più distanti, più piccoli e più deboli dei due che la Collaborazione ha ripreso finora.

18573450
I punti gialli presenti sulla mappa indicano la posizione delle antenne e degli array che hanno partecipato a un esperimento pilota condotto dalla Event Horizon Telescope (Eht) Collaboration. Per la prima volta è stata impiegata con successo la tecnica dell’interferometria a lunghissima linea di base – che collega telescopi distanti centinaia o migliaia di chilometri – per osservare la luce a una lunghezza d’onda di 0,87 mm, inferiore rispetto al passato, riuscendo così a ottenere osservazioni a risoluzione più elevata senza dover costruire un telescopio più grande. Le rilevazioni effettuate hanno la più alta risoluzione mai ottenuta dalla superficie della Terra. Crediti:
Eso/M. Kornmesser

«Osservare i cambiamenti nel gas circostante a diverse lunghezze d’onda», dice il direttore fondatore dell’Eht Sheperd “Shep” Doeleman, astrofisico presso il CfA e co-responsabile dello studio, «ci aiuterà a risolvere il mistero di come i buchi neri attraggono e accumulano materia e di come possono lanciare potenti getti su distanze galattiche».

Questa è la prima volta in cui la tecnica Vlbi è stata utilizzata con successo alla lunghezza d’onda di 0,87 mm. Sebbene la capacità di osservare il cielo notturno a 0,87 mm esistesse prima delle nuove rivelazioni, l’utilizzo della tecnica Vlbi a questa lunghezza d’onda ha sempre presentato sfide che hanno richiesto tempo e progressi tecnologici per essere superate. Per esempio, il vapore acqueo nell’atmosfera assorbe le onde luminose a 0,87 mm molto più di quanto non faccia a 1,3 mm, rendendo più difficile per i radiotelescopi ricevere i segnali dei buchi neri alla lunghezza d’onda più corta. In combinazione con turbolenze atmosferiche sempre più pronunciate e accumulo di rumore a lunghezze d’onda più corte, oltre all’impossibilità di controllare le condizioni meteorologiche globali durante le osservazioni, sensibili alle condizioni atmosferiche, il progresso per il Vlbi verso lunghezze d’onda più corte, in particolare quelle che superano la barriera verso il regime submillimetrico, è stato lento. Ma con queste nuove misure, tutto è cambiato.

«I segnali Vlbi osservati a 0,87 mm sono rivoluzionari poiché aprono una nuova finestra di osservazione per lo studio dei buchi neri supermassicci», dice Thomas Krichbaum, coautore dello studio e dipendente del Max Planck Institute for Radio Astronomy in Germania, un’istituzione che gestisce il telescopio Apex insieme con l’Eso. «In futuro, la combinazione dei telescopi Iram in Spagna (Iram-30m) e Francia (Noema) con Alma e Apex consentirà di ottenere immagini di emissioni ancora più piccole e deboli di quanto sia stato possibile finora a due lunghezze d’onda, 1,3 mm e 0,87 mm, simultaneamente».

Fonte: comunicato stampa Eso

Per saperne di più:

Guarda il servizio video su MediaInaf Tv:

youtube.com/embed/qrEDclzzEJo?…


Nuclei d’antimateria esotica, ecco i più massicci


18562257
18562259
Immagine composita del rivelatore Star, presso il Relativistic Heavy Ion Collider (Rhic) del Brookhaven National Laboratory, e un esempio delle tracce di particelle che rileva emergere da una collisione oro-oro. Crediti: Joe Rubino e Jen Abramowitz/Brookhaven National Laboratory

Di antimateria nell’universo ce n’è poca, pochissima, per quanto ne sappiamo. E quella poca che conosciamo è molto light: niente “antistelle” né “antipianeti”, almeno per ora, ma nemmeno atomi dal nucleo un po’ corposo come potrebbero essere quelli di antiferro o anticarbonio. Quando maneggiamo concretamente antimateria si tratta sempre di particelle leggerissime, perlopiù positroni – dunque particelle di massa pari a quella degli elettroni. In casi eccezionali si arriva ad atomi di anti-idrogeno e anti-elio. Ed è di questi giorni la scoperta dei più massicci ipernuclei di antimateria mai osservati: sedici particelle di anti-iperidrogeno-4 prodotte al Relativistic Heavy Ion Collider (Rhic) del Brookhaven National Laboratory di Long Island, negli Stati Uniti.

Formato da un anti-protone, due anti-neutroni e un anti-iperone lambda (gli iperoni sono barioni nei quali sono presenti quark strange, e quello lambda, in particolare, è formato da un quark up, uno down e uno strange), il nucleo di anti-iperidrogeno-4 descritto la scorsa settimana su Nature da un team guidato da ricercatori della Star Collaboration ha una vita brevissima, ma nei pochi centimetri che è riuscito a percorrere prima di decadere ha lasciato tracce sufficienti a individuarlo e caratterizzarlo.

«Dopo aver analizzato i dati sperimentali di circa 6,6 miliardi di eventi di collisione tra ioni pesanti», spiega Wu Junlin dell’Istituto di fisica moderna dell’Accademia cinese delle scienze, «abbiamo ricostruito l’anti-iperidrogeno-4 dai suoi prodotti di decadimento, l’anti-elio-4 e il mesone π+, e abbiamo identificato un segnale di circa sedici anti-iperidrogeno-4».

18562261
Rappresentazione artistica dell’anti-iperidrogeno-4 (un ipernucleo di antimateria composto da un antiprotone, due antineutroni e una particella antilambda) creato dalla collisione di due nuclei d’oro (a sinistra). Crediti: Istituto di fisica moderna (Cina)

Un’impresa tutt’altro che semplice. Affinché il segnale di cui parla Wu sia rilevabile è infatti necessario che tutti e quattro gli ingredienti dell’anti-iperidrogeno-4 (l’anti-protone, i due anti-neutroni e l’anti-iperone lambda) vengano emessi dalla zuppa di quark e gluoni generata nelle collisioni all’interno di Rhic nel posto giusto, nella stessa direzione e al momento giusto per aggregarsi in uno stato temporaneamente legato.

«È solo grazie al caso che le quattro particelle costituenti emergono dalle collisioni di Rhic abbastanza vicine da potersi combinare e formare questo anti-ipernucleo», sottolinea Lijuan Ruan del Brookhaven National Laboratory, una delle co-spokespersons della Star Collaboration.

Sedici anti-iperidrogeno-4, dicevamo. O meglio, circa sedici. La ragione dell’incertezza sta nel fatto che si tratta di una stima. L’analisi dei segnali prodotti dalle collisioni ha infatti portato alla scoperta di 22 eventi candidati, con un conteggio di fondo stimato a 6,4. «Questo significa che circa sei di quelli che sembrano decadimenti dell’anti-iperidrogeno-4 potrebbero essere solo rumore casuale», spiega Emilie Duckworth, dottoranda alla Kent State University (Usa), responsabile della correttezza del software utilizzato per passare al vaglio gli eventi. Ecco così che, sottraendo ai 22 eventi candidati il rumore di fondo, gli autori dell’esperimento arrivano a concludere di aver rivelato circa 16 nuclei anti-iperidrogeno-4 effettivi.

Aver rivelato le particelle di anti-iperidrogeno-4 ha consentito di confrontarne il tempo di vita media con quello delle corrispondenti particelle di materia ordinaria, l’iperidrogeno-4, e anche con quello di un’altra coppia di ipernuclei, l’ipertritone e l’anti-ipertritone. In nessun caso sono emerse differenze significative.

Un risultato che conferma dunque la correttezza degli attuali modelli. «Se dovessimo osservare una violazione di questa particolare simmetria», dice infatti Duckworth, «in pratica dovremmo buttare alle ortiche molte delle nostre conoscenze sulla fisica». Il prossimo passo sarà la misura della differenza fra la massa delle antiparticelle e quella delle corrispondenti particelle.

Per saperne di più:


Le stelle Wolf-Rayet non brillano da sole


18539091
18539093
Immagini ai raggi X delle stelle di Wolf-Rayet di Westerlund 1. La dimensione di ogni pannello è di 10×10 arcosecondi, che alla distanza di Westerlund 1 corrispondono a una dimensione di 0.7 anni luce. Il colore usato codifica l’energia dei fotoni osservati in ogni sorgente: in rosso i fotoni con un’energia compresa tra 0.5 e 2.0 keV, in verde tra 2.0 e 4.0 keV e in blu tra 4.0 e 8.0 keV. Il cerchio giallo mostra la posizione della sorgente di raggi X, mentre in magenta è indicata la regione attorno alla sorgente usata per misurare le proprietà dei fotoni osservati. Crediti: K. Anastasopoulou et al., A&A, 2024

Le stelle di grande massa vivono una vita breve e violenta. Soprattutto durante le fasi finali della loro evoluzione, queste stelle attraversano profonde trasformazioni della loro struttura e disperdono nell’ambiente circostante una grande quantità di massa sotto forma di venti stellari. In particolare, durante la fase di Wolf-Rayet, che dura solo poche centinaia di migliaia di anni, le stelle espellono completamente gli strati esterni ricchi di idrogeno in violenti venti che raggiungono velocità di duemila km/s, esponendo gli strati interni caldi (oltre ventimila gradi) ricchi di elio, azoto, carbonio e altri elementi pesanti sintetizzati all’interno della stella.

Le stelle di Wolf-Rayet sono oggetti di grande interesse per vari motivi. Questa breve fase, infatti, determina il futuro della stella e il tipo di oggetto compatto che essa formerà al termine della sua evoluzione. Inoltre, a causa delle temperature superficiali così elevate, queste stelle producono flussi intensi di radiazione ultravioletta che, insieme ai venti violenti, hanno un impatto importante sull’ambiente circostante.

Considerando il numero ridotto di stelle di grande massa e la brevità della fase di Wolf-Rayet, non sorprende che questo tipo di stelle sia in realtà molto raro. Il catalogo di stelle di Wolf-Rayet curato dall’Università di Sheffield e costantemente aggiornato conta infatti solamente 669 stelle, identificate nella Via Lattea e nelle galassie vicine. Il campione coevo di stelle di Wolf-Rayet più ricco nella nostra galassia è costituito dalle 24 stelle associate all’ammasso stellare supermassiccio Westerlund 1, oggetto del progetto Ewocs (Extended Westerlund 1 and 2 Open Cluster Survey), guidato da chi scrive.

18539095
Konstantina Anastasopoulou (Inaf Palermo). Crediti: Inaf Palermo

Lo studio delle 24 stelle di Wolf-Rayet di Westerlund 1 è l’oggetto di un articolo – in uscita su Astronomy & Astrophysics – guidato dall’astrofisica Konstantina Anastasopoulou dell’Inaf di Palermo, ora in forza all’Harvard-Smithsonian Center for Astrophysics di Cambridge (Usa). Dall’analisi di un’osservazione ai raggi X di Westerlund 1 con il telescopio Chandra della Nasa, durata più di 305 ore, il team autore dell’articolo ha studiato i fenomeni ad alta energia che avvengono in queste stelle. In particolare, l’analisi temporale (ossia lo studio di come varia nel tempo il flusso di radiazione emesso dalle sorgenti) mostra in molti casi delle variabilità periodiche tipiche dei sistemi binari (sistemi di due stelle in orbita l’una attorno all’altra). D’altro canto, dall’analisi spettrale (ossia dallo studio della distribuzione di energia dei fotoni ai raggi X delle sorgenti catturati dal telescopio) è emerso che in tutte queste stelle è presente plasma a temperature superiori ai dieci milioni di gradi. Questo plasma si può generare solo nella regione compresa tra due stelle in un sistema binario massiccio, dove i venti delle due stelle impattano l’uno contro l’altro, trasformando l’energia cinetica in calore.

Risulta quindi che tutte le stelle di Wolf-Rayet di Westerlund 1 sono componenti di sistemi binari con altre stelle di grande massa. Questa scoperta implica che la binarietà in sistemi massicci ha giocato un ruolo importante nella formazione delle stelle di Wolf-Rayet di Westerlund 1, determinandone il percorso evolutivo.

«Studiare le proprietà ai raggi X di questa eccezionale popolazione di stelle Wolf-Rayet con tale livello di dettaglio non sarebbe stato possibile in un ammasso stellare così denso senza le capacità dell’osservatorio a raggi X Chandra», dice Anastasopoulou. «L’analisi spettrale di queste stelle Wolf-Rayet ha rivelato, per la prima volta, la presenza di plasma termico molto caldo riscaldato da shock, che potrebbe originarsi solo in una zona dove il vento di una stella Wolf-Rayet collide con il vento di un’altra stella massiccia. Combinando questi risultati con studi precedenti siamo giunti alla conclusione che più del 90 per cento, se non tutte, le stelle Wolf-Rayet in Westerlund 1 sono in sistemi binari o multipli. Questo è un risultato entusiasmante poiché suggerisce che o tutte le stelle si formano in sistemi binari e multipli, o che questo potrebbe essere un percorso di formazione unico per le stelle Wolf-Rayet. Tuttavia, questo risultato solleva domande intriganti sui percorsi di formazione delle stelle negli ammassi di stelle massicce»

Per saperne di più:


La Stella Polare è a pois


18451409
18451411
Al centro, la Stella Polare. Crediti: Kush Chandaria/Wikimedia Commons

Riferimento imprescindibile per gli abitanti dell’emisfero boreale, dal navigatore antico che solcava i mari nelle tenebre al neofita che si cimenti con i rudimenti delle costellazioni, la Stella Polare è forse dopo il Sole l’astro più noto del firmamento. A onor del vero, non particolari meriti detiene la suddetta stella, se non quello di trovarsi nell’epoca attuale, per una mera coincidenza cosmica, a soli 0.7 gradi dal Polo nord celeste – proiezione del Polo nord terrestre sul firmamento. Circostanza che la rende, sola fra tutte, praticamente ferma e coincidente con il nord alla vista limitata degli umani, gemma incastonata nella sfera celeste, incurante della danza delle costellazioni che si avvicendano nel cielo notturno nel corso dell’anno. Dall’altra parte della Terra tale fortunata coincidenza non si è verificata, cosicché le genti dell’emisfero australe hanno dovuto utilizzare un’intera costellazione – la Croce del Sud – come surrogato per localizzare, con indubbia maggiore incertezza, il meridione.

Sommità della coda dell’Orsa Minore e stella più brillante di tale costellazione, avvalendoci di potenti telescopi, strabilianti dettagli che mai sospetteremmo si scoprono in questo astro noto da secoli. Intanto non è ferma, ma proprio per nulla, come ogni corpo celeste che popoli la nostra e ogni altra galassia dell’universo. Ed è pure in compagnia, ma non di chi penseremmo. Le stelle dell’Orsa Minore sono infatti solo apparenti vicine di casa, essendo astri che nulla hanno a che vedere fra di loro e che l’essere umano ha unito da linee e vicende leggendarie in maniera, dovremo ammettere, sfacciatamente arbitraria. Qui invece si parla proprio di stelle che qualcosa da condividere ce l’hanno davvero, prima fra tutte l’interazione gravitazionale che lega i destini dei corpi celesti coinvolti in orbite più e meno eccentriche. Non solitaria come il nostro Sole ma scortata da ben due stelle compagne si presenta la nota stella, più piccine in massa e luminosità e dunque celate alla nostra vista. Come se non bastasse, regolari pulsazioni scuotono quest’astro, con un periodo di circa quattro giorni, a seguito di una variazione periodica di dimensioni e temperatura. E adesso si scopre pure che non omogenea e liscia appare la sua superficie bensì coperta di macchie.

18451413
La Stella Polare vista dal Chara Array nell’aprile 2021. Numerose macchie, sia chiare che scure, ricoprono la superficie della stella. L’immagine è a falsi colori. Crediti: Evans et al., ApJ, 2024

La scoperta è stata realizzata da un gruppo di ricercatori guidati da Nancy Evans dello Smithsonian Astrophysical Observatory di Cambridge, in Massachusetts. Il team ha utilizzato il Center for High Angular Resolution Astronomy (Chara) Array dell’Osservatorio di Monte Wilson, nei pressi di Pasadena, per compiere le osservazioni. I risultati sono usciti martedì su The Astrophysical Journal. Obiettivo dello studio: misurare accuratamente l’orbita della compagna più vicina alla Stella Polare, un flebilissimo astro che le orbita attorno con un periodo di circa trent’anni. Per fare ciò i ricercatori hanno monitorato il sistema stellare per cinque anni, dal 2016 al 2021. Lo studio del moto ha consentito di stimare la massa della Stella Polare. Grosso quanto cinque soli sarebbe questo astro, che rientra dunque a buon diritto tra le stelle dette supergiganti. La sua luminosità sarebbe maggiore di quella predetta dai modelli per la famiglia di stelle di cui fa parte, le cefeidi, astri bizzarri che mutano la loro parvenza con regolarità. Esiste una relazione che lega il periodo di pulsazione alla luminosità di una cefeide. In virtù di questa proprietà le cefeidi sono dei formidabili indicatori di distanza. Quanto ci appare brillante un astro – ovvero la sua magnitudine apparente – dipende infatti da quanto è intrinsecamente brillante e da quanto è lontano dalla Terra. Misurando la magnitudine apparente e il periodo di pulsazione – e dunque la luminosità – potremo quindi stimare la distanza della stella (per la Stella Polare siamo a circa 450 anni luce dalla Terra). Gli indicatori di distanza godono di un’importanza cruciale in astrofisica, in quanto dalla stima delle distanze si può ottenere niente meno che il tasso di espansione dell’universo.

Per la prima volta sono state acquisite delle immagini dirette della superficie della Stella Polare. Grande stupore ha colto gli astronomi di fronte all’aspetto maculato con cui si è presentato il (non più così) familiare astro. Chiazze chiare e chiazze scure ne ammantano infatti la superficie. Una stella a pois, insomma. Tali straordinari dettagli sono visibili grazie alla tecnica dell’interferometria che, combinando le osservazioni di diversi telescopi, consente di ottenere una sopraffina risoluzione angolare. Il Chara Array è infatti il più potente interferometro nell’ottico e vicino infrarosso, con la risoluzione angolare equivalente a quella che avrebbe un telescopio con uno specchio dal diametro di 330 metri. Le macchie e la rotazione della stella potrebbero avere un legame con la variazione della velocità radiale che si osserva su un tempo scala di circa quattro mesi. Diversi scenari sull’origine delle macchie sono stati proposti, che potrebbero avere a che fare con il campo magnetico della stella. In futuro gli astronomi proveranno a ottenere nuove immagini della Stella Polare, per meglio comprendere il meccanismo che genera le macchie.

Chissà se alla prossima scampagnata notturna, quando spiegheremo a qualcuno come raggiungere la Stella Polare a partire dalle ultime due stelle del Grande Carro, ci ricorderemo di questa vicenda. Probabilmente no. O forse sì. E allora oltre alla storia delle orse, ai tormenti della sciagurata Callisto, tramutata in orsa dalla gelosia di Artemide e collocata fra gli astri per riscatto assieme al figlio, al fatto che dobbiamo prolungare di cinque volte la distanza fra Merak e Dubhe per raggiungerla, e che tra tredicimila anni la Stella Polare sarà Vega e che dunque questa stella variabile dell’Orsa Minore avrà esaurito il suo millenario momento di gloria, a fianco a queste avremo un’altra meravigliosa storia da raccontare.

Per saperne di più:


Rientro controllato del pioniere Cluster


18451287
18451289
La missione europea Cluster comprende quattro satelliti che volano in formazione tetraedrica e raccolgono i dati più dettagliati mai ottenuti sui cambiamenti su piccola scala nello spazio vicino alla Terra e sull’interazione tra le particelle cariche del vento solare e la magnetosfera terrestre. Crediti: Esa

L’8 settembre 2024, il primo satellite della missione Cluster dell’Agenzia spaziale europea (Esa) rientrerà nell’atmosfera terrestre in modo “mirato” sopra l’area disabitata dell’Oceano Pacifico meridionale. Dei quattro satelliti Cluster – soprannominati Rumba, Salsa, Samba e Tango – Salsa sarà il primo a bruciare nell’atmosfera terrestre. Il rientro della missione Cluster sarà il primo del suo genere, per garantire una fine “pulita” della missione che vada oltre gli standard internazionali, configurando l’Esa come leader mondiale nell’esplorazione spaziale sostenibile.

«A gennaio abbiamo messo a punto l’orbita di Salsa per fare in modo che l’8 settembre effettui la sua caduta finale da un’altitudine circa 110 km alla quota di 80 km», spiega il responsabile delle operazioni di Cluster Bruno Sousa dell’Esa. «Questo ci permette di avere il maggior controllo possibile sul punto in cui la sonda sarà catturata dall’atmosfera e inizierà a bruciare».

Nonostante la certezza che nessun frammento residuo cadrà vicino alla terraferma, sono ancora pochi i dati a disposizione degli scienziati sul comportamento dei veicoli spaziali durante l’attraversamento degli strati più bassi dell’atmosfera. Il rientro controllato dei satelliti Cluster rappresenta un’occasione molto utile per imparare a prevedere ancora meglio il momento e la posizione dei rientri dei satelliti e garantire la sicurezza degli esseri umani sulla Terra. L’Esa sta valutando anche la possibilità di osservare l’ingresso in atmosfera di Salsa e degli altri satelliti da un aereo, perché le loro traiettorie leggermente diverse e le differenti condizioni meteorologiche offriranno l’opportunità unica di condurre un esperimento di rientro per studiare la disgregazione dei satelliti.

18451291
In alto, infografica sul rientro dei quattro satelliti della missione Cluster. In basso, il percorso del satellite Salsa della missione Cluster sulla superficie terrestre previsto per l’8 settembre 2024. La traiettoria di rientro termina nell’Oceano Pacifico meridionale, a ovest del Cile (cliccare per ingrandire). Crediti: Esa

Con questo rientro mirato, l’Esa consacra Cluster da pioniere del monitoraggio meteorologico spaziale a pioniere della mitigazione dei detriti spaziali, due elementi chiave negli obiettivi di sicurezza spaziale europea. Senza un intervento mirato, i quattro satelliti Cluster sarebbero rientrati naturalmente in modo meno prevedibile, potenzialmente anche sopra una regione popolata. Inoltre, intervenendo in modo attivo sui rientri dei satelliti, l’Esa sta contribuendo a evitare un ulteriore aumento (già vertiginoso) della spazzatura spaziale in orbita intorno alla Terra.

Questo momento segnerà la fine della storica missione dopo oltre ventiquattro anni dal suo lancio, nel 2000. Considerato un pioniere della sicurezza spaziale, Cluster era stato lanciato per misurare l’ambiente magnetico terrestre, per studiare uno degli elementi chiave che rende la Terra un mondo abitabile: la magnetosfera, che come un enorme scudo magnetico ci protegge (in gran parte) dalla pioggia di particelle provenienti senza sosta dal Sole. Le raffiche di questo vento solare sono in ogni caso in grado di raggiungerci inviando una cascata di particelle energetiche verso la superficie terrestre, dando come risultato più comune le aurore boreali, e – più raramente – disturbi alle forniture di energia elettrica e alle comunicazioni radio. L’influenza del vento solare sull’ambiente magnetico della Terra – il cosiddetto tempo meteorologico spaziale – era un mistero prima delle conoscenze che la missione Cluster ci ha fornito.

Dopo il rientro di Salsa, gli altri tre satelliti Cluster rimanenti entreranno in modalità di sicurezza e, pur non effettuando misurazioni scientifiche, verranno monitorati per ridurre al minimo il rischio di collisione con altri satelliti o con la Terra stessa. L’assetto dell’orbita di Rumba verrà reso definitivo entro fine agosto, mentre a novembre verranno manovrati in modo analogo Samba e Tango, pronti per l’addio definitivo di Cluster nell’agosto 2026.


Luna e Terra in posa per Janus durante il flyby


18450879
18450881
La Luna ripresa dalla camera Janus a bordo della sonda Esa Juice. In prossimità del terminatore (la linea di separazione fra giorno e notte sulla superficie lunare) la luce solare è radente e questo permette di evidenziare dettagli preziosi per l’interpretazione geologica della superficie, se la dinamica dello strumento (la capacità dello strumento di separare molti livelli di intensità luminosa) è sufficientemente ampia. Crediti: team Janus (Inaf, Asi, Dlr, Csic-Iaa, OpenUniversity, Cisas-Università di Padova e altri partner internazionali)

Si chiama Janus la camera ottica che viaggia da oltre un anno a bordo della sonda Esa Juice (Jupiter Icy Moon Explorer) e nei giorni scorsi – durante il primo flyby del sistema Luna-Terra della storia – ha acquisito immagini straordinarie del nostro satellite naturale e del nostro pianeta. La fionda gravitazionale doppia è avvenuta con successo la notte tra il 19 e 20 agosto scorsi: tale manovra, mai realizzata in precedenza anche per i notevoli rischi, ha permesso a Juice di cambiare velocità e direzione di volo, preparando la sonda al successivo sorvolo ravvicinato di Venere previsto per agosto 2025.

«Dopo oltre 12 anni di lavoro per proporre, realizzare e verificare lo strumento, questa è la prima occasione per toccare con mano dati simili a quelli che acquisiremo nel sistema di Giove a partire dal 2031», dice Pasquale Palumbo, ricercatore all’Inaf di Roma e principal investigator del team che ha progettato, testato e calibrato la fotocamera Janus. «Anche se il flyby è stato pianificato esclusivamente per facilitare il viaggio interplanetario fino a Giove, tutti gli strumenti a bordo della sonda hanno approfittato del passaggio in prossimità di Luna e Terra per acquisire dati, provare operazioni e tecniche di elaborazione con il vantaggio di conoscere già cosa stavamo osservando».

«A poco più di un anno dal lancio di Juice, questo doppio passaggio ravvicinato ha rappresentato una pietra miliare per il viaggio della sonda verso la sua destinazione finale», commenta Angelo Zinzi, responsabile per l’Asi dello strumento Janus. «Oltre ad aver ottenuto l’assistenza gravitazionale richiesta, i vari strumenti sono stati accesi e hanno operato in modalità simili a quelle attese intorno a Giove e ai suoi satelliti: i dati sono stati ottenuti, inviati a terra e processati così come previsto, mostrando l’ottima preparazione dei team di strumento coinvolti. La camera nel visibile Janus e lo spettrometro Majis hanno inoltre sfruttato la possibilità di acquisire immagini quasi contemporanee con il satellite multispettrale Prisma dell’Asi. Dopo un lungo lavoro di preparazione tra i vari team coinvolti è stato infatti possibile ottenere una serie di osservazioni Prisma da poter confrontare con quelle di Janus e Majis: queste saranno molto utili per testare le procedure di calibrazione e l’accuratezza dei due strumenti di Juice coinvolti, così da rendere più robusto il lavoro scientifico futuro».

18450883
La Terra ripresa all’alba del 20 agosto 2024 dalla camera ottica Janus a bordo di Juice. Nell’immagine si vedono banchi di nuvole e l’Oceano Pacifico vicino alle Filippine. Le immagini di Janus della Terra, con diversi filtri, possono simulare quello che potremo una volta arrivati attorno a Giove: osservare diversi strati e componenti dell’atmosfera semplicemente cambiando filtro. Crediti: team Janus (Inaf, Asi, Dlr, Csic-Iaa, Open University, Cisas-Università di Padova e altri partner internazionali)

«Mentre la Luna offre il vantaggio di conoscere quello che osserviamo», spiega Palumbo, «il problema della Terra è la sua estrema variabilità temporale; si pensi alle nuvole che si muovono e cambiano nell’arco anche di minuti. Per ovviare a questo abbiamo pianificato osservazioni contemporanee con satelliti di osservazione della Terra: questo ci garantirà un termine di confronto».

La camera Janus è stata progettata per studiare la morfologia e i processi globali regionali e locali delle lune ghiacciate di Giove e per eseguire la mappatura delle nubi del gigante gassoso. Lo strumento è stato realizzato da un consorzio di industrie a guida Leonardo sotto la responsabilità dell’Agenzia spaziale italiana (Asi), ed è stata realizzata anche grazie alla collaborazione con l’agenzia tedesca Dlr, il Csic-Iaa di Granada e il Cei-Open University di Milton Keynes. La responsabilità scientifica dello strumento è dell’Istituto nazionale di astrofisica (Inaf). Lo strumento è equipaggiato con un sistema di 13 filtri (5 a banda larga e 8 a banda stretta) distribuiti nell’intervallo spettrale dal visibile al vicino infrarosso. Avere immagini della stessa zona in diversi filtri permette ai ricercatori di avere molto di più di semplici immagini a “colori”: le fotocamere che conosciamo acquisiscono le immagini con tre diversi filtri (rosso, verde e blu – o Rgb) depositati a scacchiera sullo stesso sensore, mentre Janus ne posiziona ben 13 davanti al rivelatore coprendo un intervallo più ampio di quello percepibile dall’occhio umano.

Lo scopo primario dei dati raccolti da Janus durante il doppio flyby è stato quello di valutare prestazioni e funzionalità dello strumento, non di eseguire misure scientifiche. Per questa ragione, le immagini – circa duecento della Luna e altrettante della Terra, ancora preliminari, non elaborate per un utilizzo scientifico – sono state acquisite a diversi intervalli temporali, con diversi filtri, numerosi fattori di compressione e altrettanti tempi di integrazione. «In alcuni casi», sottolinea Palumbo, «abbiamo provocato volontariamente un peggioramento della qualità utilizzando tempi di integrazione lunghi, ottenendo immagini per così dire “mosse”, in modo da testare algoritmi di recupero della risoluzione. In altri casi abbiamo parzialmente saturato l’immagine per studiare gli effetti indotti sulle zone non saturate. Abbiamo anche misurato per la prima volta e meglio del millesimo di grado l’allineamento fra il laser altimetro e la camera. Questo è un dato essenziale per integrare le risposte dei due strumenti».

«L’osservazione della superficie dei satelliti ghiacciati di Giove, come per la Luna, non è disturbata dall’atmosfera. Al contrario, Giove è una gigantesca, dinamica e turbolenta atmosfera. Le immagini di Janus della Terra, con diversi filtri, possono simulare quello che potremo fare a Giove: osservare diversi strati e componenti dell’atmosfera semplicemente cambiando filtro», conclude Palumbo conclude commentando le immagini della Terra raccolte all’alba del 20 agosto.

Janus permetterà l’acquisizione di immagini multi spettrali dei satelliti ghiacciati di Giove a una risoluzione e con una estensione 50 volte migliore delle camere inviate nel sistema gioviano in passato. La camera include anche un computer con un software che controlla tutte le funzionalità dello strumento, riceve i comandi e invia telemetria e dati a terra attraverso la grande antenna parabolica di Juice.

Tutte le operazioni si sono svolte secondo quanto programmato e, come confermato dalle telemetrie, completate con successo. Attualmente i dati che stanno piano piano arrivando a terra, anche da Rime, 3GM e Magis (gli altri strumenti italiani) sono al vaglio del team scientifico.

18450885
I dieci strumenti scientifici a bordo di Juice, tre dei quali sono stati sviluppati da team di ricerca a guida italiana: il radar Rime, la camera Janus, lo strumento di radioscienza 3Gm. Crediti: Esa

«L’insieme degli strumenti italiani a bordo della missione Juice è quanto di più tecnologicamente avanzato sia stato mai realizzato e consentirà di ottenere dei risultati scientifici di assoluta rilevanza consolidando la posizione di leadership raggiunta dall’Italia nell’ambito dell’esplorazione del Sistema solare», dice Barbara Negri responsabile dell’Ufficio volo umano e sperimentazione scientifica dell’Asi. «Infatti, la nostra agenzia ha coordinato e gestito, oltre alla realizzazione della camera Janus, la realizzazione del radar sotto-superficiale Rime, la realizzazione dell’esperimento di radio scienza 3GM e la realizzazione della testa ottica dello spettrometro Majis a guida francese».

Dopo il lancio della missione nell’aprile del 2023, le manovre gravitazionali previste nella tabella di marcia di Juice sono fondamentali per avvicinare sempre di più la sonda verso il sistema di lune gioviano, che dista in media 800 milioni di km dal nostro pianeta, con il minor dispendio di propellente. Il sorvolo di Venere nel 2025 spingerà Juice di nuovo verso la Terra. Gli altri flyby sono previsti a settembre 2026 e a gennaio 2029; l’arrivo su Giove è invece in programma per luglio 2031.

Fonte: comunicato stampa Inaf/Asi


Tutta l’acqua delle super-Terre


18423043
media.inaf.it/wp-content/uploa…
I pianeti con un oceano di magma che contengono acqua, come Gj 1214 b, ne ospitano solo una minima parte sulla loro superficie. La maggior parte di essa è immagazzinata nelle profondità del loro interno. Crediti: Nasa, Jpl-Caltech, R. Hurt

Sappiamo che la Terra ha un nucleo di ferro circondato da un mantello di silicati, e tanta acqua sulla superficie, per lo più sotto forma di oceani. Fino a oggi la scienza ha utilizzato questo semplice modello per studiare gli esopianeti, ossia pianeti in orbita attorno ad altre stelle.

La maggior parte degli esopianeti oggi conosciuti si trova vicino alla propria stella. Ciò significa che si tratta principalmente di mondi caldi con oceani di magma fuso che non si sono ancora raffreddati per formare un mantello solido, come nel caso della Terra. In questi oceani di magma, l’acqua si scioglie molto bene a differenza, per esempio, dell’anidride carbonica, che degassa rapidamente e sale nell’atmosfera. Il nucleo di ferro si trova sotto il mantello fuso di silicati.

Come si distribuisce l’acqua tra i silicati e il ferro? È proprio a questa domanda che Caroline Dorn, docente di esopianeti al Politecnico di Zurigo, Haiyang Luo e Jie Deng dell’Università di Princeton, hanno cercato di dare una risposta, con l’aiuto di modelli di calcolo basati su leggi fisiche fondamentali. I risultati sono stati presentati su Nature Astronomy.

«Il nucleo di ferro richiede tempo per svilupparsi. Una buona parte del ferro è inizialmente contenuta nella zuppa di magma caldo sotto forma di goccioline», spiega Dorn. L’acqua segregata in questa zuppa si combina con le goccioline di ferro e affonda con esse nel nucleo. «Le goccioline di ferro si comportano come un ascensore che viene trasportato verso il basso dall’acqua».

Finora questo comportamento era noto solo per pressioni moderate, del tipo di quelle che prevalgono anche sulla Terra. Non si sapeva cosa accadesse nel caso di pianeti più grandi con condizioni interne di pressione più elevate. «Questo è uno dei risultati chiave del nostro studio», dice Dorn. «Più grande è il pianeta e maggiore è la sua massa, più l’acqua tende ad andare con le goccioline di ferro e a integrarsi nel nucleo. In determinate circostanze, il ferro può assorbire fino a 70 volte più acqua dei silicati. Tuttavia, a causa dell’enorme pressione nel nucleo, l’acqua non assume più la forma di molecole di H2O ma è presente come idrogeno e ossigeno.

Questo studio ha trovato spunto dalle indagini sul contenuto d’acqua della Terra, che quattro anni fa hanno dato un risultato sorprendente: gli oceani sulla superficie terrestre contengono solo una piccola parte dell’acqua complessiva del nostro pianeta. Il contenuto di oltre l’80 degli oceani della Terra potrebbe essere nascosto al suo interno. Questo secondo simulazioni che hanno valutato il comportamento dell’acqua in condizioni simili a quelle che prevalevano quando la Terra era giovane. Gli esperimenti e le misurazioni sismologiche sono compatibili con il risultato delle simulazioni.

Le nuove scoperte sulla distribuzione dell’acqua nei pianeti hanno conseguenze drammatiche per l’interpretazione dei dati delle osservazioni astronomiche. Utilizzando telescopi spaziali e terrestri è possibile, in determinate condizioni, misurare il peso e le dimensioni di un esopianeta e usare questi calcoli per elaborare diagrammi massa-raggio che permettono di trarre conclusioni sulla composizione del pianeta. Se nel fare ciò – come è stato fatto finora – si ignorano la solubilità e la distribuzione dell’acqua, il volume dell’acqua può essere drammaticamente sottostimato, fino a dieci volte.

La distribuzione dell’acqua è importante anche per capire come si formano e si sviluppano i pianeti. L’acqua che è affondata nel nucleo rimane intrappolata lì per sempre. Tuttavia, quella disciolta nell’oceano magmatico del mantello può degassare e risalire in superficie durante il raffreddamento del mantello. «Quindi, se troviamo acqua nell’atmosfera di un pianeta, probabilmente ce n’è molta di più al suo interno», spiega Dorn. «I pianeti sono molto più ricchi d’acqua di quanto si sia sempre pensato».

Questo è ciò che il James Webb Space Telescope sta cercando di scoprire, essendo in grado di rintracciare le molecole nell’atmosfera degli esopianeti. «Solo la composizione dell’atmosfera superiore degli esopianeti può essere misurata direttamente», spiega Dorn. «Il nostro gruppo vuole stabilire un collegamento tra l’atmosfera e le profondità interne dei corpi celesti».

I nuovi dati dell’esopianeta Toi-270d sono particolarmente interessanti. «Sono state raccolte prove dell’effettiva esistenza di queste interazioni tra l’oceano di magma al suo interno e l’atmosfera», afferma Dorn. Nella sua lista di oggetti interessanti che desidera esaminare più da vicino c’è anche il pianeta K2-18b, che ha fatto notizia per la probabilità di vita su di esso.

L’acqua è uno dei presupposti per lo sviluppo della vita. Da tempo si specula sulla potenziale abitabilità di super-Terre ricche d’acqua, cioè di pianeti con una massa ben superiore a quella della Terra e con una superficie coperta da un profondo oceano globale. Allora i calcoli suggerirono che troppa acqua poteva essere ostile alla vita. L’argomentazione era che in questi mondi acquatici uno strato di ghiaccio esotico ad alta pressione avrebbe impedito lo scambio di sostanze vitali all’interfaccia tra l’oceano e il mantello del pianeta.

Il nuovo studio giunge ora a una conclusione diversa: i pianeti con strati d’acqua profondi sono probabilmente rari, poiché la maggior parte dell’acqua sulle super-Terre non si trova in superficie, come si era ipotizzato finora, ma è intrappolata nel nucleo. Questa conclusione sta portando gli scienziati a ipotizzare che anche i pianeti con un contenuto d’acqua relativamente alto potrebbero avere il potenziale per sviluppare condizioni di abitabilità simili a quelle della Terra.

Per saperne di più:


Dall’esterno con furore


18389007
18389009
Rappresentazione artistica di un grande asteroide che colpisce la Terra. Crediti: Nasa, con modifiche di Stephen Mojzsis

Se c’è un’estinzione di massa nota a tutti è senz’altro quella dei dinosauri, avvenuta circa 66 milioni di anni fa. Per la verità non furono solo i dinosauri a scomparire dalla scena dell’evoluzione, ma circa il 75 per cento delle specie viventi all’epoca. Questo evento è noto come estinzione del Cretaceo-Paleogene (o evento K-Pg), ed è uno dei pochi di cui sia stato possibile stabilire, con ragionevole certezza, anche la causa. La svolta per capire il perché di questa estinzione di massa, si ebbe nel 1980 in seguito alle analisi effettuate dal fisico e premio Nobel Luis Walter Alvarez su antichi sedimenti marini – databili fra 185 e 30 milioni di anni fa – affioranti nella Gola Del Bottaccione nell’Appennino umbro a poca distanza da Gubbio. Alvarez e colleghi scoprirono, infatti, la presenza di uno strato di argilla scura (databile a circa 66 milioni di anni fa), dello spessore di circa 1 cm, con una concentrazione di iridio circa 30 volte superiore al normale.

L’iridio è un metallo che appartiene agli elementi del gruppo del platino (Pge, Platinum Group Elements) che sono rutenio, rodio, palladio, osmio, iridio e platino. Si tratta di elementi altamente siderofili quindi sono inglobati nel nucleo terrestre e hanno una scarsa abbondanza nelle rocce crostali. Al contrario, i Pge hanno alte concentrazioni nella maggior parte dei materiali di origine extraterrestre perché provenienti da corpi non differenziati come sono gli asteroidi.

Da qui la formulazione dell’ipotesi che l’estinzione dei dinosauri fu causata dalla caduta di un asteroide di circa 10 km di diametro che alterò il clima terrestre portando all’estinzione dei meno adatti a sopravvivere. L’ipotesi di Alvarez e colleghi fu pubblicata in un famoso paper sulla rivista Science. Nel 1980 però non erano note strutture da impatto compatibili con questa ipotesi. Nel decennio successivo alla scoperta dell’anomalia dell’iridio, furono identificati depositi di detriti intorno al Golfo del Messico e ai Caraibi e il cratere da impatto dello scenario ipotizzato da Alvarez venne scoperto nel 1991: ora è noto come cratere di Chicxulub. Si tratta di una struttura circolare di circa 180-200 km di diametro, parzialmente sepolta al di sotto della penisola dello Yucatan. Il cratere non è direttamente visibile, ma la sua presenza può essere messa in evidenza dalle anomalie gravitazionali e magnetiche che genera. La massa totale di iridio dello strato K-Pg è stimabile in circa 250 milioni di kg e si può dimostrare che un asteroide con una composizione simile a quella di una condrite carbonacea del diametro di 10 km può depositare circa 230 milioni di kg di iridio, in buon accordo con quanto si osserva. Che fosse un corpo simile a una condrite carbonacea è provato anche dal recupero di una meteorite fossile di questo tipo dai sedimenti K-Pg che si trovano nell’Oceano Pacifico; inoltre, anche il rapporto fra i Pge, specialmente quello rodio/iridio è coerente con una condrite carbonacea.

18389011
Le variazioni della concentrazione relative dell’isotopo con numero di massa 100 del rutenio rispetto a quello con numero di massa 101 in funzione del campione analizzato. Il valore zero si riferisce alla crosta terrestre. Crediti Fischer-Gödde et al., Science, 2024.

Un paper recente pubblicato su Science torna sulla determinazione della natura dell’asteroide di Chicxulub utilizzando come “tracciante” la composizione isotopica del rutenio (Ru), che ha sette isotopi stabili con numeri di massa che vanno da 96 a 104. I ricercatori hanno scelto il Ru perché, in diversi gruppi di meteoriti, presenta composizioni isotopiche che differiscono tutte da quella terrestre e quindi può fungere da “impronta genetica” per determinare la sorgente della componente extraterrestre. Nel caso delle rocce da impatto terrestri, ci si aspetta che la firma isotopica del Ru dell’impattore sia preservata, anche se i rapporti di abbondanza con gli altri elementi Pge vengono modificati durante l’impatto o da successivi processi geologici. Se il Ru nello strato limite K-Pg e in altre strutture da impatto terrestri ha origine da corpi extraterrestri, allora la composizione isotopica sarà diversa da quella della Terra, ma simile a una delle classi associate di meteoriti. La cosa interessante è che le firme isotopiche del Ru tra i meteoriti dipendono dalla distanza eliocentrica dove si sono formati i rispettivi asteroidi nel Sistema Solare primordiale, quindi è possibile risalire alla natura dell’asteroide responsabile dell’impatto: si possono distinguere due classi principali di meteoriti, le condriti carbonacee e tutte le altre.

Utilizzando campioni dal confine K-Pg è stata così misurata la composizione isotopica del Ru per determinare le origini dell’impattore di Chicxulub. I campioni sono stati prelevati da diversi siti europei, per coprire tutta la possibile gamma dello strato di ejecta. Per confronto è stata applicata la stessa analisi ad altre strutture d’impatto del Fanerozoico, a strati di sferule legate ad antichi impatti dell’Archeano (da 3,5 a 3,2 miliardi di anni fa) e a due meteoriti carbonacee. Tutti i campioni dello strato limite K-Pg presentano le stesse variazioni della concentrazione relativa dell’isotopo 100 del Ru, praticamente indistinguibili l’una dall’altra. Le variazioni delle concentrazioni sono diverse dalle rocce terrestri, dalle condriti ordinarie o delle enstatiti, ma sono coerenti con la composizione media delle condriti carbonacee. In base a questo risultato l’impatto di Chicxulub è stato causato da un membro della popolazione degli asteroidi di tipo C che si sono formati nel Sistema Solare esterno. Lo stesso vale per le sferule legate agli antichi impatti dell’Archeano. Al contrario, per cinque delle sei strutture da impatto del Fanerozoico, le composizioni isotopiche del Ru e i rapporti fra i Pge sono molto simili a quelle delle condriti ordinarie, quindi gli impattori erano asteroidi di tipo S formatisi nel Sistema Solare interno. Questi risultati mostrano che negli ultimi 500 milioni di anni la Terra è stata colpita nell’80% dei casi da asteroidi di tipo S e che l’impatto di un asteroide come quello di Chicxulub è un evento unico nella scala del tempo geologico.

Anche se la composizione isotopica del Ru è compatibile con i valori medi delle condriti carbonacee, ci sono degli scostamenti significativi per quanto riguarda il gruppo CI. Le condriti carbonacee CI sono ricche di sostanze volatili: acqua, sostanze organiche e altri elementi leggeri ossia hanno una composizione simile a quella delle comete. Se le condriti CI sono un “proxy” per la materia cometaria, allora le misurazioni degli isotopi del Ru escludono un’origine cometaria per l’impatto di Chicxulub, come lo aveva già escluso il ritrovamento della meteorite fossile trovata nei sedimenti oceanici. Inoltre, i dati sul Ru escludono anche le eruzioni vulcaniche dei Trappi del Deccan come origine delle elevate concentrazioni di Pge all’interno del confine K-Pg, perché se l’anomalia fosse una conseguenza delle eruzioni avrebbe una composizione isotopica del Ru uguale a quella terrestre che è marcatamente diversa rispetto a quella delle condriti carbonacee.

Come si vede l’analisi degli isotopi del rutenio dello strato K-Pg ha confermato che l’asteroide responsabile di Chicxulub era di tipo C, quindi proveniente dal Sistema Solare esterno, che non era una cometa e che i Trappi del Deccan non hanno avuto nessun ruolo nell’estinzione di massa di 66 milioni di anni fa.

Per saperne di più:


L’evoluzione del sistema planetario Trappist-1


18388813
18388815
Tutti e sette i pianeti scoperti in orbita attorno alla stella nana rossa Trappist-1 potrebbero facilmente rientrare nell’orbita di Mercurio, il pianeta più interno del Sistema solare. Inoltre, Trappist-1 è solo una frazione delle dimensioni del Sole; non è molto più grande di Giove. Quindi, le proporzioni del sistema Trappist-1 assomigliano più a Giove e alle sue lune che a quelle del nostro sistema solare. Crediti: Nasa/Jpl-Caltech/R. Hurt, T. Pyle (Ipac)

I pianeti sono corpi che orbitano intorno a una stella (vagabondi a parte), con una massa gravitazionale tale da conferire loro una forma approssimativamente sferica e che, a loro volta, esercitano una forza gravitazionale su oggetti più piccoli, come asteroidi e lune. Per la maggior parte della storia dell’umanità, gli unici pianeti che i nostri antenati conoscevano erano quelli che potevano vedere nel cielo notturno. Negli ultimi 30 anni, però, sono stati sviluppati telescopi abbastanza sensibili da poter dedurre la presenza di esopianeti, ossia pianeti al di fuori del Sistema solare.

Gli esopianeti sono, ovviamente, molto più difficili da osservare direttamente rispetto alle stelle e alle galassie. Quasi tutte le scoperte di esopianeti, in particolare a partire dal 2010, si sono basate su misure fotometriche (la quantità di luce ricevuta) delle stelle ospiti, piuttosto che dei pianeti stessi. Si tratta del cosiddetto metodo del transito. Ora, con l’aiuto del telescopio spaziale Spitzer, che ha effettuato il primo rilevamento di esopianeti nel 2005, del telescopio spaziale Kepler/KW, progettato specificamente per la ricerca di esopianeti, e del telescopio spaziale James Webb, lanciato nel 2021, il metodo del transito e altre tecniche hanno confermato l’esistenza di oltre 5mila esopianeti che abitano migliaia di sistemi stellari.

«Quando avevamo solo il nostro sistema solare da analizzare, si poteva semplicemente supporre che i pianeti si fossero formati nei luoghi in cui li troviamo oggi», dice Gabriele Pichierri, ricercatore associato al Caltech. «Tuttavia, quando nel 1995 abbiamo scoperto il primo esopianeta, abbiamo dovuto riconsiderare questa ipotesi. Stiamo sviluppando modelli migliori per capire come si formano i pianeti e come vengono a trovarsi negli orientamenti in cui sono».

La maggior parte degli esopianeti si forma dal disco di gas e polvere attorno a stelle appena formate e si prevede che migri avvicinandosi al confine interno di questo disco. In questo modo si formano sistemi planetari molto più vicini alla stella ospite rispetto al Sistema solare.

In assenza di altri fattori, i pianeti tendono a distanziarsi l’uno dall’altro a distanze caratteristiche che dipendono dalle loro masse e dalle forze gravitazionali tra i pianeti e la loro stella ospite. «Questo è il processo di migrazione standard», spiega Pichierri. «Le posizioni dei pianeti formano risonanze tra i loro periodi orbitali. Se si prende il periodo orbitale di un pianeta e lo si divide per il periodo orbitale del pianeta vicino, si ottiene un rapporto di numeri interi semplici, come 3:2». Quindi, ad esempio, se un pianeta impiega due giorni per orbitare intorno alla sua stella, il pianeta successivo, più lontano, ne impiegherà tre. Se anche il secondo pianeta e un terzo più lontano sono in risonanza 3:2, il periodo orbitale del terzo pianeta sarà di 4,5 giorni.

Il sistema planetario di Trappist-1, che ospita sette pianeti e si trova a circa 40 anni luce dalla Terra, è speciale per diverse ragioni. «I pianeti esterni si comportano correttamente, per così dire, con le risonanze più semplici che ci si aspetta», dice Pichierri. «Ma quelli interni hanno risonanze un po’ più piccanti». Ad esempio, il rapporto tra le orbite dei pianeti b e c è di 8:5, mentre quello tra c e d è di 5:3. «Questa piccola discrepanza nel risultato della formazione di Trappist-1 è sconcertante e rappresenta un’ottima opportunità per capire nel dettaglio quali altri processi sono entrati in gioco nel suo assemblaggio», afferma.

«Inoltre, si pensa che la maggior parte dei sistemi planetari sia nata in questi stati di risonanza, ma abbia incontrato instabilità significative nel corso della propria vita prima di essere osservata oggi», spiega Pichierri. «La maggior parte dei pianeti diventa instabile o si scontra l’uno con l’altro, e tutto viene rimescolato. Il nostro sistema solare, ad esempio, è stato colpito da una simile instabilità. Ma conosciamo alcuni sistemi che sono rimasti stabili, che sono più o meno esemplari immacolati. Essi, in effetti, mostrano un record della loro intera storia dinamica che possiamo poi tentare di ricostruire. Trappist-1 è uno di questi».

La sfida è stata quindi quella di sviluppare un modello che potesse spiegare le orbite dei pianeti di Trappist-1 e come hanno raggiunto la loro configurazione attuale.

Il modello a cui sono giunti i ricercatori suggerisce che i quattro pianeti interni si sono inizialmente evoluti da soli nella catena di risonanza 3:2 prevista. Solo quando il confine interno del disco si è espanso verso l’esterno, le loro orbite si sono rilassate, rompendo il rapporto 3:2 nella configurazione che osserviamo oggi. Il quarto pianeta, che originariamente si trovava sul confine interno del disco, spostandosi più in là insieme a esso, è stato poi spinto verso l’interno quando altri tre pianeti esterni si sono uniti al sistema planetario in una fase successiva.

«Osservando Trappist-1, siamo riusciti a verificare nuove ipotesi sull’evoluzione dei sistemi planetari», conclude Pichierri. «Trappist-1 è molto interessante perché è molto intricato; è una lunga catena planetaria. Ed è un ottimo esempio per testare teorie alternative sulla formazione dei sistemi planetari».

Per saperne di più:

Guarda il video del Caltech sulle orbite del sistema planetario di Trappist-1:

youtube.com/embed/yAkecViyAts?…


All’origine dei meteoriti marziani giunti sulla Terra


18384824
18384826
Crediti: Maria Dirks/U. Alberta

Seguire un meteorite a ritroso fino a trovare il punto esatto sulla superficie marziana dal quale si è staccato. È quello che hanno fatto – in maniera meno romanzata, ovviamente – un gruppo di ricercatori per circa la metà dei duecento meteoriti marziani raccolti sulla Terra, ed espulsi durante circa dieci impatti sulla superficie del Pianeta rosso. Lo studio è stato pubblicato la settimana scorsa su Science Advances.

I meteoriti marziani altro non sono che rocce che si staccano dalla superficie del pianeta in seguito a un impatto. Se, in seguito all’impatto, queste rocce vengono accelerate fino a superare la velocità di fuga del pianeta su cui si trovano (in questo caso Marte), possono uscire dal suo campo gravitazionale e mettersi in orbita attorno al Sole. Da qui, alcuni pezzi finiscono per essere catturati dalla gravità della Terra e cadono sul nostro pianeta come meteoriti. Eventi simili sono accaduti circa dieci volte nella storia recente di Marte.

«Pensiamo di aver trovato i crateri di origine per la metà di tutti i dieci gruppi di meteoriti marziani, e questo cambierà radicalmente il modo in cui li studiamo», commenta Chris Herd, curatore della Collezione di meteoriti dell’Università di Los Angeles e primo autore dell’articolo. L’esplosione che genera i meteoriti, infatti, lascia un cratere da impatto sulla superficie di Marte. Quelli presenti nelle regioni Tharsis ed Elysium, secondo Herd e coautori, sarebbero proprio i luoghi di provenienza di molti dei meteoriti giunti sulla terra.

Ma c’è di più. La promessa pronunciata dallo scienziato si riferisce al fatto che questo studio, combinando osservazioni e modelli, ha messo a punto un metodo per determinare la provenienza dei meteoriti applicabile in futuro ad altri corpi.

«L’idea di prendere un gruppo di meteoriti che sono stati espulsi tutti nello stesso momento e poi fare studi mirati su di essi per determinare dove si trovavano prima di essere espulsi – questo per me è l’emozionante passo successivo».

Lo studio pubblicato ha determinato che i gruppi di meteoriti accoppiati all’espulsione derivano da flussi di lava non più profondi di 26 metri sulla superficie di Marte, permettendo di associare gruppi di meteoriti accoppiati all’espulsione a specifici crateri di origine e unità geologiche, e fornendo così un contesto per inquadrarli nel loro territorio di provenienza, e per vincolare – grazie agli studi microscopici – l’età delle unità geologiche di origine. Nello studio, inoltre, si dimostra che ci sono crateri che potrebbero aver prodotto meteoriti marziane non ancora presenti nelle collezioni mondiali di meteoriti e che devono ancora essere scoperte.

Con queste nuove conoscenze in mano, ora, sembra inevitabile guardare alle meteoriti marziani con occhi diversi. “È la cosa più vicina a quella che possiamo avere andando davvero su Marte e raccogliendo una roccia”, dice Herd.

Per saperne di più:


Juice ha compiuto con successo il flyby Luna-Terra


18384255
18384257
Una delle immagini acquisite dalla fotocamera Juice monitoring camera 2 (Jmc2) della sonda Juice dell’Esa la notte del 19 agosto 2024, alle 23:15 ora italiana, nel corso della prima fase del flyby Luna-Terra – una manovra mai tentata prima nella storia, necessaria per instradare correttamente Juice verso la sua destinazione finale: Giove e le sue lune ghiacciate. Guardando attentamente di può intravedere anche la Terra, che appare come un cerchio scuro in alto al centro dell’immagine mentre fa capolino dietro alla struttura della sonda. Crediti: Esa/Juice/Jmc

La missione dell’Esa Juice (Jupiter Icy Moons Explorer) per l’esplorazione delle lune ghiacciate di Giove ha completato con successo il primo sorvolo della Luna e della Terra della storia, sfruttando la gravità della Terra per spingersi verso Venere, prendendo una scorciatoia per Giove attraverso il Sistema solare interno. Il momento di maggior vicinanza alla Luna ha avuto luogo alle 23:15 ora italiana di lunedì 19 agosto. Questa prima manovra ha guidato Juice verso un secondo avvicinamento, questa volta alla Terra, poco più di 24 ore dopo, alle 23:56 ora italiana di martedì 20 agosto. Mentre volava a soli 6807 km sopra il sud-est asiatico e l’Oceano Pacifico, Juice ha scattato una serie di immagini con le sue telecamere di monitoraggio e ha raccolto dati scientifici con otto dei dieci strumenti presenti a bordo.

«Il sorvolo della fionda gravitazionale è stato impeccabile, tutto ha avuto luogo senza complicazioni e siamo stati entusiasti di vedere Juice riavvicinarsi tanto al nostro pianeta», dice Ignacio Tanco, responsabile delle operazioni del veicolo spaziale per la missione.

Lo scopo del sorvolo era quello di deviare il percorso di Juice attraverso lo spazio, sfruttando la gravità rispettivamente della Luna e della Terra per cambiare la velocità e la direzione del veicolo spaziale. Il sorvolo lunare ha aumentato la velocità di Juice di 0,9 km/s relativamente al Sole, dirigendo il veicolo spaziale verso la Terra. Il sorvolo della Terra ha ridotto la velocità di Juice di 4,8 km/s relativamente al Sole, guidando il veicolo spaziale su una nuova traiettoria verso Venere. Nel complesso, la manovra ha deviato Juice di un angolo di 100° rispetto al percorso precedente al sorvolo.

18384259
Immagine acquisita dalla Juice monitoring camera 1 (Jmc1) alle 23:48 ora italiana di martedì del 20 agosto 2024, mentre Juice si dirigeva verso il suo massimo avvicinamento alla Terra. Il flyby di successo con la Terra ha reindirizzato il percorso di Juice nello spazio, in rotta verso un flyby di Venere nell’agosto 2025. Crediti: Esa/Juice/Jmc

Il sorvolo, intrinsecamente rischioso, ha richiesto una navigazione ad altissima precisione in tempo reale. Tale rischio calcolato ha permesso di far risparmiare alla missione circa 100-150 kg di carburante. Nel mese che ha preceduto il sorvolo, gli operatori dei veicoli spaziali hanno dato a Juice lievi impulsi per posizionarlo esattamente sulla giusta traiettoria di avvicinamento. In seguito, hanno monitorato Juice costantemente tra il 17 e il 22 agosto.

Grazie all’impeccabile lancio di Ariane 5 nell’aprile 2023, Juice dispone di una quantità di carburante nei serbatoi leggermente maggiore a quanto originariamente previsto per la manovra di avvicinamento a Ganimede, la luna di Giove. Il successo del sorvolo della Luna e della Terra renderà possibile questo esperimento scientifico accessorio.

«Grazie alla navigazione molto precisa del team di dinamica di volo dell’Esa», aggiunge Tanco, «siamo riusciti a utilizzare solo una piccola frazione del propellente riservato a questo sorvolo. Questo si aggiunge ai margini che manteniamo per ogni evenienza, o per estendere la missione scientifica una volta arrivati su Giove».

Un primo assaggio di scienza nello spazio

L’obiettivo principale era quello di alterare la traiettoria di Juice, ma il sorvolo della Luna e della Terra ha anche fornito l’opportunità di testare gli strumenti scientifici di Juice nello spazio. Infatti, dei dieci strumenti a bordo, dieci erano accesi durante il sorvolo lunare e otto erano accesi durante il sorvolo terrestre. L’Esa prevede di pubblicare immagini e spettri raccolti da alcuni degli strumenti di Juice nelle prossime settimane, non appena saranno scaricati dal veicolo spaziale e valutati dagli scienziati addetti alla strumentazione. Fra queste, ci saranno anche immagini ad alta risoluzione della Luna e della Terra ottenute con fotocamera scientifica di Juice, Janus.

18384261
Gli strumenti scientifici a bordo di Juice, tre dei quali a guida italiana, realizzati dall’Asi in collaborazione con la comunità scientifica e l’industria nazionale: il radar Rime, la camera Janus e lo strumento di radio scienza 3Gm, ai quali si aggiunge un quarto strumento, lo spettrometro Majis, a leadership francese realizzato attraverso un accordo bilaterale tra l’Asi e l’agenzia spaziale francese Cnes. ed è composto da varie unità: la parte digitale è stata realizzata in Italia da Thales Alenia
Space sotto la guida dell’Agenzia spaziale italiana (Asi). Italiani sono anche i Principal Investigator del radar:
Lorenzo Bruzzone dell’Università di Trento, che ha la responsabilità scientifica, e Francesca Bovolo della
Fondazione Bruno Kessler, responsabile della parte strumentale. I dati scientifici che Rime raccoglierà saranno
condivisi anche con il Jet Propulsion Laboratory (Jpl) della Nasa. Crediti: Esa

«La tempistica e la posizione di questo doppio sorvolo ci permettono di studiare a fondo il comportamento degli strumenti di Juice», osserva Claire Vallat, operation scientist di Juice. «Il fatto che questo flyby sia avvenuto abbastanza presto nel corso del viaggio di Juice ci permette di usare i dati per preparare gli strumenti prima dell’arrivo su Giove. E considerato quanto conosciamo bene le proprietà fisiche della Terra, della Luna e dell’ambiente spaziale circostante, è avvenuto anche nel luogo ideale per capire come gli strumenti rispondono a un obiettivo reale».

Il passo successivo: Venere

Questo sorvolo della Luna e della Terra ha di fatto ridotto l’energia di Juice, reindirizzandolo verso l’incontro con Venere previsto tra un anno, ad agosto 2025. Il sorvolo di Venere riporterà Juice a riavvicinarsi alla Terra: la sonda sorvolerà nuovamente il nostro pianeta una prima volta a settembre 2026 e di nuovo a gennaio 2029, beneficiando di altre due spinte prima dell’arrivo su Giove, previsto per luglio 2031.

Fonte: press release Esa


Implicazioni della supertempesta di Gannon


18360526
18360528
Foto dell’aurora boreale scattata dalla fotografa professionista Giorgia Hofer il 10 maggio ore 22:34. Luogo: Casera Razzo, Dolomiti, Vigo di Cadore (BL). Crediti: G. Hofer

L’11 maggio scorso una splendida aurora ha tinteggiato i cieli del sud degli Stati Uniti (e, la sera del 10, anche quelli di molte regioni italiane). Nello stesso fine settimana, un trattore a guida autonoma nel Midwest ha dovuto interrompere la semina del raccolto per problemi con il Gps. Le due cose sono in qualche modo collegate?

Secondo due articoli pubblicati recentemente su Geophysical Research Letters, la risposta è sì e il motivo è da ricercarsi in una tempesta geomagnetica eccezionalmente potente. Di fatto, quella avvenuta tra il 10 e l’11 di maggio è stata la tempesta geomagnetica più forte degli ultimi vent’anni, conosciuta come tempesta di Gannon, in memoria di Jennifer Gannon, scienziata del Noaa Space Weather Prediction Center scomparsa una settimana prima dell’evento. Il primo studio, guidato da Deepak Karan dell’Università del Colorado, Boulder, riporta i cambiamenti senza precedenti nella posizione e nella diffusione delle particelle nell’alta atmosfera. Il secondo studio, condotto da Scott Evans del Virginia Tech, documenta i cambiamenti di composizione atmosferica e di temperatura.

«L’aurora boreale è causata da particelle cariche ed energetiche che colpiscono la nostra atmosfera superiore e che sono influenzate da numerosi fattori nello spazio, tra cui il Sole», spiega Scott England del Virginia Tech, professore associato presso il Kevin T. Crofton Department of Aerospace and Ocean Engineering, in una news uscita su Virginia Tech News a firma Florence Gonsalves. «Durante le tempeste geomagnetiche solari, le particelle cariche energetiche sono molto più numerose nello spazio intorno alla Terra, per cui si assiste a una maggiore luminosità dell’aurora boreale e la regione su cui è possibile vederla si allarga fino a includere luoghi come i 48 stati a latitudini più basse che di solito non vedono questo spettacolo».

Tra i dati raccolti, England ha osservato per la prima volta alcuni “pattern vorticosi” e un’importante circolazione d’aria lontano dall’aurora che ha causato la formazione di enormi vortici che hanno spostato l’aria in una spirale più grande di un uragano. In particolare, i ricercatori hanno osservato: un movimento imprevedibile di particelle cariche a bassa energia dall’equatore verso l’aurora; particelle cariche a bassa e ad alta energia; cambiamenti di temperatura e pressione che probabilmente portano ai vortici osservati; cambiamenti nella posizione e nella diffusione delle particelle a bassa energia, che possono avere un impatto negativo su Gps, satelliti e persino sulla rete elettrica.

«Quando l’aurora si intensifica, si vedono più luci, ma nell’atmosfera entra anche più energia che rende l’atmosfera vicino ai poli molto calda, iniziando a spingere l’aria lontano dai poli e verso l’equatore», continua England. «Questi dati pongono molte domande, come ad esempio: durante questa tempesta geomagnetica è successo qualcosa di veramente diverso rispetto a quanto accaduto in precedenza, oppure abbiamo semplicemente strumenti migliori per misurare i cambiamenti?».

Inoltre, cosa potrebbero comportare questi cambiamenti per la tecnologia umana che orbita in quella regione dell’atmosfera?

L’atmosfera superiore della Terra, che si estende da circa un centinaio a 640 chilometri sopra di noi, confina con lo spazio ed è la zona in cui risiedono satelliti e la Stazione spaziale internazionale. L’atmosfera superiore è composta da alcune delle stesse particelle dell’atmosfera inferiore, dove viviamo e respiriamo. Ma ha anche una parte, la ionosfera, che può essere considerata quasi come una “coperta elettrica”, molto carica e in costante fluttuazione. Le particelle cariche nella ionosfera sono una delle caratteristiche che rendono questa regione dello spazio così dinamica. È normale che la temperatura e la composizione dell’atmosfera superiore e della ionosfera cambino. In effetti, il cambiamento è prevedibile durante il giorno e la notte, e cambia anche in base alle stagioni.

18360530
Scott England, coautore di entrambi gli studi pubblicati su Geophysical Research Letters. Crediti: Ben Murphy, Virginia Tech

Poiché i segnali radio e Gps viaggiano attraverso questa “coperta elettrica” in costante oscillazione, i cambiamenti in questo strato dell’atmosfera possono disturbare i segnali e ostacolare i sistemi di navigazione e comunicazione come il Gps. Diversi fattori, sia meteorologici terrestri che spaziali, possono avere un impatto su questo strato, ma c’è ancora molto da imparare sul perché si verifichino cambiamenti nell’atmosfera superiore e inferiore e su come possano avere un impatto sulla vita come la conosciamo.

Le particelle nell’atmosfera terrestre sono influenzate da numerosi fattori nello spazio, tra cui l’attività del Sole. Durante una tempesta geomagnetica solare, un’intensa esplosione di radiazioni solari modifica la composizione e la velocità delle particelle nell’atmosfera terrestre. Allora perché negli ultimi mesi in tutto il mondo l’aurora boreale è stata visibile in luoghi dove non era mai stata vista prima?

«Il numero di macchie solari, brillamenti e tempeste cambia seguendo un ciclo di 11 anni, che chiamiamo ciclo solare», ricorda England. «Il numero di brillamenti che stiamo vedendo è aumentato gradualmente negli ultimi due anni, mentre ci avviciniamo al picco del ciclo solare».

«Queste tempeste possono anche incrementare le correnti elettriche che scorrono intorno alla Terra, il che può avere un impatto sui dispositivi tecnologici che utilizzano cavi molto lunghi. Negli ultimi anni, si sono verificati impatti sulla rete elettrica quando una corrente eccessiva scorreva attraverso i cavi. Durante la più grande tempesta geomagnetica mai registrata, l’evento di Carrington del 1859, queste hanno causato l’incendio dei sistemi telegrafici, tecnologia di punta dell’epoca», racconta England.

Gli scienziati sospettano che una tempesta simile all’evento di Carrington, se si verificasse oggi, potrebbe causare un’apocalisse di Internet, mandando offline un gran numero di persone e aziende. Sebbene la tempesta dell’11 maggio non abbia causato drastiche interruzioni, manca ancora un anno al picco del ciclo solare previsto per luglio 2025.

«Uno dei motivi per cui studiamo le tempeste geomagnetiche è cercare di costruire modelli per prevederne l’impatto», conclude England. «In base al ciclo solare, ci aspettiamo che le condizioni che stiamo vedendo quest’anno saranno presenti per i prossimi due anni».

Per saperne di più:


Terraformare Marte con nanoparticelle ad hoc


18358482
18358484
Immagine di Marte prodotta unendo più foto scattate dal Mars Global Surveyor Orbiter della Nasa. Crediti: Nasa/Jpl/Msss

L’ambizione di riuscirci è tale che ha un verbo tutto per sé: terraformare. Vale a dire, rendere abitabile un mondo che non lo è. E il primo candidato alla terraformazione – almeno sin dagli anni Settanta, quando a proporla era niente meno che Carl Sagan – è senza alcun dubbio Marte: visto che sul Pianeta rosso di vita non se n’è mai trovata traccia, perlomeno fino a oggi, perché non passare dall’osservazione all’azione, dando una spintarella alla natura, e vedere che succede?

Per alcuni un incubo. Per altri un sogno. Per il team guidato da Samaneh Ansari (Northwestern University, Usa) ed Edwin Kite (University of Chicago, Usa) una sfida scientifica e tecnologica per la quale i tempi potrebbero essere maturi. Il metodo da loro proposto per riscaldare Marte, illustrato questo mese su Science Advances, promette di avere un’efficienza cinquemila volte superiore – dicono gli autori – ad altri basati sullo stesso approccio: innescare un effetto serra artificiale.

Come? Invece di tentare di sprigionare gas serra o di avvolgere il pianeta con un aerogel, per citare due ipotesi avanzate negli anni passati, a intrappolare il calore sarebbero nanoparticelle ingegnerizzate a partire da materiali presenti in situ e disperse in atmosfera. Nanoparticelle a base di ferro e alluminio, elementi dei quali è ricca – come ha rilevato Curiosity – la polvere marziana. Polvere che presa così com’è non sarebbe adatta allo scopo, anzi, rischierebbe di raffreddare ulteriormente il pianeta. Ma ingegnerizzate in modo opportuno così da far loro assumere una forma ad hoc, non dissimile da quella dei glitter per uso cosmetico, le particelle di polvere riuscirebbero a intrappolare il calore in uscita dal pianeta sotto forma di raggi infrarossi e a disperdere la luce solare verso il suolo, potenziando così il debole effetto serra naturale di Marte.

18358486
Infografica del metodo proposto da S. Ansari et al. (cliccare per ingrandire). Crediti: Aaron M. Geller, Northwestern, Center for Interdisciplinary Exploration and Research in Astrophysics + It-Rcds

«Il modo in cui la luce interagisce con oggetti di dimensioni inferiori alla sua lunghezza d’onda è affascinante», nota a questo proposito Asnari. «L’ingegnerizzazione delle nanoparticelle può portare a effetti ottici che superano di gran lunga ciò che ci si aspetta convenzionalmente da particelle così piccole».

Proprio come la polvere naturale di Marte, anche queste particelle verrebbero sospinte verso l’alto, disperdendosi nell’atmosfera marziana. E stando ai modelli, ipotizzando una durata di vita media delle particelle di dieci anni, un rilascio ininterrotto con un flusso di 30 litri al secondo porterebbe a un innalzamento globale della temperatura del pianeta di circa trenta gradi, da una media di -63 °C a -33 °C, favorendo così lo scioglimento dei ghiacci. I primi effetti, sottolineano gli autori, potrebbero essere percepibili nell’arco di alcuni mesi appena. E il riscaldamento sarebbe in ogni caso reversibile, arrestandosi nel giro di pochi anni se il rilascio venisse interrotto.

Certo non stiamo parlando di condizioni adatte alla sopravvivenza di esseri umani, e in ogni caso il freddo e la mancanza di acqua allo stato liquido non sarebbero gli unici ostacoli alla colonizzazione: rimarrebbe il problema della carenza d’ossigeno, per esempio, per non parlare dei raggi ultravioletti. Ma alcuni microbi potrebbero riuscire a cavarsela, e a seguire alcune specie vegetali – e poi chissà. Non solo: come sottolinea uno dei coautori dello studio, Hooman Mohseni della Northwestern University, la ricerca è appena agli inizi. «Riteniamo che sia possibile progettare nanoparticelle con un’efficienza ancora più elevata», dice, «e in grado persino di cambiare dinamicamente le loro proprietà ottiche».

Le incognite sono però ancora numerose. Per esempio non è affatto chiara la rapidità con la quale la polvere ingegnerizzata lascerebbe l’atmosfera marziana, oppure finirebbe per riprecipitare al suolo – con la pioggia – una volta che il vapor d’acqua si condensasse attorno alle particelle. «Modellare con precisione i feedback climatici è davvero difficile», avverte Kite. «Per implementare qualcosa di simile a quanto proponiamo, avremmo bisogno di più dati sia da Marte che dalla Terra, e dovremmo procedere con lentezza e in modo reversibile, così da garantire che gli esiti siano effettivamente quelli previsti».

Per saperne di più:


La chioma di Berenice legata dalla materia oscura


18322635
La Dark Energy Camera ha catturato questa immagine dell’ammasso della Chioma (o Coma cluster, in inglese, conosciuto anche come Abell 1656), un ammasso di galassie che si trova a circa 350 milioni di anni luce, in direzione della costellazione della Chioma di Berenice. L’ammasso prende il nome dai capelli della regina Berenice II d’Egitto, che nel III secolo a.C. sposò Tolomeo III. Pochi giorni dopo le nozze, lo sposo partì per la guerra e Berenice fece voto di tagliarsi i capelli in segno di gratitudine verso gli dèi se il marito fosse tornato vittorioso. Quando Tolomeo tornò sano e salvo, mantenne la promessa e depose i suoi capelli nel tempio. Ma il giorno dopo le sue trecce non c’erano più e la mitologia narra che la chioma di Berenice salì in cielo, vicino alla coda del Leone.

18322637
L’immagine mostra l’enorme ammasso di galassie della Chioma. I dati utilizzati per realizzarla sono stati raccolti dalla Dark Energy Camera (DeCam), montata sul telescopio di 4 metri della National Science Foundation (Nsf) statunitense Víctor M. Blanco presso l’Osservatorio Interamericano di Cerro Tololo, un programma del NoirLab della Nsf. La fotocamera da 570 megapixel è stata costruita per realizzare la Dark Energy Survey (Des), un’incredibile serie di osservazioni di 758 notti tra il 2013 e il 2019, il cui scopo è comprendere la natura dell’energia oscura. Crediti: Ctio/ Noirlab/ Doe/ Nsf/ Aura/ D. de Martin & M. Zamani (Nsf Noirlab)

La chioma di Berenice non è importante solo nella mitologia greca: questo insieme di galassie è stato fondamentale per la scoperta dell’esistenza della materia oscura. Quasi un secolo fa, nel 1937, l’astronomo svizzero Fritz Zwicky osservò diverse galassie all’interno dell’ammasso della Chioma e calcolò un’approssimazione della massa dell’ammasso in base alle strutture luminose osservate. Fu allora che si accorse di qualcosa di strano: le galassie all’interno dell’ammasso si comportavano come se l’ammasso contenesse una massa 400 volte superiore a quella suggerita dalle sue stime. In altre parole, sembrava esserci una massa “invisibile”. Questo lo portò a postulare che l’ammasso doveva essere tenuto insieme da grandi quantità di materia “oscura” non osservabile, ma la sua ipotesi sembrò inverosimile a gran parte della comunità astronomica.

Solo negli anni ’80 la maggioranza degli astronomi si convinse dell’esistenza della materia oscura, quando uscirono diversi studi che riportavano la stessa curiosa incongruenza di massa osservata da Zwicky, ma sulla scala di singole galassie piuttosto che di interi ammassi di galassie. Uno di questi studi è stato condotto nel 1970 dagli astronomi statunitensi Kent Ford e Vera C. Rubin, che hanno trovato prove di materia invisibile nella galassia di Andromeda. Nel 1979, gli astronomi Sandra Faber e John Gallagher hanno effettuato un’analisi approfondita del rapporto massa-luce di oltre cinquanta galassie a spirale ed ellittiche, che li ha portati a concludere che “la tesi della massa invisibile nell’universo è molto forte e si sta rafforzando”.

Oggi, l’esistenza della materia oscura e dell’energia oscura è ormai ampiamente accettata e la comprensione della loro natura è uno degli obiettivi principali dell’astrofisica moderna. Un aiuto in questo senso arriverà certamente dall’imminente Legacy Survey of Space and Time (Lsst), che sarà condotta dall’osservatorio Vera C. Rubin – dal nome dell’astronoma che ha contribuito a dimostrare che l’universo è molto più di quanto sembri. Proprio recentemente, nel maggio di quest’anno, dopo vent’anni di lavoro, la fotocamera di Lsst è stata consegnata in Cile: si tratta della più grande fotocamera per l’astrofisica mai costruita, e contribuirà a svelare i misteri dell’universo fotografando, ininterrottamente per dieci anni, l’intero cielo australe.


Stelle a flare più letali del previsto


18318231
18318233
Gli estesi gruppi di macchie solari, di cui i due maggiori visibili a occhio nudo, dell’11 agosto 2024 associati ad altrettante regioni attive (cliccare per ingrandire). Crediti: A. Carbognani/Inaf-Oas

I brillamenti stellari consistono in un’intensa emissione localizzata di radiazione elettromagnetica nell’atmosfera di una stella: si tratta di eventi analoghi a quelli che avvengono nel Sole. Nella nostra stella i brillamenti sono causati dal rilascio improvviso dell’energia accumulata nei campi magnetici fotosferici tramite eventi di riconnessione magnetica. Più in dettaglio, sappiamo che la fotosfera solare è attraversata da campi magnetici che si muovono e cambiano di intensità nel tempo. Il plasma solare e i campi magnetici sono accoppiati insieme e uno degli effetti è la presenza delle macchie solari, che sono regioni più fredde della fotosfera circostante.

Nella zona delle macchie, il campo magnetico ostacola i moti convettivi che trasportano il calore dall’interno alla superficie del Sole, e quando il trasferimento di calore è meno efficiente il plasma in superficie si raffredda: è questa la causa alla base della formazione dei gruppi di macchie solari. Un altro effetto di questo accoppiamento fra campi magnetici e plasma può essere un brillamento solare: se il campo magnetico che permea la macchia si riorganizza in una configurazione a energia inferiore, l’energia in eccesso che prima era immagazzinata nel campo magnetico viene trasferita al plasma che si trova all’interno e attorno al campo magnetico. Quando ciò accade, il plasma solare viene rapidamente riscaldato e può essere accelerato a velocità relativistiche. Il plasma surriscaldato emette radiazione ultravioletta (Uv) e persino raggi X, producendo un flare (o brillamento), ossia un’intensa emissione breve e localizzata nel tempo e nello spazio di radiazione elettromagnetica.

Considerato che sono le correnti elettriche presenti nel plasma stellare che generano i campi magnetici, i brillamenti sono osservati più frequentemente in stelle con una massa inferiore a 1,5 volte quella del Sole, perché sono queste le stelle che possiedono estese zone convettive superficiali sedi di correnti elettriche: vale la regola che minore è la massa della stella e maggiore è la zona convettiva, di conseguenza più intensi sono i flare generati dalla dinamo stellare. I brillamenti sulle deboli nane rosse di tipo spettrale M sono di particolare interesse a causa dell’elevata attività magnetica di queste stelle, inoltre sono candidate ideali per la rilevazione di esopianeti nella loro zona di abitabilità. Un esempio di questo tipo di stelle è Proxima Centauri, a soli 4 anni luce da noi. Chiaramente, considerato che la zona di abitabilità di una nana rossa è molto vicino alla stella, l’emissione Uv dei brillamenti influisce sull’abitabilità degli eventuali esopianeti in orbita attorno alla stella. Infatti, le energie dei brillamenti caratterizzano sia le “zone di abiogenesi” attorno alla stella, in cui ci possono essere abbastanza fotoni Uv per guidare la chimica prebiotica, sia le “zone di impoverimento dell’ozono”, in cui si ha la distruzione della colonna di ozono nelle atmosfere degli esopianeti abitabili, con conseguente impossibilità per la vita di propagarsi nelle terre emerse.

18318235
Rappresentazione artistica di un imponente brillamento di una stella a flare. Crediti: Nasa

Solo i brillamenti con emissioni di energia superiori a 1034 erg, i così detti superflare, possono contribuire a entrambi gli effetti quindi, se la frequenza dei brillamenti è sufficientemente elevata, non è chiaro se questi eventi aiutino o ostacolino lo sviluppo delle molecole complesse necessarie per la vita.

Studi recenti hanno trovato poche stelle che mostrano tassi di superflare (⁠E > 1033 erg) sufficienti a influenzare l’abitabilità degli esopianeti. Tuttavia, le osservazioni sui flare stellari sono state condotte principalmente alle lunghezze d’onda ottiche, che possono comprendere solo una piccola frazione dell’emissione totale di un flare. L’emissione nell’Uv vicino di un flare può derivare dalla cromosfera e dalla fotosfera superiore, mentre l’emissione nell’Uv lontano deriva solo dalla cromosfera superiore e può corrispondere alla fase impulsiva di riscaldamento e compressione del plasma. Quindi studiare i flare nell’ottico non è il modo migliore per decidere che influenza possano avere nell’evoluzione della vita sugli esopianeti attorno alle nane rosse.

Un metodo diretto per studiare l’impatto dei flare sull’abitabilità è la fotometria Uv delle stelle durante i flare. Sotto questo punto di vista, i dati raccolti dal telescopio spaziale della Nasa Galex (Galaxy Evolution Explorer) offrono un’opportunità unica per studiare l’emissione Uv dei flare stellari, perché il satellite ha osservato simultaneamente gran parte del cielo nelle bande dell’Uv lontano (⁠135-175 nm) e dell’Uv vicino (⁠175-275 nm) dal 2003 al 2013. Utilizzando il catalogo di Galex e analizzando un campione di 182 flare verificatisi su 158 stelle che si trovano entro 100 parsec dal Sole è stato trovato che, contrariamente alle aspettative, c’è un eccesso di emissione nell’Uv lontano per tutti i tipi di flare, non solo per i superflare. I risultati dell’analisi mettono quindi in discussione i modelli esistenti sui brillamenti stellari e l’abitabilità degli esopianeti, dimostrando che l’emissione nell’Uv lontano è in media tre volte più intensa di quanto si ritenga normalmente e può raggiungere livelli di energia fino a dodici volte superiori a quelli previsti. Per fare un esempio, una variazione di un fattore tre nell’emissione Uv è la stessa che si ha in estate passando da Oslo, in Norvegia, a Porto Sudan, dove la pelle non protetta può scottarsi in meno di dieci minuti.

La causa esatta di questa intensa emissione nell’Uv lontano rimane poco chiara, evidentemente la radiazione emessa dai flare non è uno spettro continuo con temperatura di corpo nero di 9mila-10mila K come viene considerato nei modelli standard di abitabilità, bensì uno spettro a emissione, con la radiazione emessa a lunghezze d’onda specifiche, indicando così la presenza di atomi come carbonio e azoto. Che conseguenze ha questa scoperta per quanto riguarda l’abitabilità degli esopianeti attorno alle stelle a flare? In un campione di 1228 stelle osservate dalla missione Tess della Nasa, che ricerca pianeti extrasolari con il metodo del transito, è stato scoperto – applicando il modello standard del flare – che l’otto per cento delle sorgenti mostra dei tassi di flare con energie sufficienti per rientrare nella zona di impoverimento dell’ozono e solo l’un per cento rientra nella zona di abiogenesi. Se, invece, questi brillamenti fossero rappresentati da un corpo nero con una temperatura di 13500 K, che ha un’emissione nel lontano Uv più intensa rispetto al modello standard a 10mila K, il numero di stelle a flare che rientrerebbero nella zona di esaurimento dell’ozono aumenterebbe del 60 per cento. Chiaramente questo renderebbe più esiguo il numero di esopianeti appartenenti a stelle a flare in grado di ospitare la vita così come la conosciamo.

Per capire come stanno effettivamente le cose saranno necessari ulteriori dati sui flare stellari a diverse lunghezze d’onda che saranno ripresi usando i prossimi telescopi spaziali specializzati nell’Uv.

Per saperne di più:

  • Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “Stellar flares are far-ultraviolet luminous”, di Vera L Berger, Jason T Hinkle, Michael A Tucker, Benjamin J Shappee, Jennifer L van Saders, Daniel Huber, Jeffrey W Reep, Xudong Sun e Kai E Yang


C’è il carbonio 350 milioni di anni dopo il Big Bang


18234868
18234870
Francesco D’Eugenio del Kavli Institute for Cosmology di Cambridge e primo autore dello studio. Crediti: F. D’Eugenio

All’epopea di un atomo di carbonio è dedicato il racconto che conclude Il sistema periodico di Primo Levi, che ci introduce alle peripezie di questo elemento dall’esistenza tumultuosa che si combina e si scombina in sostanze dalle innumerevoli parvenze, volando come anidride carbonica, incatenato nella cellulosa di un cedro, molecola di glucosio che sguazza in un bicchiere di vino, tanto per dirne qualcuna. Punto di partenza del periglioso viaggio è una roccia calcarea, nella quale l’atomo giace incastonato da milioni di anni: “[…] ha già una lunghissima storia cosmica alle spalle, ma la ignoreremo”, ci tiene a comunicarci l’autore. Là dove Levi tace ci porta questa vicenda, che si svolge in un tempo remoto, agli inizi della storia dell’universo, trecentocinquanta milioni di anni dopo il Big Bang. Per quel che ne sappiamo, questo è il tempo in cui si accendono le prime galassie, il cui flebile segnale ha viaggiato indisturbato per miliardi di anni prima di giungere a noi. Di idrogeno e, in minor quantità, di elio e ossigeno si credevano impastate le nubi gassose di questi antichi sistemi. Fino a che quei fotoni che percorrevano leggiadri lo spazio interstellare non hanno avuto l’accidente di schiantarsi sullo specchio del telescopio spaziale James Webb. E così si è scoperto che non proprio questa era la ricetta delle prime galassie.

Di che pasta erano fatte ce lo raccontano alcuni ricercatori guidati da Francesco D’Eugenio del Kavli Institute for Cosmology di Cambridge, in Inghilterra. L’ingrediente mancante era proprio lui: il carbonio. Elemento cardine per le molecole organiche e dunque per la vita sul nostro pianeta, il carbonio è stato rivelato miriadi di volte nell’universo, in galassie più e meno distanti dalla Via Lattea. E però non era mai stato rivelato così lontano e soprattutto così precocemente nella storia cosmica. Gs-z12 si chiama la galassia nella quale l’elemento è stato rinvenuto e dista oltre tredici miliardi di anni luce dalla Terra. Si tratta di fatto della rivelazione più antica di un elemento chimico che non sia idrogeno. Lo studio che riporta la scoperta è stato accettato per la pubblicazione su Astronomy & Astrophysics ed è disponibile su arXiv.

Ci speravano, di vedere delle righe, solo che non si aspettavano quella lì, racconta D’Eugenio a Media Inaf, alludendo alla riga di carbonio nello spettro di Gs-z12. Agli inizi l’universo era costituito quasi interamente da idrogeno, da piccole quantità di elio e da scarse tracce di litio. All’interno delle stelle vengono “cucinati” molti degli elementi più pesanti, denominati metalli in astrofisica, e che vengono sparpagliati nel mezzo interstellare durante le esplosioni di supernova, arricchendo le successive generazioni stellari. Solo di idrogeno e di elio potevano dunque disporre le primissime stelle che si sono accese nell’universo, il che ha un impatto sui processi chimici che accadono al loro interno, diversi da quelli che caratterizzano le stelle generate più avanti come il nostro Sole.

18234872
Lo spettro NirSpec della galassia Gs-z12 in cui si nota una riga di emissione del carbonio (C III]). Crediti: D’Eugenio et al., A&A, 2024

«Studi precedenti suggerivano che il carbonio iniziasse a formarsi in gran quantità relativamente tardi, all’incirca un miliardo di anni dopo il Big Bang», ricorda Roberto Maiolino, coautore dell’articolo. «Ora abbiamo trovato che il carbonio si forma molto prima. Potrebbe essere addirittura il metallo più antico di tutti». La scoperta è stata realizzata con lo spettrografo NirSpec e fa parte del programma Jades (JWST Advanced Deep Extragalactic Survey). Dello stesso programma è la scoperta della galassia più lontana mai osservata, Jades-Gs-z14-0, risalente al maggio scorso. Gs-z12 presenterebbe però delle caratteristiche spettrali differenti rispetto alla sua “collega” più distante, nella quale il carbonio non era stato rivelato.

Dunque c’è il carbonio trecentocinquanta milioni di anni dopo il Big Bang. Gli astronomi non se l’aspettavano, in quanto si pensava che le prime stelle producessero più ossigeno che carbonio. Il fatto che l’ossigeno sia stato solo scarsamente rivelato in Gs-z12 suggerisce che vadano riviste le modalità di funzionamento delle prime stelle. In particolare, si pensa che a quel tempo le supernove possano essere state meno energetiche del previsto, favorendo la diffusione del carbonio, situato negli strati stellari più esterni e dunque meno avvinto alla gravità della stella, a discapito dell’ossigeno. È naturale chiedersi se Gs-z12 sia un oggetto peculiare o se galassie simili possano essere la norma a quelle epoche cosmiche. «Secondo me a quelle epoche abbiamo ancora troppe poche galassie per trarre delle conclusioni. Forse abbiamo trovato un oggetto simile, anche se a redshift più basso. Non mi sbilancio troppo visto che l’analisi è ancora in corso», dice D’Eugenio. «Avremmo bisogno di più informazioni per fare un’analisi più approfondita, ma purtroppo neanche Webb riuscirebbe a ottenere dati migliori in un tempo ragionevole. Forse, in futuro, dati migliori si potranno avere per sorgenti simili a Gs-z12 amplificate da lenti gravitazionali».

Lontanissima e piccina, centomila volte meno massiccia della Via Lattea, ed eppure nel futuro questo oggetto potrebbe evolvere in una galassia non dissimile dalla nostra. Implicazioni ci sarebbero pure riguardo all’insorgenza della vita nell’universo. Il carbonio infatti funge da catalizzatore per la formazione dei grani di polvere che, aggregandosi tra di loro, genererebbero i primi planetesimi, ovvero gli embrioni dei futuri pianeti. Non a caso “elemento della vita” lo definisce Levi. «Queste osservazioni ci dicono che il carbonio può arricchire facilmente il mezzo interstellare nell’universo primordiale, e poiché il carbonio è fondamentale per la vita come la conosciamo, non è necessariamente vero che essa si sia evoluta più tardi nell’universo. Forse la vita è emersa molto prima – benché se ci fosse vita da qualche parte nell’universo potrebbe essersi evoluta in maniera differente da come è avvenuto sulla Terra», conclude D’Eugenio.

Per saperne di più:

  • Leggi su arXiv il preprint dell’articolo, in attesa di pubblicazione su Astronomy & Astrophysics, “JADES: Carbon enrichment 350 Myr after the Big Bang in a gas-rich galaxy”, di Francesco D’Eugenio, Roberto Maiolino, Stefano Carniani, Emma Curtis-Lake, Joris Witstok, Jacopo Chevallard, Stephane Charlot, William M. Baker, Santiago Arribas, Kristan Boyett, Andrew J. Bunker, Mirko Curti, Daniel J. Eisenstein, Kevin Hainline, Zhiyuan Ji, Benjamin D. Johnson, Tobias J. Looser, Kimihiko Nakajima, Erica Nelson, Marcia Rieke, Brant Robertson, Jan Scholtz, Renske Smit, Giacomo Venturi, Sandro Tacchella, Hannah Ubler, Christopher N. A. Willmer e Chris Willott


Marketing spaziale: il caso del programma Apollo


18232765
18232767
David Meerman Scott e Richard Jurek, “Marketing the Moon. The selling of the Apollo lunar Program”, The Mit Press; Illustrated edition (28 febbraio 2014), 144 pagine, 33,82 €

Ci sono molti modi di festeggiare una ricorrenza importante. Il 20 luglio è caduto il 55esimo anniversario dell’allunaggio di Apollo 11 che ha portato i primi due esseri umani, astronauti del programma Apollo, a camminare sulla Luna. Dal momento che la Nasa ha in corso il programma Artemis per riportare sulla Luna astronauti americani, non solo di sesso maschile e non solo bianchi, sarebbe stato un’ottima occasione per parlare della sorella gemella di Apollo, dea della Luna. Invece la Nasa ha stupito tutti annunciando la cancellazione della sonda Viper, parte del programma di esplorazione e ricerca di ghiaccio lunare, che avrebbe dovuto partire a inizio 2025 a bordo di una missione commerciale di Astrobotic. È difficile capire come mai l’agenzia che ha già investito 450 milioni di dollari nel rover Viper, la cui costruzione è ultimata, e ha un contratto di 323 milioni con Astrobotic per il suo trasporto a destinazione abbia preso una decisione così drastica. In più, visto che il contratto con Astrobotic non può essere cancellato, si rischia di fare partire un modello con la stessa massa del rover, a meno che qualcuno non abbia uno strumento delle giuste dimensioni e del giusto peso, pronto da lanciare. Certo non sembra un bel modo di spegnere le 55 candeline del gigantesco passo per l’umanità, anche considerato che l’industria cinematografica ci ha messo del suo con Fly me to the Moon, una commedia romantica che ripropone, anche se in modo soft, la versione dell’allunaggio ricostruito in un set cinematografico, in caso qualcosa fosse andato male. Mentre questa parte del film, che ovviamente riceverà la maggior parte di attenzione, è pura fiction, molto più interessante è la figura dell’esperta di campagne pubblicitarie che, pur essendo un personaggio inventato, si ispira al sapiente lavoro di marketing che ha portato la Luna nella case degli americani, inizialmente scettici sull’utilità dell’investimento che il governo aveva deciso di fare nel programma spaziale.

Anche se, nel fatidico momento della discesa di Neil Armstrong, il 94 per cento degli apparecchi televisivi americani era sintonizzato sulla telecronaca, il progetto Apollo non aveva sempre goduto di grande popolarità presso il pubblico. Una percentuale tra il 45 ed il 60 per cento degli americani pensava che si stesse spendendo troppo. Dopo tutto la decisione di portare un americano sulla Luna era stata presa da Kennedy per motivi puramente politici volti a dimostrare la superiorità della tecnologia americana su quella sovietica.

Ma un ambizioso e costoso programma, che, nel momento di massimo splendore, ha assorbito oltre il 4 per cento del budget federale Usa, non poteva prescindere dal supporto popolare. Da qui la necessità di fare intervenire esperti di marketing e di pubbliche relazioni per interessare il pubblico.

18232769
Wernher von Braun in un fotogramma tratto da “Man in Space” della serie Disneyland (1955)

Le iniziative di marketing intraprese con successo da Scarlett Johansson corrispondono al vero, come descritto in Marketing the Moon. The selling of the Apollo Lunar Program. È un libro uscito nel 2014 a opera di David Meerman Scott e Richard Jurek, due esperti di marketing, oltre che entusiasti collezionisti di cimeli lunari. La prefazione di Eugene Cernan, l’ultimo uomo sulla Luna, certifica la serietà del libro, che ripercorre la storia degli sforzi per sensibilizzare il pubblico al programma spaziale che avevano avuto in Wernher von Braun un campione assoluto. Convinto che un grande programma spaziale dovesse, prima di tutto, rivolgersi al pubblico, von Braun si inventò divulgatore, arrivando a instaurare una straordinaria collaborazione con Walt Disney culminata nella serie televisiva Disneyland del 1955. I tre episodi – “Man in Space“, “Man and the Moon” e “Mars and Beyond” – della serie, che mescolano interviste a von Braun con degli irresistibili cartoni animati, sono disponibili su YouTube e meritano di essere visti.

Ma quella di von Braun (e Walt Disney) era un’iniziativa culturale. Per vendere la Luna occorreva avere qualcosa da vendere. La Nasa iniziò con l’immagine degli astronauti concessa in esclusiva a Life, rivista che all’epoca andava per la maggiore. Fu un’azione molto ficcante per familiarizzare il pubblico con i nuovi eroi spaziali e con le loro famiglie che divennero protagonisti di una lunga serie di copertine della rivista.

Ma Scott e Jurek raccontano anche storie di prodotti di straordinario successo che continuano a vivere di rendita grazie alla partecipazione al programma Apollo. Come l’orologio Moonwatch, che Omega continua a produrre e a vendere. Dovendo fornire i suoi astronauti di orologi capaci di funzionare nelle condizioni estreme dei voli spaziali, la Nasa fece un bando al quale risposero Rolex, Longines, Omega e Hamilton. Il modello Omega Speedmaster risultò il migliore e venne scelto dalla Nasa. Veniva fornito con due cinturini, uno normale di acciaio e uno a fettuccia con il velcro da indossare sopra la tuta per le passeggiate lunari. Omega commercializzò il primo orologio sulla Luna (Moonwatch) con entrambi i cinturini, permettendo a tutti di immaginarsi vestiti da astronauti come quelli immortalati mentre saltellavano sulla Luna. Le foto erano prodotte dalla Hasselblad 500 EL, la prima voluminosa macchina fotografica sviluppata per lavorare sulla Luna, fissata alla tuta per lasciare le mani libere. Così anche Hasselblad ottenne grande visibilità grazie alla sua partecipazione, tutt’altro che secondaria, al programma Apollo. La stessa cosa avvenne per la Westinghouse Electric’s Aerospace Division che, per poter trasmettere le dirette lunari, mise a punto una telecamera a scansione lenta per non intasare la limitata capacità di trasmissione del modulo lunare verso le antenne terrestri. I fotogrammi arrivarono, riga per riga, all’antenna australiana che li inviò, via satellite, a Houston da dove vennero trasmessi in mondovisione. Uno sforzo immane che la Nasa pianificò per venire incontro ai media che volevano vedere quello che facevano gli astronauti sulla Luna, con buona pace di chi pensa che l’allunaggio sia stato girato in uno studio cinematografico.

Guarda il trailer di Fly Me to the Moon: Le due facce della Luna:

youtube.com/embed/1AMJ_8WpTRE?…


Dopo Città del Capo, la Iau tornerà a Roma nel 2027


18180353
18180355
Incontro stampa presso lo stand Inaf alla Iau Ga di Cape Town. Da sinistra a destra: Roberto Ragazzoni, presidente Inaf; Willy Benz, presidente entrante Iau; Caterina Boccato, responsabile nazionale didattica e divulgazione Inaf e Iau Noc; Angelo Antonelli, chair del Loc Iau Ga 2027. Crediti: Iau

A oltre un secolo dalla prima edizione del 1922, Roma si prepara a tornare al centro della scena astronomica mondiale. Domani, 15 agosto, durante la cerimonia di chiusura della 32ma Assemblea aenerale (Ga) dell’Unione astronomica internazionale (Iau) in corso a Città del Capo (Sudafrica), l’Italia riceverà il testimone per ospitare la 33ma Assemblea generale e sarà quindi confermata la sede già annunciata nel 2022. L’evento, organizzato dall’Istituto nazionale di astrofisica (Inaf), si terrà a Roma dal 9 al 19 agosto 2027 presso l’Auditorium Parco della musica. Sarà un’occasione unica per astronomi, scienziati e appassionati provenienti da tutto il mondo per discutere i più recenti progressi in astronomia, le scoperte più rilevanti e le sfide future che il nostro universo ci riserva. Per l’Inaf sarà soprattutto un’opportunità per mostrare al mondo il nostro contributo alla ricerca e al progresso della società.

«Dalla prima Assemblea generale a Roma nel 1922,», dice Willy Benz, il presidente entrante dell’Unione astronomica internazionale, «la Iau e l’Italia hanno goduto di oltre un secolo di eccellente collaborazione a tutti i livelli. Siamo entusiasti della nostra nuova collaborazione in vista dell’Assemblea generale del 2027 a Roma».

Con 84 paesi membri e oltre 12.000 iscritti, inclusi i membri junior, l’Unione astronomica internazionale è la più grande società di astronomi professionisti al mondo. Fondata nel 1919 in Belgio ma con sede a Parigi, ogni tre anni la Iau riunisce migliaia di astronomi da tutto il mondo in occasione dell’Assemblea generale per due settimane di discussioni sui temi chiave dell’astronomia e dell’astrofisica. Questo incontro, durante il quale uffici, commissioni e divisioni della Iau si riuniscono per formalizzare le loro attività collegiali, è accompagnato da una serie di eventi dedicati al pubblico.

Quest’anno, Città del Capo ha accolto oltre 3500 delegati (in presenza e online) provenienti da 80 paesi per la prima Assemblea generale organizzata nel continente africano nei 105 anni di storia della Iau. Il successo di questo evento è stato reso possibile grazie al contributo collettivo di tutti i partecipanti, promuovendo collaborazione e dialogo tra astronomi e scienziati di tutto il mondo.

Durante la cerimonia di chiusura, il Comitato organizzatore locale e Debra Elmegreen, la presidente uscente della Iau, passeranno ufficialmente il testimone alla delegazione italiana, guidata dal presidente dell’Inaf Roberto Ragazzoni, che salirà sul palco per annunciare la città ospitante della Iau Ga del 2027, aprendo un nuovo capitolo nel panorama dell’astronomia mondiale.

L’Italia è tra i paesi fondatori della Iau e ospita una comunità astronomica di grande rilievo, e ben inserita nel contesto internazionale grazie a numerose collaborazioni. «Sono profondamente grato a tutti i colleghi del Sudafrica per questo passaggio di consegne», commenta Roberto Ragazzoni. «E sono lieto di dare il benvenuto a tutti voi in Italia, la terra di Galileo Galilei, dove ci riuniremo per promuovere e condividere le scoperte rivoluzionarie della ricerca astronomica più recente». L’Assemblea generale del 2027 è un riconoscimento all’eccellenza dell’astrofisica italiana.

La Iau Ga tornerà a Roma dopo 105 anni dalla sua prima edizione, a pochi passi dalle principali attrazioni della capitale italiana. Sarà un’occasione unica per oltre tremila scienziati di discutere e presentare gli ultimi risultati della ricerca astronomica. «La Iau e Roma hanno un rapporto speciale, poiché la prima Assemblea si è tenuta proprio a Roma nel 1922, seguita da una seconda nel 1952», ricorda Angelo Antonelli, presidente del Comitato organizzatore locale della Iau Ga 2027 e ricercatore presso l’Inaf di Roma. «Roma ha una lunga e speciale relazione con l’astronomia, dall’Antica Roma al Medioevo, passando per il Rinascimento fino ai nostri giorni, con i nostri istituti moderni».

Oltre al programma scientifico, saranno organizzati eventi collaterali in collaborazione con il Comune di Roma e la Regione Lazio, per coinvolgere il pubblico locale e i turisti che affolleranno la città ad agosto. Ospitare la prossima Ga a Roma rappresenta un’enorme opportunità per promuovere la cultura attraverso l’astronomia, un campo che ha sempre ispirato e illuminato l’umanità, e per mettere in luce il ruolo di primo piano dell’Inaf sulla scena mondiale.


Proposte osservative con ChatGpt: rischio o aiuto?


18161588
Scrivere una proposta per ottenere tempo osservativo a un telescopio: uno degli aspetti più competitivi e più complessi del lavoro dell’astronomo. Al contempo, però, fondamentale per avanzare nella ricerca. Per farlo occorrono buone idee, una vasta conoscenza della letteratura scientifica, originalità, capacità di sintesi ed efficacia nella scrittura. Le proposte osservative sono impegnative per chi le scrive e spera di ottenere un , ma anche per chi si trova a valutarle, dovendo scegliere fra molti a chi concedere il tempo prezioso degli strumenti. E se gli astronomi – quelli che scrivono, ma anche quelli che valutano – si facessero aiutare da software di intelligenza artificiale generativa come ChatGpt? Se lo stanno chiedendo allo European Southern Observatory (Eso), l’ente responsabile di un gran numero di telescopi europei in Cile, che si trova periodicamente a ricevere e valutare circa 1800 proposte osservative relative a sette telescopi ogni anno. Per rispondere, hanno messo in piedi una serie di simulazioni confrontando le performance e le risposte dell’intelligenza artificiale (AI) con quelle umane. Media Inaf ha raggiunto uno degli autori dello studio, Ferdinando (Nando) Patat, astronomo all’Eso a capo dell’Ufficio dei programmi di osservazione, che coordina la selezione dei progetti scientifici e l’allocazione del tempo al Very Large Telescope (Vlt), per sapere i dettagli.

18161590
Ferdinando Patat, originario di Udine, ha conseguito la laurea e il dottorato di ricerca in astronomia presso l’Università di Padova. Dal 1999 fa parte dello staff dello European Southern Observatory (Eso) a Garching, in Germania. Dal 2011 dirige l’Ufficio dei programmi di osservazione, che coordina la selezione dei progetti scientifici e l’allocazione del tempo al Very Large Telescope. Alla ricerca affianca un intenso lavoro di divulgazione, tenendo ogni anno numerose conferenze pubbliche e lezioni nelle scuole. Nel tempo libero collabora con musicisti, attori e scrittori per la promozione della scienza, partecipando a importanti manifestazioni come il Festival della Scienza di Genova e il Campus Party Europe a Berlino. Crediti: Ferdinando Patat/Eso

Il vostro articolo si presenta come una sorta di “messa in guardia” alla comunità scientifica che scrive e valuta le proposte osservative. Sottende un po’ di preoccupazione a riguardo?

«L’esperimento alla base del nostro studio è stato pensato come un primo passo verso una maggiore consapevolezza e l’inizio di una discussione seria sull’utilizzo di sistemi di AI nell’ambito della preparazione e della revisione delle proposte per i nostri telescopi. Più che dalla preoccupazione, è stato motivato da una genuina curiosità e dal desiderio di comprendere il fenomeno e i possibili benefici che questo può portare a Eso e alla comunità che questa organizzazione serve. Fra l’altro, credo che l’articolo, più che mettere in guardia, di fatto aumenterà l’utilizzo di questi nuovi strumenti della comunità, specie in quella fascia che ancora non li conosceva o che, se li conosceva, era diffidente. Se non altro desta la curiosità di provarli. Che è l’unico modo per farsi un’opinione di prima mano».

Esiste un modo per capire se le proposte che vi arrivano abbiano fatto uso di ChatGpt In altre parole, quando valutate i proposal riuscite a rendervene conto?

«La risposta breve è: no. I testi prodotti dai sistemi di intelligenza artificiale conversazionale seguono schemi predeterminati basati sui dati con cui sono stati addestrati. Tuttavia, i modelli di linguaggio sono sviluppati in modo tale da rendere le risposte il più simili possibile a quelle umane, rendendone quindi difficile, se non impossibile, il riconoscimento. Ci sono degli studi che mostrano come l’analisi testuale, ad esempio tramite il conteggio di parole raramente usate in un certo contesto, permetta perlomeno di sospettare che il testo sia stato sintetizzato da un sistema AI. Ciononostante, non si può trarre alcuna conclusione certa. A Eso abbiamo in mente di analizzare i testi dei proposal per capire se (e come) il lessico sia cambiato dopo la comparsa di sistemi come ChatGpt. Ma lo scopo non è quello di identificare i casi che hanno fatto uso di sistemi AI, quanto quello di studiare il fenomeno e aumentare la consapevolezza circa il suo utilizzo. La nostra motivazione principale è garantire che il processo sia equo, e vorremmo cercare di comprendere quale sia l’impatto dei sistemi di AI sulla qualità dei proposal e sul modo in cui vengono valutati».

Per quanto riguarda la revisione delle proposte, invece, l’uso di Chat Gpt è già affermato in alcune realtà? Qual è la posizione e la tendenza della comunità scientifica?

«Non che io sappia. Quello delle macchine che giudicano gli umani è un tema molto controverso che apre scenari abbastanza inquietanti, in cui non solo le proposte vengono scritte dai sistemi di AI, ma ne vengono pure giudicate. È chiaro che quella appena descritta è una situazione estrema, da cui siamo ancora lontani, ma certamente prima o poi dovremo farci i conti, e non solo nell’ambito scientifico, dove tutto sommato la posta in gioco è limitata. Anche se non abbiamo dei dati (e immagino sarà difficile ottenerne), sappiamo che ChatGpt viene usato ad esempio per fare riassunti di proposte, in modo da velocizzare il lavoro di valutazione, specialmente quando il numero di progetti da esaminare è alto.

Personalmente non credo che la comunità scientifica abbia ancora preso posizione nei confronti di questa materia e che, anzi, sia stata colta un po’ alla sprovvista dal rapido sviluppo che i sistemi di AI hanno avuto in questi ultimi anni. Nell’ambito dell’astronomia le maggiori organizzazioni hanno appena iniziato a muoversi in questo campo, almeno dal punto di vista della regolamentazione. A Eso abbiamo da poco introdotto una frase nell’accordo di riservatezza che i referees firmano all’atto di accettare l’incarico: caricare una proposta o parte di essa in sistemi di AI non è permesso e costituisce una violazione della proprietà intellettuale degli autori. Altre organizzazioni stanno modificando in modo simile i loro accordi di riservatezza. Resta naturalmente il problema che, almeno al momento, non c’è modo di assicurarsi che i referees si attengano all’accordo.

Un altro aspetto riguarda l’utilizzo che ChatGpt ed altri sistemi simili fanno del materiale che vi viene caricato. I nostri test hanno mostrato che, almeno al momento, ChatGpt non conserva memoria di una proposta caricata nel sistema dopo che la sessione è terminata. Quello che non possiamo sapere è dove finiscano quei dati e come vengano usati. Finché è chi scrive a caricarli, ne accetta implicitamente le conseguenze, ma quando lo fa chi valuta le implicazioni per l’organizzazione sono potenzialmente gravi».

Quali problemi potrebbe risolvere invece l’uso della AI? Lei pensa che si possa trovare un modo per instaurare una collaborazione vantaggiosa con l’AI?

«Nel contesto della peer-review è implicito un certo livello di sistematicità, che presenta delle componenti sia consce che inconsce. Ad esempio, a parità di qualità oggettiva delle idee esposte (ammesso che tale concetto sia univoco o che addirittura esista) è molto probabile che esprimiamo un giudizio positivo per una proposta scritta con uno stile accattivante, scorrevole, chiaro, conciso e allo stesso tempo completo. Al contrario, è quasi certo che una proposta in cui il caso scientifico (magari anche più importante) viene presentato in modo un po’ confuso, con frasi che richiedono più di una lettura e che sono stilisticamente imperfette, porterà ad un giudizio negativo. In altre parole, la forma gioca un ruolo altrettanto importante quanto quello della sostanza. Mentre in ambito musicale, ad esempio, questo è perfettamente legittimo (una grande composizione va eseguita alla perfezione), ciò non è corretto nel caso scientifico, nel senso che l’idea è più importante del modo in cui viene presentata. Tuttavia, specialmente quando chi fa la valutazione della proposta ne ha altre decine da leggere, è naturale che ciò accada».

Nella forma, chiaramente, rientra anche l’uso della lingua inglese…

«Certo. Un altro esempio concreto, infatti, è quello di due proposte, una scritta da una persona madrelingua e l’altra da una persona non madrelingua. La seconda si trova in posizione nettamente svantaggiata rispetto alla prima, indipendentemente dalla qualità intrinseca del caso scientifico che vi viene presentato. Strumenti che utilizzano l’AI per elaborare il linguaggio naturale possono agire come degli equalizzatori di linguaggio, rimuovendo (almeno in parte) questo svantaggio che nulla ha a che vedere con la qualità e l’importanza delle idee che vengono valutate. In effetti, si sta discutendo di questo aspetto e dei suoi risvolti. La questione non è semplice come sembra. Posso immaginarmi la faccia inorridita di molti colleghi di fronte alla possibilità che le loro proposte passino attraverso un sistema AI che equalizzi il loro linguaggio prima di essere valutate. Perché, in effetti, c’è ed è diffusa la convinzione che il modo un cui viene presentato il caso scientifico faccia parte integrante del merito del caso stesso e del team che lo propone. In aggiunta va detto che, almeno allo stato attuale delle cose, se è vero che un testo scritto male migliora dopo l’intervento dell’AI, è anche vero che un testo scritto molto bene normalmente peggiora. Ma questo potrebbe rapidamente cambiare. Un’altra area in cui i sistemi di AI possono intervenire come equalizzatori è quella delle differenze di linguaggio legate al genere di chi scrive. Diversi studi mostrano che, anche se anonimizzato, il testo scritto da un maschio è in media più assertivo e maggiormente convincente».

Può spiegarci meglio che cosa intende?

«Sì, posso riportare qui di seguito una breve conversazione con ChatGpt.

Nando: Se ti passo un testo puoi riscriverlo come se tu fossi una femmina o un maschio? E basandoti su quali assunzioni in termini di stile e forma?

ChatGpt-4o: Sì, posso riscrivere il testo adottando una prospettiva maschile o femminile. Quando cambio la prospettiva del testo, mi baso su alcune assunzioni in termini di stile e forma che possono riflettere differenze culturali e sociali.


Gli esperimenti mostrano che ci sono alcuni stereotipi nei modelli alla base di ChatGpt che dipendono dal modo (limitato) in cui l’AI è stata addestrata. Ma ancora non abbiamo visto niente».

Tornando all’impiego di ChatGpt nella scrittura: se l’idea alla base della proposta è originale e basata sulla conoscenza della letteratura e degli strumenti, che male c’è a usare Chat Gpt per “aiutarsi” nella scrittura?

«Sono convinto che non ci sia nessun male, atteso che lo strumento venga usato con spirito critico. Abbiamo fatto dei test chiedendo a ChatGpt-4o [la versione più recente di ChatGpt, disponibile dal 13 maggio 2024, ndr] di preparare parti del razionale scientifico a diversi livelli di complessità. A volte i risultati erano sconcertanti, ma presentati in modo tale che, a meno di non essere degli esperti, era difficile coglierne l’erroneità. C’è quindi il pericolo che ci sia un incremento di proposte di bassa qualità, semplicemente perché è facile scriverle. E ciò va ad appesantire un sistema, quello della peer-review, che è già sofferente, senza recare con sé la promessa di maggiori progressi scientifici. Condannare nuove vie senza appello è – ed è sempre stato – uno sbaglio. Oltretutto sarebbe anche antiscientifico. Per il momento i sistemi di AI sono in grado di fornire delle risposte alle nostre domande. Quello che ancora non sanno fare è formulare delle domande a cui ancora nessuno ha pensato, le cui risposte, una volta note, ci farebbero fare dei grandi passi avanti. Fino ad allora, siamo ancora noi a doverci porre le domande. E credo non ci sia alcun male nel farsi aiutare».


Per saperne di più:


Coppie di buchi neri in modulazione di frequenza


18125974
Pensando all’immensità dello spazio l’idea di trovare qualcosa potrebbe sembrare come dover cercare un ago in un pagliaio. L’esperienza comune suggerirebbe, come anche il modo di dire, che trovare un oggetto piccolo sia molto più difficile che trovarne uno enorme, eppure in astrofisica non è così per tutto, non almeno quando si parla di coppie di buchi neri: con gli interferometri per onde gravitazionali, per esempio, è più facile trovare una coppia di aghi che di mietitrebbie. Un team di ricercatori guidato dal Max-Planck-Institut für Astrophysik (Mpa, in Germania) ha dunque proposto una nuova idea per rilevare le coppie dei buchi neri più grandi – quelli supermassicci – analizzando le onde gravitazionali prodotte dalla fusione di buchi neri piccoli presenti nelle vicinanze: un approccio, illustrato lunedì scorso su Nature Astronomy, che richiederà rilevatori di onde gravitazionali sensibili a frequenze nell’ordine dei decimi di hertz (“deci-Hz”) per studiare coppie di buchi neri che altrimenti rimarrebbero inaccessibili.

18125976
Scenario studiato in cui un piccolo buco nero binario (“binario compatto”) risiede nella stessa galassia di un buco nero binario supermassiccio (“SMBHB”). Rilevare modulazioni nel segnale delle onde gravitazionali provenienti dal piccolo buco nero binario potrebbe rivelare indirettamente la presenza del buco nero binario supermassiccio.
Crediti: Lorenz Zwick

Ci sono ancora dei grandi misteri nell’astronomia, e uno di questi è proprio l’origine dei buchi neri supermassicci che si trovano al centro delle galassie: potrebbero essere sempre stati massicci ed essersi formati quando l’universo era ancora molto giovane; oppure potrebbero essere cresciuti nel tempo accrescendo materia ed altri buchi neri. Quando un buco nero supermassiccio sta per divorarne un altro massiccio, la coppia emette onde gravitazionali, ovvero increspature nello spazio tempo che si propagano attraverso l’universo.

Negli ultimi anni sono state rilevate onde gravitazionali da queste fusioni, ma solo provenienti da piccoli buchi neri, che sono i resti delle stelle. Ad oggi, infatti, rilevare i segnali di singole coppie di buchi neri supermassicci è ancora impossibile, in quanto gli attuali interferometri non sono sensibili alle bassissime frequenze delle onde gravitazionali che emettono. I futuri rilevatori in corso di realizzazione – come la missione spaziale Lisa, guidata dall’Esa – dovrebbero risolvere questo problema, anche se rimarrà estremamente impegnativo rilevare le coppie di buchi neri più massicci.

«La nostra idea funziona fondamentalmente come l’ascolto di una stazione radio. Proponiamo di utilizzare il segnale proveniente da coppie di piccoli buchi neri in modo simile a come le onde radio trasportano il segnale. I buchi neri supermassicci sono la musica codificata nella modulazione di frequenza (Fm) del segnale rilevato», spiega Jakob Stegmann, autore principale dello studio e ricercatore post-dottorato al Mpa «L’aspetto innovativo di questa idea è quello di utilizzare le alte frequenze, che sono facili da rilevare, per sondare le frequenze più basse, alle quali non siamo ancora sensibili».

Risultati recenti ottenuti dai pulsar timing array supportano già l’esistenza della fusione di sistemi binari di buchi neri supermassicci. Questa prova è, tuttavia, indiretta e proviene dal segnale collettivo di molte binarie distanti che creano effettivamente rumore di fondo.

18125978
Simulazione di due buchi neri supermassicci in collisione che emettono onde gravitazionali che potrebbero essere rilevate con questo nuovo metodo. Crediti: Nasa’s Goddard Space Flight Center/Scott Noble; simulation data, d’Ascoli et al. 2018

Il nuovo metodo proposto per rilevare le fusioni di singole coppie di buchi neri supermassicci sfrutta le piccole perturbazioni che le onde gravitazionali a bassa frequenza da esse emessi – la “musica” della stazione Fm, nell’analogia di Stegmann – imprimono sulle onde gravitazionali a frequenza molto più elevata – la “portante”, sempre nell’analogia – emesse dalla fusione di una coppia di piccoli buchi neri di massa stellare presente nelle vicinanze. Il sistema binario dei piccoli buchi neri funzionerebbe quindi come un “faro” in grado di rivelare l’esistenza della coppia di buchi neri massicci. Captando le minuscole modulazioni di frequenza nei segnali provenienti dai sistemi binari di piccoli buchi neri, gli scienziati potrebbero così identificare i sistemi binari di buchi neri supermassicci fino a oggi nascosti, quelli con masse che vanno da 10 milioni a 100 milioni di volte quella del Sole, anche a grandi distanze.

«Mentre il percorso per il Laser Interferometer Space Antenna (Lisa) è ora impostato, dopo l’adozione da parte dell’Esa lo scorso gennaio», dice Lucio Mayer, coautore dello studio e teorico dei buchi neri all’Università di Zurigo, «la comunità deve valutare la migliore strategia per la prossima generazione di rilevatori gravitazionali, soprattutto su quale gamma di frequenze focalizzarsi – studi come questo portano una forte motivazione a dare priorità alla progettazione di un rilevatore deci-Hz».

«L’articolo presenta un’idea molto bella e intelligente, che è ancora fantascienza finché non avremo un rilevatore di deci-Hz», commenta Selma E. de Mink, direttrice del Mpa, non coinvolta nello studio, «ma abbiamo davvero bisogno di creatività e idee fuori dagli schemi come questa se vogliamo avere la possibilità di risolvere i più grandi misteri dell’universo».

Per saperne di più:


50mila dollari per scoprire esoatmosfere con l’AI


18092261
18092263
Crediti: ariel-datachallenge.space/

Si chiama Ariel Data Challenge 2024 ed è una sfida rivolta a data scientist, astronomi e appassionati di intelligenza artificiale (Ia) di tutto il mondo per contribuire a indagare le atmosfere dei pianeti al di fuori del Sistema solare.

Il concorso, basato sulla missione Ariel dell’Agenzia spaziale europea (Esa) e presentato alla conferenza sull’apprendimento automatico NeurIps 2024, affronterà uno dei problemi di analisi dati più complessi e importanti dell’astronomia: estrarre deboli segnali esoplanetari da osservazioni rumorose effettuate con telescopi spaziali. I partecipanti avranno l’opportunità unica di contribuire alla ricerca d’avanguardia nel campo delle atmosfere degli esopianeti, con un montepremi di ben 50mila dollari.

Questa sfida è stata resa possibile da uno sforzo collaborativo guidato da Ucl Centre for Space Exochemistry Data, che riunisce partner come il Centre National D’études Spatiales (Cnes), l’Università di Cardiff, la Sapienza Università di Roma e l’Institut Astrophysique de Paris. Il concorso è sponsorizzato dal Cnes, in collaborazione con Kaggle Competitions Research Program. Si avvale inoltre del sostegno di un consorzio di agenzie e istituzioni spaziali di primo piano, tra cui l’Agenzia Spaziale del Regno Unito, l’Esa, Stfc Ral Space e Stfc Dirac Hpc Facility.

«Sostenendo questa sfida, puntiamo a trovare nuovi modi di utilizzare l’intelligenza artificiale e l’apprendimento automatico per ampliare la nostra comprensione dell’universo», dice Caroline Harper, responsabile della scienza spaziale dell’Agenzia spaziale britannica. «Nella nostra galassia gli esopianeti probabilmente sono più numerosi delle stelle stesse e le tecniche sviluppate attraverso questo prestigioso concorso potrebbero aiutarci ad aprire nuove finestre per conoscere la composizione delle loro atmosfere e persino il loro clima. Gli investimenti dell’Agenzia spaziale britannica nella ricerca scientifica spaziale d’avanguardia sono essenziali per sostenere missioni innovative come questa, che possono portare benefici a persone, imprese e comunità in tutto il mondo. Non vediamo l’ora di vedere i risultati».

«Ogni segnale rumoroso proveniente dai nostri telescopi spaziali potrebbe nascondere la chiave per comprendere atmosfere remote. Il nostro compito è sbloccare questo potenziale con approcci innovativi di apprendimento automatico. Sarà sorprendente vedere cosa si inventerà la comunità dell’intelligenza artificiale», aggiunge Theresa Rank-Lueftinger, scienziata della missione Ariel.

18092265
Ariel sarà posto in orbita attorno al Punto di Lagrange 2 (L2), un punto di equilibrio gravitazionale a 1,5 milioni di chilometri dall’orbita della Terra attorno al Sole. Crediti: Esa/Stfc Ral Space/Ucl/Ufficio Europlanet-Science

La missione spaziale Ariel, la cui guida scientifica è affidata a Giovanna Tinetti dell’Ucl, sarà lanciata nel 2029 e completerà una delle più grandi indagini mai effettuate sugli esopianeti, osservando le atmosfere di circa un quinto di quelli conosciuti (a oggi sono oltre 5700 gli esopianeti confermati). Tuttavia, osservare queste atmosfere e ricavarne le proprietà è una sfida formidabile. Questi segnali rappresentano solo una minima parte della luce stellare ricevuta dai sistemi planetari e sono “corrotti” dal rumore strumentale.

La Ariel Data Challenge 2024 si concentra sul superamento dei problemi indotti dalle sorgenti di rumore, come il jitter noise causato dalle vibrazioni dei veicoli spaziali. Questo rumore, insieme ad altri disturbi, complica l’analisi dei dati spettroscopici utilizzati per studiare le atmosfere degli esopianeti. Gli scienziati coinvolti nella missione Ariel sono alla ricerca di nuovi metodi per superare i limiti degli attuali approcci all’analisi dei dati: soluzioni innovative che possano sopprimere efficacemente il rumore ed estrarre i segnali dalle atmosfere degli esopianeti.

Il concorso è aperto fino alla fine di ottobre. I vincitori saranno invitati a presentare le loro soluzioni alla conferenza NeurIps, con un premio in denaro per le prime sei soluzioni. Si tratta della quinta edizione dell’Ariel Machine Learning Data Challenge, dopo le quattro gare degli ultimi cinque anni. L’Ariel Data Challenge attira ogni anno circa duecento partecipanti da tutto il mondo, compresi quelli provenienti dai principali istituti accademici e dalle aziende di intelligenza artificiale. La sfida non è stata concepita per risolvere definitivamente i problemi di analisi dei dati che la missione dovrà affrontare, ma fornisce un forum di discussione, incoraggia future collaborazioni e aiuta il team Ariel a prepararsi con i migliori metodi di analisi dei dati possibili al momento del lancio della missione.

Maggiori dettagli sul concorso e sulle modalità di partecipazione sono disponibili sul sito web della Ariel Data Challenge. Potete seguire @ArielTelescope per ulteriori aggiornamenti.

Guarda su MediaInaf Tv l’intervista del 2022 a Giovanna Tinetti, principal investigator di Ariel:

youtube.com/embed/3dF_6PPJ50Y?…


Prospettive cosmiche tra le sfumature di Jwst


18026963
18026965
Melanie King, Ancient Light, Grizedale, UK, Silver Gelatin Photograph, 2017

Da Ramsgate, cittadina sulla costa sud-orientale dell’Inghilterra, dove risiede, alle Highland scozzesi, dall’Andalusia al Pakistan fino ad Atina, provincia di Frosinone, Melanie King è alla ricerca della luce. Non la luce diurna, che il Sole ci regala ogni giorno, inondando i nostri paesaggi di fotoni “freschi” di appena otto minuti. King cerca la luce antica, partita centinaia, migliaia di anni fa da astri lontani. Per catturarla, su pellicola analogica, visita luoghi con cieli scuri, vagando nel buio e creando lunghe esposizioni fotografiche, dalla durata variabile tra trenta secondi e cinque minuti.

A caccia di luce antica


Niente computer, lo smartphone spento il più possibile per non compromettere l’adattamento degli occhi al buio e mantenere la vista vigile e acuta. «Così posso guardare il cosmo per tutto il tempo dell’esposizione», racconta a Media Inaf l’artista e docente di fotografia alla Canterbury Christ Church University, nel Regno Unito. «Questi momenti mi danno un’opportunità inestimabile: esaminare il cielo notturno, cercando le mie costellazioni, le mie stelle e i miei pianeti preferiti».

18026967
Melanie King, artista e docente di fotografia alla Canterbury Christ Church University. Crediti: Look Mum No Computer

Alla prima parte contemplativa in esterno, fa seguito il lavoro in camera oscura. Qui King, che con il suo progetto Ancient light ha recentemente conseguito un dottorato di ricerca presso il Royal College of Art di Londra, entra direttamente in contatto con il materiale fotografico toccato dai fotoni provenienti dalle stelle. «La mia esperienza nella camera oscura è molto simile a quella in un paesaggio stellato», prosegue. «Mi affido al tatto e alla memoria per avvolgere una pellicola in completa oscurità, devo stare lontana dalla luce bianca brillante. Sia sul campo sia all’interno della camera oscura, mi concentro esclusivamente sul processo in corso con distrazioni minime». Lo sviluppo della pellicola può richiedere mezz’ora, altrettanto occorre poi per completare le stampe dall’esposizione alla fase di lavaggio. Consapevole della rarità di metalli come l’argento, usato tradizionalmente nei processi di stampa fotografica, nonché dell’impatto ambientale della loro estrazione, King è passata a processi fotografici sostenibili, utilizzando erbe, alghe e caffenolo – una soluzione a base di carbonato di sodio, fenoli e vitamina C. «Poiché sono più lenti delle loro controparti più pericolose, i tempi di sviluppo possono allungarsi ancora di più».

Quella di King è un’esplorazione del cosmo lenta, che mette al centro il corpo, i sensi. «Gran parte della mia ricerca considera come l’esperienza di un cielo pieno di stelle possa alterare la mia percezione», spiega. «Per esempio, sono più consapevole degli odori e dei suoni, pondero i miei movimenti. Sono in grado di consentire alla luce delle stelle di viaggiare direttamente nella mia retina». Questa esperienza “incarnata” dell’oscurità l’ha aiutata a riflettere su come il cosmo sia intimamente e materialmente legato agli ecosistemi presenti sulla Terra. «Questo mi ha motivato a migliorare la sostenibilità in tutti gli ambiti della mia vita, inclusa la pratica artistica. L’inquinamento luminoso negli ambienti urbani può oscurare la nostra visione del cosmo e le nostre menti possono essere distratte da dispositivi molto luminosi, il che può isolarci dal mondo naturale e dalla nostra visione dell’universo».

18026969
Hubble Ultra Deep Field. Crediti: Nasa, Esa, and S. Beckwith (Stsci) and the Hudf Team

Secondo l’artista, se si ha la possibilità di osservare il firmamento da località con cieli scuri, a occhio nudo o attraverso l’oculare di un telescopio, l’esperienza può avere un profondo effetto sul nostro senso di connessione con l’universo. Ma per contemplare la luce più antica, quella che ha viaggiato milioni o addirittura miliardi di anno attraverso la trama del cosmo, la scelta è obbligata. Bisogna volgere lo sguardo allo schermo – del computer, tablet o smartphone – per sfogliare gli archivi dei più potenti osservatori che popolano regioni remote del nostro pianeta fino agli avamposti spaziali, come Hubble space telescope (Hst) e il James Webb Space Telescope (Jwst), i cui scatti immortalano sorgenti così lontane che nessun occhio umano potrà mai vedere.

«Hubble e Jwst ci hanno permesso di scrutare il cosmo più a fondo che mai», constata King. L’Ultra Deep Field, immagine iconica pubblicata nel 2004, è stata realizzata combinando numerose esposizioni di una porzione apparentemente vuota del cielo notturno, per un totale di oltre duecentosettanta ore, pari a undici giorni di osservazioni dell’allora avveniristico Hubble. «Il risultato è una fotografia di circa diecimila galassie mai viste prima, che ha dimostrato la complessità e la vasta portata del cosmo», aggiunge l’artista, che è affascinata dai processi attraverso cui vengono create le immagini astronomiche. «Tali immagini ci consentono anche di concepire quanto sia piccola la frazione di spazio che occupa la Terra. Se comprendiamo quanto sia rara la Terra, questa sensazione può anche aiutarci ad apprezzare le diverse forme di vita e gli ecosistemi che esistono sul nostro pianeta».

Dietro le quinte, da Hubble a Jwst


Melanie King non disdegna le immagini create per il pubblico, anche se le reputa un po’ troppo patinate, nella loro quasi-perfezione, e preferisce ammirare i dati grezzi. «Trovo molto interessante vedere le scie dei raggi cosmici che interagiscono con il sensore», ammette. «È una traccia tangibile e materiale, rende il cosmo e le stelle più vicini». Nel 2017, nell’ambito della sua ricerca, King ha intervistato Zolt Levay, storico esperto di immagini astronomiche che, insieme al suo team allo Space Science Telescope (Stsci) di Baltimora, ha messo a punto la tecnica di elaborazione grafica usata sia per le immagini Hubble sia per quelle di Jwst. L’obiettivo era analizzare la genesi di un altro grande classico: i “Pilastri della Creazione”, tra i primi capolavori sfornati dal telescopio spaziale Hubble (che abbiamo già incontrato nel primo e nel secondo episodio di questa serie).

18026971
L’opera Pillars Of Creation, Lenticular Print (2017) di Melanie King, esposta alla mostra ‘To The Edge Of Time’ presso la KU Leuven Gallery, Belgio, 2021

«Ho chiesto a Zolt Levay di descrivere l’esperienza di produzione dell’immagine», ricorda King. «L’immagine grezza era in bianco e nero e costellata di tracce di raggi cosmici. Levay ha utilizzato tecniche sofisticate di elaborazione delle immagini per rimuovere artefatti, evidenziare il contrasto e aggiungere i colori». A valle dello scambio, l’artista realizza una stampa della leggendaria nebulosa. Non una stampa qualsiasi: per affiancare i dati grezzi all’immagine elaborata per il pubblico da Levay e colleghi, sceglie la tecnica della stampa lenticolare. Quella usata in alcune cartoline dove si alternano due immagini, per intenderci: a seconda dell’inclinazione, ne vediamo una anziché un’altra.

«A livello estetico, le immagini grezze sono bellissime, quindi penso che il pubblico sarebbe interessato a vederle per questo motivo», commenta. Del resto, tutti i dati sono accessibili a chiunque, da qualsiasi parte del mondo, attraverso gli archivi online delle agenzie che gestiscono questi osservatori spaziali, e non mancano i citizen scientist che vi si tuffano per dilettarsi con l’elaborazione di immagini tutte loro (ne abbiamo parlato nel terzo episodio di questa serie). «Penso che alle persone piaccia sapere come vengono fatte le cose, quindi sarebbe affascinante per un astronomo o un esperto di elaborazione delle immagini discutere dei loro processi».

Il metodo che porta alla creazione di immagini divulgative a partire dai dati astronomici, perfezionato a Stsci sulle osservazioni di Hubble, è rimasto sostanzialmente invariato ora che all’ormai trentaquattrenne telescopio spaziale si è aggiunto il tanto atteso successore. «L’aspetto visivo delle immagini Jwst è in gran parte guidato dai dati», sottolinea Joe DePasquale, principal science visuals developer presso l’Office of Public Outreach di Stsci, che insieme ad Alyssa Pagan si occupa di trasformare i dati grezzi dei due grandi telescopi spaziali nelle spettacolari immagini che il pubblico può ammirare in rete. «Utilizziamo quasi lo stesso identico approccio che usiamo con Hst all’elaborazione dei dati di Jwst. Ci sono alcune idiosincrasie tipiche di ciascun osservatorio con cui dobbiamo confrontarci, per lo più legate all’andamento del “rumore” che vediamo sullo sfondo, ma anche al trattamento delle stelle luminose e dei loro picchi di diffrazione. Il trattamento di questi artefatti delle immagini è unico per ogni osservatorio, ma il processo complessivo è molto simile».

18026973
Alyssa Pagan e Joe DePasquale, esperti di visualizzazione dei dati astronomici allo Space Telescope Science Institute di Baltimora

Come abbiamo già raccontato nei precedenti episodi di questa serie, con l’aiuto di Pagan e DePasquale, gli scintillanti colori delle immagini vengono assegnati tramite un metodo chiamato “ordinamento cromatico”, che mette in relazione i colori alle lunghezze d’onda dei dati a disposizione. «Sia che vengano osservati con Hst o Jwst, i dati delle immagini vengono solitamente presi attraverso diversi filtri per isolare diverse lunghezze d’onda della luce: a volte si tratta di fasce ampie di luce, a volte di regioni molto strette dello spettro», chiarisce DePasquale. «Assegniamo il colore in modo che le lunghezze d’onda più lunghe corrispondano al rosso e, man mano che ci spostiamo verso lunghezze d’onda sempre più corte, utilizziamo assegnazioni di colore verde e blu. La piena ricchezza di colore che vediamo in queste immagini si ottiene fondendo insieme diverse immagini che sono state colorate cromaticamente».

Una questione di prospettiva


Per chi ha fatto scorpacciata di immagini firmate Hubble sin dagli anni Novanta del secolo scorso, il cosmo fotografato da Jwst ha un aspetto nettamente diverso. Ma la differenza principale è da ricercarsi nelle lunghezze d’onda della luce che osservano. «Jwst guarda principalmente all’infrarosso e gli oggetti sembrano parecchio diversi nell’infrarosso rispetto all’ottico: questo è il motivo principale per cui le immagini Hst e Jwst sembrano diverse», nota Travis Rector, professore al Dipartimento di fisica e astronomia della University of Alaska Anchorage, esperto di elaborazione di immagini astronomiche e co-autore del libro Coloring the Universe – An Insider’s Look at Making Spectacular Images of Space. «Un malinteso comune è che esista una “tavolozza di Hubble”. Le tecniche di elaborazione utilizzate per creare immagini da questi due telescopi, così come da altri osservatori, sono in gran parte le stesse. Detto questo, è necessaria una competenza straordinaria per creare immagini di livello così alto come quelle di Jwst. A Joe DePasquale e al suo team va il merito di aver creato immagini davvero spettacolari».

18026975
Dettaglio della nebulosa della Carena, osservata con Hubble (a sinistra) e con Jwst (a destra). Crediti: Crediti: Nasa, Esa, and The Hubble Heritage Team; Nasa, Esa, Csa, Stsci

Rector, che si occupa di formazione stellare e di quasar, lavora principalmente con la Dark Energy Camera, una fotocamera a grande campo sul telescopio da quattro metri Víctor M. Blanco presso l’Osservatorio interamericano di Cerro Tololo, in Cile. «Ogni telescopio», precisa, «può essere considerato uno strumento in una cassetta degli attrezzi e tu scegli quello più adatto alla ricerca che stai conducendo». Fa anche parte del team che crea immagini utilizzando i telescopi del centro di ricerca statunitense NoirLab. Se le immagini di Jwst hanno riscosso così tanto successo, sostiene l’astrofisico, è perché «ci hanno mostrato oggetti familiari, come i famosi “Pilastri della creazione”, da una nuova prospettiva. Ricordiamo le immagini originali e questo ci fornisce un punto di vista su ciò che rende diverse le immagini Jwst. È come se le nostre menti dicessero: “L’ho già visto prima, ma mai così».

Concorda anche King, ammaliata da un’immagine che Jwst ha realizzato nel 2022, osservando la stessa porzione di cielo ripresa diciotto anni prima dal suo predecessore nel celebre Ultra Deep Field. Se Hubble aveva impiegato una settimana e mezzo per confezionare questo panorama del cosmo profondo, a Jwst sono bastate appena venti ore. Nemmeno un giorno. «Per me, questa immagine incarna l’importanza di Jwst, in quanto è in grado di sondare più lontano dei precedenti telescopi e su diverse lunghezze d’onda per scoprire i fenomeni cosmici».

In un’epoca di collasso climatico, in cui ogni anno è ormai il più caldo mai registrato e le temperature record, effetto insieme ad altri eventi meteorologici estremi del riscaldamento globale guidato dalle attività umane, non sorprendono più ma non smettono di preoccupare, immagini come quelle degli Ultra Deep Field forniscono una prospettiva più vasta. «La nostra stella è solo una nella nostra galassia, e la nostra galassia è solo una tra miliardi» riconosce l’artista. «Per quanto ne sappiamo, la Terra è l’unico pianeta che ospita forme di vita complesse e siamo a rischio di autoannientamento».

18026977
Travis Rector, professore al Dipartimento di fisica e astronomia della University of Alaska Anchorage

Secondo Rector, che vivendo in uno stato come l’Alaska sperimenta quotidianamente le conseguenze del riscaldamento globale, in quanto l’Artico si sta scaldando a velocità doppia rispetto al resto del mondo, gli astronomi hanno una prospettiva unica e importante sul problema del cambiamento climatico. Per questo è attivo nella divulgazione su questi temi ed è tra i fondatori del gruppo internazionale Astronomers for Planet Earth. «C’è una notevole sovrapposizione nella fisica dell’astronomia e della climatologia, e in questo modo possiamo aiutare le persone a comprendere il problema» osserva. Ma è soprattutto la consapevolezza di quanto piccola e unica sia la Terra, e del fatto che sia davvero l’unico posto in cui l’umanità possa vivere, che mette la comunità astronomica in una posizione d’eccezione. «La frase “Non esiste un Pianeta B”, diventata un grido di battaglia del movimento per il cambiamento climatico, è a tutti gli effetti una dichiarazione astronomica», ribadisce Rector. «Le immagini che facciamo dell’Universo spesso ispirano soggezione e umiltà, il che può aiutare le persone a sviluppare la nostra prospettiva».

Per saperne di più:


Presentate le prime immagini di Ska-Low


18012732
Sono immagini che anticipano il futuro della radioastronomia a basse frequenze, quelle appena arrivate dall’Osservatorio Ska (Skao): mostrano la prima osservazione “a tutto cielo” (all-sky in inglese) di 24 ore effettuata con una singola stazione Ska-Low, un assaggio che conferma la straordinaria sensibilità di questo interferometro. Nel video condiviso ieri da Skao, che potete vedere qui sotto, la Via Lattea – la nostra galassia – attraversa il cielo notturno, a le più luminose sorgenti radio – come le galassie Centaurus A (Ngc 5128), Virgo A (M87) – sono visibili con estrema chiarezza. Il Sole è rilevabile durante il giorno, evidenziando la capacità del telescopio di catturare dettagli su scale temporali diverse.

media.inaf.it/wp-content/uploa…

Il telescopio Ska-Low sarà l’array a basse frequenze di Skao in Australia occidentale. Il progetto Ska, una volta terminato, sarà il più grande radiotelescopio al mondo, con antenne a bassa frequenza (50 MHz – 350 MHz) in Australia e antenne paraboliche a media frequenza (Ska-Mid) in Sudafrica.

«L’osservazione all-sky di 24 ore a 230 MHz che ha permesso la realizzazione del video sancisce il vero e proprio inizio della prima fase operativa del telescopio Ska-Low (Array Assembly 0.5)», commenta Giulia Macario, ricercatrice all’Inaf di Arcetri e membro del gruppo osservativo Inaf Aavs-Ska-Low. «L’impatto scientifico di queste immagini non ha precedenti, poiché rappresenta un’anteprima delle incredibili capacità di imaging di Ska-Low. La sensibilità della singola stazione già consente di osservare anche radio sorgenti meno brillanti delle famose sorgenti A-Team negli istanti in cui il piano galattico e il Sole sono sotto l’orizzonte. Quando il piano galattico transita (primi 15 secondi del video), la bassa risoluzione raggiungibile dalla stazione (circa 2×2 gradi) permette di apprezzare la spettacolare emissione radio diffusa in tutta la sua estensione, svelando anche dettagli come il North Polar Spur».

18012734
Le prime antenne Ska-Low sono state installate in Australia Occidentale. Credito: Skao

L’osservazione arriva dalle prime 256 di ben 131.072 antenne dalla curiosa forma ad “albero di Natale”, alte due metri, che una volta dispiegate tutte comporrann il radiotelescopio Inyarrimanha Ilgari Bundara, l’Osservatorio radioastronomico Murchison (di Csiro), nel paese della comunità Wajarri. Le antenne sono made in Italy, prodotte utilizzando il prototipo ideato e realizzato da Inaf in collaborazione con il Cnr-Ieiit e l’azienda italiana Sirio Antenne.

«Insieme al gruppo osservativo (che vede coinvolti gli osservatori Inaf di Arcetri e Ira di Bologna)», aggiunge Macario, «abbiamo lavorato dal 2019 alla validazione delle performance di sensibilità e polarizzazione delle stazioni prototipo di Ska-Low denominate Aperture Array Verification Systems (Aavs2 e Aavs3), tramite osservazioni di tutto il cielo del tutto analoghe a queste. Questo risultato si basa anche sulle attività svolte e l’esperienza maturata dal nostro team in collaborazione con Skao e Icrar-Cira a Curtin (Perth), ed è molto esaltante e significativo per me e per il tutto il gruppo».

Dopo anni di attesa, questa osservazione non solo mette in luce il potenziale di Ska-Low, ma offre anche uno sguardo affascinante su cosa potremo scoprire quando tutte le 512 stazioni Ska-Low saranno operative e osserveranno il cielo simultaneamente. Si prevede che questo sistema rivoluzionerà la nostra comprensione dell’universo, permettendo osservazioni senza precedenti sia di oggetti cosmici noti che di fenomeni ancora da scoprire. Un esempio? Ska-Low consentirà agli scienziati di testare le teorie di Einstein e di osservare il cosmo con dettagli senza precedenti.

«È incredibile vedere come con la prima vera e propria stazione di Ska-Low si raggiungano le performance attese: il coronamento degli sforzi di un grande team internazionale», conclude emozionata la ricercatrice.


In ricordo di Guido Chincarini


17989320
media.inaf.it/wp-content/uploa…
Guido Chincarini (24 gennaio 1938 – 5 agosto 2024), in occasione del “Golem Day” avvenuto a Merate (LC) lo scorso novembre

È venuto a mancare lo scorso 5 agosto Guido Chincarini, figura chiave della rinascita dell’Osservatorio astronomico di Brera negli anni Novanta, nonché scienziato di spicco dell’astrofisica internazionale.

Laureatosi nel 1960 presso l’Università degli Studi di Padova, Guido ha passato la parte iniziale della sua carriera tra l’Italia (Università di Padova) e gli Stati Uniti (Lick Observatory, University of California, Wesleyan University, Mc Donald Observatory, University of Oklahoma). Rilevanti a livello internazionale i suoi contributi in ambito scientifico, che hanno principalmente riguardato l’astronomia extragalattica, la cosmologia osservativa (di cui è stato figura chiave negli anni Ottanta del secolo passato) e lo sviluppo di strumentazione di avanguardia in campo astronomico.

Ritornato in Italia nel 1985 come professore ordinario (Università degli Studi di Milano), gli è stata affidata la direzione dell’Osservatorio astronomico di Brera, che ha diretto in maniera continuativa fino al 2001. Moltissime delle attività di ricerca per cui l’Osservatorio di Brera è ora famoso nel mondo sono state fortemente volute, impostate e organizzate da Guido durante la sua direzione. Fondamentale inoltre il suo contributo per la riorganizzazione degli uffici amministrativi, e per la creazione, primo tra gli Osservatori in Italia, di un ufficio predisposto alla comunicazione della scienza (Poe Brera) e per la valorizzazione del patrimonio storico e archivistico dell’Osservatorio di Brera

In stretta collaborazione con Oberto Citterio e Paolo Conconi, ha contribuito allo sviluppo delle tecnologie per la produzione delle ottiche per astronomia X, per cui l’Osservatorio ha acquisito una posizione di primo piano a livello internazionale. Quest’ultima attività di ricerca tecnologica è stata prodroma all’ingresso dell’Osservatorio nella missione Swift, di cui ha guidato la partecipazione nazionale nella prima fase della missione.

Come scrive Filippo Zerbi, direttore scientifico dell’Inaf e collaboratore di Guido alla fine degli anni ‘90: «Con Guido viene a mancare un innovatore. Come tutti gli innovatori ha rotto schemi ed equilibri in una comunità astronomica nazionale che faticava, pur tentando, a emanciparsi e a occupare un ruolo di leadership nel contesto internazionale. Un pensatore ortogonale, una persona spesso “contro” ma anche un coach con schemi nuovi, ogni tanto anche temerari, spesso vincenti. Come con ogni allenatore eccellente, il rapporto con giocatori eccellenti può non essere stato facile ma molti ricercatori della mia generazione, e non solo dell’area milanese, sono stati fortemente ispirati dalle azioni di Guido, altri meno. Nelle oggettive e riconosciute difficoltà questo rapporto, a volte conflittuale, ha portato l’astronomia italiana ai livelli a cui Guido intendeva condurla: una valutazione storica obbiettiva non potrà negare il suo enorme impatto costruttivo».


Un breve ricordo di Guido Chincarini

di Giampaolo Vettolani

Ho iniziato a lavorare con Guido dai primi anni Ottanta sulla distribuzione a grande scala delle galassie e degli ammassi, sulle proprietà dei filamenti e dei vuoti e infine su survey di galassie come la Esp a Eso con lo spettrografo multifibra Octopus o l’analisi all sky della distribuzione degli ammassi di galassie, che ha portato nel 1989 alla (ri)scoperta della Shapley concentration, possibile alternativa al Great Attractor come sorgente del moto misurato dal dipolo del fondo a micro-onde. Sono stati anni con tanti risultati e di grande soddisfazione.

Poi gli interessi di Guido si sono andati spostando verso le alte energie (survey X di ammassi e in seguito gamma ray burst) ma comunque mantenendo un occhio attento ai problemi della struttura a grande scala dell’universo, di cui era stato un pioniere quando con Herbert J. Rood, a metà degli anni Settanta, mostrò che l’ammasso di Coma non era isolato ma immerso in un supercluster di galassie.

Negli anni Novanta era diventata chiara la necessità di un salto qualitativo nella strumentazione spettroscopica, sia in termini di sensibilità che di area di cielo esplorabile in una singola esposizione scientifica (multiplex). Questo al fine di ottenere survey di redshift a magnitudini deboli per affrontare il problema dell’evoluzione delle proprietà di clustering e dell’evoluzione delle popolazioni stellari nelle galassie. Queste considerazioni hanno portato nel 1997 alla proposta di dotare il Vlt di Eso di uno strumento per spettrografia di nuova concezione denominato Vimos (Vlt Imager Multi Object Spectrometer) che Guido ha sostenuto in maniera molto incisiva sia scientificamente che gestionalmente, ad esempio gestendo a Merate i fondi per la costruzione in Italia, presso l’Osservatorio di Brera, che aveva diretto sin dal suo rientro in Italia.

Guido era una persona di carattere forte, ma scientificamente molto generoso e con un forte spirito di leadership. Vorrei darne un esempio di cui sono stato testimone diretto. Qualche anno prima della scomparsa di George Abell nel 1983, la catalogazione degli ammassi di galassie che Abell aveva iniziato per completare, con il catalogo sud, il famoso Catalogo di ammassi a nord era a un punto morto. Guido, che era grande amico di Abell e si trovava allora alla University of Oklahoma a Norman (da cui si assentava per lunghi periodi in cui lavorava in Europa a Eso), prese in mano la situazione e assoldò dapprima Harold Corwin del Mac Donald Observatory a Austin (Texas) e un giovane postdoc, Ron(ald) Olowin, a Norman. Guido predispose il piano di lavoro, dicusse con loro la tecnica di identificazione, come fare i conteggi di galassie in ammasso, la scala delle magnitudini e tutto quanto era necessario per realizzare il catalogo sud, incluso l’acquisto di visori stereo per lastre, apparati fotografici, misuratori di coordinate dal suo grant Nsf personale e presentando lui stesso, in seguito, un grant specifico sulla catalogazione. Quando il catalogo era in uno stato avanzato, durante una mia lunga visita a Norman, decidemmo di iniziare un progetto di fotometria ccd per la misura accurata delle magnitudini delle galassie in ammasso. Tornato in Europa preparai una proposta di osservazione per il 2.2 metri di Eso e inviai la bozza a Guido. Avevo riferito nella proposta il catalogo sud come ‘ACCO catalog’, ovvero come Abell Chincarini Corwin Olowin.

Guido mi intimò di usare il nome che poi è diventato l’acronimo con cui è universalmente conosciuto il catalogo sud di ammassi (vicini nella concezione moderna) ‘ACO’, senza Chincarini cioè: doveva essere un tributo a George Abell che aveva iniziato il tutto e un buon biglietto da visita per la carriera dei due coautori che, a detta di Guido, avevano fatto il lavoro tedioso. Guido aveva curato la parte organizzativa e di “basic astronomy” che poteva fare chiunque, diceva lui. Non so quanti nella stessa posizione si comporterebbero egualmente, soprattutto ora in un periodo un cui parecchi lavori sono firmati da centinaia di persone il cui contributo è perlomeno poco chiaro!

Devo tanta parte della mia carriera scientifica a Guido e lo ricorderò sempre come uno dei due maestri che ho avuto nei miei ormai cinquanta anni di lavoro: Giancarlo Setti e Guido Chincarini – che mi hanno insegnato tantissimo e mi hanno guidato con mano ferma, talvolta un poco troppo…, nel lavoro sia scientifico che gestionale.


Gaia scopre oltre 350 nuovi asteroidi binari


17979424
Avrete forse sentito parlare della coppia di asteroidi Didymos e Dimorphos, protagonisti della prima missione di difesa planetaria della Nasa con lo schianto della sonda Dart sul più piccolo dei due, Dimorphos. Insieme formano un sistema binario in cui – secondo recenti studi – il secondario Dimorphos, quello impattato dalla sonda Dart, ha avuto origine anche grazie all’eiezione di massi dal primo. Su Astronomy & Astrophysics è di oggi la notizia che il satellite Gaia dell’Esa è stato in grado di trovare più di 350 piccoli compagni come Dimorphos attorno ad asteroidi già noti, ma ritenuti solitari.

17979426
Infografica che riassume la ricerca di lune attorno ad asteroidi ritenuti singoli, intrapresa dagli autori di un nuovo studio utilizzando i dati della terza Data Release di Gaia. Crediti: ESA/Gaia

Una scoperta tanto preziosa quanto inattesa, questa di Gaia. Tornando a Dart, infatti, sebbene l’obbiettivo principale della missione fosse la deviazione dell’asteroide come test di difesa planetaria, i risultati scientifici ottenuti dall’analisi dei due corpi, e della loro storia come coppia, non sono meno importanti. Gli asteroidi, infatti, sono oggetti utilissimi e unici per studiare la formazione e l’evoluzione del Sistema solare, e quando si trovano in configurazione binaria hanno un valore aggiunto: permettono di studiare come si formano, si scontrano e interagiscono nello spazio corpi diversi.

Secondo la teoria, sistemi simili a Didymos e Dimorphos non dovrebbero essere così rari, o per lo meno, dovrebbero essere più numerosi rispetto a quelli trovati finora. Al di là della difficoltà oggettiva nel trovare minuscoli satelliti in orbita attorno ad asteroidi noti – e già di per sé piccoli – le tecniche osservative a disposizione selezionano solo determinate configurazioni, tralasciando intere classi di oggetti e sistemi.

Fra i vari modi di individuare la presenza di un satellite attorno a un asteroide principale, c’è la cosiddetta ricerca delle anomalie astrometriche periodiche, ovvero di spostamenti nella posizione di un asteroide che risultano anomali rispetto al moto che ci si aspetterebbe se questo fosse solo nello spazio, e periodici, e dunque spiegabili ipotizzando che siano causati dell’influenza gravitazionale di un altro corpo. Isolare questa piccola anomalia nel moto e misurarla è davvero difficile per quasi qualunque telescopio attualmente operativo, sulla Terra e in orbita. Ad eccezione di Gaia, che, come dicevamo, ha azzardato la prima ricerca sistematica di sistemi binari di asteroidi “alla cieca”, ovvero senza alcuna ipotesi di binarietà a priori.

17979428
Questa immagine mostra le orbite degli oltre 150mila asteroidi presenti nella release 3 dei dati di Gaia, dalle parti interne del Sistema aolare agli asteroidi troiani alla distanza di Giove, con diversi codici colore. Il cerchio giallo al centro rappresenta il Sole. Il blu rappresenta la parte interna del Sistema solare, dove si trovano gli asteroidi vicini alla Terra. La Fascia principale, tra Marte e Giove, è verde. I troiani di Giove sono rossi. Crediti: Esa/Gaia/Dpac; Cc By-Sa 3.0 Igo

Finora il telescopio spaziale era stato usato solamente per confermare – o smentire – alcuni candidati sospetti e selezionati mediante altre tecniche. Ma la precisione di misura e la capacità dimostrata in questo esercizio ha spinto gli astronomi a tentare il passo successivo, ovvero quello di cercare, in asteroidi ritenuti singoli, la presenza di piccoli compagni.

Uno sforzo che non si è rivelato azzardato, visto che Gaia ne ha già trovati 352.

«Gli asteroidi binari sono difficili da trovare perché sono per lo più corpi piccoli e lontani da noi», spiega Luana Liberato dell’Observatoire de la Côte d’Azur, in Francia, e prima autrice del nuovo studio. «Nonostante ci aspettassimo che poco meno di un sesto degli asteroidi avesse un compagno, finora abbiamo trovato solo 500 asteroidi in sistemi binari. Ma questa scoperta dimostra che ci sono molte lune attorno ad asteroidi là fuori che aspettano solo di essere trovate».

Gli autori hanno analizzato tutti i dati della terza Data release di Gaia, che contiene misure precisissime delle posizioni e dei moti di oltre 150 mila asteroidi. Non solo, il satellite ha anche raccolto dati sulla chimica degli asteroidi, e compilato così la più grande collezione di “spettri di riflettanza” (curve di luce che rivelano il colore e la composizione di un oggetto). La prossima release di dati è prevista non prima della metà del 2026 ma, stando ai risultati già ottenuti, gli astronomi già sperano di trovarci dentro un numero ancora maggiore di orbite di asteroidi da analizzare in cerca di sistemi binari.

E tornando al sistema binario menzionato in apertura, sarà diretta verso Didymos e Dimorphos anche la prossima missione dell’Agenzia spaziale europea, che si leverà in volo il prossimo autunno: Hera. Farà seguito alla missione Dart della Nasa – che, lo dicevamo, nel 2022 si è scontrata con Dimorphos – per produrre un’indagine post-impatto. Sarà la prima sonda a compiere un rendez-vous con un sistema binario di asteroidi.

Per saperne di più:


Bolle di plasma e il “motore” dei lampi radio veloci


17963568
17963570
Illustrazione artistica di una magnetar, circondata dalla bolla di plasma responsabile dell’emissione persistente osservata in alcuni lampi radio veloci. Crediti: Nsf/Aui/Nrao/S. Dagnello

I fast radio burst (Frb), o lampi radio veloci, sono uno dei misteri aperti più recenti dell’astrofisica moderna: in pochi millisecondi rilasciano una quantità di energia tra le più alte osservabili nei fenomeni cosmici. Scoperti poco più di dieci anni fa, questi forti lampi in banda radio provengono da sorgenti per lo più extragalattiche, ma la loro origine è ancora incerta e molti sono gli sforzi della comunità astrofisica di tutto il mondo per cercare di comprendere i processi fisici alla loro origine.

In pochissimi casi, il rapido lampo che caratterizza i fast radio burst coincide con un’emissione persistente, sempre in banda radio. Una nuova ricerca guidata dall’Istituto nazionale di astrofisica (Inaf) ha registrato l’emissione radio persistente più debole mai rilevata finora per un Frb. Si tratta di Frb 20201124A, un lampo radio veloce scoperto nel 2020, la cui sorgente si trova a circa 1,3 miliardi di anni luce da noi. Oltre al lavoro di ricercatori e ricercatrici Inaf, lo studio vede la collaborazione delle Università di Bologna, Trieste e della Calabria, e la partecipazione internazionale di istituti di ricerca e università in Cina, Stati Uniti, Spagna e Germania.

Le osservazioni – rese possibili dal radiotelescopio più sensibile al mondo, il Very Large Array (Vla) negli Stati Uniti – hanno permesso di verificare la predizione teorica che prevede una bolla di plasma all’origine dell’emissione radio persistente dei lampi radio veloci. I risultati sono pubblicati oggi sulla rivista Nature.

«Siamo riusciti a verificare tramite osservazioni che l’emissione persistente che accompagna alcuni fast radio burst si comporta come previsto dal modello di emissione nebulare, ovvero una ‘bolla’ di gas ionizzato che circonda il motore centrale» spiega Gabriele Bruni, ricercatore Inaf a Roma e primo autore dell’articolo. «In particolare, tramite l’osservazione in banda radio di uno dei lampi più vicini, siamo riusciti a misurare la debole emissione persistente proveniente dalla stessa posizione del Frb, estendendo di due ordini di grandezza l’intervallo di flusso radio esplorato finora per questi oggetti».

Il nuovo lavoro aiuta anche a circoscrivere la natura del motore di questi misteriosi lampi. Secondo i nuovi dati, alla base del fenomeno risiederebbe una magnetar (stella di neutroni fortemente magnetizzata) oppure una binaria a raggi X con regime di accrescimento molto alto, ovvero un sistema binario formato da una stella di neutroni o da un buco nero che accresce materiale da una stella compagna a ritmi molto intensi. Sarebbero infatti i venti prodotti dalla magnetar, oppure dal sistema binario X, a “gonfiare” la bolla di plasma che dà origine all’emissione radio persistente. C’è quindi una relazione fisica diretta tra il “motore” del Frb e la bolla, che si trova nelle sue immediate vicinanze.

La campagna osservativa è stata condotta a seguito di un altro lavoro guidato da Luigi Piro dell’Inaf, coautore del nuovo articolo, nel quale era stata individuata l’emissione persistente nella galassia ospite di questo Frb, ma non ancora con una determinazione della posizione sufficientemente precisa da permettere di associare tra loro i due fenomeni. «In questo nuovo lavoro, abbiamo condotto una campagna a risoluzione spaziale più elevata con il Vla, accompagnata anche da osservazioni in diverse bande con l’interferometro Noema e il Gran Telescopio Canarias (GranTeCan), che ci hanno permesso di ricostruire il quadro generale della galassia e scoprire la presenza di una sorgente radio compatta – la bolla di plasma del Frb – immersa nella regione di formazione stellare» aggiunge Piro. «Nel frattempo, è stato pubblicato anche il modello teorico sulla nebulosa, permettendoci di testarne la validità e, infine, di confermare il modello stesso».

Gran parte del lavoro è stato dedicato a escludere che l’emissione radio persistente provenisse proprio da una regione di formazione stellare, e che quindi non fosse legata fisicamente alla sorgente del Frb. A questo scopo, le osservazioni fatte con Noema in banda millimetrica hanno misurato la quantità di polveri, che tracciano le regioni di formazione stellare “oscurate”, e quelle fatte con il GranTeCan in banda ottica hanno misurato l’emissione da idrogeno ionizzato, anch’esso un tracciante del tasso di formazione di stelle.

«Le osservazioni ottiche sono state un elemento importante per studiare la regione del Frb a una risoluzione spaziale simile al radio» nota la coautrice Eliana Palazzi dell’Inaf di Bologna. «Poter mappare l’emissione dell’idrogeno con questo dettaglio ci ha permesso di derivare un tasso di formazione locale di stelle che è risultato essere troppo basso per giustificare l’emissione radio continua».

La maggior parte dei fast radio burst non presenta emissione persistente. Finora, questo tipo di emissione era stata associata soltanto a due Frb, ma a un regime di luminosità che non permetteva di verificare il modello proposto. Nel caso di Frb20201124A, invece, la sua distanza sì grande ma non eccessiva ha permesso di misurare l’emissione persistente nonostante la bassa luminosità. Capire la natura dell’emissione persistente permette di aggiungere una tessera al puzzle sulla natura di queste misteriose sorgenti cosmiche.

Per saperne di più:

  • Leggi su Nature l’articolo “A nebular origin for the persistent radio emission of fast radio bursts”, di Gabriele Bruni, Luigi Piro, Yuan-Pei Yang, Salvatore Quai, Bing Zhang, Eliana Palazzi, Luciano Nicastro, Chiara Feruglio, Roberta Tripodi, Brendan O’Connor, Angela Gardini, Sandra Savaglio, Andrea Rossi, A. M. Nicuesa Guelbenzu, Rosita Paladino


Gli altopiani venusiani di Ishtar Terra


17954803
17954805
Vista globale della superficie di Venere, centrata a 180 gradi di longitudine est. I mosaici radar ottenuti con la sonda Magellano sono stati mappati su un globo simulato al computer per creare questa immagine. Le lacune nei dati sono riempite con i dati del Pioneer Venus Orbiter o con un valore medio costante. Il colore simulato viene utilizzato per migliorare la struttura su piccola scala. Le tonalità si basano sulle immagini a colori registrate dalle navicelle sovietiche Venera 13 e 14. Crediti: Nasa/Jet Propulsion Laboratory-Caltech

Una nuova ricerca ha rivelato che Venere, spesso considerato il gemello inospitale della Terra, potrebbe condividere una sorprendente storia geologica con il nostro pianeta. Gli scienziati hanno scoperto che i vasti altopiani di Venere, noti come tessere (perché il terreno è frammentato e ricorda le tessere di un mosaico), potrebbero essersi formati attraverso processi simili a quelli che hanno creato i primi continenti della Terra, miliardi di anni fa.

Lo studio internazionale, guidato da Fabio Capitanio della Monash University School of Earth, Atmosphere and Environment, in collaborazione con la Nasa, è stato pubblicato a inizio agosto sulla rivista Nature Geoscience. «Lo studio mette in discussione la nostra comprensione di come si evolvono i pianeti», spiega Capitanio. «Non ci aspettavamo che Venere, con la sua temperatura superficiale di 460°C e la mancanza di tettonica a placche, possedesse caratteristiche geologiche così complesse».

Utilizzando simulazioni al computer ad alte prestazioni e i dati della sonda Magellano, i ricercatori hanno modellato la formazione di Ishtar Terra, il più grande altopiano di Venere. Situato nei pressi del polo nord, la sua estensione territoriale è approssimativamente pari a quella degli Stati Uniti d’America e si eleva di circa 4 chilometri rispetto al livello medio superficiale. I risultati suggeriscono che Ishtar Terra e altre tessere potrebbero essersi sollevate attraverso un processo simile alla formazione dei cratoni terrestri, gli antichi nuclei dei nostri continenti.

«Questa scoperta fornisce un’affascinante nuova prospettiva su Venere e sui suoi potenziali legami con la Terra primordiale», dice Capitanio. «Le caratteristiche che abbiamo trovato su Venere sono sorprendentemente simili ai primi continenti terrestri, il che suggerisce che le dinamiche del passato di Venere potrebbero essere state più simili a quelle della Terra di quanto si pensasse».

Capire come si sono formati questi “continenti” su Venere potrebbe far luce sull’evoluzione dei pianeti rocciosi, compreso il nostro. I cratoni della Terra contengono indizi cruciali sull’emergere della topografia, dell’atmosfera e persino della vita. «Studiando caratteristiche simili su Venere, speriamo di svelare i segreti della storia iniziale della Terra», conclude Capitanio. «La nostra ricerca ha aperto la strada a future missioni su Venere, come DaVinci, Veritas ed EnVision. Queste missioni forniranno ulteriori approfondimenti sulla storia geologica di Venere e sul suo legame con la Terra».

Per saperne di più:


L’origine della sottile atmosfera lunare


17949319
17949321
Rendering artistico di un astronauta che lavora sulla superficie lunare durante una futura missione. Crediti: Nasa

Pur non avendo aria respirabile, la Luna ha un accenno di atmosfera. Dagli anni Ottanta gli astronomi hanno osservato un sottilissimo strato di atomi che “rimbalzano” sulla superficie lunare. Questa sottile atmosfera – tecnicamente nota come esosfera – è probabilmente il prodotto di un qualche tipo di agente atmosferico spaziale ma è sempre stato difficile stabilire con certezza quale sia il processo coinvolto.

Ora, gli scienziati del Mit e dell’Università di Chicago affermano di aver identificato il processo principale che ha formato l’atmosfera lunare e continua tuttora a sostenerla. In uno studio pubblicato su Science Advances, il team riferisce che l’atmosfera lunare è principalmente il prodotto della vaporizzazione da impatto.

Nel loro studio, i ricercatori hanno analizzato campioni di suolo lunare raccolti dagli astronauti durante le missioni Apollo della Nasa. La loro analisi suggerisce che, nel corso dei 4,5 miliardi di anni di storia della Luna, la sua superficie è stata continuamente bombardata, prima da massicci meteoriti e poi, più recentemente, da micrometeoroidi, grandi come grani di polvere. Questi impatti costanti hanno smosso il suolo lunare, vaporizzando alcuni atomi al contatto e facendo volare in aria le particelle. Alcuni atomi vengono espulsi nello spazio, mentre altri rimangono sospesi sulla Luna, formando una tenue atmosfera che viene costantemente rifornita quando altri meteoriti continuano a colpire la superficie.

Ma vediamo come è avvenuta la scoperta.

Nel 2013 la Nasa inviò un orbiter intorno alla Luna per effettuare una dettagliata ricognizione atmosferica. Il Lunar Atmosphere and Dust Environment Explorer (Ladee, pronunciato laddie) aveva il compito di raccogliere a distanza informazioni sulla sottile atmosfera lunare, sulle condizioni della superficie e su eventuali influenze ambientali sulla polvere lunare. Gli scienziati speravano che le misurazioni della sonda sulla composizione del suolo e dell’atmosfera potessero essere correlate a determinati processi di erosione spaziale che avrebbero potuto spiegare come si è formata l’atmosfera lunare.

Già all’epoca sospettavano che due processi meteorologici spaziali avessero un ruolo nella formazione dell’atmosfera lunare: la vaporizzazione da impatto e lo sputtering ionico, un fenomeno che coinvolge il vento solare, che trasporta particelle cariche energetiche dal Sole attraverso lo spazio. Quando queste particelle colpiscono la superficie lunare, possono trasferire la loro energia agli atomi del suolo e farli schizzare in aria.

«In base ai dati di Ladee, sembra che entrambi i processi svolgano un ruolo importante», spiega Nicole Nie del Department of Earth, Atmospheric and Planetary Sciences del Mit. «Per esempio, è emerso che durante le piogge di meteoriti si vedono più atomi nell’atmosfera, il che significa che gli impatti hanno un effetto. Ma ha anche mostrato che quando la Luna è protetta dai raggi del Sole, come durante un’eclissi, ci sono cambiamenti negli atomi dell’atmosfera, il che significa che anche il Sole ha un impatto».

Per individuare con maggiore precisione le origini dell’atmosfera lunare, Nie ha preso in considerazione i campioni di suolo lunare raccolti dagli astronauti durante le missioni Apollo della Nasa. Insieme ai suoi colleghi dell’Università di Chicago ha acquisito 10 campioni di suolo lunare, ognuno dei quali misurava circa 100 milligrammi, una quantità minima che, secondo le sue stime, potrebbe stare in una singola goccia di pioggia. Da ogni campione ha cercato di isolare due elementi: il potassio e il rubidio. Entrambi gli elementi sono volatili, cioè facilmente vaporizzabili con urti e sputtering ionico.

Ogni elemento esiste sotto forma di diversi isotopi, dove un isotopo è una variazione dello stesso elemento che presenta lo stesso numero di protoni ma un numero leggermente diverso di neutroni. Per esempio, il potassio può esistere in tre isotopi, ognuno dei quali ha un neutrone in più ed è leggermente più pesante del precedente. Allo stesso modo, esistono due isotopi del rubidio.

Il team ha pensato che se l’atmosfera lunare fosse costituita da atomi che sono stati vaporizzati e sospesi nell’aria, gli isotopi più leggeri dovrebbero essere trasportati più facilmente, mentre quelli più pesanti avrebbero maggiori probabilità di depositarsi al suolo. Inoltre, la vaporizzazione da impatto e lo sputtering di ioni dovrebbero determinare proporzioni isotopiche molto diverse nel suolo. In particolare, il rapporto specifico tra isotopi leggeri e pesanti che rimangono nel suolo, sia per il potassio che per il rubidio, dovrebbe rivelare il processo principale che contribuisce alle origini dell’atmosfera lunare.

Tenendo conto di tutto ciò, Nie ha analizzato i campioni Apollo dapprima frantumandoli in polvere fine, poi sciogliendo le polveri in acidi per purificare e isolare le soluzioni contenenti potassio e rubidio. Successivamente, ha fatto passare queste soluzioni attraverso uno spettrometro di massa per misurare i vari isotopi di potassio e rubidio presenti in ogni campione.

Alla fine, il team ha scoperto che i terreni contenevano soprattutto isotopi pesanti di potassio e rubidio. I ricercatori sono stati in grado di quantificare il rapporto tra isotopi pesanti e leggeri sia del potassio che del rubidio e, confrontando i due elementi, hanno scoperto che la vaporizzazione da impatto è molto probabilmente il processo dominante attraverso il quale gli atomi vengono vaporizzati e trasportati a formare l’atmosfera lunare.

17949323
All’origine della sottile atmosfera lunare potrebbe esserci (A) la vaporizzazione da impatto di meteoriti, (B) lo sputtering ionico da vento solare e (C) il desorbimento stimolato dai fotoni. La vaporizzazione da impatto e lo sputtering ionico del vento solare liberano gli atomi dalle rocce, mentre la (C) rilascia solo gli atomi adsorbiti debolmente legati. Una volta che gli atomi sono stati rilasciati da (B) o (A), una frazione di essi viene persa nello spazio attraverso la fuga gravitazionale (D). La (C) non provoca alcuna fuga gravitazionale a causa della sua bassa energia. Gli atomi che non fuggono direttamente nello spazio possono rimbalzare più volte sulla superficie lunare finché non vengono persi nello spazio o reimpiantati sulla superficie lunare tramite (E) fotoionizzazione o (F) essere intrappolati in modo permanente sulla superficie lunare. Crediti: Science Advaces, Nie et al.

«Con la vaporizzazione da impatto, la maggior parte degli atomi rimane nell’atmosfera lunare, mentre con lo sputtering ionico molti atomi vengono espulsi nello spazio», spiega Nie. «Grazie al nostro studio, ora possiamo quantificare il ruolo di entrambi i processi e dire che il contributo relativo della vaporizzazione da impatto rispetto allo sputtering ionico è di circa 70:30 o più». In altre parole, il 70% o più dell’atmosfera lunare è il prodotto dell’impatto di meteoriti, mentre il restante 30% è una conseguenza del vento solare.

«La scoperta di un effetto così sottile è notevole, grazie all’idea innovativa di combinare le misurazioni degli isotopi di potassio e rubidio con un’attenta modellazione quantitativa», afferma Justin Hu, postdoc che studia i suoli lunari all’Università di Cambridge, che non ha partecipato allo studio. «Questa scoperta va oltre la comprensione della storia della Luna, poiché tali processi potrebbero verificarsi ed essere più significativi su altre lune e asteroidi, che sono al centro di molte missioni di ritorno programmate».

«Senza questi campioni Apollo, non saremmo stati in grado di ottenere dati precisi e fare misure quantitative per capire le cose in modo più dettagliato», afferma Nie. «È importante riportare campioni dalla Luna e da altri corpi planetari, in modo da poter tracciare immagini più chiare della formazione e dell’evoluzione del Sistema solare».

Per saperne di più: