Salta al contenuto principale

Se la scienza sbaglia sulla parità di genere


15895419
15895421
Katalin Karikó, “Nonostante tutto. La mia vita nella scienza” (trad. it. di Andrea Asioli), Bollati Boringhieri 2024, 261 pagine, 22 euro

Nonostante tutto è l’azzeccato titolo dell’edizione italiana della biografia di Katalin Karikó, premio Nobel per la medicina 2023 per i suoi fondamentali studi sullo mRna che hanno permesso il rapido sviluppo dei vaccino contro il Covid-19. Niente nella carriera della Karikó è stato facile: costretta a lasciare l’Ungheria, dove il laboratorio nel quale lavorava non aveva più finanziamenti, ha dovuto iniziare una nuova vita negli Stati Uniti, dove non ha trovato né rose né fiori.

Arrivata con il marito e la figlia Susan di due anni che, senza saperlo, aveva trasportato il rotolo di banconote che rappresentavano tutte le riserve economiche della famiglia cucite nel suo orsacchiotto, si accorse subito che i servizi offerti per scuola e sanità erano radicalmente diversi da quelli che aveva a disposizione in Ungheria. In Pennsylvania tutto era a pagamento e il suo stipendio era modesto. La carriera non andava bene: rapporti difficili con colleghi e superiori che non capivano il suo caparbio interesse per le evanescenti molecole dello Rna messaggero, che produceva pochi risultati e non attirava finanziamenti, la rendevano l’ultima ruota del carro nei laboratori dove lavorava.

La svolta è venuta dall’incontro casuale con Drew Weissman che, davanti a una fotocopiatrice, le racconta che vuole sviluppare vaccini contro malattie infettive. Lei risponde che lo mRna potrebbe fare al caso suo, così iniziano a collaborare sulla strada che porterà entrambi al Nobel nonostante, a un certo punto, lei venga estromessa dal suo laboratorio all’Università di Pennsylvania perché altri, più produttivi, hanno bisogno dello spazio. Vedere la sua roba negli scatoloni fa scattare la molla e Katalin Karikó dice basta. Si guarda intorno e decide di tentare la strada delle industrie farmaceutiche, accettando l’offerta della tedesca BioNTech, dove vogliono puntare sullo mRna per vaccini antiinfluenzali. Inizia una vita tra Magonza e Philadelphia, dove continua a stare il marito, mentre la figlia, medaglia d’oro per il canottaggio alle olimpiadi di Pechino e Londra, vive in California. Un ménage complicato ma appagante che viene travolto dalla pandemia, che vede BioNTech in prima fila con Pfizer nello sviluppo del vaccino basato proprio sullo mRna. Sono mesi frenetici che Katalin passa in lockdown a Philadelphia da dove dirige il suo team.

La notizia del successo dei test clinici del vaccino arriva pochi giorni dopo il matrimonio di Susan. Katalin non è sorpresa: era sicura che il vaccino avrebbe funzionato. Quello che non immaginava era quanto la sua vita sarebbe cambiata. Nel 2023 è la tredicesima donna a ricevere il premio Nobel per la medicina, che divide con Weissman. I loro nomi sono gli ultimi della lista di 230 vincitori del Nobel per la medicina, dove le donne sono solo il 5 per cento. Se la percentuale appare bassa dobbiamo ricordare che la situazione della fisica è molto peggiore, con 5 premiate su un totale di 225 vincitori (in effetti sono 224 persone, perché John Bardeens ha vinto due volte). L’ultima delle premiate è Anne L’Huillier, che ha ricevuto il premio Nobel nel 2023 per avere contribuito allo sviluppo della fisica sui tempi scala degli attosecondi, un’unità di misura corrispondente ad un milionesimo di milionesimo di milionesimo di secondo. Un intervallo di tempo veramente minuscolo, che permette di vedere i convulsi spostamenti degli elettroni nel corso delle reazioni chimiche. Prima di lei erano state premiate Marie Curie (1903), Maria Goeppert-Mayer (1963), Donna Strickland (2018) e Andrea Ghez (2020). Un contingente veramente esiguo, poco più del 2 per cento del totale. La situazione è leggermente meglio per la chimica, che ha 8 premiate su 191 vincitori.

15895423
Elisabetta Strickland, “Le madri di idee. Le donne scienziate ed il premio Nobel”, Nemapress Edizioni 2023, 146 pagine, 15 euro

Un’anomalia che è stata più volte sollevata e che l’Accademia svedese fa fatica a gestire. Di sicuro la strada da fare è ancora lunghissima, come fa giustamente notare Elisabetta Strickland nel suo Le madri di idee, dove racconta le storie delle 25 signore che hanno ricevuto il Nobel nel campo della fisica, della chimica e della medicina. In totale i premi sono 26, ma Marie Curie vale doppio perché di Nobel ne ha presi due – uno per la fisica e uno per la chimica.

Avrebbe potuto sembrare un inizio radioso, dopo tutto il premio era stato istituito nel 1901. Ma gli archivi ci dicono che Marie venne premiata nonostante non fosse stata nominata dall’Accademia delle scienze francesi, che indicò i nomi di Pierre Curie e Henri Becquerel. Solo l’ostinazione di Pierre fece includere Marie. Del resto non si può certo dire che Marie Curie abbia avuto un buon rapporto con l’Accademia delle scienze francese. Dopo la morte di Pierre, presentò domanda per entrare a farne parte. Sarebbe stata la prima donna, ma la sua candidatura non ottenne abbastanza voti e Marie non venne eletta. Per trovare un nuovo premio Nobel al femminile bisogna aspettare il 1935, quando Irène Joliot Curie e suo marito vennero premiati per la chimica. Irène fu la seconda donna a ricevere il premio Nobel per la chimica dopo sua madre, che lo aveva avuto nel 1911. Lei e il marito furono anche la seconda coppia di scienziati, come i coniugi Curie. Dopo 12 anni Gerty Teresa Cory e suo marito riceveranno il Nobel per la medicina e dovranno passare altri 16 anni per il Nobel per la fisica a Maria Goppert-Mayer, che aveva collaborato al progetto Manhattan.

La situazione sta lentamente migliorando: tre dei cinque premi Nobel per la fisica al femminile sono stati conferiti negli ultimi sei anni. Speriamo, nonostante tutto.


Scoperte recenti colate di lava su Venere


15886397

media.inaf.it/wp-content/uploa…
Le colate di lava identificate sulla superficie di Venere. Crediti: Irsps – Università d’Annunzio/D. Sulcanese

Osservate per la prima volta tracce recenti di colate laviche su Venere, il pianeta gemello della Terra, che a causa di un’atmosfera molto densa è quasi impossibile da studiare. A scoprire i segni di queste eruzioni è stato uno studio tutto italiano, guidato da Davide Sulcanese dell’Università d’Annunzio di Pescara, il cui lavoro, pubblicato ieri su Nature Astronomy, dimostra come Venere sia ancora attivo e aiuterà a pianificare le future missioni spaziali, come Veritas e EnVision, a cui partecipa anche l’Agenzia spaziale italiana.

«Si avevano indizi su una possibile attività su Venere e ora ne abbiamo la certezza», ha detto all’Ansa Giuseppe Mitri della “d’Annunzio”, che ha realizzato lo studio con Sulcanese e Marco Mastrogiuseppe, dell’Università Sapienza di Roma. Venere è una sorta gemello infernale della Terra poiché, nonostante abbia massa e dimensioni quasi identiche al nostro pianeta, ha un’atmosfera talmente densa da avere in superficie temperature di oltre 400 gradi e pressioni che arrivano a 90 atmosfere. Proprio la sua densa atmosfera rende molto difficile studiare la superficie di Venere, gli strumenti difficilmente resistono a tali condizioni e gran parte delle analisi sono possibili solo usando i radar, come nel caso della missione Magellan della Nasa, che tra il 1990 e il 1994 ha mappato il pianeta con un radar.

«Grazie al rinnovato interesse, in vista di future missioni, e ai grandi miglioramenti tecnologici di elaborazione dei dati», ha detto Sulcanese, «abbiamo potuto mettere a confronto le immagini ottenute tra i due periodi scoprendo la presenza in due regioni alcune colate laviche avvenute in quell’intervallo di tempo». Si tratta della prova più limpida di attività del pianeta, che si aggiunge alla scoperta fatta circa un anno fa di deformazioni in un cratere, segno di una probabile eruzione.

«Studiando Venere», ha aggiunto Mitri, «possiamo comprendere anche molto del nostro pianeta, perché ci aiuta ad esempio a capire come mai nonostante siano così simili e si siano formati nello stesso ambiente hanno poi avuto un’evoluzione così diversa». Studi che aiuteranno anche allo sviluppo dei nuovi strumenti che saranno a bordo di Veritas della Nasa e EnVision dell’Agenzia spaziale europea e che avranno entrambi importanti contributi italiani.

Per saperne di più:


Guarda il video sul canale YouTube di Nature:

youtube.com/embed/h1BmNjzg41Q?…


BepiColombo ancora in volo a spinta ridotta


15869159
L’avevamo lasciata due settimane fa alle prese con un malfunzionamento del sistema di propulsione elettrica, che non riesce a fornire tutta la spinta richiesta, emerso esattamente un mese fa, il 26 aprile. Da allora la situazione della sonda Esa/Jaxa BepiColombo, in viaggio verso Mercurio, non sembra essere mutata. Abbiamo comunque raggiunto per un aggiornamento Elsa Montagnon, capo della Mission Operations Division dell’Agenzia spaziale europea a Esac, in Spagna.

Il 7 maggio scorso eravate riusciti a portare la propulsione elettrica di BepiColombo al 90 per cento della spinta prevista. Come sta andando, ora?

«La sonda – che ha appena superato un periodo di comunicazione limitata a causa del passaggio dietro al Sole, come parte della sua traiettoria pianificata – continua a esercitare la spinta. Secondo il programma rivisto, l’attuale propulsione elettrica continuerà fino alla fine di giugno, con un’interruzione già programmata il 6 giugno. È stato aggiunto un altro periodo di spinta “di rabbocco” a luglio. Dalla fine di luglio in poi, per una navigazione più precisa verso lo swing-by con Mercurio di inizio settembre, entrerà invece in azione la propulsione chimica: questa fase rimane invariata, è la normale procedura prevista, in questa missione, nell’ultimo mese prima di un’assistenza gravitazionale».

15869161
Cronologia degli “swing-by” programmati durante i 7,2 anni di viaggio di BepiColombo verso Mercurio (cliccare per ingrandire). In rosso è evidenziato lo swing-by in programma il prossimo settembre con Mercurio. Crediti: Esa

Avete già individuato la causa del guasto? È possibile che sia dovuto ai pannelli solari?

«Sappiamo che il problema è che il Mercury Transfer Module non è in grado di fornire energia sufficiente al sottosistema di propulsione elettrica. Il team sta attualmente verificando l’intera catena di produzione e distribuzione di energia su questo modulo».

Nella nota Esa del 15 maggio si spiegava che, se si riesce a mantenere il livello di potenza del 90 per cento, BepiColombo dovrebbe comunque riuscire ad arrivare a Mercurio in tempo per l’assistenza gravitazionale – il cosiddetto swing-by – di inizio settembre. Qual è la soglia di potenza al di sotto della quale la sonda rischierebbe invece di non farcela?

15869163
Traiettoria di BepiColombo con indicazione della distanza dal Sole, degli swing-by con la Terra, Venere e Mercurio e, in rosso, dell’impiego della propulsione elettrica (“SEP”). La freccia arancione indica il periodo di propulsione elettrica attuale (cliccare per ingrandire). Fonte: C. Steiger, E. Montagnon, F. Budnik et al., “BepiColombo – Solar Electric Propulsion System Operations for the Transit to Mercury”, 2019

«Il prossimo swing-by con Mercurio è senza dubbio una pietra miliare molto importante nel percorso di BepiColombo. Questo swing-by e i due che lo seguiranno fino a gennaio 2025 serviranno a ridurre ulteriormente la velocità della navicella e a cambiare la direzione del suo vettore di velocità rispetto al Sole, come richiesto per completare la traiettoria in modo corretto nel 2025. Abbiamo verificato che c’è margine per un’ulteriore piccola riduzione del livello di spinta, che sarebbe comunque compatibile con l’incontro con Mercurio previsto a settembre. Determinare il valore esatto di tale soglia, però, sarebbe molto impegnativo».

Mancare l’appuntamento di settembre metterebbe a repentaglio ogni possibilità di successo della missione?

«Il mancato swing-by con Mercurio comprometterebbe la data di arrivo attualmente prevista nel dicembre 2025. Ma nella sua attuale traiettoria eliocentrica la sonda spaziale è già in risonanza con Mercurio – quattro rivoluzioni della sonda attorno al Sole ogni cinque rivoluzioni di Mercurio – il che dovrebbe consentire il ripetersi della traiettoria attuale in una fase successiva».

Quando saprete con certezza se BepiColombo arriverà a Mercurio in tempo?

«Il nostro team di esperti dell’Esa e dell’industria sta lavorando incessantemente per rispondere a questa domanda legittima. Vi informeremo non appena ne sapremo di più».


Per saperne di più:


Da Galileo a Jwst, venerdì sera a Pisa


15854767
15854769
Immagine a falsi colori della galassia JO204 ottenuta da osservazioni con il telescopio spaziale Hubble: i colori più chiari definiscono il disco della galassia mentre le regioni dove si stanno formando nuove stelle sono colorate in blu e formano delle strisce colorate che assomigliano ai tentacoli di una medusa. Crediti: Esa/Hubble & Nasa, M. Gullieuszik and the Gasp team

Venerdì 31 maggio, nella Gipsoteca dell’Università di Pisa, l’astronomo Sirio Belli dell’Università di Bologna terrà una conferenza aperta al pubblico intitolata “Alla scoperta delle prime galassie: da Galileo al telescopio spaziale James Webb”: una storia che parla dell’evoluzione delle galassie partendo dalle ultimissime scoperte del telescopio spaziale Webb, che è riuscito a vedere per la prima volta le prime nate dopo il Big Bang. Un incontro di carattere divulgativo a conclusione di Gaspisa, il convegno finale di Gasp, un progetto quinquennale finanziato dal Consiglio di ricerca europeo (Erc).

«È bello e anche doveroso condividere con tutti la conoscenza dell’universo che acquisiamo attraverso le scoperte scientifiche, che sono un patrimonio di tutti. Questa conferenza pubblica è un “regalo” che vogliamo fare alla città che ci ospita, la bella Pisa, che è anche la mia città natale, dove ho vissuto fino alla conclusione dei miei studi», dice la responsabile di Gasp, Bianca Maria Poggianti, direttrice dell’Inaf di Padova. «Abbiamo scelto come tema della conferenza pubblica di venerdì sera la frontiera attuale dell’astrofisica, cioè le scoperte sulle galassie più lontane e sull’origine del cosmo che stanno arrivando dal telescopio spaziale James Webb. Quali siano le condizioni fisiche del gas nelle prime galassie è un argomento molto legato al progetto Gasp. È quindi un’occasione unica per tutta la cittadinanza per avere di prima mano le “ultime notizie” dai confini dell’universo».

Lo scopo del progetto Gasp – acronimo di Gas stripping phenomena in galaxies – era capire i processi fisici che rimuovono il gas dalle galassie quando queste, ad esempio, entrano in ambienti molto “affollati” come gli ammassi di galassie. Negli ammassi, il plasma molto caldo e diffuso (fino a 10 milioni di gradi) che riempie lo spazio fra una galassia e l’altra strappa il gas delle galassie che vi stanno cadendo dentro. «Il gas serve alle galassie per formare nuove stelle», spiega Poggianti. «Quindi, i processi fisici che agiscono sul gas hanno un’influenza diretta sulla storia di formazione stellare e tutte le principali caratteristiche delle galassie».

In altre parole, le galassie di Gasp hanno un destino inevitabilmente segnato: mentre viene loro strappato il gas talvolta assumono una particolare forma che ricorda quella di una medusa – vengono infatti chiamate jellyfish – e incorrono in una serie di fenomeni particolari che Poggianti e il suo gruppo hanno indagato in dettaglio. «Abbiamo capito come e perché alle galassie viene “strappato” via il gas quando entrano a far parte degli ammassi di galassie. Si è anche compreso che in questo gas strappato inizialmente si formano molte stelle, anche fuori dal disco delle galassie, anche se alla fine di tutto il processo rimarrà una galassia senza gas che non formerà mai più stelle. Inaspettatamente si è scoperto che nelle prime fasi di questa storia evolutiva un po’ di gas finisce al centro e “accende” il buco nero supermassiccio centrale dando origine a un cosiddetto nucleo galattico attivo».

La conferenza si terrà alla Gipsoteca dell’Università di Pisa, in Piazza San Paolo all’Orto 20 a Pisa, alle ore 20:45. L’ingresso sarà possibile dalle 20.15 e sarà libero, fino a esaurimento posti (la sala può ospitare fino a 80 persone).


Consegnata la fotocamera più grande del mondo


15783896
15783898
La fotocamera Lsst e il team della fotocamera realizzata allo Slac (Usa) fotografati nella camera bianca di test. Crediti: Jacqueline Ramseyer Orrell/Slac National Accelerator Laboratory

Tutto pronto per catturare il mega “Cheese!” del cosmo. L’innovativa fotocamera Lsst da 3200 megapixel – 3.2 miliardi di pixel – è finalmente arrivata al sito dell’Osservatorio Vera C. Rubin, sul Cerro Pachón, in Cile. A partire dalla fine del 2025, scatterà – per la campagna osservativa Lsst (Legacy Survey of Space and Time) – immagini dettagliate del cielo dell’emisfero australe per dieci anni, costruendo la più completa visione in timelapse del nostro universo mai prodotta.

La fotocamera Lsst – di fatto la più grande fotocamera digitale del mondo – è stata costruita presso lo Slac National Accelerator Laboratory di Menlo Park, in California, e il suo completamento, dopo due decenni di lavoro, aprirà nuove strade per l’esplorazione cosmica. Grande come un’automobile e con una sensibilità e una risoluzione incredibili, la fotocamera Lsst sarà installata sul telescopio del Vera Rubin, dove produrrà immagini dettagliate con un campo visivo enorme, sette volte più ampio della Luna piena, grazie al suo piano focale costituito da 189 sensori ccd disposti in una forma approssimativamente quadrata con angoli tagliati.

Utilizzando la fotocamera Lsst, l’Osservatorio Rubin consentirà di compiere nuove scoperte in molte aree dell’astrofisica, tra cui lo studio della natura della materia oscura e dell’energia oscura, la mappatura della Via Lattea, l’osservazione del Sistema solare e di oggetti celesti di luminosità o posizione variabili. «L’arrivo in Cile della fotocamera all’avanguardia Lsst ci avvicina enormemente alla scienza che ruota attorno alle domande più importanti dell’astrofisica di oggi», dice Kathy Turner, program manager del Dipartimento dell’energia degli Stati Uniti per l’Osservatorio Rubin.

Considerando le dimensioni e la fragilità dei componenti della fotocamera, il viaggio dalla California al Cile non è stato proprio una passeggiata. Il team dello Slac ha guidato il processo di spedizione del container, tenendo sotto controllo – grazie a registratori presenti sia sul telaio della fotocamera che sul mezzo stesso – temperatura, umidità, vibrazioni e accelerazioni per l’intera durata del viaggio, e seguendone ogni movimento grazie a un sistema di localizzazione Gps.

15783900
Vista dell’Osservatorio Rubin al tramonto. Il telescopio di 8,4 metri dotato della fotocamera digitale a più alta risoluzione del mondo, scatterà immagini dettagliate del cielo dell’emisfero meridionale, ininterrottamente per 10 anni, creando una visione in timelapse dell’Universo mai vista prima. Crediti: Olivier Bonin/SlacNational Accelerator Laboratory

Al sicuro all’interno del container, la fotocamera Lsst ha poi viaggiato a bordo di un veicolo equipaggiato con uno speciale sistema di sospensione pneumatica fino all’aeroporto di San Francisco, dove è stata imbarcata la mattina del 14 maggio su un volo charter Boeing 747 diretto verso il Cile, dov’è atterrata il giorno successivo all’aeroporto Arturo Merino Benítez di Santiago, l’aeroporto più vicino all’Osservatorio adatto a ospitare un aereo cargo di queste dimensioni. La sera stessa la telecamera si trovava all’interno del cancello custodito alla base del Cerro Pachón. Il mattino seguente, in circa cinque ore, ha compiuto l’ultima tratta del suo viaggio – 35 chilometri di tortuosa strada sterrata fino alla cima del Cerro Pachón, a quasi 2700 metri d’altitudine.

Al suo arrivo nell’edificio dell’Osservatorio, la fotocamera è stata immediatamente trasferita nella camera bianca dell’osservatorio – un ambiente controllato senza contaminanti nell’aria – ed è stata ispezionata dal commissioning team per verificarne le condizioni e l’assenza di segni di sollecitazioni impreviste. «Il nostro obiettivo era quello di assicurarci che la fotocamera non solo fosse sopravvissuta, ma anche che fosse arrivata in perfette condizioni», spiega Kevin Reil, scienziato al Vera Rubin. «Le prime indicazioni, compresi i dati raccolti dai data logger, dagli accelerometri e dai sensori d’urto, indicano che siamo riusciti nel nostro intento».

La fotocamera Lsst, finanziata dal Dipartimento dell’energia degli Stati Uniti e dalla National Science Foundation, è l’ultimo, cruciale, componente del Simonyi Survey Telescope dell’Osservatorio Rubin. Una volta superati tutti i test nella camera bianca dell’Osservatorio – operazione che durerà parecchi mesi – sarà installata sul telescopio insieme allo specchio primario da 8,4 metri, del quale è stata completata da poco l’alluminatura, e allo specchio secondario da 3,4 metri. «Portare la fotocamera in vetta è stato l’ultimo importante tassello del puzzle», conclude Victor Krabbendam, project manager dell’osservatorio Rubin. «Con tutti i componenti di Rubin fisicamente in loco, siamo in dirittura d’arrivo verso la scienza trasformativa di Lsst».

Per saperne di più:

Guarda il servizio video di MediaInaf Tv:

youtube.com/embed/uH0jVnwPAdQ?…


Il CodyTrip nei luoghi dell’astrofisica bolognese


15783635
15783637
Locandina del CodyTrip a Bologna. Crediti: CodeMooc

Il CodyTrip – il format delle gite scolastiche online che ogni anno coinvolge oltre 50mila partecipanti, concepito da Alessandro Bogliolo dell’Università di Urbino per offrire esperienze formative coinvolgenti alla scoperta di luoghi, persone, tradizioni e saperi – arriva a Bologna, nei luoghi dell’astrofisica. In provincia di Bologna si trovano infatti due sedi dell’Istituto nazionale di astrofisica: la stazione radioastronomica di Medicina, a una trentina di chilometri a est di Bologna, verso il mare, e il Parco astronomico di Loiano, a circa quaranta chilometri verso sud, e a 700 metri di quota.

La gita scolastica online – organizzata da Digit srl, in collaborazione con Università di Urbino, Giunti Scuola e Inaf – si svolgerà il 28 e 29 maggio. In particolare, il 28 maggio studenti e studentesse di tutto il Paese trascorreranno la mattinata alla Stazione radioastronomica di Medicina, nella pianura bolognese.

15783639
Cartolina dell’evento con la stazione radioastronomica di Medicina. Crediti: Inaf/R. Bonuccelli

«I radiotelescopi sono grandi antenne che osservano i corpi celesti sintonizzandosi sulle onde radio, anziché sulla luce visibile. In Italia ci sono tre osservatori dotati di queste antenne. La più grande, il Sardinia Radio Telescope, si trova in provincia di Cagliari. Un’altra antenna si trova a Noto, in provincia di Siracusa. Mentre in provincia di Bologna, a Medicina, si trovano ben due strumenti, la Croce del Nord e il radiotelescopio Grueff, che lavorano a numerosi progetti di ricerca», afferma Simona Righini dell’Inaf, responsabile del centro visite e delle osservazioni single dish con la parabola di Medicina. «Ed è proprio a Medicina che durante il CodyTrip spiegheremo ai partecipanti il funzionamento dei radiotelescopi e racconteremo cosa osservano, dal monitoraggio del Sole alle più lontane radiogalassie, oltre alle attività particolari che conduciamo, come l’osservazione radar della spazzatura spaziale».

15783641
Cartolina dell’evento con il telescopio storico di Loiano. Crediti: F. Villa

Dopo un pomeriggio dedicato alla visita di Bologna e alla sua università, alla sera i partecipanti si ritroveranno virtualmente nel bosco del Parco astronomico di Loiano e, sotto un cielo stellato, si tornerà a parlare di astronomia. «Alla fine del XIX secolo, vista la crescente influenza delle luci della città e dell’inquinamento atmosferico sulle osservazioni astronomiche, gli astronomi decisero di costruire una nuova struttura di osservazione fuori dalla città. Gli astronomi bolognesi scelsero una collina nei pressi di Loiano, una piccola città sul crinale appenninico settentrionale, a circa quaranta chilometri da Bologna», racconta Silvia Galleti dell’Inaf, che si occupa di didattica e divulgazione presso l’osservatorio. «Accoglieremo i partecipanti del CodyTrip sul Monte Orzale, dove si trovano i nostri due telescopi: il Cassini e lo storico Zeiss. Dal telescopio Cassini, che normalmente usiamo per monitorare asteroidi e osservare gli oggetti celesti, se il tempo lo permetterà faremo insieme ai partecipanti un’osservazione del cielo notturno».

«La stazione radioastronomica di Medicina, con il centro visite Marcello Ceccarelli, accoglie continuamente scolaresche e visitatori interessati ad approfondire lo studio dell’universo. Così come il Parco astronomico di Loiano, con i suoi due telescopi, il planetario e l’aula didattica. Con questo CodyTrip vogliamo portare queste due realtà dell’Inaf nelle scuole e nelle case del maggior numero di persone possibile, come solo questa gita online sa fare», aggiunge Maura Sandri dell’Inaf, responsabile del gruppo Play.Coding dedicato alla didattica innovativa. «Al CodyTrip a Matera, che ci ha visti coinvolti nel 2022 al Centro Spaziale dell’Asi con la trasmissione nello spazio dei messaggi vincitori del concorso C’è posta per ET, i partecipanti effettivi sono stati oltre 15mila, connessi da 417 città, per un totale di 430 minuti di diretta interattiva. E recentemente ho saputo che alcuni studenti porteranno quell’esperienza come Capolavoro alla maturità 2024. È una grande soddisfazione e mi auguro, con questo CodyTrip in questi luoghi estremamente affascinanti, che sapremo dare ai giovani nuovi spunti di interesse, contribuendo a promuovere la passione per lo studio dell’universo e per la tecnologia che permette di osservarlo».

Sebbene l’iniziativa sia rivolta principalmente alle scuole, CodyTrip è aperto alla partecipazione di chiunque ne condivida lo spirito e intenda approfittarne per vivere un’esperienza non convenzionale di turismo culturale. Trovate tutti i dettagli sul programma della gita alla pagina del Cody Trip.

Per saperne di più:

Guarda la presentazione sul canale youtube di CodeMooc:

youtube.com/embed/JhPDGLuEyEc?…


Psyche accende i suoi propulsori elettrici allo xenon


15783374
15783376
Questa foto mostra un propulsore elettrico in funzione, identico a quelli utilizzati per spingere la navicella Psyche della Nasa. Il bagliore blu proviene dagli atomi carichi, o ioni, di xenon. Crediti: Nasa/Jpl-Caltech

A più di 330 milioni di chilometri dalla Terra e con una velocità di 135mila chilometri all’ora, la sonda Psyche ha acceso la propulsione ionica per accelerare ulteriormente verso il suo obiettivo: l’omonimo asteroide ricco di metalli, 16 Psyche, fra Marte e Giove, attorno al quale orbiterà e raccoglierà dati scientifici. La sonda è partita lo scorso 13 ottobre 2023 dal Kennedy Space Center in Florida a bordo di un Falcon Heavy di SpaceX, che gli ha dato la spinta necessaria a superare l’orbita del Pianeta rosso.

Entro il prossimo anno Psyche raggiungerà quella che in gergo si chiama “modalità di crociera completa”, in cui i suoi propulsori elettrici prenderanno il sopravvento e spingeranno l’orbiter verso la fascia degli asteroidi.

Psyche utilizza un sistema di propulsione elettrica solare molto simile a quello che sta dando problemi a BepiColombo, la missione dell’Esa in viaggio verso Mercurio. In particolare, è dotata di quattro propulsori a effetto Hall che utilizzano campi elettromagnetici per espellere atomi carichi – o ioni – di xenon, che a loro volta creano una spinta, emettendo un bagliore blu che si espande dietro la navicella. Viene utilizzato un solo propulsore alla volta, che in piena modalità di crociera fornisce fino a 240 millinewton di spinta – circa la quantità di forza che si percepisce sostenendo il peso di una batteria AA. Psyche trasporta sette serbatoi da 82 litri di propellente allo xenon – che corrispondono a circa 1.085 chilogrammi.

Sembra una spinta fin troppo delicata, ma nel vuoto dello spazio interplanetario, senza la resistenza dell’aria a rallentarla, grazie a questi propulsori Psyche accelererà fino a raggiungere una velocità di circa 200mila chilometri all’ora.

15783378
Questo grafico illustra il percorso della sonda Psyche della Nasa durante il viaggio verso l’asteroide Psyche. Sono indicate le tappe fondamentali della missione principale, tra cui l’assistenza gravitazionale su Marte nel maggio 2026. Crediti: Nasa/Jpl-Caltech

Arriverà a destinazione, in orbita attorno all’asteroide 16 Psyche, nel 2029 ed effettuerà osservazioni per circa due anni. I dati raccolti aiuteranno gli scienziati a comprendere meglio la formazione dei pianeti rocciosi con nucleo metallico, come la Terra. L’asteroide, infatti, che nel suo punto più largo misura circa 280 chilometri, potrebbe essere quel che resta del nucleo di un planetesimo, lo stadio iniziale di un pianeta mai formato.

Il team di Psyche ha sfruttato i primi cento giorni della missione (oggi il conto segna 224 giorni) per eseguire un checkout completo delle funzionalità del veicolo spaziale. Tutti i sistemi ingegneristici funzionano come previsto, così come i tre strumenti scientifici. Il magnetometro funziona così bene che è stato in grado di rilevare un’eruzione di particelle cariche dal Sole, e anche lo spettrometro di raggi gamma e neutroni. Lo scorso dicembre, inoltre, le due fotocamere dello strumento di imaging hanno catturato le prime immagini.

«Fino a questo momento abbiamo acceso e controllato i vari dispositivi necessari per il completamento della missione e possiamo dire che funzionano a meraviglia», dice Henry Stone, responsabile del progetto Psyche al Jet Propulsion Laboratory della Nasa, in California. «Ora siamo in viaggio e non vediamo l’ora di effettuare un sorvolo ravvicinato di Marte».

La traiettoria prevista riporterà Psyche verso il Pianeta rosso nella primavera del 2026: dirigendosi verso Marte, la sonda spegnerà i propulsori e sfrutterà la gravità del pianeta per accelerare, una classica manovra basata sull’assistenza gravitazionale. Da lì, i propulsori torneranno poi ad accendersi in modalità di crociera completa, per non spegnersi più fino al traguardo.


Morire con discrezione: da stella a buco nero


15767712
15767714
Impressione artistica del sistema binario Vtfs 243. Crediti: Esol. Calçada

Un giorno, tra presumibilmente quattro miliardi e mezzo di anni (sì, potete ancora dormire sonni tranquilli), la stella al centro del Sistema solare, il Sole, comincerà a espandersi fino a inglobare la Terra. Successivamente, diventerà sempre più instabile fino a collassare in un oggetto piccolo e denso, noto come nana bianca. Ma se il Sole avesse una massa circa otto volte superiore, la sua morte sarebbe molto meno discreta: prima di finire i suoi giorni come stella di neutroni o buco nero, farebbe un gran “botto”, quello che gli astronomi chiamano supernova. Ecco, sebbene sia questa l’evoluzione stellare che studiamo sui libri di scuola, resta ancora molto da capire sul cielo stellato e in particolare sulla morte più o meno spettacolare delle stelle massicce.

Una nuova ricerca condotta dagli astrofisici del Niels Bohr Institute dell’Università di Copenaghen pubblicata su Physical Review Letters presenta prove convincenti che in realtà è possibile per certe stelle molto massicce morire “con discrezione”. La loro indagine suggerisce infatti che, con una massa sufficiente, l’attrazione gravitazionale di una stella può essere così forte da non provocare alcuna esplosione al momento della sua morte. Al contrario, la stella può subire il cosiddetto collasso completo.

Il motivo di questa indagine risiede nella constatazione che a oggi, più volte, è stato riscontrato il fenomeno della cosiddetta scomparsa delle stelle. Il progetto “A Survey about Nothing”, guidato dall’astrofisico Chris Kochanek, è un esempio degli sforzi che si stanno facendo per indagare le stelle che scompaiono e trovare le spiegazioni per la loro scomparsa. In questo contesto, la scoperta degli autori fornisce un chiaro esempio e una spiegazione scientifica plausibile di fenomeni di questo tipo.

Oggetto dello studio è la recente osservazione di un insolito sistema stellare binario ai margini della nostra galassia, chiamato Vfts 243, nel quale una stella massiccia e un buco nero nove volte più massiccio del Sole, orbitano l’una intorno all’altro. «Se si osservasse una stella che subisce un collasso totale, al momento giusto sarebbe come osservare una stella che si spegne improvvisamente e scompare dal cielo. Il collasso è così completo che non si verifica alcuna esplosione, nulla fuoriesce e non si vedrebbe alcuna supernova luminosa nel cielo notturno. Negli ultimi tempi gli astronomi hanno osservato l’improvvisa scomparsa di stelle molto luminose. Non possiamo essere certi di un collegamento, ma i risultati ottenuti analizzando Vfts 243 ci hanno portato molto più vicino a una spiegazione plausibile», afferma Alejandro Vigna-Gómez, primo autore dello studio.

15767716
Il telescopio spaziale James Webb rivela i dettagli della struttura e della composizione della Nebulosa Tarantola, dove si trova il sistema binario Vfts 243, oltre a decine di galassie sullo sfondo. La nursery stellare 30 Doradus prende il soprannome di Nebulosa Tarantola per via dei suoi lunghi filamenti polverosi. Situata nella Grande Nube di Magellano, è la più grande e luminosa regione di formazione stellare vicina alla nostra galassia e ospita le stelle più calde e massicce conosciute. Crediti: Nasa, Esa, Csa, StScI, Webb Ero Production Team

Da decenni gli scienziati conoscono l’esistenza di sistemi stellari binari di questo tipo nella Via Lattea, in cui una delle stelle è diventata un buco nero. Ma la recente scoperta di Vfts 243, appena fuori dalla Via Lattea, nella Grande Nube di Magellano, è qualcosa di veramente speciale. «Normalmente, gli eventi di supernova nei sistemi stellari possono essere misurati in vari modi dopo che si sono verificati. Ma nonostante Vfts 243 contenga una stella che è collassata in un buco nero, le tracce di un’esplosione non si trovano da nessuna parte. Vfts 243 è un sistema straordinario. L’orbita del sistema è cambiata a malapena dal collasso della stella in un buco nero», spiega Vigna-Gómez.

I ricercatori hanno analizzato i dati osservativi alla ricerca di una serie di indicazioni che ci si aspetterebbe da un sistema stellare che in passato ha subito un’esplosione di supernova, non trovando prove convincenti in tal senso. Ad esempio, il sistema non mostra segni di un’accelerazione degli oggetti orbitanti che ci si aspetterebbe in seguito all’esplosione di una supernova. Inoltre è molto simmetrico, caratterizzato da un’orbita quasi perfettamente circolare, e le tracce di un rilascio di energia avvenuto durante il collasso del nucleo dell’ex stella indicano un tipo di energia coerente con il collasso completo.

Le loro stime sono coerenti con uno scenario in cui la spinta più piccola impartita durante il collasso stellare non è dovuta alla materia barionica, che comprende neutroni e protoni, bensì ai neutrini. Questa è un’altra indicazione che il sistema non ha subito un’esplosione. «La nostra analisi indica inequivocabilmente che il buco nero in Vfts 243 si è molto probabilmente formato immediatamente, con l’energia persa principalmente attraverso i neutrini», afferma Irene Tamborra del Niels Bohr Institute.

Secondo Tamborra, il sistema Vfts 243 permette di confrontare una serie di teorie astrofisiche e di calcoli di modelli con osservazioni reali. «I nostri risultati evidenziano che Vfts 243 è il miglior caso osservabile finora per la teoria dei buchi neri stellari formati attraverso il collasso totale, dove l’esplosione di supernova fallisce, e che i nostri modelli hanno dimostrato essere possibile. Si tratta di un’importante verifica della realtà per questi modelli. E ci aspettiamo certamente che il sistema serva come punto di riferimento cruciale per le future ricerche sull’evoluzione e il collasso stellare», conclude Tamborra.

Per saperne di più:


Bolide nell’Atlantico, forse di natura cometaria


15746820
Questi primi mesi del 2024 sono ricchi di impatti di grossi meteoroidi per l’Europa. Dopo la caduta del piccolo asteroide 2024 BX1 avvenuta in Germania il 21 gennaio alle 00:33 Utc, ora è stata la volta di Spagna e Portogallo assistere a un evento di caduta di notevole luminosità. In questo caso però il meteoroide non è stato scoperto poche ore prima dell’impatto, com’era successo per il near-Earth 2024 BX1 e per i sette precedenti, ma è stato “scoperto” quando già era in atmosfera nella fase di fireball.

15746822
Il fireball del 18 maggio 2024 delle 22:47 Utcripreso dalla dashcam di un anonimo automobilista portoghese che si trovava a percorrere l’autostrada A1 all’altezza dello svincolo di Aveiras de Cima e Alcoentre. Fonte: YouTube

Vediamo i fatti. Alle 22:46:50 Utc del 18 maggio 2024 i satelliti militari statunitensi hanno rilevato un’esplosione in atmosfera alle coordinate +41.0° N e 8.8° W. Questo punto si trova nell’Oceano Atlantico, 25 km a sud-ovest della città portoghese di Porto. In effetti all’Imo (International Meteor Organization) sono arrivate ben 131 segnalazioni dell’evento che ha ricevuto la sigla 2481-2024. Su YouTube e sui social si possono trovare diversi video ripresi da Cadiz, Almeria, Calar Alto, Madrid, Siviglia, Oporto e così via che mostrano un brillante fireball, di colore verdastro, mentre cade verso terra. La luminosità dell’oggetto era talmente elevata da riuscire, durante il picco di luminosità, a illuminare a giorno il paesaggio inoltre, dopo la scomparsa è rimasta una scia persistente per diversi secondi indicativo di un fenomeno d’alta quota. Fra i tanti video pubblicati, vi mostriamo qui sopra un frame ripreso da una dashcam di un anonimo automobilista che si trovava in Portogallo, sull’autostrada A1, allo svincolo per Aveiras de Cima e Alcoentre. Il fireball ha attraversato il campo di vista della dashcam da destra verso sinistra impiegando diversi secondi e a un certo punto ha avuto un flare, indice della frammentazione del meteoroide.

Secondo i dati di origine militare resi pubblici dal Cneos della Nasa, il fireball è caduto verso il suolo alla velocità di 40,4 km/s, disintegrandosi a un’altezza di circa 75,3 km. Complessivamente, il fireball ha rilasciando in atmosfera un’energia totale di 0,13 kt (1 kt = 4,184 TJoule), circa tremila volte inferiore a quella dell’evento di Chelyabinsk, del 15 febbraio 2013. Equiparando l’energia totale emessa nell’esplosione all’energia cinetica posseduta dal meteoroide, quest’ultimo doveva avere una dimensione dell’ordine del metro di diametro. Elaborando i dati del vettore velocità fornito dai satelliti e usando una parte del software sviluppato per la rete Prisma, coordinata dall’Inaf, si trova che il fireball è arrivato dall’azimut 136,0° (in pratica si muoveva da sud-est verso nord-ovest), su una traiettoria inclinata di circa 7° sulla superficie terrestre, quindi molto radente: questo spiega la lunga durata del fireball mostrata nei video. Purtroppo il Cneos non fornisce mai le incertezze del punto dell’esplosione e della velocità, per cui vanno ipotizzate assumendo valori ragionevoli, come ad esempio ±0,5 km sull’altezza dell’airburst, ±1 km/s sulla velocità e ±0,1° sulle coordinate geografiche del flare. Così facendo, il radiante vero cade alle coordinate equatoriali Ra = 262° ± 1°, Dec = -29° ± 1° (J2000), un punto che si trova fra le costellazioni dello Scorpione e del Serpente. Considerate le grandi dimensioni e l’elevata quota di disintegrazione, la velocità di 40,4 km/s deve coincidere abbastanza bene con quella che il meteoroide aveva fuori atmosfera e si può utilizzare direttamente – insieme al valore della distanza della Terra dal Sole – per stimare l’orbita eliocentrica percorsa dal meteoroide, ovviamente correggendo per la gravità e la rotazione terrestre.

15746824
L’orbita nominale del fireball ha il perielio all’interno dell’orbita di Mercurio e l’afelio all’altezza dell’orbita di Giove. Crediti: A. Carbognani/Inaf/Prisma

Il risultato che si ottiene è che la velocità geocentrica del meteoroide risulta elevata, quasi 39 ± 1 km/s, e l’orbita eliocentrica nominale è molto allungata con un semiasse maggiore di 2,4 ± 0,5 unità astronomiche, un periodo orbitale di 4 ± 1 anni, un’eccentricità di 0,95 ± 0,01 e un’inclinazione di ben 17° ± 3° sul piano dell’eclittica. Il perielio di quest’orbita cade a 0,12 ± 0,01 unità astronomiche dal Sole, ossia all’interno dell’orbita di Mercurio, mentre l’afelio arriva a 4,8 ± 1 unità astronomiche, praticamente all’altezza dell’orbita di Giove. Considerando l’invariante di Tisserand TJ rispetto a Giove e tutte le possibili orbite compatibili con i dati e le ragionevoli incertezze assunte, risulta che TJ < 3 nel 90 per cento dei casi, mentre solo nell’altro 10 per cento TJ > 3. Il primo caso corrisponde a un’orbita di natura cometaria, il secondo a un’orbita di tipo asteroidale. In sostanza, il fireball molto probabilmente è stato provocato dalla caduta di un piccolo meteoroide di natura cometaria che, date le piccole dimensioni, si è completamente disintegrato in atmosfera senza conseguenze. Forse proveniva da una cometa che si è disintegrata in passato? Oppure ricade nel 10 per cento di origine asteroidale e, in barba alla statistica, si trattava di un meteoroide originatosi da un asteroide frammentato come Phaethon? Sono scenari che vanno entrambi analizzati più in dettaglio. Purtroppo, è davvero improbabile che qualche frammento sia arrivato al suolo, ma anche nel caso, sarebbe impossibile recuperarlo perché sarebbe finito nell’Oceano Atlantico.


Galassie, stelle, ammassi: novità da Euclid


15741179
15741181
La galassia a spirale Ngc 6744, in cui è evidente l’attività di formazione stellare. I nuovi dati hanno permesso di identificare una galassia nana mai vista prima in orbita attorno alla spirale (visibile in alto, vicino al braccio a spirale). Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo

Il telescopio spaziale europeo Euclid arricchisce il nostro “album” dell’universo con cinque nuovi ritratti mozzafiato. La missione della European Space Agency (Esa), che vede la partecipazione anche della Nasa, continua così a inviare a terra immagini strabilianti, che contengono un dettaglio di informazione senza precedenti. La soddisfazione è grande anche per le ricercatrici e i ricercatori italiani di Asi, Inaf e Infn che partecipano al Consorzio internazionale della missione, composto da oltre duemila scienziati provenienti da trecento istituti in 13 paesi europei, oltre a Stati Uniti, Canada e Giappone.

L’intera serie di prime osservazioni realizzate da Euclid, che ha puntato il suo telescopio verso 17 oggetti astronomici, dalle vicine nubi di gas e polvere a distanti ammassi di galassie, è stata effettuata in vista del programma principale delle osservazioni che Euclid condurrà per svelare i segreti del cosmo oscuro e rivelare come e perché l’universo appare così com’è oggi. Le nuove immagini, che hanno richiesto appena 24 ore di osservazioni, meno dello 0,1 per cento del tempo totale dedicato all’obiettivo principale della missione, sono accompagnate dalla pubblicazione di dieci articoli sui primi dati scientifici prodotti dalla missione e da cinque articoli che descrivono la missione, gli strumenti e le performance basate sui primi dati in volo

Le immagini ottenute da Euclid coprono vaste porzioni di cielo e permettono di osservare l’universo lontano con una risoluzione molto migliore di quella dei telescopi terrestri, utilizzando sia la luce visibile, sia quella infrarossa. E, sebbene siano straordinarie già solo visivamente, queste immagini sono molto più di semplici belle ‘istantanee’: grazie alle nuove e uniche capacità di osservazione di Euclid, infatti, esse rivelano anche moltissime informazioni sul cosmo.

15741183
Messier 78 (la regione centrale e più luminosa), un vivaio di stelle in formazione avvolto nella polvere interstellare, a 1300 anni luce da noi. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo

Per esempio, è stato possibile studiare i meccanismi di formazione ed evoluzione di stelle e galassie, nonché identificare oggetti mai visti prima, come pianeti neonati vaganti nella nostra galassia e galassie nane alla periferia di un ammasso di galassie.

Due studi guidati dall’Inaf hanno svelato i dettagli inediti di un ammasso stellare nella Via Lattea e di alcune galassie vicine alla nostra. Inoltre, lo strumento Nisp a bordo di Euclid, sensibile alla luce infrarossa, ha permesso di rivelare nuove galassie che si sono formate nelle fasi primordiali dell’universo, circa 13 miliardi di anni fa, dimostrando che è possibile osservare e studiare questa categoria di oggetti astrofisici, scoperti solo poche decine di anni fa e ancora così misteriosi.

Euclid è uno dei programmi più ambiziosi a livello internazionale nel quale l’Italia, attraverso l’Agenzia spaziale italiana, l’Istituto nazionale di astrofisica e l’Istituto nazionale di fisica nucleare, gioca un ruolo di protagonista coinvolgendo oltre duecento scienziate e scienziati italiani, appartenenti anche a numerose università: Università di Bologna, Università di Ferrara, Università di Genova, Università Statale di Milano, Sapienza Università di Roma, Università di Trieste, Sissa, Università di Ferrara, Cisas dell’Università di Padova.

15741185
L’ammasso di galassie Abell 2390, con oltre 50mila galassie e una bellissima visualizzazione dell’effetto di lente gravitazionale, con grandi archi di luce nel cielo. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo

Grazie a questo fondamentale ruolo italiano il satellite Euclid ospita un telescopio a specchio di 1,2 metri di diametro e due strumenti scientifici, il Vis (Visible Instrument) e il Nisp (Near Infrared Spectrometer Photometer), che hanno l’obiettivo principale di osservare il cielo extragalattico con lo scopo di ottenere immagini con altissima risoluzione e misurare gli spettri di milioni di galassie. L’Italia ha avuto il ruolo fondamentale di progettare la strategia osservativa della missione e ha oggi quello di coordinare tutte le attività per la riduzione dei dati a terra.

L’Asi, inoltre, sempre in collaborazione con l’Inaf e con l’Infn, ha guidato il team industriale che ha progettato e realizzato i contributi agli strumenti, formato da un’associazione temporanea d’imprese con Ohb Italia mandataria, Sab Aerospace e Temis mandanti mentre la leadership per la realizzazione della piattaforma è stata affidata da Esa a Thales Alenia Space Italia del gruppo Leonardo. L’Asi ha inoltre finanziato le attività industriali per la progettazione e la realizzazione del Science Data Center italiano della missione, affidate ad Altec di Torino.

15741187
Euclid cattura “in azione” le galassie del gruppo del Dorado, mentre si fondono creando bellissime strutture a forma di coda e di conchiglia. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo

«Euclid è, al momento, la missione più complessa del Programma Scientifico di Esa per quanto riguarda gli obiettivi scientifici ed è destinata ad aprire un capitolo importante nella conoscenza del nostro Universo» commenta Barbara Negri, responsabile Volo Umano e Sperimentazione Scientifica di Asi. «Queste nuove immagini ottenute da Euclid confermano le ottime prestazioni degli strumenti scientifici a bordo, a cui l’Asi ha contribuito con la realizzazione di parti importanti, e il grande lavoro del Science Ground Segment, di responsabilità italiana, nell’elaborazione dei dati scientifici».

«Queste nuove immagini, insieme a quelle divulgate lo scorso novembre, permettono di comprendere l’enorme potenziale della missione, in termini sia del numero di oggetti che Euclid sarà in grado di osservare sia della qualità delle misure stesse», commenta Anna Di Giorgio dell’Inaf, che coordina le attività italiane per la missione Euclid finanziate dall’Asi. «I primi risultati scientifici pubblicati oggi, che vedono un forte contributo da parte di ricercatrici e ricercatori Inaf, danno anche una misura di quale e quanta “legacy science” sarà possibile fare utilizzando i dati di Euclid: ad esempio lo studio di ammassi stellari extragalattici o la scoperta di nuove galassie nane di piccola massa o, ancora, di galassie luminose molto distanti, fino ad esplorare oggetti la cui luce è stata emessa più di 10 miliardi di anni fa, ai primordi dell’universo».

15741189
L’ammasso di galassie Abell 2764 (in alto a destra), con centinaia di galassie all’interno di un vasto alone di materia oscura a circa un miliardo di anni luce da noi. In primo piano si vede anche V*BP-Phoenicis, una stella molto luminosa dell’emisfero meridionale. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo

«Lo scopo della missione Euclid è studiare come energia oscura e materia oscura abbiano governato l’evoluzione dell’universo», spiega Stefano Dusini, che coordina la partecipazione dell’Infn in Euclid. «Il 95 per cento dell’universo sembra essere composto da queste due forme misteriose di energia e materia di cui sappiamo ancora poco o niente. La qualità eccellente di queste prime immagini ci rendono confidenti che Euclid riuscirà a raggiungere il suo obiettivo scientifico. E le ottime prestazioni dello strumento Nisp, cui l’Infn ha contribuito con la responsabilità dell’integrazione dell’elettronica calda, e condivide con Inaf il monitoraggio e la gestione in volo dello strumento, e il monitoraggio delle performance e della buona qualità dei dati, ci rendono orgogliosi del lavoro fatto dai ricercatori e dalle ricercatrici dell’Infn», conclude Dusini.

Il satellite Euclid è stato lanciato da Cape Canaveral in Florida il 1° luglio del 2023 a bordo di un vettore Falcon 9 della società privata americana SpaceX.

Per saperne di più:

Guarda il servizio video su MediaInaf Tv:

youtube.com/embed/VHs-QJXcUqE?…


L’Asse sistino al tempo del lunistizio


15733719
Un allineamento voluto verso il punto più a nord in cui tramonta la Luna sulla Città eterna, in quello che viene definito astronomicamente lunistizio superiore: un inedito e magico “Sistine-henge” per cacciatori di irripetibili panorami celesti.

15733721
La Luna tramonta lungo l’Asse sistino al lunistizio superiore visto da Piazza Esquilino, proprio dietro la torre solare di Monte Mario, il 13 aprile 2024. Crediti: Gianluca Masi, Virtual Telescope Project/Inaf

Questo ci raccontano queste splendide foto del nostro satellite naturale che si prepara a scomparire all’orizzonte in uno dei più famosi rettilinei di Roma, composto da via Depretis, via Quattro Fontane e via Sistina.

È l’Asse Sistino, centro del nuovo assetto urbanistico ideato da Sisto V e dal suo architetto e ingegnere Domenico Fontana (1585-1590) per collegare le principali basiliche e consentire un comodo pellegrinaggio tra le strade dell’Urbe. Il tratto che collega gli obelischi di S. Maria Maggiore e Trinità dei Monti, lungo circa un chilometro e mezzo, è infatti orientato verso un azimut di 307°, con un’elevazione dell’orizzonte di circa 1,5° in direzione del colle di Monte Mario, dove nel XX secolo fu trasferito l’Osservatorio Astronomico di Roma, oggi sede dell’Istituto Nazionale di Astrofisica.

15733723
Tramonto della Luna lungo l’Asse sistino al lunistizio superiore visto da Piazza Esquilino il 14 (a sinistra) e il 13 (a destra) aprile 2024. L’azimut del punto di scomparsa cambia leggermente da una notte all’altra. Crediti: Gianluca Masi, Virtual Telescope Project/Inaf

Questo allineamento trasforma il canyon urbano dell’antica “via Felice” (dal nome di Papa Peretti) in un traguardo telescopico che è un naturale prolungamento dell’asse della celebre basilica di Santa Maria Maggiore. La circostanza suggerisce fortemente un legame con l’orientamento originario della chiesa paleocristiana, concepita per celebrare la Vergine Maria e il suo corrispondente celeste.

15733725
Piazza Esquilino trasformata in un immenso strumento per seguire i moti della Luna. Incisione di Cornelis Meyer, 1696

Questo fenomeno – identificato e fotografato da Giangiacomo Gandolfi dell’Inaf di Roma e Gianluca Masi del Virtual Telescope Project e associato Inaf – è stato presentato oggi a Corfù, al 12esimo Convegno internazionale Insap, dedicato all’ispirazione dei fenomeni astronomici, ed è abbastanza raro: si verifica appena qualche decina di volte nel corso di una cinquantina di mesi, a intervalli di circa 18 anni.

A conferma del fatto che tale configurazione fosse nota anche in epoche successive una storica incisione barocca del 1696, che mostra l’obelisco dell’Esquilino utilizzato come gnomone per seguire e tracciare i complessi moti della Luna.


Se il campo magnetico del Sole fosse superficiale


15715109
Cosa c’era dietro le aurore che si sono viste – eccezionalmente – nelle scorse settimane in Italia? Il Sole, innanzitutto, che con la sua tempesta geomagnetica annunciata dalla comparsa di una regione attiva di macchie solari sempre più estesa sin da inizio maggio. «Le caratteristiche che vediamo osservando il Sole, come la corona che molti hanno visto durante la recente eclissi solare, le macchie solari e le eruzioni solari, sono tutte associate al suo campo magnetico», dice Keaton Burns, ricercatore al Dipartimento di matematica del Mit e coautore dell’articolo uscito oggi su Nature, e che mette in discussione tutto quel che finora era stato ipotizzato circa l’origine del campo magnetico solare. Continua, infatti, dicendo: «Dimostriamo che perturbazioni isolate vicino alla superficie del Sole, lontano dagli strati più profondi, possono crescere nel tempo fino a produrre le strutture magnetiche che vediamo». In altre parole, il campo magnetico del Sole nascerebbe nei suoi strati più esterni, vicino alla superficie.

media.inaf.it/wp-content/uploa…
Questa illustrazione sovrappone una rappresentazione dei campi magnetici solari a un’immagine catturata dal Solar Dynamics Observatory della Nasa. La complessa sovrapposizione di linee può insegnare agli scienziati i modi in cui il magnetismo del Sole cambia in risposta al costante movimento del plasma all’interno del Sole. Crediti: Nasa/Sdo/Aia/Lmsal

Il meccanismo che innesca il campo magnetico solare si chiama dinamo (sì, come quella che si usa nelle biciclette più tradizionali per accendere i faretti), ed è generato dai moti del flusso del plasma nei diversi strati della nostra stella. Il Sole è infatti una gigantesca palla di plasma che ribolle vicino alla superficie. In questa regione, che si chiama “zona di convezione” e si estende per circa 200mila chilometri sotto la superficie, si ha un flusso continuo di plasma dal basso verso l’alto e poi di nuovo verso il basso, in una sorta di moto circolare perenne.

«Una delle idee di base per l’avvio di una dinamo è che ci sia una regione in cui ci sia del plasma che si muove accanto ad altro plasma e che il movimento di taglio converta l’energia cinetica in energia magnetica», spiega Burns. «Si pensava che il campo magnetico del Sole fosse creato dai moti in fondo alla zona di convezione (e quindi, in profondità, ndr)». Per capirlo, finora si facevano complicatissime simulazioni che descrivevano il moto di questo plasma a diverse profondità. I risultati, però, non riuscivano a trovare riscontro nelle osservazioni di macchie solari, brillamenti ed eruzioni solari generate dal campo magnetico. In questo studio, invece, i ricercatori hanno raccolto modelli della struttura del Sole dalle osservazioni eliosismiche, con l’idea di comprendere la struttura interna e i processi partendo dalle vibrazioni registrate sulla superficie. «Poi – continua Burns – ci siamo chiesti: ci sono perturbazioni, o piccoli cambiamenti nel flusso di plasma, che potremmo sovrapporre a questa struttura media e che potrebbero crescere fino a causare il campo magnetico del Sole?».

Hanno cercato di rispondere sfruttando il Progetto Dedalus, una struttura numerica in grado di simulare molti tipi di flussi fluidi con alta precisione: l’algoritmo ha scoperto nuovi modelli che potrebbero crescere e dare origine a un’attività solare realistica. Hanno trovato, in particolare, modelli che corrispondono alle posizioni e ai tempi delle macchie solari osservate dagli astronomi fin da Galileo nel 1612. In queste simulazioni, alcuni cambiamenti nel flusso di plasma limitate ad appena il 5-10 per cento degli strati superficiali del Sole (fino a circa 32mila chilometri di profondità), sono sufficienti a generare strutture magnetiche. Al contrario, i cambiamenti negli strati più profondi (oltre 200mila chilometri di profondità) producono campi solari meno realistici.

Capire l’origine del campo magnetico solare, oltre ad essere una questione “in sospeso” da secoli con la nostra stella, è anche l’unica via per saper prevedere i brillamenti, le macchie e tutti quei processi che causano le tempeste magnetiche che colpiscono la Terra. Quando le eruzioni solari e le espulsioni di massa coronale si dirigono verso la Terra, infatti, oltre a stupirci con effetti speciali come le aurore, possono danneggiare gravemente le infrastrutture elettriche e di telecomunicazione, compresi gli strumenti di navigazione Gps. Anche le recenti tempeste solari di questo mese, ad esempio, hanno messo fuori uso sistemi di navigazione utili ad attività di sussistenza per l’uomo, come quelli usati per le attrezzature agricole.

Per saperne di più:

  • Leggi su Nature l’articolo “The solar dynamo begins near the surface”, di Geoffrey M. Vasil, Daniel Lecoanet, Kyle Augustson, Keaton J. Burns, Jeffrey S. Oishi, Benjamin P. Brown, Nicholas Brummell, e Keith Julien


Prevedere il vento solare con le onde magnetiche


15714796
15714798
Immagine corona del Sole a disco intero, acquisita dallo strumento Aia a bordo della missione spaziale Solar Dynamic Observatory della Nasa, raffigurante la regione studiata nel lavoro pubblicato su PrL. Crediti: Adattata da Murabito et al. 2024

Capire appieno i processi fisici che governano l’attività del Sole, la nostra stella, è uno dei principali modi per migliorare la capacità di prevedere i fenomeni solari che possono produrre effetti nello spazio interplanetario e sui pianeti, in particolar modo la Terra, nell’ambito della cosiddetta meteorologia dello spazio (o space weather). Un nuovo passo in questa direzione arriva dal lavoro di un gruppo di ricercatrici e ricercatori dell’Istituto nazionale di astrofisica (Inaf) e dell’Agenzia spaziale italiana (Asi) pubblicato oggi sulla rivista Physical Review Letters. Lo studio suggerisce che, attraverso l’osservazione dei moti e delle riflessioni di un particolare tipo di onde magnetiche che si propagano negli strati più esterni dell’atmosfera del Sole sia possibile risalire alle regioni da cui si è originato il vento solare che possiamo osservare e analizzare quando raggiunge l’ambiente terrestre, migliorando così le informazioni sul suo percorso nello spazio e, quindi, le previsioni dei suoi potenziali effetti sul nostro pianeta.

Il lavoro, guidato dalla ricercatrice Inaf Mariarita Murabito, ha utilizzato i dati acquisiti dallo spettrografo ad alta risoluzione Eis a bordo della missione Hinode dell’agenzia spaziale giapponese Jaxa e dallo spettropolarimetro italiano ad alta risoluzione Ibis realizzato dall’Istituto Nazionale di Astrofisica e installato fino al 2019 al telescopio Dst (New Mexico, Usa) per studiare le onde di Alfvén. Queste, sono onde magnetiche prodotte nello strato visibile di colore rossastro dell’atmosfera solare, che prende il nome di cromosfera. Le onde di Alfvén possono trasportare quantità significative di energia lungo le linee del campo magnetico fino alla porzione più esterna dell’atmosfera solare, la corona, dove è stata osservata la presenza di un elevato flusso di questo tipo di onde. Infatti, nella corona, il campo magnetico gioca un ruolo fondamentale ed è responsabile di tutta l’attività solare che osserviamo: brillamenti, espulsioni di massa coronale, vento solare ed emissione di particelle energetiche.

Studi precedenti hanno rilevato che la composizione chimica della cromosfera e corona solare differiscono da quella della fotosfera. La teoria proposta nel 2004 da Laming per spiegare questo inatteso comportamento, attribuisce la variazione nella composizione chimica alla forza che agisce sulle particelle cariche quando esse si muovono nel campo elettromagnetico del Sole. Questo nuovo studio dimostra la connessione tra le onde di Alfvén e le anomalie di abbondanza degli elementi chimici presenti nella corona, misurando la direzione di propagazione delle onde stesse. Questa connessione è dovuta proprio all’azione di questa forza sul plasma della cromosfera.

«Le onde magnetiche e il loro legame con le anomalie chimiche erano state già rilevate nel 2021. Con il nostro studio abbiamo messo in evidenza, per la prima volta, la direzione di propagazione, ovvero la riflessione, di queste onde. Usando lo stesso modello teorico proposto e modificato negli ultimi 20 anni l’accordo con i dati è sorprendente», commenta l’autrice dell’articolo, Mariarita Murabito, ricercatrice dell’Inaf.

Questa connessione tra le onde di Alfvén e le proprietà del vento solare offre uno sguardo innovativo su come le interazioni magnetiche nel Sole possano influenzare l’ambiente spaziale circostante, portando a una maggiore comprensione dei processi che governano la fisica solare e dell’influenza dell’attività solare sui pianeti e corpi minori del Sistema solare.

«Le proprietà̀ chimiche del plasma solare restano invariate attraversando lo spazio interplanetario e possono essere utilizzate come tracciante delle sorgenti del vento solare e delle perturbazioni che in esso si propagano. Capire l’origine di questo tracciante ci offre uno strumento nuovo per comprendere in prospettiva in che modo il Sole governi le condizioni fisiche dello spazio interplanetario e quindi progredire anche nella comprensione dei fenomeni space weather», spiega Marco Stangalini, ricercatore dell’Asi e coautore dell’articolo. «Questi risultati, inoltre, ci permetteranno di sfruttare al meglio i dati ottenuti dalla missione Solar Orbiter dell’Esa e dalle future missioni Solar-C e Muse, alle quali l’Italia contribuisce, e che si focalizzeranno sullo studio della dinamica dell’atmosfera solare».

Per saperne di più:


Come rivelare la natura quantistica della gravità


15689957
15689959
Ludovico Lami, fisico, primo autore dello studio pubblicato su Physical Review X. Originario di Pisa, dopo la laurea alla Scuola Normale, un dottorato a Barcellona, due post-doc a Nottingham (Regno Unito) e in Germania, ora è assistant professor all’Università di Amsterdam. Crediti: QuSoft

Cercare di comprendere quale sia la natura della forza di gravità è una delle sfide della fisica moderna. È una forza quantistica? Oppure è una forza “classica”, per cui una descrizione geometrica su larga scala è sufficiente? O è qualcosa di ancora diverso? Fino ad ora, tutte le proposte sperimentali per rispondere a queste domande si sono basate sulla creazione del fenomeno quantistico dell’entanglement tra masse pesanti e macroscopiche. Ma più un oggetto è pesante, più tende a perdere le sue caratteristiche quantistiche e diventare “classico”, rendendo incredibilmente difficile far comportare una massa pesante come una particella quantistica.

Sembrerebbe dunque di essere in una sorta di vicolo cieco: abbiamo teoricamente uno strumento, l’entanglement, che potrebbe aiutarci a chiarire dubbi fondamentali sulla natura della gravità, ma non riusciamo a mettere in piedi alcun esperimento, per adesso, che ci possa aiutare a raggiungere un tanto agognato responso. Ora potrebbe esserci un piccolo spiraglio, seppur ancora teorico, di via d’uscita: un articolo pubblicato questo mese su Physical Rewiew X da Ludovico Lami dell’Università di Amsterdam (Paesi Bassi) e Julen Pedernales e Martin B. Plenio, due fisici dell’Università di Ulm (Germania) propone un modo alternativo per testare la natura della gravità.

Qual è questa proposta? Quale idea ci sta dietro? Lo abbiamo chiesto al primo autore dell’articolo, Ludovico Lami appunto, fisico originario di Pisa, laurea alla Scuola Normale, dottorato a Barcellona, due postdoc a Nottingham (Regno Unito) e in Germania e oggi assistant professor all’Università di Amsterdam.

Lo scopo del vostro studio è rivelare la “quantumness of gravity”. Di che si tratta? E come la tradurrebbe in italiano?

«La natura quantistica della gravità, non c’è traduzione migliore. Semplicemente, si tratta di capire se l’interazione gravitazionale tra sistemi quantistici è quantistica, più genericamente non classica, oppure è descritta, come dice Einstein, da un campo puramente classico».

Quindi il vostro obiettivo è trovare un modo per mettere alla prova questa natura quantistica della gravità?

«In realtà si dovrebbe dire più accuratamente non classica. Questo perché l’esperimento che proponiamo non confermerebbe la natura quantistica della gravità: il suo scopo principale è confutare la sua natura puramente classica. L’esperimento potrebbe anche fornire indizi a supporto del fatto che sia quantistica, ma appunto, lo scopo primo è falsificare l’ipotesi che sia un campo classico a mediare le interazioni gravitazionali».

Dagli studi precedenti sembrava che gli unici esperimenti possibili dovessero basarsi sul fenomeno dell’entanglement. In che modo?

«Il metodo che fa affidamento sull’entanglement è stato proposto da Richard Feynman in una famosa conferenza a Chapel Hill nel 1957 e si basa su un’idea abbastanza semplice. Praticamente, si prende una massa sorgente che può trovarsi in uno stato di sovrapposizione, cioè sostanzialmente può trovarsi in due punti diversi dello spazio (immaginiamo uno a destra e uno a sinistra). Poi si considera di avere un’altra massa di test. Come si comporterà quest’ultima? Verrà attratta dalla massa precedente. Ma poiché la massa sorgente può trovarsi in due punti diversi dello spazio, avremo che la massa di test entrerà in uno stato di sovrapposizione anch’essa. Si forma perciò uno stato entangled: se la massa sorgente è a sinistra, la massa di test viene attratta a sinistra, se la massa sorgente è a destra viene attratta a destra. Perciò se in qualche modo possiamo certificare che l’unica interazione fra la massa sorgente e quella di test è la gravità e si è formato entanglement, allora vuol dire che il campo gravitazionale della massa sorgente è entrato in una sovrapposizione anch’esso, dunque non potrebbe avere una natura semplicemente classica».

E questo tipo di esperimento ha portato a qualche risultato concreto?

«No, perché si sta parlando di esperimenti estremamente complicati da realizzare. Per essere posta in uno stato quantistico di sovrapposizione, la massa deve essere molto piccola. Questo perché questi stati quantistici sono assai fragili, perciò è necessario che la massa sia completamente isolata, cioè si trovi in uno stato delocalizzato. Questo però non si riesce a fare per una massa abbastanza grande da generare un campo gravitazionale misurabile».

15689961
Schema della bilancia di torsione utilizzata da Henry Cavendish nel 1797 per misurare la forza di gravità. Analoghi “oscillatori armonici” potrebbero ora essere utilizzati per rivelare la natura quantistica della gravità

Il vostro approccio invece qual è?

«Quello che Feymann intendeva dire con il suo esperimento è che, se la gravità è classica, si comporta come un sistema puramente classico che però parla localmente con i due sistemi quantistici. Questo paradigma di due soggetti quantistici che comunicano attraverso un canale classico prende il nome di paradigma Locc (Local Operations and Classical Communication). Dunque, quello che diciamo nel nostro articolo è: partendo dal presupposto che se la gravità è classica agisce come una Locc, riusciamo a trovare delle condizioni a cui queste Locc devono per forza obbedire? E riusciamo a progettare un esperimento che potenzialmente violi queste condizioni? Quindi quello che noi deriviamo sono le condizioni che una qualunque dinamica su un sistema bipartito deve avere se vuole essere Locc. Noi, perciò, progettiamo un esperimento che cerchi di testare se queste condizioni, che chiamiamo Locc inequalities, siano verificate o meno».

Ma concretamente in cosa consiste?

«Allora questa è l’idea generale dell’esperimento. Poi noi nell’articolo consideriamo anche un’implementazione specifica, però, secondo me, è importante dire che indipendentemente dall’implementazione il concetto dell’esperimento è generale. Comunque, l’applicazione specifica di cui noi parliamo nell’articolo è molto semplice: prendiamo n oscillatori armonici quantistici, cioè n “massine” attaccate a molle quantistiche, che essendo dotate di massa interagiscono con la gravità. Le prepariamo in quelli che in fisica chiamiamo stati coerenti, stati molto classici ed estremamente facili da preparare. Le masse iniziano ad oscillare e si influenzano a vicenda, ma nonostante interagiscano tra di loro, dopo l’interazione rimangono ancora degli stati coerenti: non si è creato entanglement. Quello che noi riusciamo a dimostrare è che questa dinamica sul sistema quantistico non è una Locc. Quindi, sostanzialmente, l’esperimento funziona così: si prendono degli oscillatori armonici, noi abbiamo preso per esempio dei pendoli a torsione, si osserva quello che succede e si cerca di verificare che questa dinamica non sia compatibile con un campo gravitazionale puramente classico».

Ma è tutto teorico o si potrebbe realizzare? Che cosa manca per farlo?

«Sì, per ora è soltanto una proposta. Sostanzialmente quello che manca sono degli oscillatori di qualità. Infatti, prima di tutto bisognerebbe raffreddarli fino allo stato vicino al vuoto. Poi occorrerebbe conoscere con estrema precisione le frequenze di oscillazione, che tra l’altro dovrebbero essere molto basse, affinché gli oscillatori abbiano il tempo di influenzarsi. Io sono un teorico, non uno sperimentale, però da quello che so non esistono ancora degli oscillatori di cui si possa conoscere la frequenza esatta con una precisione così alta».


Per saperne di più:


Raggi X da una bocca di scarico del centro galattico


15682745
L’immagine che vedete in questa pagina (in particolare il riquadro evidenziato in alto) mostra quella che sembra essere una “bocca di scarico” collegata a un camino, dalla quale fuoriesce gas caldo proveniente da una regione in prossimità del buco nero supermassiccio al centro della Via Lattea, Sagittarius A* (o Sgr A*). Questo “sfiato” si trova a circa 700 anni luce dal centro della nostra galassia ed è stato descritto in uno studio pubblicato su The Astrophysical Journal Letters che vede tra gli autori Gabriele Ponti dell’Inaf di Brera.

15682747
L’immagine mostra una regione vicina al centro della nostra galassia, in luce X e radio. Nella parte inferiore, vicino al centro, c’è una regione particolarmente brillante, dove si annida Sagittarius A*. Gran parte dell’immagine è piena di vaporose nubi blu che mostrano i raggi X rilevati da Chandra. In alcuni punti, le nubi blu sembrano formare delle sfere di luce color verde acqua: sono aloni di polvere, che riflettono i raggi X di sorgenti al loro interno. Al centro dell’immagine, da Sagittarius A* sembra ergersi un pilastro di luce blu. Si tratta di un camino di gas caldo circondato da nubi rosse piene di stelle, che si presentano come piccole macchie rosse. Vicino alla cima del pilastro blu c’è una strisciolina blu, inclinata, delineata da un riquadro grigio, che si ritiene essere lo “sfiato” del camino. A sinistra è riportato il contenuto del riquadro ingrandito e osservato da Chandra. Crediti: X-ray: Nasa/Cxc/Univ. of Chicago/S.C. Mackey et al.; Radio: Nrf/Sarao/MeerKAT; Image Processing: Nasa/Cxc/Sao/N. Wolk

Il camino di gas caldo vicino al centro galattico era già stato individuato utilizzando i dati a raggi X di Chandra della Nasa e di Xmm-Newton dell’Esa. Nell’immagine qui riportata, i raggi X osservati da Chandra (in blu) sono stati combinati con i dati radio del telescopio MeerKat (in rosso). L’emissione radio rilevata da MeerKat mostra l’effetto dei campi magnetici che racchiudono il gas nel camino.

«In questo studio ci siamo focalizzati nell’analisi di un puntamento particolarmente profondo di una parte della chimney (in italiano, camino) effettuato con il satellite per astronomia X della Nasa Chandra. In particolare, Chandra ha osservato una piccola regione di circa 0.01 gradi quadri per un periodo molto lungo equivalente a circa 12 giorni. Questo ci ha permesso di ottenere, almeno in questa regione, una visione molto dettagliata dell’emissione diffusa», racconta Ponti a Media Inaf. «Grazie alla qualità dei dati e agli eccellenti specchi di Chandra, una miriade di sorgenti puntiformi deboli, che normalmente non riusciremmo a distinguere e ci apparirebbero come emissione diffusa (non essendo risolte individualmente) sono state risolte e rimosse. Quindi la lunga esposizione e la rimozione del contributo delle sorgenti puntiformi ci hanno permesso di avere una migliore visione dell’emissione diffusa. Lo spettro Chandra dell’emissione diffusa ci ha confermato che la radiazione diffusa è prodotta da plasma caldo e dall’immagine è emerso che questo plasma si distribuisce formando quello che appare come la sezione di un canale, attraverso cui potrebbe appunto passare un flusso di gas caldo».

Per enfatizzare le caratteristiche del camino e dello sfiato, l’immagine è stata ruotata di 180 gradi rispetto all’orientamento convenzionale utilizzato dagli astronomi, in modo che il camino sia puntato verso l’alto. La condotta di scarico è evidenziata nell’inserto in alto a sinistra, che include solo i dati di Chandra. In bianco appaiono diverse creste di raggi X più luminosi, approssimativamente perpendicolari al piano della Via Lattea. I ricercatori pensano che si tratti delle pareti di un camino cilindrico, che aiuta a incanalare il gas caldo mentre si muove verso l’alto lungo il camino e si allontana dal centro galattico.

«È interessante che questo canale punta verso la direzione di Sgr A*, il buco nero supermassiccio al centro della Via Lattea, suggerendo quindi una possibile relazione causale (sebbene questa relazione non sia ancora provata)», spiega Ponti. «Attorno a questo canale osservato in banda X, si trova emissione in banda radio, il che è normalmente osservato quando un potente vento o shocks interagiscono con il mezzo interstellare, scaldandolo o spazzandolo via. Pensiamo quindi che questi camini siano prodotti dall’attività presente e/o passata che è avvenuta al centro della Via Lattea, per esempio dovuta a Sgr A*».

15682749
Una versione etichettata dell’immagine fornisce la posizione del condotto di scarico, del camino, del buco nero supermassiccio al centro della Via Lattea e del piano della galassia. Crediti: X-ray: Nasa/Cxc/Univ. of Chicago/S.C. Mackey et al.; Radio: Nrf/Sarao/MeerKAT; Image Processing: Nasa/Cxc/Sao/N. Wolk

Gli autori dello studio ritengono che la condotta di scarico si sia formata quando il gas caldo che sale attraverso il camino ha colpito il gas più freddo che si trovava sul suo percorso. La luminosità delle pareti della condotta nei raggi X sarebbe causata dalle onde d’urto – simili ai boom sonici degli aerei supersonici – generate da questa collisione. Il lato sinistro del condotto di scarico è probabilmente particolarmente luminoso ai raggi X perché il gas che scorre verso l’alto colpisce la parete del canale con un angolo più diretto e con maggiore forza rispetto alle altre regioni.

I ricercatori pensano che il gas caldo provenga molto probabilmente da una sequenza di eventi che coinvolgono materiale in caduta verso Sgr A*, e che le eruzioni dal buco nero abbiano poi spinto il gas verso l’alto, lungo il camino e verso l’esterno, attraverso la condotta di scarico.

Non è chiaro quanto spesso il materiale cada su Sgr A*. Studi precedenti hanno indicato che ogni poche centinaia di anni si verificano drammatici brillamenti di raggi X in corrispondenza o in prossimità della posizione del buco nero centrale, per cui questi potrebbero svolgere un ruolo importante nello spingere il gas caldo verso l’alto attraverso il condotto di scarico. Gli astronomi stimano inoltre che il buco nero galattico manifesti potenti ed esplosivi rilasci di energia ogni 20mila anni circa. Gran parte di questa energia sarebbe destinata a salire attraverso lo sfiato del camino.

«Per il momento l’associazione tra questo camino e l’attività al centro della Via Lattea è basata sulla sua morfologia, cioè il camino punta verso il centro. Infatti, se il camino fosse dovuto a Sgr A*, allora ci dovrebbe essere (o essere stato) un flusso di plasma caldo da Sgr A*, attraverso questo camino, fino alla base delle bolle di Fermi e di eRosita», conclude Ponti. «In futuro, avendo a disposizione un calorimetro in banda soft X, potremmo misurare le proprietà, come la velocità di deflusso o la turbolenza, del plasma all’interno di questi camini e quindi misurare se effettivamente è presente un vento prodotto da Sgr A* e quali sono le sue proprietà».

Per saperne di più:


Alla ricerca di anomalie con il transfer learning


15648484
A breve uscirà sulla rivista Astronomy & Astrophysics uno studio relativo a un nuovo metodo basato sul transfer learning che si sta rivelando molto utile per trovare anomalie nelle serie temporali astronomiche. Il transfer learning (o apprendimento per trasferimento) è una tecnica di apprendimento automatico in cui un modello addestrato su un compito specifico viene riutilizzato come punto di partenza per un altro compito. Questo approccio è particolarmente utile quando si hanno pochi dati per il nuovo compito, poiché sfrutta la conoscenza acquisita durante l’addestramento su un set di dati più ampio e diverso. Per capire come lavora il nuovo metodo ideato e realizzato anche grazie a ricercatori dell’Inaf, Media Inaf ne ha parlato con il primo autore, Stefano Cavuoti dell’Inaf di Napoli, ricercatore ed esperto di intelligenza artificiale, e con la coautrice Demetra De Cicco, ricercatrice dell’Università di Napoli Federico II.

15648486
Demetra De Cicco, ricercatrice dell’Università degli Studi di Napoli Federico II.

Nel vostro articolo presentate un nuovo metodo per l’identificazione di epoche problematiche nelle serie temporali astronomiche. Di quale serie temporali si tratta e cosa si intende per epoche problematiche?

[De Cicco] «Si tratta di osservazioni ripetute con un’elevata cadenza (circa ogni tre giorni, anche se divise in stagioni temporalmente separate) della stessa regione di cielo; dunque, le stesse sorgenti (o oggetti) vengono osservate ripetutamente, in tempi diversi. In totale possediamo oltre ventimila sorgenti con una cinquantina di osservazioni ciascuna, che diverranno di più non appena finiremo la riduzione dei dati. Nei dati astronomici possono esserci problemi, a volte relativi alla procedura che passa dal dato grezzo al dato anche detto ridotto su cui normalmente si lavora, ma per lo più dovuti a qualcosa che accade visivamente in prossimità dell’oggetto. Ad esempio, per le osservazioni da terra un tipico problema è il transito di un satellite o di qualche altro corpo celeste, che si manifesta con una traccia lineare nelle immagini. Questo transito nei casi peggiori può completamente coprire l’oggetto di interesse in una delle osservazioni, ma anche quando è solo relativamente vicino può andare a influenzare il calcolo del background o la fotometria di apertura, alterando la misura della magnitudine e quindi tutti i valori statistici che possiamo estrarre dalla curva di luce. In alcuni casi questo effetto è poco rilevante ma in alcuni casi può essere piuttosto evidente e falsare parzialmente l’analisi delle curve di luce stesse».

In che cosa consiste questo nuovo metodo che avete sviluppato?

[Cavuoti] «Il nostro metodo utilizza una metodologia dell’intelligenza artificiale chiamata transfer learning ovvero la capacità di trasferire parte di ciò che hanno imparato da un ambito a un altro. Vogliamo fare questa cosa perché come spesso si dice gli algoritmi di intelligenza artificiale sono buoni tanto quanto i dati con cui si vanno ad addestrare, frase che è in parte un’esagerazione ma non del tutto. Spesso in astrofisica uno dei problemi che si hanno applicando questo tipo di metodologie è proprio avere un insieme di dati abbastanza ampio e abbastanza ben definito da poterli applicare. Nella maggioranza dei casi abbiamo o insiemi di dati molto grandi ma con incertezze significative su “chi è cosa” oppure insiemi molto ben conosciuti ma di dimensioni relativamente piccole (per gli standard di questi algoritmi). La terza strada sono ovviamente le simulazioni che però pure sono soggette a criticità quando poi ci si confronta con il dato reale. In questo caso la dimensione della singola serie temporale è abbastanza ridotta, al di sotto del centinaio di epoche e rende problematico un addestramento specifico».

15648489
Stefano Cavuoti è un ricercatore dell’Osservatorio Astronomico di Capodimonte, esperto di Intelligenza Artificiale. Nel 2016 ha ricevuto il premio “Outstanding Publication in Astrostatistics PostDoc Award” dell’International Astrostatistics Association. È uno dei builder della missione Euclid. Crediti: S. Cavuoti

E come avete fatto?

[Cavuoti] «Abbiamo considerato un dataset molto noto e molto utilizzato nell’ambito dell’intelligenza artificiale: ImageNet. Si tratta di un insieme estremamente eterogeneo che contiene milioni di immagini suddivise in migliaia di categorie che vanno da cani, gatti, biciclette e auto. Su questo dataset si sono cimentati, e si cimentano ogni anno, alcuni tra i migliori metodi per la classificazione di immagini sviluppati nell’ambito dell’intelligenza artificiale. Noi siamo andati a considerare quello che è uno dei metodi che ha funzionato meglio EfficientNet-b0 e ne abbiamo estratto un pezzo».

Perché solo un pezzo? In che senso?

[Cavuoti] «Semplificando al massimo, praticamente tutti i metodi di intelligenza artificiale che lavorano sulla classificazione delle immagini sono composti da due parti: la prima, tramite la convoluzione con dei filtri (o Kernel) e tramite degli strati di compressione, estrae quelle che si chiamano in gergo feature e che sono dei parametri che rappresentano l’immagine. La seconda è il classificatore vero e proprio che lavora sulle feature estratte e può essere ad esempio una rete neurale. L’algoritmo da un lato deve imparare quali sono le feature più efficienti per effettuare il compito che gli è stato affidato (nel caso di ImageNet, classificare immagini), ossia deve imparare quali feature sono in grado di rappresentare in maniera quanto più efficace possibile l’immagine di partenza. Dall’altro, deve ottimizzare il processo di apprendimento vero e proprio del classificatore. Quello che andiamo a fare noi è eliminare la seconda parte dal sistema che ha imparato a classificare le immagini, lasciando solo quella di estrazione delle feature, sperando che la varietà delle immagini sia tale da permettere a queste feature di essere così generali da essere adeguate per descrivere anche le immagini astrofisiche».

Lo avete già testato su dati astronomici?

[De Cicco] «Sì, lo abbiamo utilizzato su un dataset di immagini prese da Vst (Vlt Survey Telescope) che sono per noi particolarmente interessanti perché sono uno dei pochi dataset che sarà confrontabile con i dati survey Lsst del Vera C. Rubin Observatory».

15648491
Alcune immagini problematiche identificate dal metodo presentato in questo articolo, che verrà illustrato anche al simposio Bridging Knowledge: Artificial Intelligence organizzato da Agenzia spaziale italiana questa settimana. Crediti: Cavuoti et al. 2024

Quali sono i vantaggi nella sua applicazione?

[Cavuoti] «Nel momento in cui i dati astronomici stanno aumentando sempre più, e in particolare le serie temporali che arriveranno da Lsst, non è ovviamente possibile analizzare le curve di luce una per una come magari si faceva in passato, attualmente nella maggior parte dei casi si fanno dei tagli – come ad esempio il sigma clip – che rimuovono alcuni valori estremi ma non riescono a individuare tutte le possibili problematiche che possiamo andare a trovare nelle immagini. Il nostro metodo, non cercando semplicemente un picco (o una valle) nella curva di luce, è in grado di identificare alcune di queste epoche che erano sfuggite, come ad esempio quelle che si possono vedere nella figura accanto».

Esistono limitazioni alla sua applicazione?

[De Cicco] «Sì, ci siamo resi conto che anche il nostro metodo da solo trascurava alcune epoche che invece il sigma clip riusciva a individuare (sebbene va detto che entrambi i metodi riescono a identificare agilmente tutte le epoche più catastrofiche). Abbiamo quindi deciso di applicarli in sequenza e, almeno nel dataset che abbiamo utilizzato per i test, dopo una lunga ispezione manuale non abbiamo trovato alcuna epoca problematica ulteriore da eliminare».


Per saperne di più:


Viaggio al termine della pipeline


15554143
15554145
Le unità di campo integrale combinano le capacità di imaging e spettroscopiche per acquisire una spettroscopia bidimensionale risolta spazialmente in una singola esposizione astronomica. Disperdendo la luce da elementi spaziali discreti del campo visivo, viene acquisita un’immagine della sorgente a ogni lunghezza d’onda e, in modo equivalente, uno spettro per ogni posizione spaziale. Crediti: Stsci

Lo studiano da così tanto tempo che ormai lo chiamano semplicemente il quasar. I suoi fotoni hanno viaggiato per 13 miliardi di anni. E alcuni di loro – i protagonisti dell’osservazione che stiamo per raccontarvi – una fine migliore non potevano farla: la loro avventura si è infatti conclusa, a circa un milione e mezzo di km dalla Terra, andando a impattare sull’unità a campo integrale (Ifu, Integral Field Unit) dello spettrografo NirSpec di Jwst, il telescopio spaziale Webb.

Questo avveniva fra il 22 e il 23 settembre 2022, durante le sette ore e mezza d’esposizione dedicate al Programma 1554, uno dei nove progetti a guida italiana del primo ciclo osservativo di Jwst. Il Programma 1554 è guidato da un ricercatore dell’Istituto nazionale di astrofisica, Roberto Decarli, e ha come obiettivo osservare la fusione fra la galassia che ospita il quasar – nome in codice, PJ308-21 – e due sue galassie satelliti. Per ottenere quelle sette ore e mezza di tempo del miglior telescopio spaziale mai realizzato, Decarli e la sua squadra si sono dati da fare per anni, e hanno dovuto superare una durissima selezione. D’altronde stiamo parlando di tempo davvero prezioso: volendo dargli un prezzo, oltre 200mila euro all’ora, dicono le stime. Detto altrimenti, il pacchetto di dati scientifici – uno fra i primi inviati a terra dal telescopio – contenente quelle sette ore e mezza d’osservazioni valeva più o meno un milione e mezzo di euro. Possiamo immaginare l’eccitazione con la quale Decarli e colleghi, appena saputo che era pronto per essere prelevato, lo hanno scaricato dall’archivio di Jwst e lo hanno aperto.

Il quasar – il loro quasar – era finalmente lì, nel disco del pc. Ed è da lì che ha inizio la seconda parte del viaggio dei suoi fotoni, divenuti a questo punto bit. Bit che solo poche persone al mondo sono in grado d’interpretare. Una di queste persone è Federica Loiacono, astrofisica che lavora con Decarli all’Inaf di Bologna. Ancora le vengono i brividi a ricordare quell’insolito unboxing. «All’inizio, quando sono arrivati i dati, non si capiva niente», dice a Media Inaf. «Non si vedeva proprio, questo quasar. Eravamo preoccupati. Ci siamo messi attorno a un tavolo per cercare di capire cosa c’era che non andava».

In realtà non c’era nulla che non andava. È solo che le osservazioni, in particolare queste spettroscopiche, non vengono servite bell’e pronte, chiavi in mano: richiedono una paziente opera di pulitura e ricostruzione, la cosiddetta riduzione. Una serie precisa di algoritmi da applicare a cascata che gli addetti ai lavori chiamano pipeline, nel corso della quale l’immagine – o meglio, in questo caso, lo spettro – pian piano emerge. È un po’ come quando si fa una risonanza magnetica: senza una complessa fase di post-processing, i dati acquisiti dai ricevitori sarebbero del tutto incomprensibili.

Se la pipeline di Jwst è dunque una sorta di bacchetta magica in grado di svelare l’autentico aspetto degli oggetti che si celano nel mare di zeri e di uni inviati dal telescopio, la sua Hermione – perlomeno qui in Italia, dov’è referente per la riduzione dei dati NirSpec al Jwst Support Center – è proprio Federica Loiacono. Originaria di Sannicandro di Bari, appassionata di fotografia e da qualche mese anche collaboratrice di Media Inaf, quando l’abbiamo raggiunta per farci raccontare la storia del “suo” quasar si trovava alle Hawaii, nella città di Hilo, alle pendici del vulcano Manua Kea, a insegnare ad alcuni astronomi che lavorano laggiù come si riducono i dati di Webb: una competenza che Loiacono si è costruita nel tempo, partendo da una serie di webinar organizzata dallo Space Telescope Science Institute di Baltimora, e che ora si sta rivelando preziosissima.

15554147
Spettro del quasar PJ308-21 ottenuto con lo strumento NirSpec di Webb. Si notano le quattro righe dell’idrogeno (H) alfa, beta, gamma e delta della serie di Balmer. Crediti: F. Loiacono et al., A&A, 2024

Ed è così che in pochi giorni, adattata la pipeline ad abili colpi di Python, Loiacono riesce a estrarre il grafico che vedete qui sopra. A noi può lasciarci del tutto indifferenti, ma per chi sa cosa significhi ottenere lo spettro del cuore di una galassia nata a ridosso del big bang, e distante oggi da noi decine di miliardi di anni luce, è qualcosa di arduo anche solo da descrivere.

«Quando ho visto le righe», dice Loiacono riferendosi ai picchi della curva nera, «sono rimasta impressionata. Lo abbiamo presentato a un workshop in Germania la settimana successiva, era la prima volta che venivano mostrati dati da Jwst di un quasar così distante, e sono rimasti tutti a bocca aperta: non s’era mai vista una cosa del genere. È una fra le prime volte in cui riusciamo a distinguere le righe H-alfa e H-beta in un oggetto a questa distanza. E quest’ultima è il tracciante principe per stimare la massa di un buco nero».

Le righe H-alfa e H-beta citate da Loiacono sono le firme della presenza, là attorno al buco nero supermassiccio che alimenta il quasar, di nubi di idrogeno. La riga H-beta, in particolare, è un indicatore molto affidabile per stimare la velocità alla quale il gas sta orbitando intorno al buco nero. E mettendo insieme raggio e velocità diventa possibile calcolare la massa di quell’antichissimo buco nero: il risultato, riportato questa settimana su Astronomy & Astrophysics in uno studio guidato da Loiacono e Decarli, dice 2.7 miliardi di masse solari. Confermando una precedente stima ottenuta da un’altra riga spettrale, quella del magnesio, osservata con Vlt, il Very Large Telescope dell’Eso.

15554149
Federica Loiacono, ricercatrice all’Inaf di Bologna e prima autrice dello studio su PJ308-21 in uscita su A&A, qui alle Hawaii davanti allo spettro del quasar da lei ottenuto usando i dati dello spettrografo NirSpec di Jwst. Crediti: F. Loiacono/Inaf

Un buco nero di mole spaventosa, per un’epoca così remota. Cresciuto dunque molto velocemente. Troppo, secondo alcuni modelli teorici. Ma l’incredibile nitidezza dello spettro di Webb non lascia scelta: se c’è qualcosa da rivedere, non sono i dati, piuttosto sono le teorie – alcune teorie, alcuni modelli, appunto.

«Paradossalmente, ottenere uno spettro così perfetto ci ha messo in crisi», spiega infatti Loiacono. «Trovare un modello che potesse riprodurre questi dati non è stato facile. Avendo questa forma estremamente definita, che sembra essa stessa un modello, ci ha dato del filo da torcere. Ci permette di escludere molti modelli, certo, e al tempo stesso ne mette in evidenza i limiti».

E a proposito di limiti: finora abbiamo parlato di un solo quasar. Per rimettere mani alla teoria occorrerà osservarne parecchi – sempre con Webb, sempre con il suo impareggiabile strumento NirSpec. «La nostra speranza è di poter ripetere lo studio su un’altra ventina di oggetti simili», conclude Loiacono. La pipeline è già lì pronta, non aspetta altro.

Per saperne di più:

  • Leggi su Astronomy & Astrophysics l’articolo “A quasar-galaxy merger at z∼2: black hole mass and quasar properties from the NIRSpec spectrum”, di Federica Loiacono, Roberto Decarli, Marco Mignoli, Emanuele Paolo Farina, Eduardo Bañados, Sarah Bosman, Anna-Christina Eilers, Jan-Torge Schindler, Michael A. Strauss, Marianne Vestergaard, Feige Wang, Laura Blecha, Chris L. Carilli, Andrea Comastri, Thomas Connor, Tiago Costa, Massimo Dotti, Xiaohui Fan, Roberto Gilli, Hyunsung D. Jun, Weizhe Liu, Alessandro Lupi, Madeline A. Marshall, Chiara Mazzucchelli, Romain A. Meyer, Marcel Neeleman, Roderik Overzier, Antonio Pensabene, Dominik A. Riechers, Benny Trakhtenbrot, Maxime Trebitsch, Bram Venemans, Fabian Walter e Jinyi Yang


Tre lampi gamma al rallentatore cosmologico


15536841
15536843
Carlo Luciano Bianco, ricercatore all’Icranet e primo autore dello studio pubblicato su ApJ

I lampi di raggi gamma – o Grb, dall’inglese gamma ray burst – hanno una caratteristica antipatica, dal punto di vista di chi si trova a studiarli: durano quanto un lampo, appunto. Come il lampo di Pascoli, quello che “s’aprì si chiuse, nella notte nera”. Dunque per analizzarli fin dagli esordi occorre coglierli nel tratto – perlopiù brevissimo – fra la loro comparsa e la loro scomparsa. Come fare? Occorrono telescopi rapidissimi, telescopi spaziali come Swift, pronti a reagire senza indugio al cosiddetto trigger, l’istante in cui la sorgente del Grb preme il grilletto. Ma viene in aiuto anche la Natura: grazie a un fenomeno noto come dilatazione cosmologica del tempo – cosmological time dilation, in inglese – che consente di osservare eventi molto distanti al rallentatore. Permettendo così di guadagnare secondi preziosi.

Ed è proprio avvalendosi di questo effetto che un team di ricercatori guidato dall’Icranet di Pescara, fra i quali Massimo Della Valle dell’Inaf, ha studiato attentamente 368 Grb osservati da Swift tra il 2005 e il 2023. Concentrandosi in particolare su tre fra i più lontani, e dunque più rallentati, sono riusciti a ricostruire uno scenario che unifica i progenitori dei Grb “lunghi”, quelli di solito associati al collasso di una stella di grande massa, e dei Grb “corti”, associati invece alla fusione di stelle di neutroni. Entrambi potrebbero avere un’origine comune: un sistema binario di stelle massicce. In che modo? Lo abbiamo chiesto al primo autore dello studio pubblicato la settimana scorsa su ApJ, Carlo Luciano Bianco – nato a Roma nel 1977 «da genitori entrambi chimici, quindi io sono la pecora nera della famiglia», dice a Media Inaf, e con «un figlio che per il momento è ancora troppo piccolo per interessarsi a questi problemi».

Il vostro studio si basa su un fenomeno fisico, la dilatazione cosmologica del tempo, grazie al quale più un processo è avvenuto lontano nello spaziotempo e più lo vediamo accadere rallentato. È così? E rallentato quanto, nel caso dei vostri Grb – i tre lampi gamma sui quali vi siete concentrati?

«Sì, è precisamente così. A causa dell’espansione dell’universo, quanto più un fenomeno si svolge lontano da noi tanto più lo vediamo “rallentato”. Se il fenomeno dura un tempo t, a noi appare durare un tempo t moltiplicato per (1+z), dove z è un numero corrispondente al cosiddetto redshift cosmologico del punto in cui il fenomeno si sviluppa: più è distante da noi, più z aumenta. I Grb sono tra gli oggetti più luminosi dell’universo, se i nostri occhi potessero vedere nei raggi gamma ci abbaglierebbero. Quindi li possiamo vedere anche a distanze molto grandi, fin quasi a z=10, corrispondente a poche centinaia di milioni di anni dopo il Big Bang, per capirci. Per un Grb a z=3, per esempio, vediamo l’emissione durare il quadruplo di quello che è durata in realtà, essendo 1+z=4. I tre Grb analizzati in dettaglio nel nostro articolo, che si trovano a z=4.6, z=8.2 e z=9.4, li vediamo rallentati rispettivamente di 5.6, 9.2 e 10.4 volte».

Questo rallentamento cosmologico è un fenomeno che riguarda solo i Grb o è comune a tutti i processi osservati ad alto redshift?

«È un effetto di cosmologia assolutamente generale, non riguarda un oggetto specifico. Qualsiasi fenomeno osservato a un redshift z ci appare rallentato di un fattore 1+z. Si vede molto bene nei Grb perché li osserviamo a grande distanza. Ma anche, ad esempio, nelle supernove che osserviamo tra z=0.5 e z=1 l’effetto è ben visibile».

Veniamo allo strumento da voi utilizzato, il telescopio spaziale Swift. Il suo limite, scrivete, è che, per quanto sia velocissimo, dal momento del trigger – vale a dire, da quando si accorge del lampo gamma – impiega circa 40 secondi per puntare verso la sorgente. In che modo la dilatazione cosmologica del tempo lo aggirerebbe? Voglio dire, se il tempo apparisse rallentato dieci volte vi perdereste comunque i primi 4 secondi…

«Va anzitutto ricordato che Swift ha portato una vera e propria rivoluzione nel settore. Basti pensare che prima di Swift il tempo necessario a ripuntare un Grb per osservarlo nei raggi X era di almeno 8 o 10 ore. Grazie a Swift è sceso di colpo a qualche decina di secondi, e questo ci ha permesso di scoprire una quantità impressionante di fenomeni che si svolgono nei raggi X nelle prime decine di minuti di un Grb. Chiaramente, da bravi astrofisici, chiediamo sempre la Luna, e quindi adesso vogliamo cercare di arrivare a osservare nei raggi X il più vicino possibile al momento dell’esplosione. Nel nostro articolo facciamo appunto vedere che già adesso, grazie all’effetto di dilatazione cosmologica del tempo, per i Grb più lontani possiamo arrivare a osservare con Swift nei raggi X fino a quasi 7 secondi dopo l’esplosione. Ci perdiamo ancora qualche secondo, certamente, ma per fare meglio di così servirà aspettare le prossime missioni spaziali attualmente in fase di progettazione».

15536845
Infografica sull’origine dei Grb lunghi (a sinistra), di durata superiore a due secondi, e corti (a destra), di durata inferiore. Crediti: Nasa

Voi non siete i primi a usare la dilatazione cosmologica del tempo per lo studio dei Grb: cosa vi ha permesso di scoprire di nuovo, che non si sapesse già prima? E perché sarebbe utile ai fini dell’altro risultato che presentate nell’articolo, quello sui progenitori dei Grb short – i lampi di raggi gamma corti?

«Per capirlo dobbiamo fare una piccola digressione. Tradizionalmente, i Grb sono classificati in “lunghi” e “corti”, a seconda che il lampo iniziale nei raggi gamma sia visto durare più o meno di due secondi. Il modello che inizialmente si era imposto come “standard” prevedeva che i Grb lunghi avessero origine nel collasso di stelle massicce singole, mentre i corti nella coalescenza di sistemi binari. In questo modello, sia l’emissione iniziale nei raggi gamma che quella successiva nei raggi X hanno origine dall’espansione di un plasma ultrarelativistico formatosi rispettivamente nel collasso o nella coalescenza. Il modello che stiamo sviluppando noi, invece, prevede che tutti i Grb, sia corti che lunghi, abbiano origine in sistemi binari. In particolare, nel caso dei lunghi, il sistema progenitore è formato da una stella massiccia prossima all’esplosione come ipernova e da una stella di neutroni compagna. Quello che si realizza è un vero e proprio “ping-pong” tra le due: la prima esplode come ipernova, forma una nuova stella di neutroni e trasferisce materia alla stella di neutroni compagna, che a sua volta può collassare a buco nero e produrre l’esplosione del lampo di raggi gamma. L’emissione X che si osserva subito dopo questo lampo, in questo modello, proviene dalla nuova stella di neutroni che si è appena formata nell’esplosione dell’ipernova. Pertanto, è fondamentale poter osservare l’emissione X il prima possibile, per verificare che ci troviamo effettivamente di fronte all’emissione di una stella di neutroni appena formata e poter discriminare tra i vari modelli».

Mi sto perdendo… quanti Grb producono, queste binarie di stelle massicce?

«Un sistema binario può produrre un’ipernova, un Grb lungo e infine, eventualmente, un Grb corto. Il fatto è che, dopo il ping-pong che dicevamo prima, in cui si formano un’ipernova e un Grb lungo, può rimanere un sistema binario formato dalla nuova stella di neutroni e dalla vecchia compagna – che potrebbe essere diventata un buco nero oppure essere rimasta una stella di neutroni più massiccia di prima, seconda di quanta massa ha preso dalla compagna. Dico “può rimanere” perché può anche darsi che nell’esplosione di ipernova e Grb lungo il sistema si separi e i due oggetti non siano più legati. Se però rimangono legati in un sistema binario, questo in seguito può coalescere, formando un Grb corto».

Quali sono i tempi di questa sequenza? Intendo dire, quant’è l’intervallo fra una racchettata e l’altra del “ping pong”? E fra il Grb lungo e quello corto?

«Per quanto riguarda la durata del “ping pong”, nel modello che stiamo sviluppando l’intervallo di tempo tra l’esplosione dell’ipernova e quella del Grb è dell’ordine di qualche secondo, al limite magari una decina o giù di lì. Ma tutto quello che vediamo del momento dell’esplosione dell’ipernova è un primo lampo nei raggi gamma – quello che nell’articolo chiamiamo supernova rise, o episodio 1. L’emissione ottica dell’ipernova è dovuta a processi molto più lenti e diventa visibile solo una decina di giorni dopo. Quindi il “ping pong” nelle osservazioni tra l’emissione di una stella e l’emissione dell’altra in realtà continua a lungo. L’eventuale Grb corto successivo, invece, nel caso in cui si verificasse, potrebbe avvenire dopo un tempo dell’ordine di milioni o miliardi di anni… in altre parole, io non rimarrei qui fermo ad aspettare».

C’è una cosa che continua a non essermi chiara: a cosa è servito l’effetto della dilatazione cosmologica del tempo ai fini del vostro studio?

«Le osservazioni dell’emissione X nei primi secondi servono proprio per poter confermare lo scenario che ho appena descritto. Ma il legame è anche un altro, e ben rappresenta il modo in cui certi risultati vengono ottenuti».

Cioè?

«Praticamente, stavamo lavorando su quelle tre sorgenti ad alto redshift, per studiare i primi secondi dell’emissione X sfruttando la dilatazione dei tempi cosmologica. A quel punto ci siamo detti: ma per quante altre sorgenti potremmo fare questa analisi? E così abbiamo analizzato tutti i quasi 400 Grb con redshift misurato visti da Swift dal 2005 a fine 2023, e abbiamo visto che per una gran parte di essi l’effetto di dilatazione dei tempi è molto evidente. Ma, una volta che abbiamo avuto tra le mani questo campione di quasi 400 Grb con redshift misurato, ci è venuta l’idea di vedere la distribuzione dei redshift, dividendo il campione nelle diverse famiglie di Grb previste dal nostro modello. In questo modo ci siamo resi conto che queste distribuzioni supportavano un’ipotesi che avevamo proposto anni fa».

Quale?

«L’idea che i Grb lunghi potessero produrre sistemi binari a loro volta sorgenti di Grb corti. Non ci siamo ovviamente fermati qui, e un nuovo articolo dedicato ad approfondire questo aspetto è già in fase di referaggio. Ma il risultato era troppo interessante per non annunciarlo fin da subito, anche in considerazione del fatto che era stato ottenuto proprio come effetto collaterale dell’analisi dei Grb ad alto redshift presentata nel nostro articolo».

Un’ultima cosa: scrivete che il vostro studio evidenzia l’importanza di future missioni, come Theseus, in grado di osservare le emissioni gamma e X sin dal trigger del Grb – da quando il lampo gamma viene emesso, dunque. Però mi pare d’aver letto che Theseus sarà forse persino più lento di Swift, nelle manovre di puntamento. Perché dovrebbe dunque portare a risultati migliori?

«Il punto centrale è il campo di vista dello strumento. Il telescopio Xrt a bordo di Swift ha un campo di vista molto ristretto, quindi è sempre necessario effettuare un puntamento per poter osservare una sorgente. Nel caso di Theseus, invece, il campo di vista è molto più ampio e quindi potrebbe osservare un segnale senza doverlo ripuntare, semplicemente perché il segnale è capitato già nel campo di vista dello strumento. Per usare un’analogia con il mondo della fotografia, Swift ha un teleobiettivo, mentre con Theseus avremo a disposizione un grandangolo che ci permetterà di osservare il segnale fin dall’inizio, semplicemente perché sarà nel campo di vista dello strumento fin dall’inizio».


Per saperne di più:


BepiColombo, abbiamo un problema di propulsione


15518055
Essenziali la nota stampa, e il tweet, pubblicati dall’Esa, l’Agenzia spaziale europea, riguardo il problema ai propulsori emerso durante l’ultima manovra di BepiColombo. Poco tradiscono sull’effettiva gravità della situazione e, soprattutto, sulla possibilità di recuperare la piena funzionalità in vista dell’ultimo anno e mezzo di viaggio prima dell’inserimento in orbita attorno a Mercurio, previsto per dicembre 2025.

The ESA/JAXA BepiColombo mission to Mercury has experienced a technical issue that is preventing its thrusters from operating at full power.

Top spaceflight experts from ESA and its partners are working the problem, but the long-term impact on the mission is uncertain.

Details:… pic.twitter.com/vt89lFDbdT

— ESA Operations (@esaoperations) May 15, 2024

Il problema, secondo quanto riportato dall’Agenzia, sarebbe emerso il 26 aprile durante una manovra orbitale, quando il modulo responsabile del trasporto non sarebbe riuscito a fornire sufficiente energia elettrica ai propulsori della sonda. BepiColombo è una missione congiunta dell’Esa e dell’agenzia spaziale giapponese Jaxa formata da tre unità: due orbiter (il Mercury Magnetospheric Orbiter della Jaxa, e il Mercury Planetary Orbiter dell’Esa), e un modulo responsabile del trasporto, il Mercury Transport Module (Mtm), che utilizza una combinazione di propulsione elettrica e spinta gravitazionale.

«Durante l’utilizzo della propulsione elettrica abbiamo riscontrato un problema per cui il satellite non è stato in grado di fornire tutta la potenza elettrica necessaria», spiega a Media Inaf Andrea Accomazzo, responsabile della Divisione missioni interplanetarie al centro di controllo dell’Esa a Darmstadt, dal quale si controllano le operazioni di volo e le manovre orbitali di BepiColombo. «Questo ha causato uno spegnimento della propulsione elettrica, come previsto in questi casi. Questi archi di propulsione elettrica fanno parte delle manovre necessarie per guidare la sonda nel suo avvicinamento a Mercurio. La situazione è stata temporaneamente stabilizzata riducendo il livello di spinta dei motori e altri carichi elettrici del satellite, così da avere una fornitura di potenza stabile. In assenza di altri problemi, questa soluzione è in grado di raggiungere le condizioni orbitali per effettuare i tre passaggi gravitazionali con Mercurio previsti tra settembre e gennaio. Le investigazioni per capire l’origine del problema riscontrato continuano con il supporto necessario. Occorrerà del tempo per avere un quadro più preciso della situazione».

15518057
Le componenti della navicella BepiColombo. Dal basso verso l’alto: modulo di trasferimento di Mercurio, orbiter planetario di Mercurio, schermo solare e struttura di interfaccia e orbiter magnetosferico di Mercurio. Le navicelle sono mostrate con gli array solari e gli strumenti dispiegati. Crediti: Esa/Atg medialab

Il team dell’Esa a Darmstadt sta lavorando assieme ai partner industriali da fine aprile per risolvere il problema in vista delle prossime manovre orbitali. Sono riusciti, entro il 7 maggio, a riportare la spinta di BepiColombo a circa il 90 per cento del suo livello precedente. Tuttavia, la potenza disponibile del modulo di trasferimento è ancora inferiore a quella che dovrebbe essere, cosa che impedisce di ripristinare la spinta completa.

«La situazione al momento è sotto controllo e i motori stanno funzionando quasi a pieno regime, una leggera riduzione della potenza che non mette a rischio il prossimo flyby a settembre», rassicura Gabriele Cremonese, responsabile scientifico dello strumento Symbio-Sys a bordo di BepiColombo. Il flyby di cui parla è quello che sta portando la sonda a incontrare nuovamente Mercurio per la sua quarta manovra di assistenza gravitazionale. Mentre, come dicevamo, l’inserimento in orbita attorno al pianeta è previsto per la fine del 2025, con l’inizio delle operazioni scientifiche nella primavera 2026. «Come in tutte le risorse e sistemi di una missione spaziale ci sono dei margini, e quindi anche per la potenza dell’Mtm (il modulo di trasferimento responsabile della propulsione, ndr). Esa e le aziende coinvolte stanno lavorando per ottimizzare la potenza anche includendo i margini. In questo momento non sono previste variazioni nelle attività degli strumenti».

«I rischi associati a questo problema potrebbero anche avere effetti sulla definizione della missione», conclude Accomazzo, «pertanto richiedono massima attenzione e prudenza da parte nostra». Insomma, per il momento si lavora di conserva, e la fattibilità delle prossime manovre sembra non essere in discussione. L’Esa fa sapere che pubblicherà nuovi aggiornamenti non appena ci saranno avanzamenti di rilievo sui lavori.

Com’è fatto BepiColombo? Guarda il servizio di MediaInaf Tv:

youtube.com/embed/VQuSiLRhUsE?…


Speculoos-3 b, un pianeta simile alla Terra


15486462
15486464
Rappresentazione artistica dell’esopianeta Speculoos-3 b in orbita attorno alla sua stella. Il pianeta è grande come la Terra, mentre la sua stella è leggermente più grande di Giove, ma molto più massiccia. Crediti: Lionel Garcia.

È bene dirlo subito: non è un pianeta adatto alla vita. Nonostante sia roccioso e simile per dimensioni alla Terra, il pianeta scoperto dal progetto Speculoos non ha le caratteristiche giuste per ospitare la vita. Ma si tratta comunque di una scoperta importante nella ricerca di pianeti potenzialmente abitabili, perché ha centrato in pieno l’obiettivo del progetto: trovare pianeti di tipo terrestre attorno a stelle nane ultrafredde.

Forse ricorderete il sistema planetario Trappist-1, il primo ad essere scoperto attorno a una stella dello stesso tipo, e che quanto a ricchezza – con i suoi sette pianeti terrestri – ha davvero esagerato. Il progetto Speculoos – letteralmente Search for Planets Eclipsing Ultra-cool Stars, e sì, il nome vuole ricordare i biscottini alla cannella – guidato dall’astronomo Michaël Gillon dell’Università di Liegi, è il suo erede più diretto. Il progetto è infatti nato nel 2017 con l’intento di cercare esopianeti intorno alle stelle nane ultrafredde più vicine usando come prototipo il telescopio Trappist.

La stella in questione si trova a 55 anni luce dalla Terra, ha dimensioni simili a Giove, è calda meno della metà del Sole, dieci volte meno massiccia e cento volte meno luminosa. Vivrà però circa cento volte più a lungo, tanto che stelle come questa si pensa rimarranno le ultime a brillare quando l’universo diventerà freddo e buio. Non si tratta di una categoria di stelle particolare, anzi, sono piuttosto comuni, ma è difficile osservarle perché sono – appunto – poco luminose e dunque poco visibili. E poco si sa anche dei loro pianeti, sebbene si ritenga che rappresentino una frazione significativa della popolazione planetaria della Via Lattea.

Per avere buone possibilità di individuare un transito di pianeti attorno a stelle nane ultrafredde, occorre osservarle una per una, per intere settimane. Cosa che richiede una rete dedicata di telescopi robotici professionali. Per questo gli astronomi dell’Università di Liegi hanno dato il via al progetto Speculoos (cominciato a livello prototipale con Trappist), gestito congiuntamente dalle università di Liegi, Cambridge, Birmingham, Berna, Mit ed Eth Zürich. I quattro telescopi robotici da un metro di diametro della rete australe del progetto Speculoos si trovano a Cerro Paranal, in Cile, a oltre 2500 metri di altezza s.l.m., e osservano il cielo alle lunghezze d’onda del vicino infrarosso. Il loro primo pianeta scoperto, di cui si parla in un articolo pubblicato oggi da Nature Astronomy, si chiama Speculoos 3-b.

«Ha praticamente le stesse dimensioni del nostro pianeta», spiega l’astronomo Michaël Gillon, primo autore dell’articolo e guida del progetto. «Un anno, cioè un’orbita intorno alla stella, dura circa 17 ore. I giorni e le notti, invece, sembra non finiscano mai. Riteniamo infatti che il pianeta ruoti attorno alla stella in modo sincrono, ovvero rivolgendo a essa sempre lo stesso lato – il lato a giorno appunto, proprio come fa la Luna per la Terra. Il lato notturno, invece, rimane bloccato in un’oscurità senza fine».

La stella Speculoos-3 è di gran lunga più fredda rispetto al Sole: ha una temperatura media di circa 2.600 gradi. A causa della sua orbita iper-corta, il pianeta riceve dalla sua stella ogni secondo un’energia quasi sedici volte superiore a quella che riceve la Terra dal Sole, ed è quindi letteralmente bombardato da radiazioni ad alta energia. È improbabile – ritengono i ricercatori – che in condizioni simili si possa sviluppare un’atmosfera attorno al pianeta. Così come è improbabile che possa sviluppare e sostenere qualunque forma di vita. Rimane però un pianeta interessante da studiare anche con il telescopio spaziale Webb, pensano gli autori, che potrebbe vederne la mineralogia e approfittare dell’assenza dell’atmosfera per studiare più approfonditamente la sua stella. Per candidati più promettenti per la vita, invece, bisognerà attendere le prossime rilevazioni.

Per saperne di più:


Più grande di Giove, leggero come zucchero filato


15467435
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di un pianeta “super-puff”. Crediti: Baperookamo/Wikimedia – Own work, Cc By-Sa 4.0

È un mondo enorme e leggerissimo, un immenso peluche di idrogeno ed elio dal diametro pari a una volta e mezzo quello di Giove ma dalla massa che non è nemmeno un settimo di quella del gigante del Sistema solare. Di conseguenza la sua densità è bassissima: 59 milligrammi per centimetro cubo. Praticamente quella dello zucchero filato. Quella di Giove, per dire, è di 1.3 grammi per centimetro cubo, dunque oltre venti volte maggiore. Il suo nome è Wasp-193 b, si trova a 1200 anni luce da noi e per densità è il secondo mondo super-puff più light che si conosca, superato in leggerezza solo da Kepler-51 d, che però è assai più piccolo.

«È così leggero che è difficile pensare a un materiale analogo allo stato solido», dice Julien de Wit del Massachusetts Institute of Technology (Mit), coautore dello studio – guidato da Khalid Barkaoui dell’Università di Liegi e pubblicato oggi su Nature Astronomy – che riporta la scoperta. «A renderlo così simile allo zucchero filato è che entrambi sono praticamente fatti d’aria: è un pianeta super soffice».

La densità record di Wasp-193 b è stata misurata attraverso un procedimento ormai ben collaudato nello studio dei pianeti extrasolari. Anzitutto ne è stato calcolato il volume attraverso il metodo dei transiti: usando le fotocamere del telescopio Wasp-South della collaborazione Wasp (Wide Angle Search for Planets), installato a Sutherland (in Sudafrica), è stato misurato il calo di luce dovuto al passaggio – ogni 6.25 giorni, questo il periodo di rivoluzione – del pianeta davanti alla sua stella, osservato a più riprese, derivandone così la circonferenza del disco e da questa, appunto, il volume. Poi è stato il turno dei telescopi Trappist-South e Speculoos-South, anch’essi nell’emisfero australe, che ne hanno confermato la natura planetaria. Infine, avvalendosi questa volta degli spettrografi Harps e Coralie, attraverso il metodo delle velocità radiali è stato possibile stimarne la massa – e dunque la densità.

Per quel che riguarda la composizione, come dicevamo, secondo gli autori dello studio gli ingredienti principali del pianeta sarebbero idrogeno ed elio, come per la maggior parte degli altri giganti gassosi della nostra galassia. Gas che nel caso di Wasp-193 b danno luogo a un’atmosfera enormemente gonfia, probabilmente decine di migliaia di chilometri più estesa di quella di Giove. Gonfia al punto che nessuna teoria esistente sulla formazione dei pianeti è in grado di spiegarne il processo di formazione: senz’altro è necessaria la presenza di una significativa fonte d’energia nelle viscere del pianeta, ma il meccanismo alla base di ciò non è ancora stato compreso in modo dettagliato.

«Fra le teorie sulla formazione a oggi disponibili non ce n’è una nella quale lo sapremmo collocare: questo pianeta è un outlier, per tutte. Non riusciamo a spiegare come si sia formato. Osservare più da vicino la sua atmosfera ci permetterà di circoscriverne il percorso evolutivo», si augura un altro fra i coautori dello studio, Francisco Pozuelos, dell’Instituto de Astrofisica de Andalucia (Spagna). E come spesso accade a tutti gli astronomi che negli ultimi anni si trovano ad aver firmato qualche scoperta, ora anche per il team guidato da Khalid Barkaoui l’auspicio è di poter osservare Wasp-193 b almeno per qualche minuto con il telescopio spaziale James Webb.

Per saperne di più:

  • Leggi su Nature Astronomy l’articolo “An extended low-density atmosphere around the Jupiter-sized planet WASP-193 b”, di
    Khalid Barkaoui, Francisco J. Pozuelos, Coel Hellier, Barry Smalley, Louise D. Nielsen, Prajwal Niraula, Michaël Gillon, Julien de Wit, Simon Müller, Caroline Dorn, Ravit Helled, Emmanuel Jehin, Brice-Olivier Demory, Valerie Van Grootel, Abderahmane Soubkiou, Mourad Ghachoui, David. R. Anderson, Zouhair Benkhaldoun, Francois Bouchy, Artem Burdanov, Laetitia Delrez, Elsa Ducrot, Lionel Garcia, Abdelhadi Jabiri, Monika Lendl, Pierre F. L. Maxted, Catriona A. Murray, Peter Pihlmann Pedersen, Didier Queloz, Daniel Sebastian, Oliver Turner, Stephane Udry, Mathilde Timmermans, Amaury H. M. J. Triaud e Richard G. West


Il mondo incandescente di Hd 104067


15438335
media.inaf.it/wp-content/uploa…
Illustrazione di un esopianeta vulcanico. Crediti: Nasa, Esa, Csa, Dani Player

L’astrofisico Stephen Kane della UC Riverside ha dovuto ricontrollare più volte i suoi calcoli perché non riusciva a capacitarsi di come il pianeta che stava studiando potesse essere così estremo. Simile a Io, il corpo vulcanicamente più attivo del Sistema solare, anche questo pianeta sembra essere ricoperto da così tanti vulcani attivi che, visto da lontano, parrebbe incandescente. L’articolo che descrive l’inusuale scoperta è stato pubblicato su The Astronomical Journal.

Lanciato nel 2018, il Transiting Exoplanet Survey Satellite (Tess) della Nasa, cerca esopianeti che orbitano attorno alle stelle più luminose del cielo. Kane stava studiando un sistema stellare chiamato Hd 104067, distante circa 66 anni luce dal Sole, già noto per ospitare un pianeta gigante. In quel sistema, Tess aveva appena trovato le evidenze di un nuovo pianeta roccioso e, nel raccogliere dati su quel pianeta, ne ha inaspettatamente trovato un altro, portando a tre il numero totale di pianeti conosciuti nel sistema.

Il nuovo pianeta scoperto da Tess è un pianeta roccioso come la Terra, ma più grande del 30%. Tuttavia, a differenza della Terra, ha più punti in comune con Io, la luna rocciosa più interna di Giove del Sistema solare. La temperatura superficiale del nuovo pianeta, Toi-6713.01, è di 2.600 gradi Kelvin, più calda di quella di alcune stelle. «Alle lunghezze d’onda ottiche si potrebbe vedere un pianeta incandescente e rovente, con una superficie di lava fusa», spiega Kane.

Responsabile dell’attività vulcanica su Io e su questo pianeta sono le forze gravitazionali. Anche se Io è molto vicino a Giove, le altre lune lo costringono a un’orbita eccentrica intorno al pianeta, che a sua volta esercita una fortissima attrazione gravitazionale. «Se non ci fossero le altre lune, Io avrebbe un’orbita circolare intorno al pianeta e la sua superficie sarebbe tranquilla. Invece, la gravità di Giove lo spreme a tal punto che erutta continuamente vulcani», riferisce Kane.

Allo stesso modo, nel sistema di Hd 104067 ci sono due pianeti più lontani dalla stella rispetto a questo nuovo pianeta. Questi pianeti esterni costringono il pianeta roccioso interno a un’orbita eccentrica intorno alla stella, che lo schiaccia mentre orbita e ruota. È un effetto, questo, chiamato tidal energy o energia mareale.

In futuro, Kane e i suoi colleghi vorrebbero misurare la massa del pianeta incandescente e conoscerne la densità, per valutare quanto materiale è disponibile per essere espulso dai vulcani. Kane sostiene che gli effetti delle maree sui pianeti non sono stati storicamente oggetto di grande attenzione nella ricerca sugli esopianeti e che forse con questa scoperta le cose cambieranno.

«Quanto trovato ci insegna molto sugli estremi della quantità di energia che può essere immessa in un pianeta terrestre e sulle sue conseguenze», conclude Kane. «Sappiamo che le stelle contribuiscono al calore di un pianeta, ma la maggior parte dell’energia è dovuta alle maree e questo non può essere ignorato».

Per saperne di più:


Così potremo vedere le prime stelle dell’universo


15422547
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di un evento di distruzione mareale di una stella mentre passa nelle vicinanze di un buco nero massiccio. Crediti: Space Telescope Science Institute/Ralf Crawford

Le primissime stelle che si sono accese dopo il Big bang sono quelle che hanno dato l’impronta chimica all’universo in cui viviamo oggi, e che hanno preparato il terreno sul quale sono nate ed evolute tutte le stelle successive. Per distinguerle da queste, gli astronomi hanno chiamato le stelle di prima generazione popolazione III, e da quando hanno capito che le altre due generazioni conosciute e osservate – le popolazioni II e I – non bastavano a spiegare l’esistente, le stanno cercando. Senza risultati convincenti.

Su The Astrophysical Journal Letters è stata pubblicata, per mano di un gruppo di ricercatori di Hong Kong, una nuova idea: invece di provare a osservarle direttamente, si può cercare le stelle di Popolazione III attraverso l’emissione che produrrebbero qualora fossero entrate in contatto con un buco nero massiccio.

L’idea è promettente per almeno due motivi. Il primo, il più ovvio, è che finora la ricerca diretta non ha sortito alcun effetto. Le stelle di Popolazione III erano infatti tremendamente calde, di dimensioni e massa gigantesche, ma di vita molto breve. Vivevano nell’universo primordiale, e quindi molto lontano, e apparirebbero, agli occhi degli attuali telescopi a terra o nello spazio, troppo deboli.

Il secondo è che il meccanismo proposto, invece, produrrebbe un’emissione rilevabile da alcuni telescopi attualmente operativi – come il James Webb Space Telescope – o in costruzione – come il Nancy Grace Roman Telescope. Vediamo perché.

Passando abbastanza vicino a un buco nero massiccio una stella può essere fatta a pezzi dalle forze mareali generate dal suo intensissimo campo gravitazionale, in quello che in inglese si definisce tidal disruption event (Tde). Succede nell’universo attuale e succedeva nell’universo primordiale, in cui le uniche stelle in circolo erano quelle di Popolazione III. E mentre il buco nero si nutre dei detriti stellari, produce brillamenti molto luminosi, che gli autori dello studio hanno investigato a fondo dimostrando che potrebbero percorrere miliardi di anni luce e giungere fino a noi. Arrivando, per altro, con delle caratteristiche uniche rispetto a tutti gli altri. Viaggiando da una distanza così lontana, infatti, lungo il tragitto risentirebbero dell’espansione dell’universo che ne allungherebbe la durata. Questi brillamenti sorgerebbero e decadrebbero, pertanto, in un periodo di tempo molto più lungo rispetto agli analoghi più recenti. Non solo, anche la loro lunghezza d’onda, come per qualunque radiazione proveniente da lontano – per effetto del cosiddetto redshift cosmologico – si sposterebbe dall’ottico/ultravioletto all’infrarosso.

Dove cercare questi eventi, però? A priori, una domanda alla quale non si può dare una risposta. Per questo l’arrivo di un telescopio come il Nancy Grace Roman potrebbe fare la differenza: sarà infatti in grado di coniugare una perfetta visione nell’infrarosso a grandissima distanza con un grande campo di vista, in grado di cogliere, a una sola occhiata, una vasta area di cielo. Gli autori dello studio si sono anche sbilanciati in previsioni sul numero di eventi che potrebbero essere trovati: «se viene seguita una strategia osservativa adeguata» – dicono – «ci aspettiamo alcune dozzine di rilevazioni». Il lancio del Nancy Grace Roman è ora programmato per il 2027: staremo a vedere.

Per saperne di più:


Pint of Science: tre giorni di scienza a tutta birra


15341831
Appuntamento immancabile ormai per gli appassionati di scienza e birra, torna, in 24 città italiane e in oltre 400 in tutto il mondo, la manifestazionePint of Science. In Italia, alla sua nona edizione, saranno servite pinte di scienza in 76 pub e, come da tradizione, tratteranno temi di grande attualità scientifica: specie aliene, stelle e pianeti, energie alternative e ancora, neutrini, aree interne e società a rischio sono solo alcuni degli argomenti che sarà possibile sorseggiare nei pub di tutta Italia.

15341833
Pint of Science è l’appuntamento di divulgazione scientifica per gli appassionati di scienza e birra. Crediti: Pint of Science

Nelle serate del 13, 14 e 15 maggio sarà possibile parlare di scienza davanti a un boccale di birra con più di duemila scienziati coinvolti in tutti i continenti, durante quella che, di fatto è la più grande manifestazione mondiale del suo genere.

Protagonisti nelle città italiane coinvolte – Avellino, Bari, Bologna, Cagliari, Catania, Ferrara, Frascati, Genova, L’Aquila, Lucca, Messina, Milano, Napoli, Padova, Palermo, Pavia, Pisa, Reggio Calabria, Roma, Salerno, Siena, Torino e Trieste – saranno oltre 210 ricercatori che, come da tradizione, si districheranno tra le sei differenti aree tematiche in cui si articolano i talk di Pint of Science: Atoms to Galaxies (chimica, fisica e astronomia), Beautiful Mind (neuroscienze, psicologia e psichiatria), Our Body (biologia umana), Planet Earth (scienze della terra, evoluzione e zoologia), Social Sciences (legge, storia e scienze politiche) e Tech Me Out (tecnologia).

L’Istituto nazionale di astrofisica (Inaf) – insieme all’Infn – è sponsor nazionale di Pint of Science Italia e molti saranno i nostri ricercatori presenti nelle varie località.

A Milano si parlerà di “50 sfumature di raggi gamma” con Andrea Giuliani (Iasf Milano) e di “Galassie: tipi, colori e spettri (non fantasmi!)” con Angela Iovino dell’Inaf di Brera.

A Torino, Luigi Guzzo (Università Statale di Milano, associato Inaf) presenterà “Euclid: il cartografo dell’Universo Oscuro”, mentre a Padova il ricercatore Inaf Davide Ricci terrà il talk “Polvere di Stelle” sugli elementi di cui sono composti gli interni stellari.

Big Bang e origine del cosmo saranno al centro dell’incontro “When stars go bang at night: l’Universo esplosivo e transiente” a Ferrara con Mattia Bulla, dell’Università di Ferrara e associato Inaf. Sempre in Emilia Romagna e sempre sull’Universo primordiale, ma questa volta a Bologna, Fabio Finelli dell’Inaf di Bologna parlerà di “Risultati ottenuti e prospettive future dalla prima luce dell’universo”.

Scendendo nel Lazio, più precisamente a Frascati, il 15 maggio troviamo un doppio appuntamento con i ricercatori dell’Inaf di Roma: uno sul “James Webb space Telescope: l’Universo in un granello di sabbia, verso l’infinito ed oltre” con Silvia Piranomonte e l’altro sulla “Guida astronomica per viaggiatori curiosi, tesori nascosti negli itinerari romani” con Maria Teresa Menna e Giangiacomo Gandolfi.

Due incontri anche a L’Aquila: il 14 maggio si parlerà di telescopi, o meglio, dei “Giganti tecnologici che osservano l’Universo” con Benedetta Di Francesco e Ivan Di Antonio dell’Inaf d’Abruzzo. Il 15 maggio, Mauro Dolci, sempre dell’Inaf d’Abruzzo, con il talk “Il cielo d’Abruzzo: un’avventura scientifica” racconterà come dalla semplice passione per lo spettacolo della volta celeste, si è arrivati a grandi collaborazioni internazionali e come sono nate le due stazioni osservative di Campo Imperatore e Collurania.

15341835
Grafica dell’edizione Pint 2024. Crediti: Pint of Science

Ma se di parla di pinte, non poteva mancare l’incontro “Birre stellari…..anzi extragalattiche!” con Amata Mercurio dell’Università di Salerno, associata Inaf, previsto il 14 maggio a Napoli, dove si parlerà anche di “Astrobiolog-IA” con Maria Teresa Muscari Tomajoli e Stefano Fiscale dell’Inaf di Napoli.

Anche in Sardegna, arriva Pint of Science con Mauro Pilla dell’Inaf di Cagliari che parlerà di “Fulmini e saette: i tromboni tristi dell’universo” il 13 maggio nel capoluogo sardo.

A Trieste, arrivano due proposte non strettamente attinenti all’astronomia ma ugualmente molto interessanti: entrambi ricercatori dell’Inaf di Trieste, Thomas Gasparetto parlerà di cosa vuol dire “Lavorare (veramente) da remoto: un anno in Antartide” e Nathan Neri di smartphone addiction e dipendenza digitale con il suo talk “Connessi/Sconnessi”.

Infine, per gli amanti di stelle, pianeti, universo, particelle, misteri della fisica vi segnaliamo tanti altri incontri a tema “From Atoms to Galaxies offerti dal fitto programma di Pint of Science 2024.

Tutti i dettagli, la lista dei pub, gli orari e le date e l’elenco completo dei talk organizzati in questa edizione sono sul sito ufficiale dell’iniziativa, www.pintofscience.it.

Per saperne di più:


Un libro per chi ha tante domande e poco tempo


15335504
15335506
Umberto Battino, Daniele Gasparri, Tommaso Nicolò, Pasquale D’Anna, Livio Bordignon, “Alla scoperta di una passione chiamata astronomia”, Cairo editore, 2022, 272 pagine, 17,10 euro

Tante sono le domande che nascono dalla curiosità di sapere com’è fatto il cosmo e spesso ci si trova sopraffatti da formuloni matematici e teorie fisiche complicate che allontanano dall’idea di approfondire, lasciando idee confuse e tanti dubbi.

Il libro “Alla scoperta di una Passione chiamata Astronomia” del collettivo Passione Astronomia (Cairo editore, 2022) si propone di fornire un quadro chiaro e ampio sullo status attuale delle conoscenze astronomiche. Il libro è infatti diviso in cinque parti, per cercare di condensare anni di sviluppo in una narrazione completa e scorrevole.

Ad aprire le danze è Pasquale D’Anna, che in breve racconta il passato della ricerca astronomica, dalle antiche popolazioni cinesi, indiane e greche, ancora convinte della correlazione tra moti celesti e religione, passando da grandi pensatori come Galileo e Newton e arrivando all’avvento della spettrografia. La nostra storia infatti è piena di passi indietro, le ipotesi nel tempo si sono evolute più volte insieme alla cultura e agli strumenti dell’epoca. «Se tutto quello che conosciamo oggi ci sembra scontato è perché le menti più brillanti di ogni generazione hanno portato lavoro di ricerca tanto complesso che si fatica persino a immaginare come sia stato possibile per loro scoprire e dimostrare quello che oggi diamo per scontato», scrive lo stesso.

Si procede poi con un’analisi della vita delle stelle e l’origine degli elementi. In questa parte Umberto Battino spiega come, in base alla loro massa, le stelle nascono e si evolvono, descrivendo i processi interni che portano a fenomeni spettacolari quali supernove e buchi neri. Lo scrittore inoltre fornisce svariati esempi, correlando stelle in fase evolutiva giovane con stelle più vecchie. Qui fa notare le grandi differenze che le caratterizzano e le rendono diverse, persino a occhio nudo, che pensandoci era l’unico strumento a disposizione delle civiltà antiche, nonché un grande limite per gli astronomi del tempo. La svolta più importante infatti fu quella dell’introduzione dei telescopi, di cui ci parla Daniele Gasparri, che espone la storia tortuosa dei telescopi ottici e di come, grazie a essi, l’astronomia sia diventata quel che è oggi.

Per gli appassionati dell’esplorazione spaziale, nel quarto capitolo Livio Bordignon fornisce una narrazione completa e dettagliata a partire dalla famosa corsa allo spazio della seconda metà del ‘900. Spiega tutti i problemi tecnici che hanno caratterizzato questo grande momento della storia e come il tutto sia stato possibile, aprendo e analizzando una delle questioni più d’interesse negli ultimi anni, come andare su Marte.

Sul filo di Bordignon, Tommaso Nicolò, nell’ultima parte del libro, ci parla di vita in ambienti estremi, spiegando come molti organismi, chiamati “estremofili”, siano capaci di vivere in condizioni molto avverse per gli esseri umani e di come, in conseguenza, la vita su altri pianeti non sia impossibile. Ci parla quindi di astrobiologia ed esopianeti, sottolineando le innumerevoli qualità che un pianeta deve avere per definirsi abitabile.

Questo libro è sicuramente ricco di informazioni e cattura facilmente il lettore grazie alla passione e alla semplicità con la quale gli autori si propongono di spiegare fenomeni così complessi. Come scrive Ylenia Tartaglione nell’introduzione del libro: «Se i tuoi occhi hanno smesso già da tempo di guardare l’universo per come appare in superficie, e le domande che affollano la tua mente sono diventate troppe, mi duole comunicarti che sei ormai spacciato. Non ti resta, allora, altro da fare se non seguire il concatenarsi delle parole che questi cinque, straordinari ragazzi, hanno intrecciato per te».


Cosa può (e cosa non può) l’ozono nell’atmosfera


15335317
15335319
Rappresentazione artistica del pianeta Proxima Centauri B. Crediti: Eso/M. Kornmesser.

Di ozono nell’atmosfera si è sentito parlare, negli anni, soprattutto riguardo il suo assottigliamento (il cosiddetto “buco nell’ozono”) causato dalle azioni negative dell’uomo sul clima terrestre. Ma qual è il ruolo di questo gas nell’atmosfera di un pianeta? Si tratta, innanzitutto, di un gas imprescindibile per la nascita della vita, poiché agisce da filtro per alcune frequenze distruttive della radiazione di una stella. Quale sia però l’effetto della sua presenza sul clima l’ha indagato, per il pianeta Proxima Centauri b, uno studio teorico pubblicato su Monthly Notices of the Astronomical Society.

Lo studio – osservativo – delle atmosfere degli esopianeti richiede strumenti e tecniche che sono diventate possibili solo negli ultimi anni con la nascita, ad esempio, del telescopio spaziale James Webb. Per comprendere bene quel che si osserva, da un lato, e per sapere che cosa andare a cercare esattamente, dall’altro, simulare il comportamento di gas e molecole nelle atmosfere degli esopianeti è fondamentale. Lo studio guidato da Paolo De Luca, 36enne umbro dottorato in geografia fisica e ora postdoc al Barcelona Supercomputing Center con una borsa Marie Curie, si concentra in particolare su Proxima Centauri b, un esopianeta incredibilmente vicino al Sistema solare.

«Tra le varie categorie di esopianeti, quelli terrestri sono i migliori candidati sui quali potrebbero già esserci o svilupparsi forme di vita simili a come noi le conosciamo», spiega a Media Inaf De Luca. «Abbiamo scelto Proxima Centauri b perché volevamo diversificare i nostri studi, in quanto già avevamo due pubblicazioni su Trappist-1e. Ad ogni modo, l’idea è quella di usare specifici esopianeti terrestri come casi studio per rappresentare l’intera categoria».

Lo scopo, dunque, era comprendere quale ruolo gioca l’ozono nel plasmare le dinamiche climatiche di Proxima Centauri b, attraverso simulazioni di modelli chimici climatici che sfruttano i recenti progressi nella teoria dei sistemi dinamici, e che hanno messo in luce una relazione tra i livelli di ozono e la stabilità atmosferica. Questo gas, in particolare, influirebbe sulla temperatura e sulla velocità del vento. Incorporando l’influenza dell’ozono nei modelli climatici, De Luca e colleghi hanno osservato una riduzione delle differenze di temperatura tra gli emisferi e un aumento della temperatura atmosferica a determinate altitudini.

15335321
Paolo De Luca, 36 anni, originario di Terni, primo autore dell’articolo pubblicato su Mnras. Dopo la laurea in scienza ambientali e il dottorato in Geografia Fisica è ora postdoc al Barcelona Supercomputing Center con una borsa Marie Curie. Studioso di estremi climatici, dal 2021 si interessa di esopianeti di tipo terrestre, come il pianeta Proxima Centauri b scelto per questo studio.

«Simulazioni climatiche teoriche come queste mettono alla luce dei cambiamenti e caratteristiche che di solito non vengono studiati nei processi atmosferici terrestri. Semplicemente l’assenza di ozono ci fa capire quanto la temperatura possa diminuire rispetto alla presenza di quest’ultimo», continua De Luca. «Inoltre, la presenza di ozono rimane un elemento fondamentale per la presenza di vita, in quanto quest’ultimo protegge dalla radiazione dannosa Uv emessa dalla stella di riferimento (nel nostro caso il Sole)».

Dunque, può la presenza di ozono o le alterazioni climatiche da esso indotte determinare se si sviluppi, o meno, vita su un pianeta?

«I cambiamenti dinamici che abbiamo trovato nel nostro studio non dovrebbero influenzare la presenza di forme di vita, ma la presenza o meno di ozono sì», risponde De Luca. «In futuro abbiamo in mente di usare molte simulazioni climatiche di vari esopianeti, per aggiungere robustezza ai risultati di uno o più studi».

Per saperne di più:


Buchi neri che hanno fretta di diventare grandi


15333274

Immagine catturata da Webb di uno dei quasar protagonisti dalla ricerca. I due riquadri mostrano uno zoom sulla sorgente prima e dopo la sottrazione della luce del quasar. L’emissione residua è quella stellare (riquadro in basso). Crediti: Yue et al. 2024; Nasa.

Nell’ultimo quarto di secolo si è scoperto che le proprietà di galassie e buchi neri non sono distribuite a caso ma sono legate da precise relazioni di scala. Non stiamo parlando dei buchi neri stellari, relitti delle tumultuose e rapide esistenze delle stelle di grande massa, ma dei buchi neri supermassicci, oggetti con una massa di ordini di grandezza maggiore e le cui origini sono ancora avvolte nel mistero, e che risiedono nelle regioni nucleari delle galassie.

A dispetto del loro nome, i buchi neri supermassicci sono comunque molto piccoli rispetto alle galassie in cui dimorano. Nell’universo attuale si è riusciti a stimare con una certa accuratezza che la massa dei buchi neri è circa mille volte più piccola di quella delle galassie ospitanti. All’incirca la differenza che c’è tra il pianeta Giove e il Sole. Questa relazione di scala è stata osservata in numerose galassie vicine alla nostra. È come se la galassia “sapesse” del buco nero centrale e viceversa.

È sempre stato così? Nell’universo, regno della mutevolezza per eccellenza, non è detto infatti che ciò che avviene comunemente al giorno d’oggi sia sempre accaduto. Per rispondere a questa domanda è dunque necessario scrutare il cosmo nei suoi recessi più reconditi per stanare galassie e buchi neri durante l’infanzia dell’universo.

Più o meno è quello che hanno provato a fare alcuni ricercatori guidati da Minghao Yue, postdoc presso il Massachusetts Institute of Technology (Mit) di Cambridge, negli Stati Uniti. Utilizzando il Telescopio Spaziale James Webb, Yue e collaboratori hanno osservato sei quasar, ovvero oggetti dalla luminosità prodigiosa dovuta all’accrescimento di materiale su un buco nero supermassiccio, la cui luce è stata emessa oltre tredici miliardi di anni fa. Durante l’infanzia dell’universo insomma. Obiettivo dell’osservazione: misurare la massa del buco nero centrale e della galassia ospitante. Più facile a dirsi che a farsi. I quasar sono oggetti così brillanti da sommergere letteralmente la luce delle stelle che risplendono nella galassia. L’astronomo che voglia misurarsi con l’osservazione di una galassia custode di un quasar, si troverà di fatto in una condizione non dissimile da chi voglia localizzare lo scintillio di una manciata di fiammiferi all’interno di un incendio.

Senza perdersi d’animo, gli autori dello studio, uscito lunedì su The Astrophysical Journal, hanno elaborato un modello per riprodurre l’emissione delle sorgenti osservate, in modo tale da sottrarre la luce emessa dal quasar e isolare l’emissione rimanente. Tale fioco segnale residuo è proprio la luce delle stelle che popolano la galassia ospitante, che può dunque essere convertita in una massa utilizzando delle relazioni opportune. La tecnica, utilizzata anche in altri studi, comporta notevoli difficoltà, tant’è che l’ardua misurazione è riuscita solo per tre dei sei quasar osservati nel programma.

Una volta stimata la massa della galassia, l’ingrediente mancante è la massa del buco nero. La misura di questa quantità risulta in confronto meno problematica e può essere effettuata attraverso le righe di emissione del gas che ruota forsennatamente nelle vicinanze del buco nero. Con le due masse a disposizione, gli astronomi hanno potuto confrontare la massa dei buchi neri con quella delle galassie, provando a replicare quel che viene fatto nell’universo attuale. E pare che ci siano delle sorprese.

Se, come dicevamo, nelle galassie vicine la massa del buco nero è un millesimo di quella della galassia ospitante, nel primo miliardo di anni dell’universo il rapporto fra queste due quantità risulta essere di uno a dieci. Non più come Giove e il Sole, piuttosto come Marte e la Terra. Questo ha delle implicazioni in ambito astrofisico. Sembra infatti che i buchi neri crescessero più rapidamente nel passato rispetto a quanto avviene attualmente. «Dev’esserci stato qualche meccanismo che consenta ai buchi di accrescere la propria massa prima delle galassie ospitanti nei primi miliardi di anni», afferma il primo autore dell’articolo.

Fondamentale è stato l’utilizzo del telescopio Webb, puntato per oltre cento ore sui quasar protagonisti dello studio. «La risoluzione delle immagini precedenti non era infatti sufficiente per distinguere le galassie ospitanti», spiega Yue. La ricerca fa parte del programma Eiger, che si propone di studiare le proprietà dei quasar e l’ambiente in cui risiedono un miliardo di anni dopo il Big Bang.

Può questo studio dirci qualcosa riguardo a come si formano i buchi neri supermassicci? Come si diceva agli inizi, misteriose sono infatti le origini di questi oggetti. I modelli attuali prevedono masse che possono variare fra le cento e e le centomila volte la massa del Sole per quelli che potrebbero essere stati i nuclei originari dei buchi neri. A tal proposito Anna-Christina Eilers, seconda autrice dell’articolo, afferma «Questi buchi neri sono miliardi di volte più massicci del Sole, in un tempo in cui l’universo era ancora nella sua infanzia. I nostri risultati implicano che nell’universo lontano, i buchi neri supermassicci sembrano crescere più rapidamente rispetto alle galassie che li ospitano e che i “semi” iniziali da cui sono nati i buchi neri potrebbero essere stati più massicci all’epoca che al giorno d’oggi».

Non c’è da aspettare che uno studio simile venga esteso a campioni più vasti di quasar distanti per comprendere meglio come si evolvono le relazioni fra galassie e buchi neri e svelare l’enigma sull’origine di questi ultimi.

Per saperne di più:


Webb trova un’atmosfera sull’esopianeta Janssen


15332941
15332943
Rappresentazione artistica di come potrebbe apparire l’esopianeta 55 Cancri e in base alle osservazioni del telescopio spaziale James Webb e di altri osservatori. Le osservazioni di NirCam e Miri suggeriscono che il pianeta potrebbe essere circondato da un’atmosfera ricca di anidride carbonica o monossido di carbonio. I ricercatori ritengono che i gas che compongono l’atmosfera potrebbero essere fuoriusciti da un oceano di magma che si pensa ricopra la superficie del pianeta. Crediti: Nasa, Esa, Csa, Ralf Crawford (StScI)

L’esopianeta 55 Cancri-e, noto anche come Janssen, è uno dei cinque pianeti conosciuti che orbitano attorno alla stella 55 Cancri, simile al Sole, nella costellazione del Cancro. Con un diametro quasi doppio rispetto a quello della Terra e una densità leggermente superiore, il pianeta è classificato come super-Terra: più grande della Terra, più piccolo di Nettuno e probabilmente simile per composizione ai pianeti rocciosi del Sistema solare.

Tuttavia, descrivere 55 Cancri-e come “roccioso” potrebbe dare un’impressione sbagliata. Il pianeta orbita così vicino alla sua stella – circa 1,4 milioni di chilometri, ovvero un venticinquesimo della distanza tra Mercurio e il Sole – che la sua superficie è probabilmente fusa: un oceano ribollente di magma. Con un’orbita così stretta, è probabile che il pianeta sia anche in una condizione di risonanza spin-orbita, con un lato sempre rivolto verso la stella e l’altro in una perenne oscurità.

Nonostante le numerose osservazioni effettuate da quando è stato scoperto con il metodo dei transiti, nel 2004, la domanda se 55 Cancri-e abbia o meno un’atmosfera – o se possa averne una, data la sua elevata temperatura e il continuo bombardamento di radiazioni dalla sua stella – è rimasta senza risposta. A differenza delle atmosfere dei pianeti giganti gassosi, che sono relativamente facili da individuare (la prima è stata rilevata dal telescopio spaziale Hubble della Nasa più di due decenni fa), le atmosfere più sottili e dense che circondano i pianeti rocciosi sono sfuggenti.

Studi precedenti su 55 Cancri-e, effettuati utilizzando i dati del telescopio spaziale Spitzer della Nasa, ormai in pensione, hanno suggerito la presenza di un’atmosfera ricca di molecole volatili (ossia molecole presenti in forma gassosa sulla Terra) come ossigeno, azoto e anidride carbonica. Ma i ricercatori non hanno potuto escludere un’altra possibilità, ossia che il pianeta sia in realtà spoglio, salvo un tenue velo di roccia vaporizzata, ricca di elementi come silicio, ferro, alluminio e calcio.

15332945
Una curva di luce da 7,5 a 11,8 micron catturata dallo strumento Miri del James Webb Space Telescope nel marzo 2023 mostra la diminuzione della luminosità del sistema 55 Cancri quando il pianeta roccioso 55 Cancri e si sposta dietro la stella, un fenomeno noto come eclissi secondaria. La quantità di luce nel medio infrarosso emessa dal pianeta (la differenza di luminosità tra la stella e il pianeta insieme e la stella da sola) indica che la temperatura del lato giorno del pianeta è di circa 1540 gradi Celsius. Questa temperatura, bassa se paragonata a quella di un pianeta simile privo di atmosfera, indica che il calore viene distribuito dal lato giorno al lato notte del pianeta, forse da un’atmosfera ricca di molecole volatili. Crediti: Nasa, Esa, Csa, Joseph Olmsted (StScI), Aaron Bello-Arufe (Jpl)

Per distinguere tra le due possibilità, il team ha utilizzato la NirCam (Near-Infrared Camera) e il Miri (Mid-Infrared Instrument) di Webb per misurare la luce infrarossa da 4 a 12 micron proveniente dal pianeta. Sebbene Webb non possa catturare un’immagine diretta di 55 Cancri-e, è in grado di misurare i sottili cambiamenti di luce del sistema mentre il pianeta orbita intorno alla stella.

Sottraendo la luminosità durante l’eclissi secondaria, ossia quando il pianeta si trova dietro la stella (solo luce stellare), dalla luminosità quando il pianeta si trova proprio accanto alla stella (luce della stella e del pianeta combinate), il team è stato in grado di calcolare la quantità di luce infrarossa proveniente dal lato illuminato a giorno del pianeta, a varie lunghezze d’onda. Questo metodo, noto come spettroscopia secondaria dell’eclissi, è simile a quello utilizzato da altri team di ricerca per cercare atmosfere su altri esopianeti rocciosi, come Trappist-1 b.

La prima indicazione che 55 Cancri-e potrebbe avere un’atmosfera è venuta dalle misurazioni della temperatura basate sulla sua emissione termica, irradiata sotto forma di luce infrarossa. Se il pianeta fosse ricoperto da roccia fusa scura con un sottile velo di roccia vaporizzata o se non avesse alcuna atmosfera, il lato giorno dovrebbe essere intorno ai 2200 gradi Celsius. «Invece, i dati di Miri hanno mostrato una temperatura relativamente bassa, di circa 1540 gradi Celsius», riporta Renyu Hu del Jet Propulsion Laboratory (Jpl) della Nasa, autore principale dello studio pubblicato ieri su Nature. «Questa è un’indicazione molto forte del fatto che l’energia viene distribuita dal lato giorno al lato notte, molto probabilmente da un’atmosfera ricca di sostanze volatili». Sebbene le correnti di lava possano trasportare un po’ di calore verso il lato notturno, non possono spostarlo in modo abbastanza efficiente da spiegare il raffreddamento.

Quando il team ha esaminato i dati della NirCam, ha riscontrato che erano coerenti con i modelli con un’atmosfera ricca di sostanze volatili. «Vediamo l’evidenza di un calo nello spettro tra i 4 e i 5 micron: meno luce raggiunge il telescopio», spiega il coautore Aaron Bello-Arufe, del Jpl. «Questo suggerisce la presenza di un’atmosfera contenente monossido di carbonio o anidride carbonica, che assorbono queste lunghezze d’onda della luce». Un pianeta senza atmosfera o con un’atmosfera composta solo da rocce vaporizzate non avrebbe questa specifica caratteristica spettrale.

15332947
Lo spettro di emissione termica dell’esopianeta 55 Cancri e, catturato da NirCam e Miri del James Webb Space Telescope, mostra che il pianeta potrebbe essere circondato da un’atmosfera ricca di anidride carbonica o monossido di carbonio e altri molecole volatili, non solo roccia vaporizzata. Crediti: Nasa, Esa, Csa, Joseph Olmsted (StScI), Renyu Hu (Jpl), Aaron Bello-Arufe (Jpl), Michael Zhang (University of Chicago), Mantas Zilinskas (Sron Netherlands Institute for Space Research)

Il team ritiene che i gas che ricoprono 55 Cancri-e siano fuoriusciti dall’interno, piuttosto che essere presenti fin dalla formazione del pianeta. «L’atmosfera primordiale sarebbe scomparsa da tempo a causa dell’alta temperatura e delle intense radiazioni della stella», dice Bello-Arufe. «Si tratterebbe di un’atmosfera secondaria che viene continuamente rifornita dall’oceano di magma. Il magma non è solo cristalli e roccia liquida, ma contiene anche molti gas disciolti».

Anche se 55 Cancri-e è troppo caldo per essere abitabile, i ricercatori pensano che potrebbe fornire una finestra unica per studiare le interazioni tra le atmosfere, le superfici e gli interni dei pianeti rocciosi, e forse fornire intuizioni sulle prime condizioni della Terra, di Venere e di Marte, che si pensa siano stati ricoperti da oceani di magma molto tempo fa. «In definitiva, vogliamo capire quali siano le condizioni che permettono a un pianeta roccioso di sostenere un’atmosfera ricca di gas: un ingrediente fondamentale per un pianeta abitabile», conclude Hu. Intanto, le osservazioni su questo esopianeta stanno continuando.

Per saperne di più:

  • Leggi su Nature l’articolo “A secondary atmosphere on the rocky Exoplanet 55 Cancri e” di Renyu Hu, Aaron Bello-Arufe, Michael Zhang, Kimberly Paragas, Mantas Zilinskas, Christiaan van Buchem, Michael Bess, Jayshil Patel, Yuichi Ito, Mario Damiano, Markus Scheucher, Apurva V. Oza, Heather A. Knutson, Yamila Miguel, Diana Dragomir, Alexis Brandeker & Brice-Olivier Demory


L’lnaf porta Roma al Salone del libro di Torino


15298749
15298751La prestigiosa cornice del Salone internazionale del Libro di Torino ospiterà, venerdì pomeriggio alle 14:30, la presentazione in anteprima del libro “Roma. Seconda stella a destra“, ultima uscita della collana di guide astroturistiche dedicate alla scoperta del cielo nascosto in città, realizzata dall’Istituto nazionale di astrofisica in collaborazione con lo Studio Bleu.

La presentazione si svolgerà nell’ambito del programma di eventi “La Farnesina incontra…”, presso lo Spazio Maeci del Salone, dove il Ministero degli Affari Esteri e della Cooperazione (Maeci) presenta i suoi progetti editoriali di punta. E tra questi rientra la guida “Roma. Seconda stella a destra”, fortemente voluta dal Ministero nell’ambito delle azioni messe in campo dalla Direzione Generale Promozione del Sistema Paese, e già presentata nel corso dell’ultima conferenza degli Addetti Scientifici.

Alessandra Tognonato, Capo Ufficio per la cooperazione scientifica bilaterale del Maeci, quando le abbiamo chiesto perché il Maeci abbia deciso di produrre una guida di Roma così particolare affidandone la realizzazione all’Inaf, ha risposto: «Spazio, cultura e innovazione sono parti essenziali della politica estera del nostro Paese a cui istituzioni di ricerca, come l’Inaf, contribuiscono in modo fondamentale. Roma e il suo territorio esprimono un intreccio perfetto: conoscenza, bellezza, competenza e dopo avere visto la guida realizzata da Inaf per la città di Padova abbiamo voluto usare lo stesso linguaggio per valorizzare il “saper fare” italiano e celebrarne l’importanza partendo proprio da Roma». E ha concluso: «La lunga collaborazione in essere con l’Inaf ci ha consentito di realizzare in tempi brevissimi il progetto e il risultato è davvero bello. Lo abbiamo presentato in anteprima alla recente Conferenza degli Addetti scientifici ed ora al Salone del Libro di Torino prima della distribuzione alle nostre sedi diplomatico consolari. Ci tengo a ringraziare coloro che hanno sostenuto e partecipato a questa nuova iniziativa del Maeci».

15298753
La Torre Solare della sede Inaf di Roma a Monte Mario. Crediti: Inaf

Un grande riconoscimento della qualità del prodotto ideato dall’Inaf, che vedrà, grazie alla promozione del Ministero degli Affari Esteri, una larga diffusione anche fuori dal Paese.

La collana “Seconda stella a destra”, nata nel 2015 , è la prima collana di questo genere in Italia e ha portato fino a oggi all’uscita delle guide di Padova, Firenze, Palermo, cui a breve si aggiungerà quella di Catania. Le guide sono state concepite in formato tascabile, in modo da poter essere utilizzate con praticità, e allo stesso tempo sono ricche di informazioni culturali e turistiche.

Roma ha un patrimonio immenso, come immensa è la città e le storie che l’hanno attraversata e inserire tutto quello che si sarebbe desiderato nei limiti editoriali del volume ha comportato un grande sforzo di sintesi. L’effetto che si è cercato di ottenere è quello di dare una suggestione di ciò che è accaduto nella città nelle diverse epoche e di come questa storia possa essere letta negli edifici e nelle opere d’arte.

È una città di stelle e cieli dipinti, di storie di scienza e grandi astronomi quella che si scopre negli itinerari di “Roma. Seconda stella a destra”: un percorso tra arte, astronomia e conoscenza per scoprire la città in una chiave insolita. Sei itinerari, cinque nel centro della città e uno fuori porta, accompagneranno il lettore in un percorso di scoperta, immersi nel respiro potente della città eterna.

15298755
La volta affrescata di Palazzo Patrizi Montoro, un gioiello nascosto nel cuore di Roma. Crediti: Gianluca Masi.

«Di cielo e stelle è intessuta a ogni livello la storia della cultura. Quella scientifica nell’accezione moderna è solo l’ultima incarnazione dell’indagine sulla natura e il significato delle luci del firmamento», commenta Giangiacomo Gandolfi dell’Inaf di Roma, responsabile scientifico della guida. «In questa guida abbiamo provato a riscoprire, indicare e raccontare con passione e curiosità questo retaggio culturale, svelando le molte tracce del mondo celeste riflesse nell’arte e nell’urbanistica della Capitale e spaziando dai monumenti antichi agli attuali Osservatori. Ovunque si guarda con attenzione si ritrovano i semi della straordinaria arrampicata verso gli astri della nostra specie, un afflato che è particolarmente evidente in questa città dalla classica bellezza e dalla smisurata ambizione cosmica e spirituale».

15298757
Una mappa parziale della città di Roma tratta dalla guida “Roma. Seconda stella a destra”.

Questa “tensione al cielo” è evidente in ogni angolo della città. Dalle simmetrie del Pantheon alle allegorie celesti affrescate a Villa Medici, Palazzo Barberini e nei palazzi nobili della città; dal Foro Romano intessuto di riferimenti astronomici alle meridiane dipinte a Palazzo Spada e Trinità dei Monti, dalla Luna “di Galileo” a S. Maria Maggiore fino alle colline ‘dei castelli’, poco fuori città, dove si trovano la Specola Vaticana e uno degli Osservatori Inaf.

Per seguire gli itinerari l’aletta della copertina è stata progettata per fare da tasca a una mappa, che mostra i punti di interesse della città e alcune informazioni di base su ciascuno di essi.

Roma si svela così nei suoi luoghi celesti: le rappresentazioni di stelle, segni zodiacali e pianeti sono indicati in mappa con l’arancione; troverete i luoghi del tempo come orologi e meridiane segnalati in verde; infine, in giallo, le tappe dedicate all’astronomia di ieri e di oggi e ai suoi protagonisti.

15298759
La cupola in vetro dell’artista italo-americano Narcissus Quagliata realizzata per Santa Maria degli Angeli in occasione del Grande Giubileo dell’anno 2000, è stata collocata a 28 metri di altezza nel vestibolo circolare. Crediti: Maria Teresa Menna.

«Una guida come questa permette di riscoprire una città in chiave nuova, testimoniando a cittadini e turisti come la scienza, e nello specifico l’astronomia, siano parte del nostro patrimonio culturale. E l’itinerario “Seconda Stella a Destra” si rivela un’esperienza ricca, accessibile, per tutti», conclude Valeria Cappelli di Studio Bleu, che ha partecipato alla realizzazione della guida di Roma.

Scopriremo come l’obelisco di Montecitorio fosse una meridiana al tempo di Augusto, come pure il Pantheon, e di quando Galileo venne nominato Linceo dopo una fatidica riunione sulla sommità del Gianicolo.

Copernico, Giordano Bruno, Galileo, sono alcuni dei protagonisti i cui cammini hanno incrociato le strade di Roma e per l’Inaf è un piacere poter accompagnare i lettori sui loro passi e su quelli dei tanti altri grandi scienziati, e artisti, che hanno che hanno contribuito all’evoluzione del pensiero e hanno fatto la storia dell’astronomia.

Subito dopo la presentazione, la guida sarà acquistabile online sullo shop di Studio Bleu.


A caccia di buchi neri con il Roman Telescope


15292570
15292572
Questa rappresentazione artistica ha un approccio fantasioso rispetto a come potrebbero apparire i piccoli buchi neri primordiali, che in realtà avrebbero difficoltà a formare dischi di accrescimento come quelli rappresentati. Crediti: Goddard Space Flight Center della Nasa

Gli astronomi hanno scoperto buchi neri che vanno da poche masse solari a decine di miliardi. Nel primo caso si parla di buchi neri stellari, nel secondo di buchi neri supermassicci. L’anello di congiunzione tra i due sono (o meglio, sarebbero) i buchi neri di massa intermedia, che però non si stanno riuscendo a trovare. In realtà, la teoria suggerisce che ne esista anche un quarto tipo: buchi neri dal “peso piuma”, diciamo. Ora, un gruppo di scienziati ha previsto che il telescopio spaziale Nancy Grace Roman della Nasa potrebbe trovare quest’ultima classe di buchi neri, finora sfuggita alla rilevazione.

Sappiamo che i buchi neri si formano quando una stella massiccia collassa o quando oggetti pesanti si fondono. Tuttavia, gli scienziati sospettano che i buchi neri primordiali più piccoli, tra cui alcuni con una massa simile a quella della Terra, possano essersi formati nei primi momenti caotici dell’universo.

«Individuare una popolazione di buchi neri primordiali di massa terrestre sarebbe un passo incredibile sia per l’astronomia che per la fisica delle particelle, perché questi oggetti non possono essersi formati da nessun processo fisico conosciuto», spiega William DeRocco, ricercatore dell’Università della California Santa Cruz, che ha guidato uno studio pubblicato sulla rivista Physical Review D.

I buchi neri più piccoli nascono quando una stella massiccia esaurisce il suo combustibile. La sua pressione verso l’esterno diminuisce con l’esaurirsi del combustibile che alimenta la fusione nucleare. Così l’attrazione gravitazionale verso l’interno vince il braccio di ferro e la stella si contrae, aumentando densità e temperatura fino a trasformarsi, se ci sono le condizioni, in un buco nero. Non tutte le stelle, infatti, diventano buchi neri nel corso della loro evoluzione: è necessaria una massa minima, pari ad almeno otto volte quella del Sole. Le stelle più leggere diventano nane bianche o stelle di neutroni.

Tuttavia, le condizioni dell’universo primordiale potrebbero aver permesso la formazione di buchi neri molto più leggeri. Pensate che un buco nero di massa terrestre avrebbe un orizzonte degli eventi largo quanto una moneta da dieci centesimi!

15292575
Stephen Hawking ha teorizzato che i buchi neri possono lentamente ridursi a causa della fuoriuscita di radiazione, nota come radiazione di Hawking, in grado di causare, nel tempo, l’evaporazione dei buchi neri stessi. Questa infografica mostra i tempi di vita stimati e il diametro dell’orizzonte degli eventi di buchi neri di varie (piccole) masse. Crediti: Goddard Space Flight Center della Nasa

Proprio mentre l’universo stava nascendo, si pensa che abbia vissuto una breve ma intensa fase nota come inflazione cosmica, nella quale la sua espansione è stata estremamente rapida. In queste condizioni particolari, le aree più dense dell’ambiente circostante potrebbero essere collassate formando buchi neri primordiali di piccola massa.

Sebbene la teoria preveda che i buchi neri più piccoli siano evaporati prima che l’universo abbia raggiunto l’età attuale, quelli con una massa simile a quella della Terra potrebbero essere sopravvissuti.

La scoperta di questi minuscoli oggetti avrebbe un enorme impatto sulla fisica e sull’astronomia. «Influirebbe su tutto, dalla formazione delle galassie al contenuto di materia oscura dell’universo, alla storia cosmica», spiega Kailash Sahu, astronomo dello Space Telescope Science Institute di Baltimora, che non ha partecipato allo studio.

Le osservazioni hanno già rivelato indizi che tali oggetti potrebbero essere in agguato nella nostra galassia. I buchi neri primordiali, se esistessero, sarebbero invisibili, ma piccole “rughe” dello spaziotempo – il cosiddetto microlensing, un caso particolare del lensing gravitazionale – hanno aiutato a individuare alcuni possibili sospetti.

Il lensing gravitazionale è un effetto osservativo che si verifica perché la presenza di massa deforma il tessuto dello spaziotempo, come l’impronta che fa una palla da bowling quando viene messa sulla superficie elastica di un trampolino. Ogni volta che un oggetto si trova prospetticamente vicino a una stella (o a una galassia) che sta sullo sfondo rispetto al nostro punto di osservazione, la sua luce deve attraversare lo spaziotempo deformato intorno all’oggetto massivo. Se i due oggetti (quello intermedio e quello sullo sfondo) sono particolarmente vicini (da un punto di vista prospettico), l’oggetto intermedio può agire come una lente naturale, focalizzando e amplificando la luce di quello sullo fondo.

Gruppi distinti di astronomi, utilizzando i dati del Moa (Microlensing Observations in Astrophysics) – una collaborazione che conduce osservazioni di microlensing utilizzando l’Osservatorio dell’Università Mount John in Nuova Zelanda – e dell’Ogle (Optical Gravitational Lensing Experiment) hanno trovato una popolazione inaspettatamente grande di oggetti isolati di massa terrestre.

Le teorie sulla formazione e l’evoluzione dei pianeti prevedono determinate masse e abbondanze di pianeti vagabondi – mondi che vagano per la galassia senza essere gravitazionalmente legati a una stella. Ecco, le osservazioni di Moa e Ogle suggeriscono che ci sono più oggetti di massa terrestre alla deriva nella galassia di quanto ne prevedano i modelli.

«Non c’è modo di distinguere tra buchi neri di massa terrestre e pianeti vagabondi», avverte DeRocco, che ha guidato uno sforzo per determinare quanti pianeti vagabondi dovrebbero trovarsi in questa fascia di massa e quanti buchi neri primordiali Roman potrebbe individuare tra questi. Gli scienziati si aspettano che Roman trovi un numero di oggetti di questa massa dieci volte superiore a quello dei telescopi a terra, e che avrà le capacità di distinguerli.

Trovare questi piccoli buchi neri rivelerebbe nuove informazioni sull’universo primordiale e darebbe ulteriore credito all’ipotesi dell’inflazione cosmica. Potrebbe anche spiegare una piccola percentuale della misteriosa materia oscura che, secondo gli scienziati, costituisce la maggior parte della massa del nostro universo, ma che finora non si è riusciti a identificare. Non sarà semplice trovarli, ma l’obiettivo vale sicuramente lo sforzo della ricerca.

Per saperne di più:

Sulle diverse “taglie” dei buchi neri, guarda il video di Gabriele Ghisellini:

youtube.com/embed/JCpHLjiiCCs?…


Piacere, sono l’Universo nascosto


15259977
media.inaf.it/wp-content/uploa…
Alessandro De Angelis , “L’Universo nascosto. La nuova astronomia dei raggi cosmici e delle onde gravitazionali ”, Castelvecchi, 2024, pp. 256, € 20,00. Crediti: S. Cussini/Inaf

Gli appassionati del mondo Marvel sentendo nominare i raggi cosmici penseranno probabilmente ai Fantastici Quattro. Nei fumetti, infatti, viene raccontato che, dopo essere stati esposti ai raggi cosmici nello spazio, Reed Richards, Sue Storm, Johnny Storm e Ben Grimm hanno subito cambiamenti mutageni permanenti che li hanno trasformati – appunto – nei famosissimi supereroi.

Sfortunatamente – o fortunatamente, dipende dai punti di vista – l’esposizione ai raggi cosmici è relativamente bassa per la maggior parte delle persone sulla Terra; quindi, il rischio di diventare una torcia umana o invisibili è alquanto ridotto. I raggi cosmici sono particelle che urtano l’atmosfera terrestre, a volte con energie che raggiungono le soglie più elevate osservate in natura, il che fa supporre che provengano da potentissimi acceleratori cosmici, come resti di supernova e buchi neri supermassicci; mentre raggi cosmici di minore energia provengono dal Sole.

Sono particelle molto interessanti da più punti di vista: climatico, evolutivo, astrofisico e anche archeologico. A metà del secolo scorso, infatti, si sono cominciati a utilizzare i muoni cosmici come sonde per esplorare l’interno di grandi strutture solide, come per esempio la Grande Piramide di Cheope, in cui nel 2017 è stata scoperta una grande stanza fino a allora sconosciuta. Le applicazioni dei raggi cosmici non si fermano qui, ce ne sarebbero molte altre, ma continuare a elencarle sarebbe uno spoiler. Leggendo L’Universo nascosto. La nuova astronomia dei raggi cosmici e delle onde gravitazionali del fisico Alessandro De Angelis (Castelvecchi editore, 2024) è possibile scoprire tante altre curiosità sui raggi cosmici e capire meglio cosa sono e come funzionano.

I contenuti del libro non si fermano a queste particelle, ma esplorano un’area dell’astrofisica un po’ trascurata dal grande pubblico, ovvero quella in cui il “messaggero” – il nuncius, come avrebbe detto Galileo – non è la lunghezza d’onda visibile, e nemmeno un’onda elettromagnetica in generale. Nell’epigrafe, tratta da L’altro mondo. Gli Stati e gli Imperi della Luna di Savinien Cyrano de Bergerac, si ammonisce il lettore a non diffidare di quel che non si vede o non si capisce con i soli sensi. L’astrofisica è piena di cose invisibili agli occhi ma che possono essere rivelate con alcuni strumenti. Il libro si immerge nella loro trattazione: dedica un capitolo a tutte le lunghezze d’onda della luce e agli strumenti utilizzati per osservarle; all’astronomia multimessaggero, che ha fatto grandi progressi nell’ultimo decennio; le particelle elementari, con la scoperta dell’antimateria e i laboratori nelle montagne; il nostro universo e le più grandi energie in esso; e infine i raggi cosmici, dalla loro scoperta alla loro influenza sulla nostra vita.

Il libro contiene, oltre ad alcune nozione astrofisiche di base per chi desidera comprendere meglio questi fenomeni e capire anche di cosa si occupano gli astrofisici, la storia dei progressi fatti fino ad ora nello studio di questi eventi. Ma non solo, vengono anche evidenziati le scoperte e i ruoli chiave di scienziati italiani all’interno del processo che ha portato alla comprensione dei raggi cosmici. Il racconto dell’avanzamento della conoscenza non viene esposto solo come una serie di successi ma anche come una serie di incomprensioni dei fenomeni, in quanto la scienza progredisce anche per errori. All’interno del libro si trovano anche le descrizioni degli strumenti, sia quelli nuovi sia i primi utilizzati, e i riferimenti alle collaborazioni per i nuovi progetti in corso.

Non bisogna temere, però, perché oltre alla parte più tecnica all’interno del libro si trovano anche numerosi aneddoti divertenti come, per esempio, una delle battute che circolava su Millikan, che aveva la fama di scienziato rapace, al California Institute of Technology: “Jesus saves, and Millikan takes the credit” (“Gesù ci salva e Millikan se ne prende il merito”).

Per chi è interessato all’astronomia multimessaggero e ai raggi cosmici, questo libro è sicuramente una risorsa valida. All’interno sono presenti anche numerose fotografie e disegni che aiuteranno il lettore a comprendere meglio di cosa si sta parlando, oltre a una serie di tavole centrali a colori.

Niente descrive meglio l’astrofisica – e la storia del progresso della scienza – delle parole di Bruno Rossi riportate nel libro: «La mia lunga esperienza come fisico dei raggi cosmici mi aveva insegnato che quando si entra in un territorio inesplorato esiste sempre la possibilità di trovare qualcosa di imprevedibile».


Con Lofar, a bassissima frequenza oltre la ionosfera


15259719
15259721
In alto, un’immagine di una porzione di cielo osservata con la tecnica di calibrazione finora migliore. In basso, la stessa porzione di cielo osservata con la nuova tecnica. Sono visibili moli più dettagli, e quelle che prima apparivano come chiazze sfocate ora si distinguono come singoli punti. Crediti: Lofar/Groeneveld et al.

Un team guidato da astronomi dell’Università di Leiden (Paesi Bassi), e del quale fanno parte anche ricercatori dell’Istituto nazionale di astrofisica, è riuscito a ottenere per la prima volta immagini in banda radio nitide dell’universo eccezionalmente nitide e a frequenze eccezionalmente basse: comprese tra 16 e 30 MHz. Un’impresa ritenuta quasi impossibile, perché la ionosfera, a circa 80 chilometri di altitudine sul suolo terrestre, interferisce con le osservazioni in questo intervallo di frequenze.

Le immagini sono state acquisite utilizzato le antenne del radiotelescopio Lofar installate a Drenthe, nei Paesi Bassi. La rete Lofar, che si estende su mezza Europa e presto avrà anche una stazione in Italia, è uno fra i migliori radiotelescopi a bassa frequenza del mondo. Per aggirare i disturbi introdotti dalla ionosfera terrestre, gli autori dello studio, i cui risultati sono stati pubblicati questa settimana su Nature Astronomy, si sono avvalsi di una tecnica di calibrazione derivata da quella in uso per osservazioni a frequenze molto più elevate, intorno ai 150 MHz, sulle quali negli ultimi anni si sono visti notevoli miglioramenti. «Speravamo di poter estendere questa tecnica anche alle frequenze più basse, al di sotto dei 30 MHz», spiega l’ideatore del test, Reinout van Weeren, dell’Università di Leiden. «E ci siamo riusciti».

«Sebbene molto lavoro sia stato fatto per migliorare la nostra abilità di osservare a radio frequenze ultra-basse negli ultimi anni», ricorda a Media Inaf un altro fra i coautori dello studio, Francesco De Gasperin, dell’Inaf Ira di Bologna, «la calibrazione della ionosfera è sempre stata un fattore limitante. Questo risultato mostra che, con i giusti codici di calibrazione, possiamo spingerci alle frequenze più basse raggiungibili con radio telescopi da terra (circa 10-15 MHz) mantenendo una risoluzione angolare che permetta di ricostruirne la struttura degli oggetti osservati».

Per mettere la nuova tecnica alla prova, sono stati osservati alcuni ammassi di galassie – e in particolare i getti di plasma emessi da antichi buchi neri – che in precedenza erano stati studiati in dettaglio solo a frequenze più elevate. Le immagini ottenute mostrano che l’emissione radio di questi ammassi non è uniforme lungo l’intero ammasso: è infatti emersa una distribuzione a macchie. «È stato come indossare per la prima volta un paio di occhiali e non vedere più in modo sfocato», dice il primo autore dello studio, Christian Groeneveld, dell’Università di Leiden (Paesi Bassi).

Secondo gli autori dello studio, la nuova tecnica di calibrazione permette di studiare fenomeni prima inaccessibili, compresi quelli riguardanti i pianeti extrasolari. «Una delle prede più ambite per questo tipo di osservazioni a bassissima frequenza saranno gli esopianeti. La scoperta di emissione radio a bassissima frequenza in questi oggetti», conclude De Gasperin, «proverebbe la presenza di campi magnetici intorno ad alcuni esopianeti, campi magnetici che si pensa siano un prerequisito importante per supportare la vita proteggendo l’atmosfera del pianeta stesso».

Per saperne di più:

  • Leggi su Nature Astronomy l’articolo “Characterisation of the decameter sky at sub-arcminute resolution”, di C. Groeneveld, R.J. van Weeren, E. Osinga, W.L. Williams, J.R. Callingham, F. de Gasperin, A. Botteon, T. Shimwell, F. Sweijen, J. de Jong, L.F. Jansen, G.K. Miley, G. Brunetti, M. Brüggen e H.J.A. Röttgering


La Mano di Dio immortalata dalla DeCam


15239367
15239369
Il globulo cometario Cg 4, soprannominato Mano di Dio, è uno dei tanti globuli cometari presenti all’interno della Via Lattea. Questa immagine è stata catturata dalla Dark Energy Camera montata sul telescopio di 4 metri Víctor M. Blanco presso l’Osservatorio Interamericano di Cerro Tololo. Crediti: Ctio/NoirLab/Doe/Nsf/Aura, T.A. Rector (University of Alaska Anchorage/Nsf’s NoirLab), D. de Martin & M. Zamani (Nsf’s NoirLab)

A circa 1300 anni luce di distanza, nella costellazione Poppa, una mano spettrale sembra emergere dal mezzo interstellare e protendersi verso il cosmo. Questa struttura solo apparentemente minacciosa è Cg 4, un cosiddetto globulo cometario a cui è stato dato il soprannome di “Mano di Dio”. Si tratta di uno dei tanti globuli cometari presenti nella Via Lattea, la cui morfologia ha origini che sono ancora oggetto di dibattito tra gli astronomi.

I globuli cometari sono una sottoclasse delle nebulose oscure note come globuli di Bok: dense nubi isolate di gas e polveri cosmiche circondate da materiale caldo e ionizzato. Sono tra gli oggetti più freddi conosciuti in campo astrofisico, con temperature interne dell’ordine di 10 Kelvin. Quando queste nubi presentano una scia simile a una lunga coda, vengono chiamate globuli cometari per la loro vaga somiglianza con le comete, anche se di fatto non hanno nulla in comune.

Le caratteristiche tipiche di un globulo cometario sono difficili da notare in questa immagine catturata con la Dark Energy Camera (DeCam), montata sul telescopio di 4 metri Víctor M. Blanco presso il Cerro Tololo Inter-American Observatory (Ctio), del Nsf NoirLab. La sua testa polverosa – con un diametro di 1,5 anni luce – e la sua debole coda – lunga circa 8 anni luce – fanno di Cg 4 un globulo di Bok relativamente piccolo.

Individuati per la prima volta nel 1976 da immagini scattate con il telescopio Uk Schmidt in Australia, i globuli cometari sono rimasti a lungo inosservati dagli astronomi perché molto deboli. Le loro code, avvolte da scura polvere stellare, bloccano la maggior parte della luce. Ma con il suo speciale filtro H-alfa, DeCam è stata in grado di cogliere il debole bagliore rosso dell’idrogeno ionizzato presente all’interno della testa di Cg 4 e intorno al suo bordo esterno. Questa luce si produce quando l’idrogeno si eccita dopo essere stato bombardato dalle radiazioni delle stelle calde e massicce vicine.

L’intensa radiazione generata da queste stelle massicce sta gradualmente distruggendo la testa del globulo e spazzando via le minuscole particelle che disperdono la luce stellare. Tuttavia, Cg 4 contiene abbastanza gas per alimentare la formazione attiva di diverse nuove stelle della dimensione del Sole.

15239371
In questo primo piano, sembra che Cg 4 stia per divorare la galassia a spirale Eso 257-19 (Pgc 21338). In realtà, questa galassia si trova a più di cento milioni di anni luce da Cg 4 e sembra esserle vicina solo per un allineamento prospettico. Vicino alla testa del globulo cometario si trovano due giovani oggetti stellari: stelle nella fase iniziale della loro evoluzione, prima di diventare stelle di sequenza principale, che spesso presentano caratteristiche come getti, flussi bipolari, dischi protoplanetari e altri indicatori della nascita di una nuova stella. Crediti: Ctio/NoirLab/Doe/Nsf/Aura, T.A. Rector (University of Alaska Anchorage/Nsf’s NoirLab), D. de Martin & M. Zamani (Nsf’s NoirLab)

Sebbene gli astronomi abbiano osservato queste strutture in tutta la Via Lattea, la stragrande maggioranza di esse, compresa Cg 4, si trova all’interno di un’enorme macchia di gas incandescente chiamata Nebulosa di Gum, un probabile resto di supernova esplosa circa un milione di anni fa. Attualmente, la Nebulosa di Gum è nota per contenere almeno 31 globuli cometari, oltre a Cg 4.

Il meccanismo con cui questi oggetti assumono la loro forma distintiva non è del tutto noto, ma gli astronomi hanno sviluppato due idee sulle loro origini. La prima è che potrebbero essere state originariamente delle nebulose sferiche – come la ben nota Nebulosa Anello – successivamente sconvolte dall’esplosione di una supernova vicina, forse la stessa che ha creato la Nebulosa di Gum. La seconda idea è che i globuli cometari siano modellati da una combinazione di venti stellari e dalla pressione delle radiazioni provenienti dalle vicine stelle calde e massicce.

In effetti, tutti i globuli cometari trovati all’interno della Nebulosa di Gum sembrano avere code che puntano lontano dal centro della nebulosa, dove si trovano il resto della supernova Vela e la pulsar Vela. Quindi è possibile che i venti stellari della pulsar e la pressione delle radiazioni stiano modellando i globuli vicini.


Oggi è la giornata internazionale dei planetari


15238032
15238034
Uno dei primi sistemi optomeccanici messi a punto in Germania negli anni ’20. Crediti: Zeiss

Esattamente 99 anni fa, il 7 maggio del 1925, cominciava la programmazione regolare di spettacoli al pubblico del planetario del Deutsches Museum di Monaco di Baviera. Questo evento fu in realtà preceduto da dimostrazioni e proiezioni riservate cominciate il 21 ottobre del 1923, quando l’azienda ottica di Carl Zeiss presentò a un pubblico ristretto la prima proiezione artificiale del cielo. Non a caso, a cavallo tra il 2023 e il 2025 e non in una data unica, è stato deciso di festeggiare i cento anni di questo meraviglioso strumento di conoscenza e di divulgazione.

La data del 7 maggio è stata comunque scelta dall’International Planetarium Society (Ips) per rappresentare – da quest’anno e per gli anni a venire – la Giornata internazionale dei planetari, che tradizionalmente, dal 1991, veniva celebrata la seconda domenica di marzo su iniziativa dell’italianissimo gruppo “Amici dei Planetari”, che in poco tempo contagiò il resto d’Europa e del mondo. Gruppo che diede vita a quella che oggi è l’Associazione dei planetari italiani (Planit), il cui meeting annuale si è concluso a fine aprile.

Oggi nel mondo si contano oltre quattromila planetari, circa 120 dei quali in Italia, per la maggior parte stabili ma con lodevoli eccezioni anche itineranti. Sul sito Planit è disponibile una mappa completa ed aggiornata di questi strumenti nonché un sintetico excursus delle tappe fondamentali della loro storia.

google.com/maps/d/embed?mid=1b…

L’Istituto nazionale di astrofisica può contare su tre planetari ospitati negli osservatori astronomici di Bologna, Napoli e Cagliari, ai quali si aggiunge un planetario a gestione privata a cui l’Inaf partecipa con un sostegno scientifico che è il planetario di Torino.

Buona giornata internazionale dei planetari!


Nane bianche affamate di metallo


15237899
15237901
Orbite planetesimali attorno a una nana bianca. Inizialmente, ogni planetesimo ha un’orbita circolare, prograda. L’impulso forma un disco eccentrico di detriti con orbite prograde (blu) e retrograde (arancione). Crediti: Steven Burrows/Madigan

Le nane bianche, stelle di massa simile a quella del Sole pur avendo dimensioni simili a quelle della Terra, sono molto comuni nella nostra galassia, in quanto rappresentano la fase finale della maggior parte delle stelle. Si stima, infatti, che il 97 per cento delle stelle che accendono la Via Lattea siano nane bianche. Sono tutt’altro che piccole stelle evanescenti, poiché la forte attrazione gravitazionale esercitata dalla loro massa compatta attira e disintegra tutto ciò che si avvicina a esse, inquinando la loro superficie.

La composizione chimica di questi resti stellari è rimasta per anni un enigma, ma uno studio guidato da ricercatori dell’University of Colorado Boulder, negli Stati Uniti, e pubblicato su The Astrophysical Journal Letters lo scorso 23 aprile, potrebbe aver trovato risposta ad alcuni interrogativi. Silicio, magnesio e calcio: sono alcuni degli elementi pesanti rilevati sulla superficie di molti di questi oggetti compatti. «Questi metalli pesanti dovrebbero affondare molto rapidamente verso il nucleo», spiega Tatsuya Akiba, primo autore dello studio. «Quindi, non dovremmo rilevare metalli sulla superficie di una nana bianca, a meno che la nana bianca non stia mangiando attivamente qualcosa.»

Le nane bianche si nutrono di planetesimi (piccoli corpi di roccia e metallo), asteroidi, comete e persino pianeti. Le complessità di questo processo di attrazione gravitazionale devono ancora essere pienamente esplorate, tuttavia, secondo gli autori, la chiave per risolvere il mistero della composizione metallica della superficie di una nana bianca si potrebbe celare proprio in questo comportamento.

Utilizzando simulazioni al computer, i ricercatori hanno così ricostruito l’interazione gravitazionale di una nana bianca in formazione aggiungendo un impulso iniziale – causato da una perdita di massa asimmetrica – tale da alterare il suo movimento e la dinamica dei materiali circostanti presenti. «Le simulazioni ci aiutano a capire le dinamiche di diversi oggetti astrofisici», spiega Akiba. «In quella da noi realizzata, abbiamo lanciato un mucchio di asteroidi e comete intorno alla nana bianca, che è significativamente più grande, per osservare come si evolve la simulazione e quale di questi asteroidi e comete viene catturato dall’evento di accrescimento». Nell’80 per cento dei casi simulati, è stato osservato che, a seguito dell’impulso, le orbite di comete e asteroidi entro un intervallo da 30 a 240 unità astronomiche dalla nana bianca – la distanza di Nettuno dal Sole e oltre – si sono allungate e allineate. Inoltre, circa il 40 per cento dei planetesimi successivamente dissolti possedevano orbite retrogade.

Le dinamiche della nana bianca sono state simulate per una durata di 100 milioni di anni, periodo al termine del quale i planetesimi più vicini presentavano ancora delle orbite allungate e si muovevano come un’unità coerente: un risultato mai visto prima. «Questo è qualcosa che penso sia unico nella nostra teoria: possiamo spiegare perché gli eventi di accrescimento siano così duraturi», sottolinea Ann-Marie Madigan, co-autrice dello studio. «Gli altri meccanismi possono spiegare l’evento di accrescimento originario, mentre le nostre simulazioni con l’impulso generato durante la formazione mostrano perché l’accrescimento accada ancora centinaia di milioni di anni dopo».

Il risultato spiegherebbe, dunque, perché i metalli pesanti si trovano sulla superficie di una nana bianca, poiché la nana bianca continua sempre a consumare oggetti più piccoli che si imbattono nel suo percorso. «La stragrande maggioranza dei pianeti dell’universo finirà per orbitare attorno a una nana bianca», ricorda Madigan. «Forse il 50 per cento di questi sistemi verrà inglobato dalla propria stella, compreso il nostro Sistema solare. Ora, abbiamo un meccanismo che spiega come questo possa accadere».

Studiare le interazioni tra stelle come le nane bianche con gli altri corpi celesti aiuta a far luce sulle origini e la futura evoluzione del nostro Sistema solare e a scoprire la chimica coinvolta in questi processi, conclude Selah McIntyre, anch’essa coautrice dello studio: «Le nane bianche non sono solo una lente nel passato. Sono anche una specie di lente nel futuro».

Per saperne di più:


Su Encelado come in California


15237754
15237756
Illustrazione artistica di una sezione di Encelado in cui sono visibili i getti di materiale dalle faglie tiger stripes. Crediti: James Tuttle Keane

Al polo sud di Encelado, una delle lune di Saturno, sono ben visibili quattro fratture frastagliate e parallele chiamate tiger stripes (o strisce di tigre), lunghe fino a 150 km, dalle quali fuoriescono periodicamente getti di cristalli ghiacciati. Questo fenomeno è chiamato criovulcanismo, e si ritiene che i getti provengano dall’oceano sotterraneo di Encelado, contribuendo alla formazione di un ampio pennacchio di materiale che si estende per oltre 9600 km dalla superficie del satellite. Dalle osservazioni emerge che sia l’attività del getto che la luminosità del pennacchio variano con un periodo simile a quello di rivoluzione di Encelado intorno a Saturno, pari a poco meno di 33 ore. Saturno – ricordiamo che si tratta del secondo pianeta più massiccio del Sistema solare – esercita sul satellite una forte attrazione gravitazionale che varia durante la sua orbita. Questo fa sì che Encelado subisca uno stress ciclico che causa deformazioni sulla superficie del satellite e un fenomeno interno chiamato “riscaldamento mareale” in grado di dissipare energia sufficiente per mantenere quello che si ritiene essere un oceano liquido sotto la sua crosta ghiacciata. Questa correlazione temporale ha portato gli scienziati a ipotizzare che l’attività dei getti aumenti quando lo stress mareale agisce sulle faglie superficiali del satellite, facendo sì che le strisce di tigre si aprano e si chiudano consentendo la fuoriuscita di materiale in modo ciclico.

Tuttavia, questi modelli non sono in grado di prevedere con precisione la tempistica dei picchi di luminosità del pennacchio visibili poche ore dopo il massimo stress mareale e di un secondo picco più piccolo osservabile poco dopo l’avvicinamento di Encelado a Saturno. Un ulteriore dilemma ancora irrisolto è che il meccanismo di apertura della faglia richiederebbe una quantità di energia superiore a quella disponibile dalla sola forza delle maree.

Lo studio pubblicato alla fine dello scorso aprile su Nature Geoscience, guidato da Alexander Berne del Caltech, in California, suggerisce una nuova interpretazione di questi fenomeni. Berne e il suo gruppo hanno sviluppato un modello geofisico molto dettagliato per caratterizzare il movimento delle faglie a strisce di tigre di Encelado e in grado di fornire nuovi elementi sui processi che controllano l’attività dei getti. La comprensione di questi e altri fattori – come la misura in cui il materiale del getto rappresenta l’oceano del sottosuolo, la durata dell’attività dei getti, la topografia del guscio di ghiaccio – è fondamentale per ottenere un quadro dettagliato anche sulla potenziale abitabilità della luna di Saturno.

15237758
Rappresentazione della possibile relazione tra il
movimento strike-slip della faglia e l’attività del getto su Encelado. Crediti: James Tuttle Keane

I risultati di questo studio suggeriscono che le variazioni osservate nell’intensità del pennacchio di Encelado potrebbero essere dovute a un movimento delle strisce di tigre di tipo strike-slip, ovvero con un lato della faglia che si sfila dall’altro: un meccanismo del tutto simile a quello dei terremoti lungo la faglia di San Andreas, in California. L’energia necessaria per tale movimento di faglia è notevolmente inferiore a quella richiesta dal meccanismo di apertura/chiusura ipotizzata in un primo momento per la fuoriuscita dei getti di ghiaccio dal polo sud di Encelado, e questo spiegherebbe molto meglio il fenomeno osservato. Alcune sezioni frastagliate delle fratture, in presenza di un ampio movimento di scivolamento (detto di pull-apart) si aprirebbero, consentendo all’acqua di risalire dall’oceano sotterraneo attraverso il guscio ghiacciato per alimentare i getti criovulcanici. La simulazione tiene conto, inoltre, del ruolo dell’attrito tra le pareti ghiacciate delle faglie, che rende la deformazione sensibile sia alle sollecitazioni compressive, che tendono a bloccare e sbloccare la faglia, sia alle sollecitazioni di taglio, che tendono a provocare lo slittamento dei bordi della faglia stessa.

Già nel 2005, la sonda Cassini della Nasa ha sorvolato Encelado e campionato il materiale del getto, scoprendo che il pennacchio contiene elementi come il carbonio e l’azoto. Questi elementi indicano che l’oceano sotterraneo potrebbe presentare condizioni favorevoli alla vita, anche se per l’abitabilità sono necessarie condizioni geofisiche specifiche, tra cui una produzione di calore sufficiente e un flusso di sostanze chiave tra il nucleo, l’oceano e la superficie.

15237760
Mosaico di immagini di Encelado osservato nell’infrarosso dalla sonda Cassini. Crediti: Nasa/Jpl-Caltech/University of Arizona/Lpg/Cnrs/University of Nantes/Space Science Institute

«Per confermare le ipotesi formulate nel nostro lavoro, sono necessarie misurazioni dettagliate del movimento delle strisce di tigre», spiega Alexander Berne, primo autore dell’articolo. «Oggi siamo in grado di visualizzare lo slittamento delle faglie, come i terremoti, sulla Terra utilizzando le misurazioni radar dei satelliti in orbita. L’applicazione di questi metodi dovrebbe permetterci di comprendere meglio il trasporto di materiale dall’oceano alla superficie, lo spessore della crosta ghiacciata e le condizioni a lungo termine che possono consentire la formazione e l’evoluzione della vita su Encelado».

«Affinché la vita si evolva, le condizioni di abitabilità devono essere giuste per un lungo periodo di tempo, non solo per un istante», sottolinea Mark Simons, coautore dell’articolo. «Su Encelado è necessario un oceano di lunga durata. Le osservazioni geofisiche e geologiche possono fornire vincoli fondamentali sulla dinamica del nucleo e della crosta e sulla misura in cui questi processi sono stati attivi nel tempo».

Per saperne di più:


Venere è senz’acqua, ecco come l’ha perduta


15229821
15229823
Venere oggi è secco grazie alla perdita di acqua nello spazio sotto forma di idrogeno atomico. Nel processo di perdita dominante, uno ione HCO+ si ricombina con un elettrone, producendo veloci atomi di H (arancione) che usano le molecole di CO (blu) come rampa di lancio per fuggire. Crediti: Aurore Simonnet / Laboratory for Atmospheric and Space Physics / Università del Colorado a Boulder

Viene chiamato spesso il pianeta gemello arido e inospitale della Terra. Ma, in realtà, Venere non è sempre stato un deserto privo di acqua. Durante la sua formazione avvenuta miliardi di anni fa, il pianeta avrebbe avuto – a seconda delle varie teorie – oceani o un’atmosfera ricca di vapore acqueo, così come la Terra. Quale catastrofe può essere allora avvenuta per renderlo così secco e infernale?

Gli scienziati planetari dell’Università del Colorado a Boulder hanno provato a far luce su una delle più grandi lacune nella comprensione della “storia dell’acqua” su Venere. Utilizzando simulazioni al computer, il team di ricerca ha identificato un processo noto come “ricombinazione dissociativa” quale responsabile principale della siccità estrema del pianeta venusiano.

Nonostante sia un nostro “vicino di casa” e sia simile per dimensioni e materiale di partenza alla Terra, Venere è, infatti, estremamente secco. Se, ad esempio, si prendesse tutta l’acqua presente sulla Terra e la si spargesse sul pianeta come marmellata su un toast, si otterrebbe uno strato liquido profondo di circa tre chilometri; su Venere, dove tutta l’acqua è intrappolata nell’aria, si otterrebbero solo tre centimetri, appena sufficienti per bagnarsi le dita dei piedi. «Venere ha una quantità d’acqua 100mila volte inferiore a quella della Terra, pur avendo sostanzialmente le stesse dimensioni e la stessa massa», spiega Michael Chaffin, primo autore di uno studio pubblicato ieri su Nature e ricercatore presso il Laboratory for Atmospheric and Space Physics (Lasp), in Colorado.

Secondo le teorie più diffuse, le nubi di anidride carbonica presenti nell’atmosfera di Venere hanno innescato il più potente effetto serra del Sistema solare, portando le temperature in superficie fino a 500 gradi Celsius e facendo evaporare l’acqua presente. Tuttavia, quell’antica evaporazione non è sufficiente a spiegare perché Venere sia oggi così secco o come possa continuare ancora a disperdere acqua nello spazio. «Per analogia, diciamo che se buttassi via l’acqua dalla mia bottiglia, rimarrebbero ancora alcune gocce», ha detto Chaffin. Su Venere, invece, quasi tutte le gocce sono scomparse. Qualcosa non torna, quindi: il processo di evaporazione ipotizzato finora dagli studiosi non è riuscito a rendere conto delle condizioni attuali di siccità, e altri meccanismi di fuga possibili sono troppo lenti per completare il processo di rimozione quasi totale dell’acqua.

Nello studio guidato da Chaffin, i ricercatori hanno utilizzato modelli computerizzati per fare di Venere un gigantesco laboratorio di chimica, ponendo lo zoom sulle diverse reazioni che avvengono nell’atmosfera vorticosa del pianeta. I risultati della ricerca suggerirebbero che l’acqua dell’atmosfera di Venere, un tempo dominata dal vapore, sia stata dispersa nello spazio attraverso un meccanismo chiamato “deflusso idrodinamico” (hydrodynamic outflow, in inglese). Il colpevole di tale siccità, secondo il nuovo lavoro, sarebbe l’elusivo HCO+, uno ione composto da un atomo ciascuno di idrogeno, carbonio e ossigeno, presente nell’atmosfera di Venere.

In analisi precedenti, il team di ricerca avrebbe già confermato che HCO+ sia la molecola sospettata responsabile dell’aridità su Marte. Allo stesso modo, secondo gli scienziati, su Venere funzionerebbe così: lo ione HCO+ viene prodotto costantemente nell’atmosfera, ma i singoli ioni, non sopravvivendo a lungo, si ricombinano con gli elettroni presenti nei gas, dividendo la molecola originaria. A quel punto, i veloci atomi di H (idrogeno) usano le molecole di CO (monossido di carbonio) come una sorta di “rampa di lancio” per fuggire dall’atmosfera. Nel processo così ipotizzato, gli atomi di idrogeno si allontanerebbero nello spazio, privando Venere di uno dei due componenti fondamentali dell’acqua: l’idrogeno, appunto. In questo modo, a causa della ricombinazione dissociativa di HCO+, che produce una maggiore quantità di idrogeno in uscita rispetto ai processi precedentemente suggeriti, Venere perderebbe ogni giorno circa il doppio della quantità di acqua ipotizzata prima d’ora.

15229825
Venere potrebbe aver avuto oceani d’acqua nel suo lontano passato. Un modello terra-oceano come quello qui sopra è stato utilizzato in un modello climatico per mostrare come le nubi temporalesche avrebbero potuto schermare l’antico Venere dalla forte luce solare e rendere il pianeta abitabile. Crediti: Nasa

«L’acqua è davvero importante per la vita», dice Eryn Cangi, ricercatrice presso il Laboratory for Atmospheric and Space Physics (Lasp) e coautrice dello studio. «Dobbiamo capire quali sono le condizioni che supportano l’acqua liquida nell’universo e che potrebbero aver prodotto l’attuale stato su Venere». Il gruppo di ricerca ha calcolato che l’unico modo per spiegare lo stato di aridità di Venere è che il pianeta ospiti nella sua atmosfera, oltre ai vari gas, volumi di HCO+ superiori al previsto. «Una delle conclusioni sorprendenti di questo nostro lavoro è che HCO+ potrebbe essere tra gli ioni più abbondanti nell’atmosfera di Venere», aggiunge Chaffin.

La recente scoperta del team ha però uno scomodo risvolto: finora, gli scienziati non hanno mai osservato HCO+ intorno a Venere, poiché non hanno mai avuto a disposizione gli strumenti per osservare e misurare correttamente la concentrazione in atmosfera. Il meccanismo proposto è stato trascurato, infatti, per oltre 50 anni, in parte a causa dei limiti di progettazione degli strumenti delle precedenti navicelle spaziali di Venere.

Negli ultimi anni, tuttavia, un numero crescente di scienziati ha messo gli occhi sul pianeta venusiano e le future missioni spaziali su Venere proveranno a misurare le abbondanze di HCO+ per determinare se la ricombinazione dissociativa di HCO+ è effettivamente il meccanismo dominante per la perdita di acqua. «Non ci sono state molte missioni su Venere. Ma le nuove in programma», conclude Cangi, «sfrutteranno decenni di esperienza collettiva per esplorare gli estremi delle atmosfere planetarie, dell’evoluzione e dell’abitabilità sui diversi pianeti».

Per saperne di più:


Le cefeidi: ieri, oggi e domani


15204729
15204731
La stella RS Puppis, una delle variabili cefeidi più luminose della Via Lattea, ripresa da Hubble. Crediti: Nasa, Esa, and the Hubble Heritage Team (Stsci/Aura)-Hubble/Europe Collaboration Acknowledgment: H. Bond (Stsci and Penn State University)

Con il nome di cefeidi vengono indicate tre diverse categorie di stelle variabili (stelle la cui luminosità varia periodicamente con il tempo) che hanno la caratteristica di essere delle ottime candele campione, le cui distanze individuali possono essere stimate con un’accuratezza di qualche percento. Le cefeidi classiche pulsano con periodi che vanno dal giorno a poche centinaia di giorni e sono traccianti di popolazioni stellari giovani (età inferiore a 200-300 milioni di anni) tipicamente associate a regioni di formazione stellare, mentre le cefeidi di tipo II pulsano con periodi che vanno dal giorno a un centinaio di giorni, sono traccianti di popolazioni stellari vecchie (età superiore a 10 miliardi di anni) e vengono principalmente identificate nel nucleo e nell’alone della nostra galassia. Tra queste due categorie principali si inseriscono le meno numerose cefeidi anomale che pulsano con periodi che vanno da qualche dozzina di ore a pochi giorni, associate a popolazioni stellari di età intermedia (qualche miliardo di anni).

Le strade della moderna astrofisica e quelle delle cefeidi si sono intrecciate diverse volte.

La prima cefeide galattica è stata scoperta nell’ottobre 1784 da un astrofilo britannico, John Goodricke, che facendo osservazioni regolari con il suo telescopio si era reso conto che la stella delta della costellazione del Cefeo era una stella variabile. In realtà la prima cefeide era stata scoperta il mese prima fa Edward Pigott ed era la stella eta della costellazione dell’Aquila. Edward era anche lui un astrofilo ed era non solo vicino di casa del giovane John ma anche suo amico e mentore. Decise di fare un passo indietro e di dare al giovane John (diciasettenne, sordomuto) la possibilità di annunciare per primo la sua scoperta. Se Edward non avesse fatto questo grande gesto di nobiltà d’animo oggi le chiameremmo ‘aquileidi’ e non ‘cefeidi’.

15204733
A sinistra, stelle cefeidi nella galassia a spirale Ngc 5584 (crediti: Nasa, Esa, and L. Frattare/Stsci). A destra, frontespizio originale dell’articolo di Edwin Hubble “Cepheids in Spiral Nebulae” (crediti: Huntington Digital Library)

Il prossimo anno ricorre il centenario della pubblicazione dell’articolo di Edwin Hubble (1925) sulla scoperta delle cefeidi classiche nella galassia di Andromeda. Questo articolo segna la nascita della cosmologia osservativa e sancisce la fine dell’annosa disputa tra Curtis e Shapley a proposito della natura delle cosiddette “nebulae”. Curtis aveva ragione: si trattava di galassie esterne simili alla nostra e non di nebulose appartenenti alla nostra galassia.

È stato grazie alla scoperta di Walter Baade (1956) delle popolazioni stellari che ci si rese conto che le cefeidi classiche e le cefeidi di tipo II obbedivano a due diverse relazioni periodo-luminosità (PL). Questa fu una rivoluzione di proporzioni copernicane, sia per la stima dell’età dell’universo (che per la prima volta risultava maggiore dell’età della Terra basata sui decadimenti radioattivi) che per le sue dimensioni. La relazione PL era stata scoperta da Henrietta Leavitt nel suo studio delle cefeidi delle Nubi di Magellano (1912) e consente, una volta calibrata, di fornire distanze molto accurate.

A queste vanno aggiunte molte altre rilevanti scoperte che hanno utilizzato le cefeidi come fari per investigare la curva di rotazione della nostra galassia o come laboratori per fornire delle stime molto accurate delle proprietà fisiche (evolutive, pulsazionali) di stelle in fasi evolutive avanzate con masse che vanno da poco meno di una massa solare a una decina di masse solari.

Le rivoluzioni e le scoperte che abbiamo discusso si trovano in molti testi di storia dell’astrofisica. Sarebbe lecito pensare che le cefeidi possano essere considerate dal punto di vista astrofisico delle vegliarde sul viale del tramonto. Ma questa è un’illazione priva di fondamento. Le cefeidi continuano a essere il crocevia di importanti problemi astrofisici e cosmologici.

Le recenti identificazioni di cefeidi classiche in sistemi binari a eclisse nelle Nubi di Magellano hanno consentito di poter misurare la loro massa con un’accuratezza dell’uno per cento e di fornire dei limiti molto stringenti sui fenomeni di mixing che avvengono al loro interno. Queste stesse cefeidi sono state utilizzate per misurare, per la prima volta con un metodo geometrico, la distanza della Grande e della Piccola Nube di Magellano con un’accuratezza dell’uno e del due per cento.

15204735
Utilizzando due dei più potenti telescopi spaziali al mondo – Hubble della Nasa e Gaia dell’Esa – gli astronomi hanno effettuato le misurazioni più precise fino ad oggi del tasso di espansione dell’universo. Questo viene calcolato misurando le distanze tra le galassie vicine usando tipi speciali di stelle chiamate variabili Cefeidi come metri cosmici. Confrontando la loro luminosità intrinseca misurata da Hubble, con la loro luminosità apparente vista dalla Terra, gli scienziati possono calcolare le loro distanze. Gaia perfeziona ulteriormente questo metro misurando geometricamente le distanze dalle variabili Cefeidi all’interno della nostra galassia della Via Lattea. Ciò ha permesso agli astronomi di calibrare con maggiore precisione le distanze dalle Cefeidi che si osservano nelle galassie esterne. Crediti: Nasa, Esa e A. Feild (STScI)

Le Nubi di Magellano rivestono un ruolo fondamentale nella scala delle distanze cosmiche, perché vengono utilizzate come primo piolo nella determinazione della costante di Hubble. I risultati più recenti sulla stima di questa constante suggeriscono una tensione a livello di otto sigma tra la stima diretta basata su un campione locale di 42 supernove di tipo Ia calibrate con cefeidi classiche (H0=73.04±1.04 m/s/Mpc) e la stima della stessa costante basata sulla radiazione cosmica di fondo del satellite Planck (H0=67.4±0.5 km/s/Mpc). Questa tensione sembra suggerire che, attualmente, il nostro universo si stia espandendo con una velocità che è circa l’8 per cento più rapida rispetto alle previsioni dal modello cosmologico più accreditato (LambdaCdm). Questa differenza, se confermata, implicherebbe non solo un superamento del modello standard ma anche un’interessante opportunità per nuova fisica.

La comunità astrofisica si sta muovendo su tre strade diverse: a) verificare l’universalità, e in particolare la dipendenza dalla metallicità, delle relazioni PL utilizzate per stimare le distanze delle cefeidi; b) utilizzare candele campione traccianti di popolazioni stellari antiche come le cefeidi di tipo II e il tip del ramo delle giganti; c) ricerca di possibili errori sistematici. Questo sforzo titanico è ancora in atto, ma ci sono fondati motivi per pensare che i nuovi risultati del satellite Gaia e le nuove survey spettroscopiche da terra ci consentiranno di dipanare la matassa.

La misura delle abbondanze delle cefeidi sono importanti non solo per la scala delle distanze cosmiche ma anche per investigare la storia di arricchimento chimico della nostra galassia. Le cefeidi classiche vengono utilizzate per misurare i gradienti di composizione chimica del disco sottile in cui si trova il nostro Sistema solare e ci aiutano a capire come vengono formati molti elementi chimici, compresi quelli che sono alla base della vita – i cosiddetti Chnops (carbonio, idrogeno, azoto, ossigeno, fosforo, zolfo).

Ci sembra opportuno sottolineare che il prossimo anno ricorre anche il centenario della pubblicazione della tesi di dottorato di Cecilia Payne, la prima donna ad aver ottenuto un dottorato in astrofisica. Lei usa per la prima volta l’equazione di Saha per la determinazione delle abbondanze stellari e dimostra che l’elemento più diffuso nell’universo è l’idrogeno. L’approccio da lei adottato apre la strada alla spettroscopia quantitativa e alla nucleosintesi.

Per saperne di più:

Guarda su MediaInaf Tv il servizio video sulla misura delle distanze nel cosmo:

youtube.com/embed/CXOTemDI27I?…


Alla conquista del Far West lunare


15204405
15204407
David W. Brown, “Spazio. La sfida del presente”, Hoepli, 2023, 174 pagine, 24,90 euro

Omero sarebbe stato contento di sapere che nei pressi del polo sud lunare c’è un lander chiamato Odysseus. In effetti, pur essendo allunato di fianco con serie difficoltà a inviare i dati a terra, Odysseus ha rappresentato una pietra miliare perché è stata la prima missione “privata” a posarsi sulla Luna facendo entrare la compagnia Intuitive Machines nella storia dell’esplorazione spaziale. Era questo l’obiettivo immediato del programma commerciale della Nasa Clps (Commercial Lunar Payload Services), nato per stimolare l’ingresso dei privati nelle missioni lunari al fine di abbassare il costo del trasporto di strumenti sulla Luna. In pratica si accetta una maggiore componente di rischio, in cambio della nascita di un mercato lunare.

Era sottinteso che qualche missione potesse andare male, come è successo a inizio gennaio a Peregrine di Astrobotic. Peregrine ha perso la chance di allunare a causa di una perdita di carburante, ma il budget della missione fornisce un buon esempio del mercato della logistica lunare, dove è il trasporto a fare la parte del leone. Infatti, nel caso di Peregrine, la Nasa aveva finanziato cinque strumenti per un ammontare di 9 milioni di dollari mentre il trasporto era costato 108 milioni.

A risollevare il morale degli entusiasti dell’esplorazione lunare ci ha pensato la missione Slim dell’agenzia spaziale giapponese, che il 20 gennaio scorso ha realizzato un allunaggio morbido, rendendo il Giappone la quinta nazione a essere riuscita nella manovra e la prima a realizzare un allunaggio di grande precisione. In effetti, l’allunaggio di Slim è stato un po’ “scomposto” visto che la sonda ha toccato il suolo a testa in giù, cosa che ha impedito il normale funzionamento dei pannelli solari. Con un po’ di pazienza il Sole li ha finalmente illuminati e la sonda ha dimostrato di essere perfettamente operativa sopravvivendo al gelo di tre notti lunari, con stupore dei suoi costruttori.

Poi è arrivato Odysseus, la prima missione privata e la prima ad allunare vicino al polo sud. Era quello che voleva la Nasa che, in qualità di cliente principale, ha pagato 118 milioni di dollari per il trasporto di 6 strumenti del costo di 11 milioni. Odysseus trasportava anche strumenti forniti da altri clienti. A causa dell’allunaggio storto non tutti hanno funzionato come previsto, ma la missione è stata archiviata come un successo.

Tre missioni lunari nei primi due mesi del 2024 testimoniano il rinato interesse per l’esplorazione del nostro satellite, che continua con Chang’è 6, una missione cinese partita il 3 maggio con l’obiettivo di posarsi sulla faccia nascosta per raccogliere campioni da riportare a terra.

15204409
Simonetta Di Pippo, “Luna, laboratorio di pace”, Egea, 2024, 152 pagine, 17 euro

Poi ci saranno altre missioni commerciali più ambiziose. A fine anno il rover Nasa Viper si poserà nella regione del polo sud lunare, dove dovrebbe cercare il ghiaccio d’acqua. Astrobotic ha un contratto da 200 milioni per il trasporto del rover, che costa più del doppio. L’anno prossimo anche la missione cinese Chang’è 7 sarà diretta in un’area limitrofa, perché tutti vogliono essere vicino ai depositi di ghiaccio e in zone che godano di illuminazione pressoché costante.

Per questo bisogna agire d’anticipo, per evitare che sorgano conflitti o, peggio ancora, per evitare che la luna diventi un Far West cosmico, come spiega molto bene Simonetta di Pippo nel suo libro Luna laboratorio di pace. Astrofisica con una vasta esperienza nell’ufficio per lo spazio esterno delle Nazioni Unite, l’autrice sa bene che la situazione non è semplice, perché tutti vogliono la stessa proprietà immobiliare, che devono occupare il prima possibile per evitare che altri li precedano. Poiché nessuno stato può rivendicare la proprietà di corpi celesti, bisogna assicurarsi il diritto di utilizzo perché, fino a quando la zone è occupata, non sarà possibile che altri vi si installino. Gli insediamenti dovranno essere costruiti e gestiti con strategie di sostenibilità a lungo termine che implicano rispetto per l’ecosistema delicatissimo della Luna, utilizzo di materiale locale e un riciclo puntiglioso.

In effetti la parola sostenibilità è il mantra della nuova esplorazione spaziale. Lo capiamo leggendo le interviste che compongono Spazio la sfida del presente di David Brown. Gli intervistati rappresentano diverse figure professionali tutte collegate allo spazio: si va dall’astronauta, al manager, all’ingegnere, agli architetti, agli esperti di comunicazione, di diplomazia e diritto internazionale, di detriti spaziali, delle problematiche dell’estrazione mineraria su altri corpi celesti. Tutti concordano sul fatto che ogni intervento deve essere sostenibile e fatto in modo da rispettare le norme internazionali che, però, spesso non sono accettate da tutti, oppure non esistono proprio. Scorrendo le interviste si scopre che sostenibilità spaziale e terrestre vanno di pari passo. I dati raccolti dai satelliti di osservazione della Terra sono fondamentali per misurare la salute del pianeta e migliorare le politiche terrestre. D’altro canto, le centrali solari orbitali, capaci di produrre energia in modo continuato, possono essere un prezioso complemento alle rinnovabili terrestri, irrinunciabili ma discontinue. Lo spazio è soprattutto una palestra dove provare le strategie dell’economia circolare perché, in mancanza di materie prime, i rifiuti diventano una risorsa e le coltivazioni devono consumare il meno possibile. Soprattutto bisogna avere ben chiaro che si sta utilizzando un bene comune che deve continuare a rimanere tale.


Chang’e 6 è in volo verso il lato nascosto della Luna


15118454
Rappresentazione artistica del lander Chang'e 5/6. Crediti: Wikimedia Commons
Rappresentazione artistica del lander delle missioni Chang’e 5 e 6. Crediti: Wikimedia Commons

Partita l’ambiziosa missione cinese per la Luna, Chang’e 6 che punta a raggiungere il polo sud e riportare per la prima volta a Terra campioni di terreno dal lato nascosto del nostro satellite. Il lancio è avvenuto alle 11:27 ora italiana con un razzo Lunga Marcia 5 dallo spazioporto di Wenchang, e a bordo c’è anche uno strumento scientifico italiano dell’Istituto nazionale di fisica nucleare.

Dopo il successo della missione Chang’e 5, che nel 2020 aveva raggiunto la Luna e riportato a Terra 1,7 chili di campioni di terreno lunare, l’agenzia spaziale cinese Cnsa punta a replicare la missione dandosi questa volta un obiettivo ancora più ambizioso: il lato nascosto della Luna nei pressi del polo sud, il sito considerato più interessante per la realizzazione di futuri avamposti.

La missione, che come tutte le precedenti missioni lunari cinesi prende nome dalla divinità Chang’e, durerà complessivamente 53 giorni e si compone di 4 parti: un orbiter, un lander, un modulo di risalita e un modulo di rientro. L’obiettivo è riportare per la prima volta campioni del lato nascosto della Luna, che presenta molte caratteristiche differenti, ancora poco comprese, rispetto a quello visibile. La missione accoglie sono anche alcune partecipazioni straniere, tra cui uno strumento francese per il rilevamento di gas radon e il retroriflettore laser passivo italiano dell’Infn, denominato Innri (Instrument for landing-Roving laser Retroreflector Investigations), che aiuterà a controllare il posizionamento della sonda.

Concluso il lancio, Chang’e 6 ha iniziato ufficialmente il suo viaggio verso la Luna, che durerà diversi giorni, ma solo dopo aver completato una serie di orbita sempre più larghe attorno alla Terra. Una volta raggiunta l’orbita lunare, tra 5 giorni, la missione si dividerà in due: una parte composta da orbiter e modulo di rientro che resterà in orbita, l’altra composta da lander e modulo di risalita che scenderà verso la superficie. L’allunaggio è previsto nel cratere Apollo, un enorme cratere che occupa gran parte della regione polare e che si stima si sia formato in seguito a un violento impatto con un grande meteorite circa 4 miliardi di anni fa. Proprio per questo campioni di terreno di questa area risultano particolarmente interessanti per comprendere meglio alcune questioni ancora misteriose riguardo all’origine del nostro satellite.

Una volta sceso il lander userà un’innovativa trivella che tenterà di raccogliere campioni fino a 2 metri di profondità mentre a permettere le comunicazioni sarà il satellite Queqiao-2, lanciato a marzo 2024, che grazia alla sua potente antenna parabolica di ben 4,2 metri di diametro garantirà una sorta di ponte radio con il lato nascosto della Luna. I materiali raccolti saranno poi trasferiti a bordo del modulo di risalita che ripartirà per ricongiungersi con il modulo di rientro in attesa in orbita. Completata la manovra il modulo si dirigerà nuovamente verso la Terra per portare i campioni, si spera circa due chili.

Fonte: Ansa

Rivedi il video del lancio sul canale YouTube della Cctv:

youtube.com/embed/WpDd8VFHXf8?…