Salta al contenuto principale

Dal paradiso all’inferno in una manciata di gradi


11370280
11370282
La celebre “Blue Marble”, una fotografia della Terra scattata il 7 dicembre 1972 dall’equipaggio dell’Apollo 17 (l’ultima missione del Programma Apollo) a una distanza di circa 45mila km. Crediti: Nasa/Apollo 17 via Wikimedia Commons

Una meravigliosa biglia blu. Così appariva la Terra dallo spazio agli astronauti della missione Apollo 17: un pianeta avvolto dall’acqua degli oceani e accogliente per la vita. Non come Venere, sfera giallastra, inospitale e sterile. Eppure a segnare il diverso destino dei due mondi potrebbe essere una differenza in temperatura inizialmente molto ridotta, appena una manciata di gradi. Un fatto che ben rende l’idea di fragilità e precarietà del nostro pianeta.

Un’équipe di astronomi dell’Università di Ginevra e del Nccr PlanetS (Svizzera), con il supporto dei laboratori del Cnrs di Parigi e Bordeaux, è riuscito per la prima volta a simulare la dinamica completa del processo che può trasformare il clima di un pianeta da idilliaco e perfetto per la vita a quanto di più ostile si possa immaginare. Noto in inglese come runaway greenhouse process, è un “effetto serra galoppante” che si verifica quando i gas serra – e in particolare il vapor d’acqua – che si accumulano in atmosfera, impedendo la fuoriuscita nello spazio del calore irradiato, portano la temperatura del pianeta oltre una certa soglia, innescando una sorta di reazione a catena.

Presentati questo mese sulla rivista Astronomy & Astrophysics, i risultati ottenuti dai tre autori dello studio mostrano anche come, sin dalle fasi iniziali del processo, la struttura atmosferica e la copertura nuvolosa subiscano cambiamenti significativi, portando appunto a un effetto serra incontrollato e inarrestabile. Sulla Terra, un aumento della temperatura media globale di appena poche decine di gradi sarebbe sufficiente a innescare questo fenomeno, rendendo il nostro pianeta invivibile.

La teoria del runaway greenhouse process non è nuova. In questo scenario, appunto, un pianeta può evolvere da uno stato temperato e “paradisiaco” come quello della Terra a un vero e proprio “inferno”, con temperature superficiali superiori ai 1000 °C. La causa risiederebbe nell’accumulo di vapore acqueo, un gas serra naturale, che impedendo all’irradiazione solare assorbita dalla Terra di essere riemessa verso lo spazio come radiazione termica intrappola il calore, un po’ come se fosse una coperta isolante. Un pizzico di effetto serra, a dire il vero, è utile: senza di esso, il nostro pianeta avrebbe una temperatura media inferiore al punto di congelamento dell’acqua e diventerebbe, quindi, una palla coperta di ghiaccio impenetrabile. Ma un eccesso di effetto serra, con il calore che – favorendo l’evaporazione degli oceani – aumenta la quantità di vapore acqueo nell’atmosfera che a sua volta aumenta il calore, può avere effetti disastrosi.

11370284
Gli oceani di Venere potrebbero essersi scomparsi a causa di un effetto serra inaspettato e incontrollato. Crediti: Nasa/Jpl

«Esiste una soglia critica, per questa quantità di vapore acqueo, oltre la quale il pianeta non può più raffreddarsi», spiega il primo autore dello studio, Guillaume Chaverot, dell’Università di Ginevra. «Da quel punto in poi è una deriva inarrestabile, fino a quando gli oceani non sono completamente evaporati e la temperatura superficiale ha raggiunto diverse centinaia di gradi».

In precedenza, altri studi chiave in climatologia si sono concentrati esclusivamente o sullo stato temperato prima del runaway, o sullo stato non più abitabile dopo il runaway. «Questa è la prima volta in cui un team studia la transizione stessa con un modello climatico globale 3D e verifica come il clima e l’atmosfera si evolvono durante questo processo», sottolinea Martin Turbet, ricercatore presso i laboratori Cnrs di Parigi e Bordeaux, coautore dello studio.

Uno dei punti chiave dello studio descrive la comparsa di un pattern di nubi molto particolare, che aumenterebbe l’effetto serra incontrollato e renderebbe il processo irreversibile. «La struttura dell’atmosfera è profondamente alterata», nota Chaverot. «Fin dall’inizio della transizione, possiamo osservare alcune nubi molto dense che si sviluppano nell’alta atmosfera, dove sembrerebbe assente l’inversione termica che caratterizza l’atmosfera terrestre e che separa i suoi due strati principali – la troposfera e la stratosfera».

Questa scoperta è un tassello fondamentale per lo studio del clima anche su altri pianeti, e in particolare su quelli che orbitano attorno a stelle diverse dal Sole. «Studiando il clima di altri pianeti, una delle nostre motivazioni più forti è quella di determinare quanto siano potenzialmente in grado di ospitare la vita», spiega Émeline Bolmont, astrofisica co-autrice dello studio e direttrice del Life in the Universe Center (Luc) dell’Università di Ginevra, dove si conducono progetti di ricerca interdisciplinari all’avanguardia sulle origini della vita sulla Terra e sulla ricerca di vita altrove, sia nel Sistema solare che in altri sistemi planetari.

11370286
I raggi del Sole attraversano l’atmosfera nuvolosa di Venere e riscaldano la superficie del pianeta. Quando il calore sale dalla superficie, viene intrappolato sotto lo strato di nuvole creando l’effetto serra. Crediti: Esa

«Dai precedenti studi, sospettavamo già l’esistenza di una soglia di vapore acqueo, ma la comparsa di questo pattern di nubi è una vera sorpresa», continua Bolmont. «Abbiamo anche studiato in parallelo come questo pattern di nubi possa creare una firma specifica, o ”impronta digitale”, rilevabile durante l’osservazione delle atmosfere degli esopianeti». Una firma che, secondo Turbet, la prossima generazione di strumenti sarà in grado di rilevare.

Tornando al nostro pianeta in fragile equilibrio, gli autori dello studio, con i nuovi modelli climatici 3D, hanno calcolato che un piccolissimo aumento dell’irradiazione solare sarebbe sufficiente a innescare il processo irreversibile di effetto serra galoppante anche sulla Terra, rendendola inospitale come Venere e aprendo uno scenario apocalittico. «Supponendo che si verifichi l’esordio del processo di runaway qui sulla Terra, un’evaporazione di soli 10 metri della superficie degli oceani porterebbe a un aumento di 1 bar della pressione atmosferica a livello del suolo. Nel giro di poche centinaia di anni,raggiungeremmo una temperatura al suolo di oltre 500 °C. In seguito si arriverebbe addirittura a 273 bar di pressione superficiale e oltre 1500 °C, e tutti gli oceani finirebbero per evaporare completamente», conclude Chaverot, le cui ricerche si concentrano sul caso specifico della Terra e cercano di determinare se i gas serra possano realmente innescare un effetto serra incontrollato simile a quello che potrebbe verificarsi con un leggero aumento dell’irradiazione solare e, in caso positivo, se le temperature di soglia siano le stesse per entrambi i processi.

Per il momento, cercando di non far passare il nostro pianeta dalla padella alla brace, i governi dei vari Paesi si sono posti come obiettivo climatico quello di limitare il riscaldamento globale della Terra, indotto dai gas serra, a non più di 1,5 gradi entro il 2050. Durante l’ultima conferenza delle Nazioni Unite sui cambiamenti climatici (Cop 28), in particolare, si è evidenziato che, per rientrare nel limite del riscaldamento globale di 1,5 gradi, è necessario ridurre il picco delle emissioni globali di gas serra del 43 per cento entro il 2030 e del 60 per cento entro il 2035 rispetto ai livelli del 2019. Chiedendo di fatto all’umanità intera di agire in fretta per mitigare e frenare il cambiamento climatico sulla Terra.

Per saperne di più:


Urano vestito a festa


11350686
11350688
Il pianeta Urano, circondato dai suoi anelli, in un’immagine dello strumento NirCam a bordo di Jwst. Sono visibili anche 14 delle 27 lune che orbitano attorno al pianeta. Sullo sfondo, una moltitudine di galassie (cliccare per ingrandire). Crediti: Nasa, Esa, Csa, Stsci

Dopo un primo, fugace scatto pubblicato lo scorso aprile, il James Webb Space Telescope (Jwst) ha rivolto nuovamente il suo occhio infrarosso verso uno dei pianeti più affascinanti del Sistema solare: il gigante ghiacciato Urano. E lo ha immortalato in tutto lo sfavillante splendore che circonda questo curioso corpo celeste, rendendo finalmente giustizia ai suoi anelli, che nulla hanno da invidiare a quelli, ben più noti, del vicino Saturno.

La nuova immagine di Urano cattura sia gli anelli esterni che quelli più interni, meno brillanti e dunque più difficili da osservare. Niente sfugge alla sensibilità del potente osservatorio spaziale: fa capolino timidamente anche l’elusivo anello Zeta, il più vicino al pianeta, dall’apparenza fioca e diffusa.

Contrariamente all’aspetto placido del pianeta nelle foto inviate dalla sonda Voyager 2 negli anni Ottanta, le osservazioni nell’infrarosso di Jwst mettono in evidenza l’atmosfera dinamica di Urano, dove spicca una calotta bianca di nubi in prossimità del polo nord. Il pianeta, che impiega ben 84 anni a completare un giro intorno al Sole, ruota intorno al proprio asse con un’insolita inclinazione di 98° rispetto alla sua orbita: in pratica, “rotolando”. Questo produce le stagioni più estreme di tutto il Sistema solare, lasciando uno dei poli esposto al Sole per 21 anni mentre l’altra metà del corpo celeste sprofonda nell’oscurità di un lungo inverno.

11350690
Immagine infrarossa di Urano circondato dai suoi anelli e da 14 delle sue 27 lune. In basso sono indicati i quattro filtri nel vicino infrarosso usati per realizzare l’immagine (cliccare per ingrandire). Crediti: Nasa, Esa, Csa, Stsci

La calotta di nubi polari ripresa da Jwst è una caratteristica stagionale, che si fa via via più intensa quando il polo nord di Urano inizia a puntare verso il Sole, mentre il pianeta si avvicina al solstizio (il prossimo è previsto nel 2028). In prossimità del bordo esterno della calotta, sono visibili anche una serie di piccole tempeste, causate da una combinazione di effetti stagionali e meteorologici.

Si distinguono anche un gran numero di lune, dalle cinque più grandi – Miranda, Ariel, Umbriel, Titania e Oberon – riconoscibili attraverso i sei picchi di diffrazione tipici delle sorgenti puntiformi ritratte da Jwst, fino alle più piccine – alcune delle quali nascoste tra gli anelli: Rosalind, Puck, Belinda, Desdemona, Cressida, Bianca, Portia, Juliet e Perdita.

Per realizzare un ritratto così dettagliato di un sistema altamente dinamico come questo – sia le lune che le tempeste e altri fenomeni atmosferici si spostano significativamente all’interno del campo di vista nell’arco di pochi minuti, poiché Urano ruota intorno a sé stesso in appena 17 ore – è stato necessario raccogliere e poi comporre una serie di esposizioni su tempi sia brevi che lunghi del pianeta e dei suoi immediati dintorni.

Guarda il servizio video su MediaInaf Tv:

youtube.com/embed/6kMWbTfmBto?…


Quasar sopra i 100 GeV per un telescopio “L” di Cta


11349280
11349282
Il telescopio Lst-1, con il suo specchio primario composito da 400 metri quadrati d’area di raccolta, si erge all’Osservatorio Roque de los Muchachos dell’Instituto de Astrofísica de Canarias (Iac), sull’isola di La Palma, alle Canarie (Spagna). Crediti: L. A. Antonelli/Inaf

Nome in codice Lst-1, inaugurato nel 2018, è il primo dei quattro telescopi di taglia L (Lst sta per large-sized telescope) del sito nord dell’osservatorio Cta, il Cherenkov Telescope Array. E ha appena firmato la sua prima scoperta, pubblicata il 15 dicembre scorso: la rivelazione dell’emissione ad altissime energie della sorgente OP 313, un quasar già osservato in precedenza a energie più basse, dunque già noto, mai però al di sopra dei 100 GeV. OP 313 diventa così il nucleo galattico attivo (Agn) più distante mai rilevato da un telescopio Cherenkov.

«Abbiamo ottenuto questo primo successo scientifico con un solo telescopio Lst, per di più ancora in fase di verifica», dice a Media Inaf Angelo Antonelli, direttore dell’Osservatorio astronomico Inaf di Roma e membro della collaborazione Cta. «Questo è solo il primo assaggio delle potenziali scoperte che farà il futuro osservatorio Cta osservando l’universo alle altissime energie: entro il 2027 i quattro telescopi Lst in costruzione alle Canarie osserveranno il cielo dell’emisfero nord raggiungendo una sensibilità mai ottenuta finora, mentre ne avremo almeno altri due al sito sud del Ctao».

Destinato a diventare il primo osservatorio per raggi gamma da terra (sfruttando l’effetto Cherenkov), nonché lo strumento più grande e sensibile al mondo per l’esplorazione dell’universo ad alta energia, Ctao utilizzerà una sessantina di telescopi di tre classi – large, medium e small, con diametro rispettivamente di 23, 11.5 e 4.3 metri – distribuiti in due siti: uno nell’emisfero settentrionale, sull’isola di La Palma (Canarie, Spagna) – dove sorge appunto Lst-1, l’autore di questa scoperta – e l’altro nell’emisfero australe, in Cile, nel deserto di Atacama.

11349284
Struttura schematica di un Agn, con il buco nero al centro, circondato da un disco di accrescimento e da un toro di gas e polveri, e due getti simmetrici di luce e particelle. Crediti: Aurore Simonnet, Sonoma State University

Il quasar OP 313 è un cosiddetto flat spectrum radio quasar (Fsrq), un tipo di Agn molto luminoso: vale a dire, il nucleo di una galassia nel quale alberga un buco nero supermassiccio che divora materiale dall’ambiente circostante, creando potenti dischi di accrescimento e getti di luce e particelle relativistiche. Prima di questa osservazione, solo nove quasar erano noti a energie molto elevate: OP 313 è ora il decimo. In generale, rispetto ad altri tipi di Agn, i quasar sono più difficili da rilevare a energie molto elevate. Questo non solo perché la luminosità del loro disco di accrescimento indebolisce l’emissione di raggi gamma, ma anche perché sono in generale più lontani. E più una sorgente è lontana, più difficile è osservarla ad altissime energie a causa della cosiddetta Ebl, l’extragalactic background light: la luce emessa complessivamente da tutti gli oggetti al di fuori della Via Lattea – un’emissione che si estende su più lunghezze d’onda, dal visibile all’infrarosso e all’ultravioletto. L’Ebl interagisce con i raggi gamma ad altissima energia, attenuando il loro flusso e rendendone così difficile l’osservazione.

OP 313, in particolare, si trova a un redshift di 0,997, vale a dire circa 8 miliardi di anni luce da noi: valore che lo rende l’Agn più distante e la seconda sorgente più distante mai rilevata ad altissime energie. Lst-1 lo h osservato tra il 10 e il 14 dicembre, dopo aver ricevuto un’allerta dallo strumento Lat del satellite Fermi della Nasa, che aveva rilevato un’attività insolitamente elevata nel regime dei raggi gamma a bassa energia, confermata anche in banda ottica da diversi strumenti. Le caratteristiche uniche del telescopio Lst-1 – con una sensibilità ottimizzata per l’intervallo di bassa energia del Ctao, tra 20 e 150 GeV, dove i raggi gamma sono meno influenzati dall’Ebl – hanno permesso alla collaborazione Lst di estendere per la prima volta lo studio di questa sorgente a decine di GeV. La collaborazione Lst continuerà a osservare questa fonte con Lst-1 per aumentare la quantità di dati raccolti e ottenere un’analisi più precisa, che consenta agli scienziati di migliorare la loro comprensione dell’Ebl, studiare i campi magnetici all’interno di questo tipo di sorgente e approfondire la fisica intergalattica fondamentale.


Sul Carso triestino, la più antica delle mappe celesti


11272881
11272883
Da sinistra, l’archeologo Federico Bernardini e l’astronomo Paolo Molaro al Castelliere di Rupinpiccolo, con quella che potrebbe essere la più antica mappa celeste mai scoperta. Crediti: Inaf

L’escursionista che si trovi a inerpicarsi lungo i sentieri che salgono da Rupinpiccolo, un piccolo villaggio nel Carso triestino, potrebbe a un certo punto imbattersi in un’imponente muraglia di grosse pietre: è un castelliere, un’antichissima struttura a scopo difensivo. Usato come fortificazione da un’epoca compresa fra il 1800 e il 1650 a.C. fino al 400 a.C., quello di Rupinpiccolo è uno fra i castellieri più importanti, nonché il primo portato alla luce. Due grosse pietre circolari – due spessi dischi di circa 50 cm di diametro e 30 cm di profondità – sono state trovate presso l’ingresso del Castelliere e hanno attratto l’attenzione degli archeologi. Una delle due, a parte il taglio circolare, non presenta ulteriori tracce di lavorazione, e si ritiene che rappresenti il Sole. L’altra potrebbe essere la più antica mappa celeste mai scoperta.

Ad accorgersene, e a riportare la suggestiva ipotesi in un articolo pubblicato il mese scorso su Astronomische Nachrichten, la più antica rivista d’astronomia ancora attiva al mondo, sono stati un astronomo dell’Inaf di Trieste, Paolo Molaro, e un archeologo dell’Università Ca’ Foscari di Venezia e dell’Ictp, Federico Bernardini.

«Circa due anni fa sono stato contattato da Federico Bernardini, che non conoscevo, dicendomi che aveva bisogno di un astronomo», ricorda Molaro a Media Inaf, «perché gli sembrava di aver identificato la costellazione dello Scorpione in una pietra del Carso. La mia prima reazione è stata di incredulità, dato che la parte meridionale dello Scorpione è appena sopra l’orizzonte alle nostre latitudini. Ma poi, scoprendo che la precessione degli equinozi lo alzava di circa 10-12 gradi e l’impressionante coincidenza con la costellazione, ho cominciato ad approfondire la questione… Così ho identificato Orione, le Pleiadi e, nel retro, Cassiopeia. Tutti i punti presenti tranne uno».

Per la precisione, i segni individuati da Molaro e Bernardini sono in tutto 29: 24 su un lato della pietra e 5 sull’altro. Sono distribuiti in modo irregolare, ma hanno tutti un’orientazione comune, come se fossero stati incisi dalla stessa persona. Una persona armata di un martello e di un rudimentale scalpello di metallo con una punta da 6-7 mm, suggeriscono le analisi dei due scienziati. Sottolineando che “un’arma del delitto” compatibile con quei 29 segni – uno strumento in bronzo – è stata trovata a qualche km di distanza, nel Castelliere di Elleri, ed è oggi conservata al Museo archeologico di Muggia.

Insomma, tutti gli indizi sembrano concordi: quei segni non sono opera della natura e non sono lì per caso. Li ha incisi qualcuno. E li ha incisi almeno 2400 anni fa. Quando ancora il Castelliere di Rupinpiccolo assolveva al suo compito di fortificazione. E quando ancora le stelle dello Scorpione rilucevano al di sopra dell’orizzonte, come ricostruito da Molaro. Una stella in particolare: Sargas. Chiamata anche Theta Scorpii, oggi Sargas non è più visibile dal Castelliere, essendo appunto troppo in basso rispetto all’orizzonte, ma lo era nel 1800 a.C., come ha calcolato lo stesso Molaro simulando con il programma Stellarium il cielo notturno dell’epoca sopra Rupinpiccolo. E lo era anche nel 400 a.C.

11272885
Modello digitale di elevazione della faccia principale (quella con 24 incisioni) della pietra analizzata nello studio (cliccare per ingrandire). Crediti: Bernardini et al., Documenta Praehistorica, 2022

Ma veniamo ai 29 segni. Tutti tranne uno sono sovrapponibili alle stelle dello Scorpione, di Orione, delle Pleiadi e probabilmente – considerando anche i 5 segni sul retro della pietra – di Cassiopeia. E si tratta di una sovrapposizione dalla significatività statistica assai elevata, specificano gli autori: il p-value è molto inferiore a 0.001. Detto altrimenti, è alquanto improbabile che la disposizione di quei segni sia puro frutto del caso. Non solo: le deviazioni dalle posizioni vere sono dell’ordine delle dimensioni dei segni, dimostrando una notevole cura nell’esecuzione.

Tutti tranne uno, dicevamo. Ma anche il 29esimo segno potrebbe essere lì di proposito. L’intruso potrebbe infatti rappresentare una supernova, propongono gli autori. O una cosiddetta “supernova fallita”. Dunque uno di quegli oggetti che gli astronomi chiamano transienti: a un certo punto fanno la loro comparsa, per poi sparire nuovamente. Se così fosse, suggeriscono Molaro e Bernardini, lì in quel punto del cielo oggi potrebbe esserci un buco nero. Dunque potrebbe valere la pena tentare di individuarne le tracce.

Le domande che lo studio lascia aperte sono tante e suggestive. Chi può averla incisa, quella pietra? Chi erano, in quel periodo, gli abitanti del Castelliere? Si sa che non conoscevano la scrittura, ma su di loro c’è ancora molto da scoprire. E infine: è dunque questa la più antica mappa celeste mai scoperta?

La rappresentazione del cielo notturno più antica a oggi conosciuta è probabilmente il disco di Nebra, un manufatto in bronzo con applicazioni in oro a indicare il Sole, la Luna e le Pleiadi: proveniente dalla Germania, è datato intorno al 1600 a.C. Ma non è una vera mappa: è più una rappresentazione simbolica. Per mappe “fedeli” occorre attendere il primo secolo a.C., epoca delle mappe derivate probabilmente dal catalogo di Hypparcos, risalente al 135 a.C.

Accettando una datazione protostorica del manufatto, il tracciato relativamente preciso degli asterismi sulla pietra di Rupinpiccolo sarebbe dunque di almeno qualche secolo precedente, concludono gli autori dello studio. E dimostrerebbe l’esistenza di un’inaspettata curiosità per l’astronomia già nell’Europa protostorica.

Per saperne di più:


Magnetismo terrestre: una storia scritta nell’argilla


11272401
11272403
Una delle trentadue tavole di argilla oggetto dello studio. In base all’interpretazione dell’incisione, si tratterebbe di un reperto risalente al regno di Nabucodonosor II, tra il 604 e il 562 a.C. L’oggetto è stato trafugato dal suo contesto originale prima di essere ritrovato e acquisito dal museo Slemani, in Iraq, dov’è tutt’ora custodito. Crediti: Slemani Museum

Non possiamo vederlo né sentirlo, eppure senza di esso la vita sul nostro pianeta non sarebbe possibile. Stiamo parlando del campo magnetico terrestre. Generato nel cuore della Terra da una turbolenta dinamo, il campo geomagnetico ci protegge dalle particelle cariche che il Sole lancia continuamente verso di noi con il vento solare. La sua intensità media oggi si aggira intorno ai 40-50 microtesla, l’unità di misura del campo magnetico. Ma il suo valore non è stato sempre questo. Nel corso dei secoli la dinamo terrestre si è infatti indebolita e rafforzata più volte, lasciando ogni volta tracce di questi cambiamenti nei minerali sensibili a tali fluttuazioni.

Un team di ricercatori guidati dall’Ucl Institute of Archaeology ha ora individuato alcune di queste tracce in tavole d’argilla risalenti a circa tremila anni fa, svelando la forza dell’antico campo magnetico del nostro pianeta. Nello studio, pubblicato questa settimana nei Proceedings of the National Academy of Sciences, Matthew Howland, archeologo della Wichita State University, negli Usa, e il suo team hanno analizzato 32 tavole di argilla provenienti da diversi siti archeologici dell’antica Mesopotamia, in particolare da un’area corrispondente al moderno Iraq, nelle quali è inciso il nome dei sovrani regnanti all’epoca, ottenendo importanti informazioni su una misteriosa anomalia nel campo magnetico terrestre.

Attraverso l’interpretazione delle iscrizioni, i ricercatori hanno prima datato i preziosi reperti, facendoli risalire a un periodo compreso tra il 1050 e il 550 avanti Cristo. Successivamente, utilizzando un magnetometro, il team ha misurato la forza del campo magnetico impresso nei grani di ossido di ferro presenti in ciascuna delle tavole, ottenendo una mappa dei cambiamenti nella forza del campo magnetico terrestre.

Così facendo, il team è stato in grado di confermare l’esistenza di una misteriosa anomalia nell’antico campo magnetico terrestre. È quella che gli addetti ai lavori chiamano “anomalia geomagnetica dell’età del ferro levantina”: un periodo, quest’ultimo, compreso tra il terzo e il primo millennio a.C. in cui, per ragioni non ancora chiare, il campo geomagnetico era insolitamente forte, con valori massimi che arrivavano anche a 80 microtesla, come nel caso del valore misurato in questo studio nella tavola B185, ritrovata ad Ashur, nell’odierno Iraq, e risalente all’epoca del re Sennachecherib.

«Spesso per avere un’idea della cronistoria dell’antica Mesopotamia dipendiamo da metodi come la datazione al radiocarbonio. Tuttavia, alcuni dei resti più comuni che abbiamo delle antiche culture di queste terre, come le tavole e la ceramiche, in genere non possono essere facilmente datati con questo metodo in quanto non contengono materiale organico», sottolinea Mark Altaweel, ricercatore all’Ucl Institute of Archaeology e co-autore dello studio. «Il nostro lavoro contribuisce ora a creare un’importante base di riferimento per la datazione di materiali archeologici, che permette di beneficiare della datazione assoluta con l’archeomagnetismo».

Nell’indagine, il team ha inoltre scoperto che c’è stato un periodo in cui il campo magnetico terrestre è cambiato drasticamente in tempi relativamente brevi. In cinque tavole risalenti al regno di Nabucodonosor II sono stati misurati valori del campo magnetico che in breve tempo sono passati da 69 a 85 microtesla, aggiungendo così dati a sostegno dell’ipotesi che rapidi picchi d’intensità sono possibili.

«Il campo geomagnetico è uno dei fenomeni più enigmatici nelle scienze della Terra», ricorda Lisa Tauxe, geofisica alla University of California San Diego, tra i firmatari dello studio. «I resti archeologici ben datati delle ricche culture mesopotamiche, in particolare le tavole d’argilla con incisi i nomi di re specifici, forniscono un’opportunità senza precedenti per studiare i cambiamenti nell’intensità del campo magnetico con un’elevata risoluzione temporale, monitorando i cambiamenti avvenuti nel corso di diversi decenni, o anche meno».

Mappando i cambiamenti nel campo magnetico terrestre nel tempo, questi dati offrono agli archeologi un nuovo strumento per aiutare a datare alcuni antichi manufatti, concludono i ricercatori. Inoltre, la datazione archeomagnetica può aiutare gli storici a individuare con maggiore precisione i regni di alcuni degli antichi re di queste terre.

Per saperne di più:


Esopianeti glaciali, ma con oceani e geyser


11269360
11269362
Illustrazione artistica di un’eruzione crio-vulcanica sulla luna ghiacciata di Giove, Europa. Crediti: Justice Blaine Wainwright

Potrebbero esserci grandi quantità di acqua liquida nascosta sotto la superficie ghiacciata di diciassette pianeti extrasolari presi in esame da un gruppo di ricerca guidato dalla Nasa. Pianeti che potrebbero quindi essere – o essere stati – potenzialmente abitabili. Lo studio che riporta la scoperta, pubblicato lo scorso ottobre su The Astrophysical Journal, prende anche in esame i fenomeni criovulcanici di questi esopianeti, in grado di produrre veri e propri geyser capaci di emergere dalla crosta ghiacciata del pianeta.

Generalmente la ricerca di vita nell’universo si concentra sugli esopianeti che si trovano nella zona abitabile di una stella, a una distanza in cui le temperature permettono all’acqua liquida di persistere sulla superficie ghiacciata. Tuttavia, è possibile che anche un esopianeta distante dalla sua stella, e quindi più freddo, sia in grado di conservare acqua liquida grazie a meccanismi di riscaldamento interno.

«Le nostre analisi prevedono che questi diciassette mondi possano avere superfici coperte di ghiaccio ma con un riscaldamento interno sufficiente a conservare oceani liquidi più profondi, dovuto al decadimento di elementi radioattivi e alle forze mareali delle loro stelle ospiti», dice Lynnae Quick del Goddard Space Flight Center della Nasa, prima autrice dello studio. «Proprio grazie al loro riscaldamento interno, tutti i pianeti del nostro studio sembrano in grado di produrre eruzioni criovulcaniche sotto forma di pennacchi simili a geyser».

11269364
Geyser emergenti dalla crosta ghiacciata nel polo sud di Encelado. La sonda Cassini della Nasa ha catturato queste immagini nel 2009. Crediti: Nasa/Jpl-Caltech/Space Science Institute

È analogo il caso di Europa ed Encelado, rispettivamente lune di Giove e Saturno che presentano oceani liquidi sotto la superficie proprio perché riscaldati dalle maree dovute all’attrazione gravitazionale del pianeta attorno al quale ruotano e delle altre lune vicine.

I diciassette esopianeti presi in considerazione dal gruppo di ricerca hanno all’incirca le dimensioni della Terra ma una densità inferiore, fatto che suggerisce la presenza di quantità sostanziali di ghiaccio e acqua piuttosto che di rocce. Sebbene l’esatta composizione dei pianeti rimanga sconosciuta, lo studio ha migliorato le stime della temperatura superficiale e fornito, sempre per ogni esopianeta, una misura del riscaldamento totale calcolato in base allo spessore stimato dello strato di ghiaccio superficiale, variabile dai circa 58 metri per Proxima Centauri b ai 38,6 chilometri per Moa 007 Blg 192Lb.

11269366
Illustrazione artistica del pianeta Proxima b in orbita intorno alla stella Proxima Centauri, la Stella più vicina al Sistema solare. Crediti: Eso/M. Kornmesser.

«Poiché i nostri modelli prevedono che si possano trovare oceani relativamente vicini alle superfici di Proxima Centauri b e Lhs 1140 b, e che il loro tasso di attività geyser potrebbe superare quello di Europa di centinaia o migliaia di volte, è molto probabile che i telescopi possano rilevare in modo diretto l’attività geologica di questi pianeti», sottolinea Quick riferendosi a misure da compiere durante i transiti.

Per gli esopianeti che invece, rispetto al nostro punto di osservazione, non passano davanti alla loro stella, l’attività dei geyser potrebbe comunque essere rilevata da telescopi in grado di misurare la luce riflessa dalle particelle ghiacciate eiettate dai geyser, in grado di far apparire questi pianti molto luminosi.

L’analisi spettroscopica del vapore d’acqua emesso dai pianeti potrebbe inoltre rivelare la presenza di altri elementi o composti, permettendo così di valutarne il potenziale di abitabilità.

Per saperne di più:


Che tempo spaziale fa? Ce lo dice “Meteo Spazio”


11251246
11251248
Crediti: Rai

Ha preso il via martedì 19 dicembre, alle 17.30 su Rai Gulp, “Meteo Spazio”, il programma televisivo che spiega ai ragazzi che tempo fa nel Sistema solare. Se vi siete persi la prima puntata, non preoccupatevi: la replica andrà in onda sabato alle ore 17.30 e, comunque, tutte le puntate di questa nuova stagione saranno sempre disponibili sulla piattaforma online RaiPlay. Quest’anno il programma vede per la prima volta la collaborazione dell’Istituto nazionale di astrofisica. Il conduttore-comandante spaziale Riccardo Cresci, a bordo della sua astronave virtuale, racconterà cosa succede sul Sole e sui pianeti del nostro sistema planetario, parlando con linguaggio semplice e chiaro di temi legati all’astronomia, al nostro pianeta, al Sistema solare e alle più recenti novità dal mondo delle scienze spaziali. A partire dalla prossima puntata, in programma il 9 gennaio del nuovo anno, ci sarà un approfondimento a cura del progetto dell’Inaf “Sorvegliati Spaziali”, che si occupa di difesa planetaria e dello studio di tutti quegli eventi che possono avere effetti sul nostro pianeta: comete e asteroidi, rifiuti spaziali, meteore e meteoriti, oltre, naturalmente, al meteo spaziale. Approfondimento con elaborazioni provenienti da osservazioni con strumenti da terra e dallo spazio dal gruppo di fisica solare della sede Inaf di Catania.

«Io e altri componenti del team parteciperemo al programma Rai “Meteo spazio” collegandoci in ogni puntata con l’astronave Star Gulp per parlare di varie tematiche legate alla difesa planetaria», dice a Media Inaf Daria Guidetti, responsabile del progetto “Sorvegliati spaziali”, «ma anche per raccontare quello che facciamo in Italia in merito. Inoltre forniremo un bollettino solare grazie alla collaborazione con l’Osservatorio astrofisico di Catania. Sono felice che “Sorvegliati spaziali” sbarchi anche in tv e in particolare su un canale per ragazzini. La divulgazione può contribuire a creare una cultura e una mentalità scientifica fin dalla giovane età e quindi a preparare i ragazzini di oggi a essere cittadini più informati e critici nel futuro. Ben venga quindi questa nuova collaborazione televisiva».

Tutti possono partecipare a questo viaggio interplanetario con la rinnovata astronave Star Gulp, che ci accompagnerà alla scoperta del Sistema solare e delle molteplici interazioni che la nostra Terra sperimenta continuamente con l’ambiente spaziale, con l’obiettivo di stimolare la curiosità dei ragazzi attraverso immagini suggestive e collegamenti con giovani scienziati e renderli più consapevoli della bellezza, dell’unicità ma anche della delicatezza dell’ambiente in cui viviamo.

In ogni puntata di “Meteo Spazio”, che tornerà sugli schermi ogni martedì alle 15:30 e in replica il sabato alle 17:30 a partire dal 9 gennaio 2024, si potrà interagire tramite social via Facebook e Instagram. L’archivio di tutte le puntate è sempre disponibile su RaiPlay.


Gallina in fuga nella costellazione del Centauro


11245067
11245069
La nebulosa Running Chicken (cliccare per ingrandire) comprende diverse nubi, tutte visibili in questa vasta immagine del Vlt Survey Telescope (Vst), ospitato presso il sito Paranal dell’Eso. Questa immagine da 1,5 miliardi di pixel copre un’area del cielo pari a circa 25 lune piene. Le nubi che appaiono come vaporosi pennacchi rosa sono piene di gas e polvere, illuminate dalle giovani e calde stelle al loro interno. Crediti: Team Eso/Vphas+

Mentre molte tradizioni festive prevedono banchetti a base di tacchino, spaghetti di soba, latkes o Pan de Pascua, quest’anno l’Osservatorio europeo australe (Eso) vi offre un festevole pollo. La nebulosa chiamata in inglese “Gallina in corsa” (o “Pollo in corsa” se preferite, in inglese è Running Chicken, mentre il nome italiano è il più prosaico nebulosa di Lambda Centauri), che ospita giovani stelle in divenire, viene rivelata con dettagli spettacolari in questa immagine da 1,5 miliardi di pixel catturata dal Vst (Vlt Survey Telescope), un telescopio dell’Istituto nazionale di astrofisica (Inaf) ospitato presso il sito dell’Eso al Paranal, in Cile.

Questo ampio vivaio stellare si trova nella costellazione del Centauro, a circa 6500 anni luce dalla Terra. Stelle giovani all’interno della nebulosa emettono intense radiazioni che fanno brillare l’idrogeno gassoso circostante con sfumature rosa.

La nebulosa “Running Chicken” in realtà è composta da diverse regioni, tutte visibili in questa vasta immagine che si estende su un’area di cielo pari a circa 25 lune piene. La regione più luminosa all’interno della nebulosa è chiamata Ic 2948, che alcune persone vedono come la testa del pollo, mentre altri la interpretano come la coda. I sottili contorni pastello sono eterei pennacchi di gas e polvere. Verso il centro dell’immagine, contrassegnato da una struttura luminosa, verticale, quasi a forma di pilastro, c’è Ic 2944. Lo scintillio più luminoso in questa particolare regione indica Lambda Centauri, una stella visibile a occhio nudo, molto più vicina a noi della nebulosa.

Ci sono invece molte giovani stelle all’interno di Ic 2948 e Ic 2944 ma, sebbene siano luminose, sicuramente non sono felici: emettendo grandi quantità di radiazioni, distruggono il proprio ambiente rendendolo proprio a forma, beh.., di pollo. Alcune regioni della nebulosa, conosciute come globuli di Bok, possono resistere al feroce bombardamento della radiazione ultravioletta che pervade tutta la regione. Ingrandendo l’immagine, le si possono vedere: piccole, scure e dense sacche di polvere e gas sparse sulla nebulosa.

Altre regioni qui raffigurate includono: in alto a destra, Gum 39 e 40; in basso a destra, Gum 41. Oltre alle nebulose, si vedono innumerevoli stelle arancioni, bianche e blu, come fuochi d’artificio nel cielo. Nel complesso, in questa immagine ci sono più meraviglie di quante se ne possano descrivere: curiosare sull’ingrandimento o muovervi nell’immagine sarà una vera delizia per i vostri occhi.

L’immagine è un grande mosaico composto da centinaia di fotogrammi separati, accuratamente ricuciti insieme. Le singole immagini sono state scattate attraverso filtri che lasciano passare luce di colori diversi e che sono poi state combinate nel risultato finale. Le osservazioni sono state condotte con la fotocamera a grande campo OmegaCam installata sul Vst, nel deserto di Atacama, in Cile: luogo ideale da cui mappare il cielo australe in luce visibile. I dati necessari per realizzare questo mosaico sono stati ottenuti nell’ambito della survey Vphas+ (Vst Photometric Hα Survey of the Southern Galactic Plane and Bulge), un progetto volto a comprendere meglio il ciclo di vita delle stelle.

Fonte: comunicato stampa Eso

La nebulosa di Lambda Centauri a 1.5 miliardi di pixel:

youtube.com/embed/2vULwpISvwU?…


Universi, è uscito il secondo numero della rivista


11228060
11228062
Copertina nel numero di dicembre di Universi

Nel mese di dicembre è uscito il nuovo numero del semestrale Universi. In questo secondo numero, la parola – anzi, la penna – è passata nelle mani dei ricercatori e delle ricercatrici dell’Istituto nazionale di astrofisica, che hanno preparato cinque approfondimenti sui temi delle ricerche scientifiche in cui sono direttamente coinvolti: galassie e cosmologia; stelle, popolazioni stellari e mezzo interstellare; Sole e Sistema solare; astrofisica relativistica e particelle; tecnologie avanzate a strumentazione.

Il primo degli argomenti affrontati è la storia della ionizzazione del mezzo intergalattico nelle prime fasi dell’evoluzione dell’universo, raccontata da Sara Mascia e Laura Pentericci. Grazie al telescopio spaziale James Webb e all’aiuto dell’ammasso di Pandora che, come una lente, ha amplificato la luce proveniente dalle galassie ancora più distanti, per la prima volta è stato possibile stimare la frazione di luce da esse rilasciata in grado di ionizzare l’universo. Questi nuovi dati sembrano indicare che la maggior parte delle galassie osservate nelle prime fasi evolutive contribuiscono alla ionizzazione in modo sostanziale.

Il secondo argomento affrontato nella rivista – grazie a Riccardo Spinelli, Francesco Borsa e Giancarlo Ghirlanda – è il tema affascinante ed estremamente complesso dell’origine della vita sugli esopianeti che, scrivono gli autori, deve necessariamente tenere conto anche dello studio della componente ultravioletta della radiazione incidente sul pianeta, poiché favorisce la formazione di molecole fondamentali per la vita. La ricerca della vita nei pianeti extra-solari, come ricorda il presidente Marco Tavani nel suo editoriale, è una tematica di grande interesse che vede Inaf proiettato nei prossimi 10-20 anni con studi che utilizzeranno i telescopi di terra e spaziali attuali e del futuro.

L’impatto di una sonda umana per deviare la traiettoria dell’asteroide Dimorphos è l’incredibile risultato della sonda della Nasa Dart e, in questo numero di Universi, Elisabetta Dotto e il team di LiciaCube descrivono in modo appassionante l’evento del 26 settembre 2022, documentato dal nostro nano-satellite che ha seguito le fasi di avvicinamento e impatto.

A un anno di distanza dalla rivelazione del più brillante lampo nei raggi gamma di tutti i tempi, con più di 50 articoli pubblicati su questo evento eccezionale che potrebbe rappresentare la Stele di Rosetta dei gamma-ray burst, Universi approfondisce il Boat grazie a Ruben Salvaterra, che ripercorre la storia della scoperta, la campagna osservativa e le caratteristiche dell’evento.

Completa la cinquina degli approfondimenti il contributo sul “percorso” dei dati scientifici della missione spaziale Euclid lanciata dall’Esa il 1 luglio di quest’anno, preparato da Paola Maria Battaglia, Fabio Pasian e Andrea Zacchei. La missione, che studierà l’universo plasmato dalla presenza della materia oscura e della energia oscura, ha una grande rilevanza scientifica e Inaf ha un ruolo fondamentale nel trattamento e sfruttamento scientifico dei dati.

A Euclid è dedicata anche una delle due interviste del numero, quella ad Anna Maria Di Giorgio, Responsabile delle attività italiane per la missione Euclid finanziate dall’Asi, sulle prime cinque immagini a colori di Euclid, rilasciate dall’Agenzia spaziale europea il 7 novembre scorso. La seconda intervista è dedicata alla mostra dell’Inaf “Macchine del Tempo”, che potete visitare al Palazzo delle Esposizioni di Roma fino a marzo 2024. Cosa aspettarsi dalla mostra ve lo spiega la curatrice, Caterina Boccato.

Nella rivista troverete anche un servizio fotografico ai laboratori di Palermo, numerose rubriche e una infografica dedicata a un progetto che appassiona tutti noi, aiutandoci in una delle cacce al tesoro più avvincenti di sempre: quella ai meteoriti. Si tratta di Prisma, il progetto di ricerca e di citizen science promosso e coordinato dall’Inaf, descritto in coda agli articoli dal bravissimo Daniele Gardiol.

Infine, dal sito della rivista è ora possibile abbonarsi alla versione cartacea… almeno fino a esaurimento delle nostre scorte. Per chi invece preferisce il digitale, sul sito sono presenti tutti gli articoli.

A tutti, buona lettura.


Concerto di dodicimila stelle per Gaia


11201482
11201484
Gli scienziati usano la parallasse per calcolare la distanza delle stelle. Crediti: Esa

Probabilmente non c’è nessuno tra noi che, almeno una volta, non abbia guardato un cielo stellato. Ma quanti possono dire di aver ascoltato le stelle? Gli innumerevoli punti luminosi nel cielo notturno, in realtà, non sono tutti stelle: alcuni possono essere pianeti, altri addirittura intere galassie situate a miliardi di anni luce di distanza. Per distinguerli, molto dipende dalla loro distanza dalla Terra: ecco perché misurare l’esatta distanza degli oggetti celesti è un obiettivo fondamentale per gli astronomi e una delle sfide più grandi da affrontare.

È con questo obiettivo che, esattamente dieci anni fa, l’Agenzia spaziale europea (Esa) ha lanciato la missione Gaia, i cui dati raccolti finora hanno già aperto una finestra sull’universo vicino, fornendo misure astronomiche – posizione, distanza dalla Terra e movimento – su quasi due miliardi di stelle. Per stimare con un metodo alternativo quanto le stelle siano effettivamente lontane dalla Terra e per verificare le informazioni fornite da Gaia, un team di astronomi, fra i quali alcuni dell’Istituto nazionale di astrofisica, ha ora analizzato le frequenze delle “oscillazioni stellari“.

Alla guida dello studio, i cui risultati sono stati pubblicati su Astronomy & Astrophysics, c’è il gruppo di ricerca diretto da Richard Anderson del Politecnico federale di Losanna (Epfl), in Svizzera, che sta cercando di misurare l’attuale espansione dell’universo utilizzando il satellite Gaia. «Rispetto al suo predecessore, il satellite Hipparcos, Gaia ha aumentato di un fattore 10mila – grazie a un enorme guadagno in precisione – il numero di stelle di cui possiamo misurare la parallasse», dice Anderson. Le parallassi stellari sono usate dagli scienziati per calcolare la distanza delle stelle: questo metodo prevede la misurazione degli angoli, appunto, di parallasse con l’aiuto del satellite, attraverso una forma di triangolazione tra la posizione di Gaia nello spazio, il Sole e la stella osservata.

Più una stella è lontana, però, più la misurazione è difficile, perché la parallasse diminuisce con l’aumentare della distanza. Nonostante il clamoroso successo della missione Gaia, la misurazione della parallasse è dunque ancora una questione complessa, e rimangono piccoli effetti sistematici che devono essere controllati e corretti affinché le parallassi fornite dal satellite risultino esatte.

Su questo tipo di correzioni e verifiche stanno, appunto, lavorando i ricercatori dell’Epfl, dell’Università di Bologna e dell’Inaf, attraverso calcoli eseguiti su oltre 12mila giganti rosse oscillanti – il campione più grande e le misurazioni più accurate ottenute fino ad oggi. Il team ha utilizzato l’astrosismologia – ovvero lo studio delle pulsazioni e degli spettri stellari – per misurare con precisione la distanza di migliaia di stelle, facendo poi il confronto con i dati forniti da Gaia. «Abbiamo misurato i bias di Gaia confrontando le parallassi stellari riportate dal satellite con quelle che abbiamo determinato attraverso l’astrosismologia», spiega la prima autrice dello studio, Saniya Khan, dell’Epfl.

11201486
Rappresentazione artistica che illustra come le singole onde sonore si propagano all’interno di stelle come il Sole: alcune si propagano lungo gli strati superficiali, mentre altre attraversano il centro della stella. Crediti: Esa

Come i geologi indagano la struttura della Terra utilizzando i terremoti, gli astronomi utilizzano l’astrosismologia per studiare i terremoti stellari, o starquakes: particolari oscillazioni delle stelle che consentono di determinare informazioni sulle loro proprietà fisiche e stimarne la grandezza, il grado di evoluzione e l’età di un corpo celeste. Queste oscillazioni vengono misurate come minuscole variazioni dell’intensità luminosa e tradotte in onde sonore, dando origine a uno spettro di frequenza di queste oscillazioni. In pratica, è un po’ come ascoltare una vera e propria “musica stellare”. «Lo spettro di frequenza ci permette di determinare la distanza di una stella, consentendoci di ottenere parallassi astrosismiche», continua Khan. «Nel nostro studio, abbiamo ascoltato la “musica” di un vasto numero di stelle, alcune delle quali distanti 15mila anni luce!».

Per trasformare i suoni in misure di distanza, il team è partito da una considerazione: la velocità con cui le onde sonore si propagano nello spazio dipende dalla temperatura e dalla densità dell’interno della stella. «Analizzando lo spettro di frequenza delle oscillazioni stellari, possiamo stimare le dimensioni di una stella, un po’ come si può intuire la dimensione di uno strumento musicale dal tipo di suono che emette. Si pensi alla differenza di tonalità tra un violino e un violoncello», spiega uno dei coautori dello studio, Andrea Miglio dell’Università di Bologna.

11201488
Mappa del cielo in coordinate galattiche. Sono mostrate la posizione e la copertura risultanti dal crossmatch tra i vari campi astrosismici considerati in questo studio. Crediti: S. Kahn et al., A&A, 2023 (l’immagine di sfondo proviene da Esa/Gaia/Dpac)

Dopo aver calcolato le dimensioni di una stella, gli astronomi ne determinano la luminosità e la confrontano con quella percepita qui sulla Terra. Associano poi queste informazioni alle letture della temperatura e della composizione chimica ottenute dalla spettroscopia, e sottopongono questi dati a sofisticate analisi per calcolare la distanza del corpo celeste. Distanza che poi confrontano con quella riportate da Gaia, per verificare l’accuratezza delle misure del satellite. «L’astrosismologia è l’unico modo per verificare l’accuratezza della parallasse di Gaia nell’intero cielo – ovvero per le stelle a bassa e ad alta intensità», osserva Anderson.

Il futuro di questo campo di ricerca è molto promettente. «Le missioni spaziali come Tess e Plato, progettate per l’individuazione e il rilevamento di esopianeti, impiegheranno l’astrosismologia e forniranno i dati necessari per regioni sempre più ampie del cielo», conclude Khan. «Metodi simili al nostro avranno un ruolo cruciale nel migliorare le misure di parallasse di Gaia e ci aiuteranno a individuare con più precisione il nostro posto nell’universo».

Per saperne di più:


Il superammasso Westerlund 1 ai raggi X


11199017
11199019
Due immagini Rgb di Westerlund 1: in alto, ai raggi X ottenuta dalle osservazioni di Chandra/Acis; in basso, in infrarosso ottenuta con l’Hubble Space Telescope

Gli ammassi stellari sono oggetti di grande interesse nello studio di vari aspetti dell’evoluzione stellare e, nel caso degli ammassi più giovani, per la ricerca sui prodotti del processo di formazione stellare e planetaria. La nostra galassia ospita una ricca popolazione di ammassi stellari giovani, i quali tipicamente presentano una massa di alcune centinaia di masse solari. Nell’intorno solare, ad esempio, si trovano solo pochi ammassi stellari giovani con una massa di alcune migliaia di masse solari, come il Trapezio nella Nebulosa di Orione o Ngc 2264 nella Nebulosa Cono.

Quali sono gli ammassi stellari giovani più massicci nella Via Lattea? Attualmente, la nostra galassia ospita davvero pochi ammassi con una massa superiore ad alcune decine di migliaia di masse solari, come ad esempio gli ammassi stellari Westerlund 1 e 2, Ngc 3603, o l’Arches e il Quintuplet Cluster – questi ultimi situati vicino al centro della Via Lattea. Questi rari “ammassi stellari supermassicci” costituiscono, in realtà, oggetti di notevole interesse scientifico. Essi infatti rappresentano un ambiente di formazione stellare estremo, caratterizzato da intensi campi di radiazione ultravioletta e raggi X, nonché da particelle relativistiche, prodotti da ricche e compatte popolazioni di stelle di grande massa. Questa radiazione influisce su tutti gli aspetti del processo di formazione stellare e planetaria, che quindi si svolge negli ambienti supermassicci in modo diverso rispetto agli ambienti di piccola massa. Inoltre, gli ammassi stellari supermassicci sono comunemente osservati nelle galassie che attraversano epoche di intensa formazione stellare, come le galassie interagenti e quelle dell’universo primordiale. Perfino nella Via Lattea, durante i principali episodi di fusione con le galassie nane circostanti, la formazione stellare in ambienti supermassicci era più frequente rispetto alla situazione attuale.

L’ammasso stellare giovane più massiccio nella Via Lattea è proprio Westerlund 1, con una massa attuale superiore alle centinaia di migliaia di masse solari, una distanza di circa 14mila anni luce da noi (è l’ammasso supermassiccio più vicino al Sole) e un’età inferiore ai 10 milioni di anni. Grazie a queste caratteristiche, Westerlund 1 rappresenta l’oggetto ideale per studiare i risultati del processo di formazione stellare e planetaria in ambienti di formazione stellare supermassiccia. Inoltre, Westerlund 1 ospita la più ricca popolazione di stelle di grande massa mai osservata in un ammasso stellare della Via Lattea, e alcuni oggetti compatti generati dall’esplosione delle stelle più massicce formate nell’ammasso. Questo ha motivato il progetto Ewocs (Extended Westerlund 1 and 2 Open Clusters Survey), guidato dall’astrofisico Mario Giuseppe Guarcello dell’Inaf di Palermo e mirato a studiare i due superammassi stellari Westerlund 1 e 2.

11199021
Alcuni dei ricercatori dell’Inaf – Osservatorio astronomico di Palermo che hanno preso parte al progetto. Da sinistra: Francesco Damiani, Sara Bonito, Giusi Micela, Daniele Locci, Mario Guarcello, Loredana Prisinzano e Salvatore Sciortino. Crediti: Inaf Oa Palermo

«Ammassi stellari supermassicci come Westerlund 1 e 2», spiega Guarcello a Media Inaf, «permettono di studiare le condizioni più estreme in cui stelle e, forse, anche i pianeti, si formano. Si tratta di ambienti dominati da ricche e dense popolazioni di stelle massicce, che inondano l’ambiente circostante di radiazione ultravioletta, raggi X, e particelle ad altissima energia. Il progetto Ewocs – grazie alle osservazioni condotte con il James Webb Space Telescope e con Chandra, a dati di archivio, ed a un’estesa collaborazione che conta più di 50 ricercatori e ricercatrici esperti in campi quali la formazione stellare, i dischi protoplanetari, le stelle massicce, le nane brune e gli oggetti compatti – mira proprio a comprendere nel dettaglio come il processo di formazione stellare e planetaria avvenga in ambienti così estremi, e quale sia il ruolo degli ambienti di formazione stellare supermassicci nell’evoluzione di una galassia come la nostra».

Il progetto si basa principalmente su osservazioni in infrarosso ottenute, appunto, da Jwst e su una lunga osservazione ai raggi X (311 ore) di Westerlund 1 ottenuta con lo strumento Acis a bordo di Chandra. L’osservazione ai raggi X è necessaria per selezionare le stelle giovani associate all’ammasso stellare, grazie all’elevato livello di emissione di raggi X tipico delle stelle di pochi milioni di anni di età, e per studiare i processi ad alta energia che avvengono in queste stelle, nelle stelle di grande massa, negli oggetti compatti e all’interno dell’ammasso. Il primo studio prodotto dal progetto Ewocs, guidato da Guarcello e già accettato per la pubblicazione su Astronomy & Astrophysics, presenta l’analisi delle osservazioni ai raggi X di Westerlund 1 e l’identificazione di 5963 sorgenti di raggi X, per lo più stelle dell’ammasso. La sorgente più luminosa ai raggi X in Westerlund 1 è la pulsar Cxo J164710.20-455217, una stella a neutroni generata da una supernova avvenuta circa 700mila anni fa. La pulsar è seguita da alcune stelle di grande massa e stelle di Wolf-Rayet in sistemi binari, dove i raggi X sono prodotti principalmente nella regione in cui i venti delle stelle massicce collidono a centinaia di km/s, riscaldandosi a milioni di gradi. Il catalogo sarà utilizzato nella maggior parte degli studi futuri associati al progetto Ewocs.

Per saperne di più:

  • Leggi su Astronomy & Astrophysics l’articolo “EWOCS-I: The catalog of X-ray sources in Westerlund 1 from the Extended Westerlund 1 and 2 Open Clusters Survey”, di M. G. Guarcello, E. Flaccomio, J. F. Albacete-Colombo, V. Almendros-Abad, K. Anastasopoulou, M. Andersen, C. Argiroffi, A. Bayo, E. S. Bartlett, N. Bastian, M. De Becker, W. Best, R. Bonito, A. Borghese, D. Calzetti, R. Castellanos, C. Cecchi-Pestellini, S. Clark, C. J. Clarke, F. Coti Zelati, F. Damiani, J. J. Drake, M. Gennaro, A. Ginsburg, E. K. Grebel, J. L. Hora, G. L. Israel, G. Lawrence, D. Locci, M. Mapelli, J. R. Martinez-Galarza, G. Micela, M. Miceli, E. Moraux, K. Muzic, F. Najarro, I. Negueruela, A. Nota, C. Pallanca, L. Prisinzano, B. Ritchie, M. Robberto, T. Rom, E. Sabbi, A. Scholz, S. Sciortino, C. Trigilio, G. Umana, A. Winter, N. J. Wright e P. Zeidler


Plasma bollente tutt’attorno alla Via Lattea


11181610
11181612
L’intero emisfero galattico occidentale osservato dal telescopio eRosita nei raggi X molli. Tracciano l’emissione dovuta all’ossigeno altamente ionizzato, rivela la distribuzione del gas caldo intorno alla Via Lattea. Crediti: J. Sanders, Mpe/eRosita

Una nuova mappa a tutto cielo prodotta dal telescopio eRosita mostra i raggi X emessi dal plasma caldo presente all’interno e tutt’attorno alla Via Lattea. Analizzando questi dati, un team del Max Planck Institute for Extraterrestrial Physics (Mpe) tedesco, guidato da Nicola Locatelli dell’Istituto nazionale di astrofisica, ha scoperto che il gas – molto caldo, circa un milione di gradi, e ionizzato – mostra una distribuzione a disco simile a quella del disco stellare, ed è probabilmente parte di un alone sferico molto più grande. Il risultato è stato pubblicato su Astronomy & Astrophysics.

Per comprendere la portata di questa scoperta, occorre anzitutto ricordare che le stelle si formano dal gas in un processo senza fine – processo che si nutre sia di materiale cosmico incontaminato sia di gas riciclato da precedenti generazioni di stelle. Le galassie a spirale come la Via Lattea, tuttavia, hanno troppe stelle e troppo poco gas visibile per sostenere a lungo l’attuale livello di formazione stellare. Pertanto, gli astronomi ipotizzano l’esistenza di una grande riserva di gas – estesa forse per un diametro pari a dieci volte quello del disco stellare – distribuita tutt’attorno alla nostra galassia.

«Le galassie a spirale sono caratterizzate da una distribuzione di stelle su un piano piuttosto sottile, a forma di disco», spiega Locatelli a Media Inaf. «Nello spazio tra una stella e l’altra è presente gas a temperature anche molto diverse, un ambiente chiamato mezzo interstellare. Similmente, ma in volume mille volte maggiore, una massa almeno altrettanto grande di gas è distribuita al di fuori dal disco stellare. Tale gas, comunque attratto dalla gravità della galassia stessa, è chiamato “mezzo circumgalattico”, e la maggior parte della sua massa è finora sfuggita alle osservazioni dei telescopi in quasi tutte le bande di luce. Ne consegue che la sua precisa distribuzione geometrica nello spazio attorno alla nostra galassia non fosse ben nota, fino a oggi».

I dettagli sulla forma, le dimensioni e la quantità di materia in questo cosiddetto mezzo circumgalattico sono infatti ancora oggetto di dibattito. Ciò che è chiaro è che finora è sfuggito alla rilevazione con telescopi ottici, infrarossi o radio: pertanto, la maggior parte del gas nel mezzo circumgalattico deve essere molto caldo e a densità molto bassa, meno di mille particelle per metro cubo. A causa di queste alte temperature, il gas dovrebbe emettere raggi X, ma a causa della sua bassa densità si tratta di un’emissione debole. Più debole di quanto sia stato possibile osservare finora.

Una caratteristica distintiva che conferma l’esistenza di un gas così “sottile” e caldo è la presenza di righe d’emissione, osservabili nei raggi X, di atomi d’ossigeno altamente ionizzati: per esempio, la riga atomica “O VIII”. Il telescopio eRosita, costruito interamente presso l’Mpe, ha effettuato la prima scansione del cielo alla ricerca di emissioni di raggi X “molli” (quelli con lunghezza d’onda superiore a 0,1 nm). La mappa risultante dell’intero emisfero galattico occidentale è stata generata e convalidata all’Mpe. «La mappa non solo rivela ovunque la presenza di gas caldo intorno a noi, ma fornisce anche dettagli sufficienti per esplorare la sua geometria a un livello di dettaglio senza precedenti», dice uno degli autori dello studio, Xueying Zheng dell’Mpe, il cui lavoro fornisce la base per l’analisi della distribuzione del plasma caldo.

11181614
Distribuzione del gas caldo attorno alla Via Lattea, con le componenti principali identificate: una struttura a disco per il gas caldo al centro e una componente più grande che si estende nell’alone galattico. A titolo di confronto, viene mostrata anche la dimensione del disco stellare spesso. Crediti: Mpe

«Vediamo l’emissione di O VIII da tutte le direzioni nel cielo in raggi X molli», sottolinea Nicola Locatelli, che ha guidato l’analisi dei dati di eRosita all’Mpe. «Questo conferma la natura diffusa del gas caldo, e ora possiamo anche sondare la sua distribuzione intorno a noi».

In particolare, il team dell’Mpe ha scoperto che la geometria del gas può essere descritta da due componenti: un alone molto grande, più o meno sferico, e una componente più vicina che assomiglia al disco stellare. L’alone caldo è circa quattro volte più grande (oltre 300mila anni luce) della dimensione ottica della Via Lattea, mentre la componente vicina si estende fino alle dimensioni del disco spesso (circa 23mila anni luce, con un’altezza di tremila anni luce). A causa del suo enorme volume, l’alone caldo comprende la maggior parte della massa, ma la componente discoidale più vicina produce la maggior parte dei fotoni osservati da eRosita, essendo circa dieci volte più luminosa dell’alone.

In linea di principio, l’alta temperatura del gas può essere spiegata dall’energia iniettata nel mezzo circumgalattico dalle esplosioni di supernove provenienti dal disco di formazione stellare della Via Lattea. In uno scenario alternativo, invece, l’accrezione incontaminata da regioni ancora più lontane – il cosiddetto mezzo intergalattico, appunto – fornisce la materia prima, che viene riscaldata durante la caduta e forma così l’alone sferico.

«Quello che trovo particolarmente interessante di questo lavoro», conclude uno degli autori dello studio, Gabriele Ponti, ricercatore all’Inaf di Brera, «sono le sue implicazioni per studi futuri. Le stelle, quando esplodono, producono una buona quantità di gas caldo, che in molti casi rimane legato alla galassia stessa, seguendo proprio una distribuzione simile a quella osservata. Quindi è possibile che il gas caldo che osserviamo sia generato dalle stelle stesse. Altrimenti, il fatto che la maggior parte di questo gas si distribuisca come le stelle nel disco della nostra Via Lattea potrebbe volerci dire che una parte del segnale che noi attribuiamo a questo gas sia in realtà prodotto da una miriade di stelle deboli, che eRosita non è ancora riuscito a risolvere individualmente. Sarà interessante, in futuro, provare a capire quale di questi due scenari è quello corretto».

Per saperne di più:

Guarda l’animazione 3D del Max Planck Institute for Extraterrestrial Physics:

media.inaf.it/wp-content/uploa…


I dottor Jekyll e mister Hyde di una nuova fisica


11177238
11177240
Rappresentazione artistica di un lampo di raggi gamma (Grb). Crediti: Eso/A. Roquette

È un singolo fotone, un’infinitesimale particella di luce, la sostanza più impalpabile che si possa immaginare. E sta mettendo a soqquadro la fisica. Non ha un nome proprio – non ancora, almeno – ma l’evento nel quale è stato osservato sì: lo hanno chiamato Boat, acronimo per brightest of all time, ovvero il più luminoso di tutti i tempi. Parliamo del lampo di raggi gamma (Grb, dall’inglese gamma-ray burst) Grb 221009A, emesso da una galassia a oltre due miliardi di anni luce da noi e rivelato – da terra e nello spazio – il 9 ottobre 2022. Un Grb eccezionalmente energetico, come ne capitano non più di una volta ogni secolo. Troppo energetico, come vedremo. Energetico al punto da mettere in crisi i modelli che descrivono questi fenomeni. Energetico al punto da richiedere una nuova fisica, propone ora uno studio interamente italiano con autori Giorgio Galanti, Lara Nava, Marco Roncadelli, Fabrizio Tavecchio e Giacomo Bonnoli, pubblicato oggi su Physical Review Letters, con primo autore Giorgio Galanti dell’Istituto nazionale di astrofisica.

Torniamo a quel 9 ottobre dell’anno scorso. Gli astrofisici avevano intuito fin da subito di trovarsi innanzi a un evento eccezionale. Su Media Inaf ne avevamo dato notizia dopo qualche giorno, il 15 ottobre 2022, definendolo appunto il lampo gamma del secolo e sottolineando che, tra i fotoni gamma ad altissima energia intercettati dal rivelatore cinese Lhaaso, ce n’era uno addirittura di 18 TeV: l’energia più elevata mai registrata da un Grb. Ma addirittura il giorno stesso dell’evento il team italiano era già entrato in azione.

«Pochi minuti dopo aver avuto notizia dell’esplosione», ricorda ora Galanti a Media Inaf, «abbiamo realizzato che questo Grb non solo poteva essere un evento astrofisico straordinario ma poteva anche rappresentare un’opportunità unica per studi di fisica fondamentale, in particolare riguardo alle axion-like particles». Forti di un’esperienza pluriennale sull’argomento, in poche ore sono riusciti a buttare giù la prima bozza dell’articolo nel quale illustrano la loro ipotesi e a caricarla su arXiv, diventando così i primi in assoluto a parlare – in relazione a quel lampo gamma – di nuova fisica.

Qual è, dunque, quest’ipotesi alla quale la fisica canonica sembra stare stretta? Molto in breve, è che quel fotone non sia solo il più luminoso mai osservato da un Grb, ma anche che sia un “fotone trasformista”: capace cioè di cambiare natura, oscillando da una “personalità” all’altra mentre viaggia verso di noi alla velocità della luce. E le Alp – le axion-like particles di cui parla Galanti, ipotetiche particelle previste dalla teoria delle stringhe e ottime candidate per la materia oscura fredda, simili ad altre particelle altrettanto ipotetiche, gli assioni – sarebbero una di queste personalità. Un po’ come Mr. Hyde, una Alp è infatti in grado di compiere azioni che un fotone, il Dr. Jekyll di questa strana storia, non riuscirebbe mai a portare a termine: attraversare indenne la cosiddetta Ebl – l’extragalactic background light, la luce di fondo extragalattica, ovvero la luce emessa da tutte le stelle durante l’intera evoluzione dell’universo.

11177242
Giorgio Galanti, ricercatore all’Inaf Iasf di Milano e primo autore dello studio su Grb 221009A appena pubblicato su Physical Review Letters. Crediti: Inaf

«Quando un fotone di alta energia — diciamo superiore a 100 GeV — urta un fotone dell’Ebl», spiega infatti Galanti, «c’è una probabilità che si formi una coppia elettrone-positrone, che quindi fa scomparire il fotone di alta energia. E questo effetto diventa progressivamente più importante al crescere sia dell’energia che della distanza. Ritornando al nostro Grb 221009A, abbiamo dimostrato che – secondo la fisica convenzionale – fotoni di energia superiore a circa 10 TeV verrebbero completamente assorbiti».

Detto altrimenti: considerando il redshift della sorgente, e dunque l’enorme distanza percorsa dal lampo gamma, i fotoni a energie più elevate in teoria non sarebbero mai stati in grado di giungere fino a noi. Come è dunque possibile che Lhaaso, unico strumento per la rivelazione dei lampi gamma a non essere andato in saturazione quel 9 ottobre di un anno fa, abbia osservato fotoni del Grb 221009A a energie comprese fra 500 GeV e 18 TeV? È qui che entrano in gioco, appunto, le Alp.

«Secondo la nostra ipotesi, in presenza di campi magnetici, i fotoni si tramutano in Alp e viceversa», spiega uno dei coautori dell’articolo, Marco Roncadelli, ricercatore associato all’Infn e all’Inaf, «rendendo così possibile raggiungere la Terra a un maggior numero di fotoni, perché le Alp sono invisibili ai fotoni del fondo extragalattico».

«Entrando un po’ più nel dettaglio», aggiunge Galanti, «le Alp si accoppiano a due fotoni, ma non a un singolo fotone. Questo fatto implica che in presenza di un campo magnetico esterno – che come è ben noto è costituito da fotoni – si possono avere “oscillazioni fotone-Alp”. Queste sono molto simili alle oscillazioni dei neutrini massivi di tipo diverso, con la sola differenza che per le Alp l’esistenza del campo magnetico è essenziale al fine di garantire la conservazione del momento angolare, in quanto il fotone ha spin 1 mentre le Alp hanno spin 0: lo spin mancante o eccedente è compensato dal campo magnetico esterno».

Questa dell’oscillazione tra fotoni e Alp per aggirare l’opacità del fondo extragalattico ai fotoni di energia elevata non è un’idea inedita: è una soluzione proposta per la prima volta, nel 2007, da Alessandro De Angelis, Oriana Mansutti e dallo stesso Roncadelli. Ed è una soluzione a un problema più generale di quello posto da questo gamma-ray burst. Oltre ai lampi di raggi gamma, ci sono infatti altre sorgenti distanti che emettono fotoni a energie elevatissime eppure in grado di giungere fino a noi, in barba alla fisica standard. Sorgenti come i quasar di tipo Fsrq (flat spectrum radio quasar), ricorda Galanti, dove la componente “opaca” che intralcia la corsa dei fotoni ad alta energia, fino a renderne teoricamente impossibile la fuoriuscita, non è la Elb ma qualcosa di molto simile: un campo di radiazione ultravioletta all’interno della sorgente stessa. O i blazar di tipo Bl Lac, il cui spettro – come mostrato da uno studio pubblicato nel 2020 dagli stessi Galanti, Roncadelli e De Angelis insieme a Giovanni F. Bignami – sarebbe in alcuni casi inspiegabile senza ricorrere a un meccanismo che consenta di aumentare la “trasparenza cosmica”, riducendo quindi l’assorbimento prodotto dall’Ebl.

Fotoni da quasar Fsrq, fotoni da blazar Bl Lac e ora fotoni da questo lampo gamma “Boat”, dunque. Tutt’e tre apparentemente inconcepibili entro il perimetro della fisica standard. Ma tutt’e tre spiegabili se al posto di “semplici” fotoni ci fossero particelle “Jekyll-Hyde” che oscillano da fotone ad Alp e viceversa. “Un indizio è un indizio, due indizi sono una coincidenza, ma tre indizi fanno una prova”, scriveva Agatha Christie. In questo caso parlare di “prova di nuova fisica” è ancora prematuro: in fin dei conti le Alp rimangono ancora particelle ipotetiche che assomigliano ad altre particelle ipotetiche. Serviranno altre osservazioni, e saranno per questo di grande aiuto i nuovi osservatori astrofisici per alte energie – primi fra tutti Cta e l’italiano Astri – pronti a entrare in funzione nei prossimi anni.

Per saperne di più:


Va a Paolo Simonetti il premio “Ernesto Capocci”


11116359
media.inaf.it/wp-content/uploa…
Da sinistra: Maurizio Capocci, pronipote del celebre astronomo; Paolo Simonetti, vincitore del premio; Marcella Marconi, direttrice dell’Inaf di Napoli. Crediti: Enrico Cascone/Inaf

Destinato a giovani ricercatori impegnati nello studio del Sistema solare, l’Ernesto Capocci Scientific Award è stato conferito a Paolo Simonetti, assegnista di ricerca all’Osservatorio astronomico dell’Inaf di Trieste, per l‘articolo “Seasonal thaws under mid-to-low pressure atmospheres on Early Mars”, già accettato per la pubblicazione da The Astrophysical Journal. La giuria dell’edizione 2023 del premio – composta da Zelia Dionnet dell’Istitut d’Astrophysique Spatiale di Parigi, da Vincenzo Della Corte dell’Inaf di Napoli e da Laura Inno dell’Università di Napoli Parthenope – ha scelto l’articolo di Simonetti “per la qualità del lavoro, l’originalità dell’argomento trattato e il potenziale impatto scientifico anche relativamente a possibili studi di abitabilità planetaria”.

Una delle sfide della planetologia moderna è accordare la temperatura superficiale marziana con la presenza di acqua sul Pianeta rosso in epoche remote. Un problema noto con il nome di “paradosso del Sole giovane debole”, ovvero come conciliare la presenza di tracce d’acqua liquida nel periodo iniziale della storia marziana, tra 4 e 3 miliardi di anni fa, quando il pianeta riceveva ancora meno calore dal Sole rispetto a oggi e la sua temperatura media era inferiore a quella attuale, pari a circa -64 °C. Molte teorie sono state proposte per risolvere questo apparente paradosso e lo studio premiato fa un significativo passo in avanti nella risoluzione di questo paradosso, utilizzando un nuovo approccio basato sull’analisi delle tracce lasciate da piccoli disgeli stagionali e localizzati avvenuti in un lungo lasso di tempo. Usando modelli climatici in grado di simulare in dettaglio le condizioni locali, sono state realizzate circa diecimila simulazioni climatiche del Marte primitivo, variando uno o più parametri, per identificare le combinazioni capaci di dar luogo a condizioni favorevoli alla presenza di acqua liquida sulla superficie marziana. Lo studio mette in evidenza come, su periodi lunghi fino a tre mesi marziani, tali disgeli siano effettivamente possibili senza dover invocare la presenza di un’atmosfera troppo spessa o di grandi quantità di altri gas serra, difficili da spiegare.

Dopo i suoi studi universitari a Trieste con Francesca Matteucci, prima, e dal 2018 con Giovanni Vladilo e Marco Fulle, nel 2022 Paolo Simonetti ha ottenuto un assegno di ricerca – finanziato dall’Inaf, dall’Ogs e dal Cineca – per lo sviluppo di nuovi metodi numerici per il calcolo dell’assorbimento e dello scattering in atmosfere planetarie, cercando di rispondere alla domanda “siamo soli nell’Universo?”. «Sono molto felice e onorato di aver ricevuto questo premio», dice emozionato il giovane astronomo di Zoppè di Cadore, un grazioso paesino di montagna tra la Val di Zoldo e il Cadore bellunese, «e spero che questo lavoro possa aiutare a comprendere meglio il passato di Marte nonché i meccanismi nascosti che regolano il clima dei pianeti terrestri. Ringrazio il Comitato scientifico del Premio e l’erede del professor Capocci per la splendida opportunità che viene offerta ai giovani ricercatori, e che quest’anno è toccata a me. Ringrazio poi la giuria per le parole di apprezzamento per il mio lavoro. Credo che un atto di scoperta in grado di suscitare l’interesse dei colleghi, e in special modo quelli con più esperienza, sia una delle massime soddisfazioni della nostra professione».

Alla cerimonia di premiazione – che si è tenuta all’Osservatorio astronomico di Capodimonte, a Napoli, nell’auditorium nazionale dell’Istituto nazionale di astrofisica – hanno partecipato anche gli eredi dell’astronomo Ernesto Capocci che hanno sostenuto l’istituzione del premio a vantaggio di giovani ricercatori che in Italia si distinguano con studi di punta nel campo dei corpi del Sistema solare, attività di ricerca a cui lo stesso Capocci aveva dedicato gran parte delle sue energie scientifiche e divulgative, spese proprio a Capodimonte. Importanti furono i suoi studi sulle comete – tanto da meritarsi il titolo di “Encke d’Italia”, in riferimento all’astronomo tedesco Johann Franz Encke – e sulla natura della fascia principale degli asteroidi.

La serata di gala all’Osservatorio astronomico di Capodimonte, patrocinata dalla Regione Campania e dal Comune di Napoli, è stata arricchita dal concerto della Topside Brass Band della U.S. Naval Forces Europe and Africa Band, che ha eseguito un ricco repertorio di musiche jazz e rhythm and blues. Prima di lasciare spazio alle osservazioni con i telescopi, la direttrice dell’Osservatorio Marcella Marconi ha rivolto un commosso saluto alla folta platea per le prossime festività natalizie e per la conclusione dei suoi due mandati alla guida dell’Osservatorio. Sei anni intensi per la crescita scientifica di Capodimonte e per una rilevante proiezione della più antica istituzione scientifica napoletana verso il territorio cittadino e regionale con attività culturali e didattiche di forte impatto.


Su Encelado, biomolecole ed energia a gogò


11109673
Immagine scattata dalla sonda Cassini nel 2010, che mostra i pennacchi
Immagine di Encelado e dei suoi pennacchi ottenuta dalla sonda Cassini il 30 novembre 2010. Crediti: Nasa/Jpl-Caltech/Space Science Institute

Acido cianidrico (HCN), acetilene (C2H2) e propilene (C3H6). E ancora: idrocarburi ossidati, metanolo (CH3OH) e ossigeno (O2). Tutte molecole che sul nostro pianeta sono, a vario titolo, alla base dell’origine della vita come la conosciamo. È quanto ha rilevato un team di ricercatori guidati dall’Università di Harvard sulla piccola luna di Saturno, Encelado. I risultati dello studio, pubblicati ieri su Nature Astronomy, aggiungono ulteriori prove a favore dell’abitabilità di questo mondo ghiacciato.

I ricercatori hanno scoperto le specie chimiche spulciando nei dati della missione Nasa/Esa/Asi Cassini, che dal 2004 al 2017 ha condotto un’estesa indagine del sistema di Saturno, studiando in dettaglio il pianeta, i suoi anelli e le sue lune, Encelado compresa. Più in dettaglio, il team di ricerca, composto dal biofisico dell’Università di Harvard, Jonah Peter, dallo scienziato planetario del Jet Propulsion Laboratory (Jpl), Tom Nordheim, e dall’astrobiologo, anch’esso del Jpl, Kevin Hand, si sono concentrati sui dati raccolti dallo strumento Ion and Neutral Mass Spectrometer (Inms), che durante la missione ha analizzato la composizione chimica della luna ghiacciata. Passando al setaccio gli spettri di massa ottenuti dallo strumento, e confrontando questi dati con con una libreria di spettri di massa noti, gli autori sono stati in grado di evidenziare sottili differenze nel modo in cui i diversi composti chimici spiegano i dati di Cassini.

«Ci sono molti potenziali pezzi del puzzle che possono essere incastrati quando si cerca di far combaciare i dati osservati», dice a questo proposito Peter, autore principale dello studio. «Abbiamo utilizzato la modelli matematici statistici per capire quale combinazione di pezzi del puzzle corrisponde meglio alla composizione del pennacchio e sfrutta al massimo i dati, cercando di non sovra-interpretarli».

La prima molecola individuata nello studio è l’acido cianidrico. La forte evidenza della sua presenza è stata trovata nei pennacchi di Encelado, enormi geyser che sparano nello spazio particelle di ghiaccio provenienti dall’oceano di acqua liquida sottostante. L’acido cianidrico è un composto chimico formato da un atomo di idrogeno, uno di carbonio e uno di azoto. È una sostanza il cui ruolo per lo sviluppo della vita sulla Terra è stato cruciale. Il rilevamento nei pennacchi di Encelado, oltre ad avere un significato rilevante sull’abitabilità della luna, è particolarmente intrigante per la sua rilevanza per la chimica prebiotica. La polimerizzazione della molecola è infatti implicata in una serie di potenziali vie sintetiche che portano alla formazione di nucleo-basi e amminoacidi, i mattoni per la costruzione di Dna e proteine, le macromolecole biologiche alla base della vita.

«La scoperta dell’acido cianidrico è stata particolarmente emozionante, perché è il punto di partenza per la maggior parte delle teorie sull’origine della vita», sottolinea Peter. «La vita come la conosciamo richiede mattoni di costruzione come gli amminoacidi, e l’acido cianidrico è una delle molecole più importanti e versatili necessarie per formarli. Nella ricerca, più cercavamo di mettere in discussione i nostri risultati testando modelli alternativi, più le prove diventavano forti. Alla fine è emerso chiaramente che non c’è modo di far coincidere i dati sulla composizione dei pennacchi di Encelado senza includere l’acido cianidrico».

11109675
Nel riquadro a, illustrazione artistica dell’attività dei pennacchi su Encelado. L’attività crio-vulcanica della luna alimenta i getti contenenti molecole organiche con diversi stati di ossidazione emessi dalle fessure presenti al polo Sud della luna. Nel riquadro b, lo stato di ossidazione del carbonio nei composti organici presenti nei pennacchi. Crediti: Jonah S. Peter et al., Nature Astronomy, 2023

Come anticipato, oltre all’acido cianidrico i ricercatori hanno trovato anche prove dell’esistenza di diverse fonti chimiche di energia. Molecole molto più performanti rispetto a quelle individuate sulla luna da altri studi. Sono idrocarburi parzialmente ossidati, metanolo e ossigeno molecolare, specie chimiche che implicano l’esistenza di un ambiente ossidante in cui può esserci produzione di energia. Energia utile a sostenere potenzialmente la vita.

Precedenti studi hanno portato alla scoperta nei pennacchi di Encelado di metano (CH4) e idrogeno molecolare (H2), supportano l’ipotesi che la luna possa essere oltre che idro-termicamente attiva anche una fonte di molecole riducenti biologicamente utili. In questi studi la metanogenesi attraverso la riduzione dell’anidride carbonica (CO2) è stata proposta come un potenziale percorso che potrebbe supportare le comunità microbiche eventualmente presenti nell’oceano sotterraneo. Tuttavia, senza molecole ossidanti, i riducenti sarebbero di scarsa utilità biochimica, poiché nessun meccanismo di trasferimento di elettroni oltre la metanogenesi sarebbe disponibile per produrre un cambiamento nell’energia disponibile. La presenza di ossigeno molecolare e di composti del carbonio parzialmente ossidati scoperti in questo studio potrebbe risolvere questo problema, poiché implica la possibilità che nella luna possano avvenire una moltitudine di processi redox altamente esoergonici – cioè processi che liberano energia – che potrebbero aiutare ad alimentare la vita sotterranea della luna.

«Se in termini di capacità di produrre energia paragoniamo la metanogenesi a una piccola batteria d’un orologio, i nostri risultati suggeriscono che l’oceano di Encelado potrebbe offrire qualcosa di più simile alla batteria di un’auto, in grado di fornire una grande quantità di energia a qualsiasi forma di vita eventualmente presente», osserva Hand.

Questo lavoro fornisce ulteriori prove del fatto che Encelado ospita alcune delle molecole più importanti per la creazione dei mattoni della vita e per il suo sostentamento attraverso le reazioni metaboliche, concludono i ricercatori. Grazie a questo studio ora non solo sappiamo che Encelado sembra soddisfare i requisiti di base per l’abitabilità, ma abbiamo anche un’idea di come potrebbero formarsi molecole biologiche complesse e in che tipo di percorsi chimici potrebbero essere coinvolte.

Per saperne di più:


Conversando con Twain, intelligenza non umana


La pinna caudale della megattera Twain, soggetto di studio. Crediti: Jodi Frediani. NOAA/National Marine Fisheries Research Permit 19703
11101269
Un gruppo di 15 megattere pesca con la rete di bolle in Alaska. Crediti: Wikipedia

L’incontro ravvicinato per questa questa volta non è stato con un alieno, ma con un’intelligenza acquatica: una megattera (Megaptera novaeangliae). Dopo un periodo passato tra acqua e terraferma, le balene sono tornate definitivamente a vivere negli oceani più di 60 milioni di anni fa, eppure, anche se così ancestralmente lontane da Homo sapiens, sono riuscite a dialogare con noi. E noi con loro.

Un team di scienziati del Seti Institute, dell’Università della California a Davis e dell’Alaska Whale Foundation ha studiato i sistemi di comunicazione delle megattere nel tentativo di capire come potremmo interagire con un’eventuale civiltà extraterrestre. Il raro e affascinante scambio acustico con Twain, una femmina adulta di megattera, è avvenuto nel sud-est dell’Alaska ed è stato riportato il mese scorso in un artiocolo sulla rivista Peer J. I ricercatori hanno diffuso in mare, tramite un altoparlante subacqueo, un “segnale di saluto” e Twain si è avvicinata nuotando intorno all’imbarcazione del team e rispondendo al richiamo – non solo in modo colloquiale, ma anche adattando la risposta di volta in volta. Durante lo scambio sonoro, durato diversi minuti, la megattera ha reagito a ogni singolo richiamo prodotto, adattandosi alle variazioni di intervallo tra un segnale e l’altro. «Per quanto ne sappiamo», dice Brenda McCowan di UC Davis, autrice principale dello studio, «questo è stato il primo scambio comunicativo tra esseri umani e megattere nel “linguaggio” delle megattere».

Comprendere i segnali e i versi degli animali è una sfida antica che oggi alimenta anche la curiosità scientifica e la ricerca sulle forme di intelligenza non umane, da quella artificiale a quelle extraterrestri. La diversità dell’intelligenza non umana esistente sulla Terra è stata rivelata da una moltitudine di studi scientifici, sia osservativi che sperimentali, condotti negli ultimi decenni e si osserva in tante specie animali, dai polpi ai corvi, dagli elefanti alle balene. «Le megattere sono estremamente intelligenti, hanno sistemi sociali complessi, costruiscono strumenti – ad esempio, reti di “bolle” per catturare i pesci – e comunicano ampiamente sia con canti che con richiami sociali», spiega Fred Sharpe dell’Alaska Whale Foundation, coautore della ricerca.

11101271
Tracciamento di Twain durante l’esperimento. Lo schema indica la posizione e il comportamento della megattera intorno alla barca del team di ricerca. Sono indicati gli idrofoni e il posizionamento degli altoparlanti. Crediti: McCowan et al., Peer J, 2023

Per questo studio di bioacustica interattiva, le analisi sono state effettuate su uno scambio acustico di 20 minuti, intervallo di tempo in cui alla trasmissione di un richiamo di contatto registrato, noto come “whup/throp” seguivano le risposte da parte di Twain, come in una vera e propria interazione acustica e comportamentale intenzionale tra uomo e balena. Sul ponte superiore della nave da ricerca erano contemporaneamente presenti quattro osservatori con una visuale a 360 gradi per raccogliere foto, video e appunti sul comportamento dell’animale. E tutti e quattro erano “osservatori ciechi”, nel senso che non erano a conoscenza del meccanismo di richiamo-risposta. «I nostri risultati mostrano che Twain ha partecipato sia fisicamente che acusticamente a tre fasi di interazione – coinvolgimento, agitazione, disimpegno – determinate in modo indipendente da osservatori esterni che hanno riferito il comportamento di superficie e l’attività respiratoria della balena», sottolineano a questo proposito gli scienziati del team, composto anche da Josie Hubbard, Lisa Walker e Jodi Frediani, specializzate rispettivamente in intelligenze animali, analisi dei canti delle megattere e fotografia e comportamento delle megattere.

11101273
Spettrogrammi rappresentativi di (A) periodo di controllo di base (pre), (B) periodo di riproduzione sperimentale (durante) e (C) periodo di controllo successivo (post). Non sono stati registrati richiami “whup” durante i periodi pre e post. (D) Spettrogrammi e forme d’onda esemplificative dei whup dei ricercatori e della risposta di Twain. Si noti l’affascinante “botta e risposta” tra E (esemplare, segnale emesso dai ricercatori) e T (balena Twain) nel grafico B. Crediti: immagine dalla rivista Peer J.

L’idea alla base di questo tipo di ricerche è quella di sondare attivamente i sistemi di comunicazione non umani al di là delle osservazioni tradizionali, per comprendere meglio il significato dei segnali e mettere in campo diversi strumenti di interpretazione. Analogamente allo studio dell’Antartide come ambiente simile a Marte, il team Whale-Seti sta studiando sistemi di comunicazione intelligenti, terrestri e non umani, per sviluppare filtri da applicare a qualsiasi eventuale segnale da intelligenza extraterrestre. Il ricorso alla matematica della teoria dell’informazione, in particolare, consente poi di quantificare la complessità comunicativa, ad esempio la struttura delle regole incorporate in un messaggio ricevuto.

Per comunicare con gli alieni, però, non basterà saper capire il balenese, come il pesce Dory nel film Alla ricerca di Nemo. «A causa delle attuali limitazioni tecnologiche, un presupposto importante della ricerca di intelligenza extraterrestre è che gli alieni siano interessati a stabilire un contatto e quindi si rivolgano ai ricevitori umani», ricorda Laurance Doyle, coautore dell’articolo e astronomo al Seti Institute.

Per saperne di più:


All’origine delle supernove povere di idrogeno


11093137
11093139
Impressione artistica di una stella binaria che sperimenta il trasferimento di massa. Crediti: Ylva Götberg

Alcune stelle non si limitano a spegnersi, ma esplodono sprigionando una luminosità che potrebbe superare quella di intere galassie. Questi fenomeni cosmici, conosciuti come supernove, diffondono luce, elementi chimici, energia e radiazioni nello spazio e generano onde d’urto che propagandosi riescono a comprimere le nubi di gas e a generare nuove stelle. In altre parole, le supernove plasmano il nostro universo. Tra queste, le supernove povere di idrogeno hanno lasciato a lungo perplessi gli astrofisici, poiché non sono ancora riusciti a individuare le loro stelle progenitrici. È quasi come se queste supernove apparissero dal nulla.

Ora, un gruppo di astronome e astronomi dell’Università di Toronto ha scoperto una popolazione di stelle massicce in sistemi binari che sono state private del loro involucro di idrogeno dalle loro compagne. Le definiscono stripped stars, stelle spogliate. La scoperta, pubblicata oggi su Science, sembra fare luce proprio su quelle stelle che si ritiene siano all’origine delle supernove povere di idrogeno, nonché sulle fusioni di stelle di neutroni.

«Ci sono molte più supernove povere di idrogeno di quanto i nostri modelli attuali possano spiegare», commenta Elva Götberg, pioniera di questo lavoro insieme a Maria Drout del Dunlap Institute for Astronomy & Astrophysics dell’Università di Toronto, in Canada. «O non riusciamo a individuare le stelle che maturano lungo questa strada, oppure dobbiamo rivedere tutti i nostri modelli», continua Götberg. «Tipicamente, le singole stelle esplodono come supernove ricche di idrogeno. Il fatto che siano povere di idrogeno indica che la stella progenitrice deve aver perso il suo spesso involucro ricco di idrogeno. Questo accade naturalmente in un terzo di tutte le stelle massicce attraverso la spogliazione dell’involucro da parte di una stella compagna binaria».

11093141
Impressione artistica di una stella che viene spogliata da una compagna binaria. Il terzo pannello raffigura la fase in cui queste stelle vengono osservate nel presente lavoro. Sul sito web dell’Eso è possibile vedere un filmato che mostra l’evoluzione del sistema binario. Crediti: Eso/L. Calçada/M. Kornmesser/S.E. de Mink

Per dare la caccia a queste stelle mancanti, Götberg e Drout hanno unito le loro competenze nella modellazione teorica e nell’osservazione astronomica. E la loro ricerca ha dato i frutti sperati, avendo loro trovato una popolazione di stelle unica nel suo genere, che finalmente colma una grande lacuna nella conoscenza e fa luce sull’origine delle supernove povere di idrogeno.

Le stelle che Götberg e Drout hanno cercato vivono in coppia, vincolate in un sistema stellare binario. Alcuni sistemi binari sono ben noti: ad esempio la stella più luminosa del nostro cielo notturno, Sirio A, e la sua tenue compagna Sirio B. Il sistema binario di Sirio si trova a soli 8,6 anni luce di distanza dalla Terra, un tiro di schioppo in termini cosmici.

Gli astrofisici si aspettano che queste stelle si siano inizialmente formate in sistemi binari massicci. In un sistema binario, le stelle orbiterebbero l’una intorno all’altra fino a quando lo spesso involucro di idrogeno della stella più massiccia si espande. Alla fine, l’involucro in espansione risente dell’attrazione gravitazionale della stella compagna, più forte di quella che lo trattiene verso il suo nucleo. Questo provoca un trasferimento di massa, che alla fine porta l’intero involucro ricco di idrogeno a migrare verso l’altra stella, spogliando la stella originale di cui rimane esposto il nucleo caldo e compatto di elio, oltre 10 volte più caldo della superficie del Sole.

Esiste un importante divario di massa tra le classi di stelle di elio conosciute: le stelle Wolf-Rayet (Wr) più massicce hanno più di 10 volte la massa del Sole, mentre le stelle subnane a bassa massa potrebbero avere circa la metà della massa del Sole. Tuttavia, i modelli hanno previsto che i precursori delle supernove povere di idrogeno abbiano una massa tra 2 e 8 masse solari, dopo lo stripping.

Prima dello studio di Götberg e Drout, era stata trovata solo una stella in grado di soddisfare i criteri di massa e composizione previsti ed era stata chiamata Quasi-WR (o Quasi Wolf-Rayet). «Eppure, le stelle che seguono questo percorso hanno una durata di vita così lunga che molte devono essere sparse in tutto l’universo osservabile», sostiene Götberg. È possibile che gli scienziati non le abbiano “viste”?

11093143
Le survey condotte dal telescopio Swift-Uvot della Nasa forniscono le panoramiche più dettagliate mai catturate nella luce ultravioletta della Grande e della Piccola Nube di Magellano, le due galassie più grandi più vicine alla nostra. I ricercatori hanno utilizzato questo set di dati ultravioletti per identificare i sistemi candidati che hanno preso in considerazione in questo lavoro. Crediti: Nasa/Swift/S. Immler (Goddard) and M. Siegel (Penn State)

Con l’aiuto della fotometria Uv e della spettroscopia ottica, i ricercatori hanno identificato una popolazione di 25 stelle, che si trovano in due galassie vicine ben studiate, la Grande e la Piccola Nube di Magellano. Hanno condotto lo studio pilota su questi oggetti, ottenendo spettroscopie ottiche con i telescopi Magellano dell’Osservatorio di Las Campanas tra il 2018 e il 2022. Grazie a queste osservazioni hanno dimostrato che le stelle erano calde, piccole, povere di idrogeno e appartenenti a sistemi binari, il tutto in linea con le previsioni del loro modello. «Le forti linee di elio ionizzato ci dicono due cose importanti: in primo luogo, confermano che gli strati più esterni delle stelle sono dominati dall’elio e, in secondo luogo, che la loro superficie è molto calda. Questo è ciò che accade alle stelle che lasciano un nucleo esposto, compatto e ricco di elio in seguito allo stripping», spiega Götberg.

Tuttavia, entrambe le stelle di un sistema binario contribuiscono agli spettri osservati: questa tecnica ha quindi permesso ai ricercatori di classificare la popolazione candidata in base alla stella che contribuisce maggiormente allo spettro. «Questo lavoro ci ha permesso di trovare la popolazione mancante di stelle di massa intermedia, prive di elio, le progenitrici previste di supernove povere di idrogeno. Queste stelle ci sono sempre state e probabilmente ce ne sono molte altre là fuori. Dobbiamo semplicemente inventarci delle vie per trovarle», dice Götberg. «Il nostro lavoro potrebbe essere uno dei primi tentativi, ma dovrebbero essere possibili altre strade».

«In futuro, saremo in grado di fare una fisica molto più dettagliata con queste stelle», commenta Drout. «Per esempio, le previsioni sul numero di fusioni di stelle di neutroni che dovremmo vedere dipendono dalle proprietà delle stelle, come la quantità di materiale che si stacca da esse nei venti stellari. Ora, per la prima volta, saremo in grado di misurarlo, mentre prima lo si estrapolava».

11093145
Le autrici dello studio presso i telescopi Magellano all’Osservatorio Las Campanas, in Cile: Bethany Ludwig, Anna O’Grady, Maria Drout e Ylva Götberg. Crediti: Y. Götberg

Le scienziate ritengono che alcuni oggetti del loro campione attuale siano stelle spogliate aventi come compagne stelle di neutroni o buchi neri. Questi oggetti si trovano nella fase immediatamente precedente alla trasformazione in stelle di neutroni doppie o in sistemi di stelle di neutroni e buchi neri, che potrebbero eventualmente fondersi.

Attualmente, stanno continuando a studiare le stelle identificate in questo articolo e stanno espandendo la loro ricerca per trovarne altre. Le ricerche saranno condotte sia all’interno delle galassie vicine, sia all’interno della Via Lattea, con programmi approvati dal telescopio spaziale Hubble, dal telescopio a raggi X Chandra, dal telescopio Magellano e dal telescopio Anglo-Australiano. Nell’ambito di questa pubblicazione, tutti i modelli teorici e i dati utilizzati per identificare queste stelle sono stati resi pubblici e sono disponibili alla comunità di scienziati.

Per saperne di più:


Stelle di neutroni in un laboratorio quantistico


11092698
11092700
I gas quantistici ultrafreddi composti da atomi dipolari costituiscono una piattaforma ideale per simulare i meccanismi in atto all’interno delle stelle di neutroni. Crediti: University of Innsbruck

Oggetti affascinanti e misteriosi come pochi altri nel cosmo, le stelle di neutroni presentano numerose caratteristiche insolite. I lampi periodici di radiazione elettromagnetica che, ruotando rapidamente, emettono come pulsar consentono di misurarne con elevatissima precisione la velocità di rotazione. In questo modo gli astrofisici hanno scoperto un comportamento anomalo e del tutto controintuitivo, detto in gergo glitch: una stella di neutroni talvolta accelera improvvisamente la sua rotazione.

Com’è possibile? Le teorie non mancano, ma per verificarle l’ideale sarebbe averne una a disposizione, di queste stelle, e studiarla da vicino. Un sogno impossibile? Non è detto: se ci accontentiamo di una versione ridotta e semplificata, forse potremmo averne qualcuna non troppo lontano da casa. Occorre attraversare il passo del Brennero, entrare in Austria e guidare ancora verso nord per un’oretta circa, direzione Innsbruck, avendo impostato sul navigatore Technikerstrasse. È l’indirizzo del Centro per lo studio degli atomi ultrafreddi e dei gas quantistici dell’Università di Innsbruck: un luogo in cui il gruppo guidato dalla napoletana Francesca Ferlaino ha ormai da parecchi anni affinato come nessun altro tecniche che consentono di domare e intrappolare atomi dai nomi esotici – atomi altamente magnetici, come l’erbio e il disprosio – in “gabbie” le cui sbarre sono fatte di luce laser e in cui la temperatura si misura in microkelvin.

È nel gelo assoluto di queste trappole quantistiche che possiamo incontrare quanto di più simile esista sulla Terra a una stella di neutroni. Ed è lì che abbiamo raggiunto la ricercatrice veneziana (è originaria del comune di Spinea) Elena Poli, prima autrice di uno studio – pubblicato due settimane fa su Physical Review Letters e realizzato in collaborazione tra il gruppo teorico di Francesca Ferlaino, qui a Innsbruck, e quello di Massimo Mannarelli ai Laboratori nazionali del Gran Sasso – che, attraverso simulazioni numeriche, è riuscito a riprodurre l’enigmatico fenomeno delle glitches.

Elena Poli, cosa ci fa una stella di neutroni – seppur simulata – in un centro di fisica quantistica come il vostro?

«Una stella di neutroni è un oggetto che ha una massa comparabile a quella del Sole ma confinata in un raggio di circa 10 km, la grandezza media di una città. Quindi ha la proprietà di essere un oggetto molto denso. Per capirci, la densità della parte interna della stella di neutroni è oltre cento miliardi di volte più grande di quella dell’acqua, e cresce sempre più man mano che ci si addentra verso l’interno. Oltre a questo, la temperatura di una stella di neutroni è tipicamente dell’ordine di grandezza di dieci milioni di gradi – una temperatura enorme, certo, ma molto più piccola di quella tipica della materia nucleare. Per questi due motivi – altissima densità e bassa temperatura – la stella di neutroni può essere considerata come un sistema in cui gli effetti quantistici non sono trascurabili. E il fatto che nel nostro lavoro riusciamo a replicarne la fenomenologia delle glitches con un sistema quantistico di atomi ultrafreddi ne è la prova».

11092702
Elena Poli, ricercatrice veneziana oggi all’Università di Innsbruck (Austria) e prima autrice dello studio pubblicato su Physical Review Letters sulla simulazione di stelle di neutroni con atomi ultrafreddi. Crediti: Università di Innsbruck

Ecco, le glitches, queste irregolarità nella loro velocità di rotazione: sapete cosa le produce?

«Le stelle di neutroni si presentano come oggetti rotanti che emettono radiazione, e per questo decelerano la loro velocità di rotazione nel tempo. Ogni tanto però accelerano improvvisamente, originando – appunto – una glitch, e si crede che tutto ciò sia dovuto alla dinamica interna di piccoli vortici quantizzati. Questi vortici sono dei piccoli tornado che contengono tutti la stessa quantità di momento angolare e si formano ogni volta che un oggetto con proprietà superfluide – nel caso delle stelle di neutroni, la crosta interna – viene messo in rotazione. I piccoli vortici, durante il processo di decelerazione, sono principalmente intrappolati dalla struttura cristallina della crosta interna, fino a quando il sistema raggiunge un punto in cui deve per forza espellere l’energia in più. E lo fa emettendo i vortici, il cui momento angolare viene assorbito dalla crosta esterna. La crosta esterna assorbe questo momento angolare proveniente dall’interno della stella e, per questo, aumenta la velocità di rotazione: da qui nasce la glitch che misuriamo dalla Terra».

Crosta interna, crosta esterna… Com’è fatta, una stella di neutroni? Cosa incontreremmo, se potessimo atterrarci sopra e scendere al suo interno?

«Le teorie più accreditate descrivono la struttura interna della stella di neutroni come una serie di diversi strati che hanno proprietà strutturali estremamente diverse. L’atmosfera esterna è fatta principalmente da idrogeno, elio e carbonio, ma è uno strato molto piccolo. Lo strato esterno della stella di neutroni viene chiamato crosta esterna ed è di natura solida: è costituito da un reticolo di nuclei pesanti di diversi elementi ricchi di neutroni disposti in maniera regolare. Mano a mano che ci addentriamo all’interno della stella, i nuclei si addensano sempre di più, fino a quando i neutroni iniziano a uscire dai rispettivi nuclei e formano un unico fluido che mantiene la stessa struttura cristallina dei nuclei ma allo stesso tempo ha proprietà superfluide – ovvero, scorre senza attrito. La regione in cui lo incontriamo è chiamata crosta interna, manifesta le proprietà di un solido e quelle di un superfluido allo stesso momento. Sembra uno stato paradossale, ma queste sono le stesse proprietà che negli ultimi anni sono state osservate in laboratorio in un sistema quantistico di atomi ultrafreddi, chiamato appunto supersolido. Infine, procedendo ancora più verso l’interno della stella, troviamo il suo nucleo, dove incontriamo materia ancora più densa la cui composizione è perlopiù sconosciuta».

Anche nel vostro laboratorio avete visto un supersolido?

«Sì, qui ad Innsbruck, nel gruppo di Francesca Ferlaino, siamo stati tra i primi a osservare questo nuovo stato della materia in laboratorio. Ed è proprio grazie all’analogia tra la struttura della crosta interna della stella di neutroni e del supersolido ultrafreddo che, nel nostro lavoro, siamo riusciti a riprodurre in quest’ultimo il fenomeno delle glitches: delle improvvise accelerazioni della stella di neutroni che si crede siano dovute a dinamiche nella crosta interna. Anche un supersolido ultrafreddo, infatti, quando viene messo in rotazione – essendo superfluido – crea i vortici, e questi vortici – essendo solido – sono intrappolati nella sua struttura cristallina. Nel nostro lavoro, implementando un processo di decelerazione, siamo riusciti a simulare il fenomeno delle glitches anche in un supersolido ultrafreddo».

Come in una stella di neutroni…

«Sì, in questo modo abbiamo trovato un sistema analogo alla crosta interna delle stelle di neutroni. Un sistema che è accessibile sulla Terra e può essere usato come laboratorio per studiarne la dinamica. Quindi, attraverso lo studio del comportamento rotatorio di un supersolido fatto di atomi ultrafreddi, e grazie alla possibilità di replicare il fenomeno delle glitches in questo sistema, abbiamo certificato alcune teorie di natura astrofisica sulla rotazione delle stelle di neutroni».


Per saperne di più:

  • Leggi su Physical Review Letters l’articolo “Glitches in rotating supersolids”, di Elena Poli, Thomas Bland, Samuel J. M. White, Manfred J. Mark, Francesca Ferlaino, Silvia Trabucco e Massimo Mannarelli


La nana bruna fluttuante campione dei pesi piuma


11092486
11092488
A sinistra, l’immagine ottenuta dallo strumento Nircam di Jwst che mostra la porzione centrale dell’ammasso stellare Ic 348. Nei riquadri a destra, le tre nane brune scoperte da Luhman et al. nel loro studio. La più piccola, Source 3, ha una massa che è circa tre volte quella di Giove. Crediti: Nasa, Esa, Csa, StscI, Kevin Luhman/Penn State, Catarina Alves de Oliveira/Esa

Nell’articolo che la descrive, pubblicato ieri su The Astronomical Journal, gli astronomi la chiamano source 3, che tradotto in italiano significa sorgente 3. È quasi certamente una nana bruna. Una nana bruna da record, però. Con una massa di circa tre volte quella di Giove, è infatti la più piccola mai scoperta fino a oggi.

Source 3 è stata identificata da un team di ricercatori guidati dalla Pennsylvania State University grazie al telescopio spaziale James Webb. Gli astronomi ne hanno rilevato le tracce puntando l’occhio placcato oro del telescopio verso Ic 348, un “giovane” ammasso stellare (l’età stimata è di circa 5 milioni di anni) situato a circa 1.000 anni luce dalla Terra all’interno della nube molecolare di Perseo.

La strategia di ricerca utilizzata da Kevin Luhman, autore principale della pubblicazione, e colleghi per individuare la nana bruna è stata la seguente. Utilizzando lo strumento Nircam di Jwst, l’imager principale del telescopio, i ricercatori hanno prima osservato il centro dell’ammasso alla ricerca di candidate nane brune sulla base della luminosità e della temperatura. Hanno quindi selezionato le sorgenti più promettenti facendo un follow-up con lo spettrografo NirSpec, uno dei quattro strumenti scientifici del telescopio. Per fare ciò, la sensibilità agli infrarossi di Jwst è stata cruciale. Il telescopio, infatti, non solo ha consentito al team di rilevare oggetti molto deboli, ma ha anche permesso di discriminare sorgenti puntiformi da galassie di background.

L’indagine così condotta ha portato all’individuazione di tre candidate nane brune con temperature superficiali comprese tra 830 e 1.500 gradi Celsius: source 1, source 3 e source 4. Ma è con le analisi per stimare la massa che è arrivata la sorpresa. Una delle tre nane brune, source 3, ha una massa piccola, talmente piccola da portare i ricercatori a definire la sorgente come la nana bruna fluttuante meno massiccia che sia mai stata osservata direttamente fino a oggi. Detto in altri termini, con una massa di circa tre volte quella di Giove, source 3 è la nana bruna fluttuante più piccola mai scoperta finora.

Le nane brune sono corpi celesti a metà strada tra stelle e pianeti. Nascono come tutte le stelle, ma non diventano mai abbastanza massicce da innescare al loro interno la fusione nucleare. Sono dunque corpi troppo grandi per essere considerati pianeti, ma troppo piccoli per essere vere e proprie stelle. All’estremo inferiore della scala delle loro masse, tuttavia, alcune nane brune sono paragonabili ai pianeti giganti, con masse solo poche volte quella di Giove. Source 1, 3 e 4, come abbiamo visto, sono tra queste nane brune. Un’altra caratteristica delle tre sorgenti scoperte nello studio è che sono corpi fluttuanti, oggetti cioè non legati gravitazionalmente a nessun altro corpo celeste.

Poiché questa peculiarità è comune anche a un’altra classe di oggetti che gli astronomi chiamano pianeti erranti o pianeti “canaglia”, si pone il dubbio se le tre sorgenti siano davvero nane brune o piuttosto pianeti erranti. Sebbene quest’ultima ipotesi non possa essere esclusa, secondo i ricercatori è molto più probabile la prima. Che si tratti di un pianeta gigante espulso dal suo sistema solare è improbabile per due motivi, spiegano i ricercatori. Il primo motivo è che i pianeti erranti sono generalmente rari tra i pianeti con masse più piccole. Il secondo è che la maggior parte delle stelle sono astri di piccola massa e all’interno dei loro sistemi solari i pianeti giganti sono particolarmente rari. Di conseguenza, continuano i ricercatori, è molto improbabile che le stelle dell’ammasso Ic 348 (che sono stelle di piccola massa) siano in grado di produrre pianeti così massicci. Inoltre, poiché l’ammasso ha solo 5 milioni di anni, probabilmente non c’è stato abbastanza tempo perché i pianeti giganti si formassero e poi venissero espulsi dai loro sistemi.

La scoperta di questi tre oggetti celesti non è l’unico risultato di questo studio. Nelle atmosfere di due delle tre nane brune identificate in questa indagine, source 1 e 3, i ricercatori hanno identificato la firma spettrale della presenza di idrocarburi. La caratteristica spettrale è una riga di assorbimento a 3,4 micrometri. Riga che, insieme ad altre caratteristiche spettrali, è associata alla presenza di metano e altri idrocarburi come acetilene ed etilene. La riga è stata rilevata dalla missione Cassini nell’atmosfera di Saturno e della sua luna Titano, ma mai prima d’ora nell’atmosfera di un corpo fuori dal Sistema solare.

«Questa è la prima volta che rileviamo questa firma nell’atmosfera di un corpo al di fuori del nostro sistema solare. I modelli per le atmosfere delle nane brune non ne prevedono l’esistenza», sottolinea Catarina Alves de Oliveira, ricercatrice all’Esa, componente del team dello strumento Nirspec di Jwst e co-autrice dello studio. «Stiamo guardando agli oggetti celesti più giovani e meno massicci mai osservati» aggiunge la ricercatrice, «e stiamo vedendo qualcosa di nuovo e inaspettato».

La scoperta di altri oggetti simili, concludono i ricercatori, aiuterà a stabilire con certezza lo status delle tre sorgenti e a identificare gli idrocarburi presenti nelle loro atmosfere.

Per saperne di più:


Einstein Telescope, 950 milioni di euro dal governo


11072528

11072530
Un momento dell’evento svoltosi il 6 giugno 2023 presso la Sede Centrale dell’Inaf a Roma nel quale il governo ha ufficializzato la candidatura italiana per ospitare l’Einstein Telescope in Sardegna. Crediti: Mur

Il governo italiano è pronto a sostenere l’impegno finanziario per ospitare nel nostro paese l’Einstein Telescope (Et), la grande infrastruttura di ricerca per lo studio delle onde gravitazionali che l’Italia si è candidata a realizzare in Sardegna, nell’area di Sos Enattos, a Lula.

Il governo ha indirizzato ad Antonio Zoccoli, presidente dell’Istituto nazionale di fisica nucleare (Infn), ente coordinatore della candidatura italiana per Et, una lettera con la quale conferma l’impegno, istituzionale e economico, perché la proposta sia quella vincente in sede europea.

«La volontà di realizzare Einstein Telescope in Italia è stata fortemente sostenuta dal governo. Si tratta di una scelta strategica per un Paese che vogliamo sempre più ambizioso. L’Italia è leader in Europa per la fisica, con la presenza di molte eccellenze scientifiche. Siamo convinti che Et contribuirà a rafforzare in modo decisivo la realizzazione di un ecosistema della ricerca e dell’innovazione sempre più attrattivo», ha detto il ministro dell’Università e della Ricerca, Anna Maria Bernini.

Per ottenere l’assegnazione europea, il governo ha deciso di programmare un piano di “diplomazia scientifica” che coinvolgerà le nostre eccellenze universitarie e di ricerca, tra cui il Premio Nobel Giorgio Parisi. Sarà affidato loro un ruolo di coordinamento e divulgazione, perché sia resa nota nell’Unione la qualità della proposta italiana e quanto questa sappia rappresentare al meglio gli interessi comunitari.

«L’Istituto nazionale di astrofisica accoglie con entusiasmo la notizia dell’impegno del nostro governo a sostenere la candidatura dell’Italia a ospitare il rivelatore di onde gravitazionali Einstein Telescope», commenta Marco Tavani, presidente dell’Istituto nazionale di astrofisica (Inaf). «L’astrofisica è una componente essenziale del progetto, e l’Inaf in collaborazione con Infn e altri enti e università è in prima linea a sostenere la ricerca e lo sviluppo di strumentazione per osservazioni astrofisiche da terra e dallo spazio. L’Italia gode infatti di una comunità scientifica molto attiva da decenni nel campo dello studio di sorgenti cosmiche che possono produrre onde gravitazionali rivelabili dall’Einstein Telescope (come stelle di neutroni e buchi neri in sistemi binari). Si tratta di potenziare l’Einstein Telescope con telescopi radio e ottici da terra e a raggi X e raggi gamma dallo spazio; l’Italia può e potrà mettere in campo risorse scientifiche straordinarie per il progetto con una configurazione unica nel panorama europeo. Lo studio dell’universo lontano e dei fenomeni fisici primordiali si arricchirà di un potentissimo strumento quale l’Einstein Telescope, con l’Italia che si propone a svolgere un ruolo di leadership mondiale dell’astrofisica delle sorgenti delle onde gravitazionali».

11072532
Il sito di Sos Enattos, candidato dall‘Italia a ospitare l’Einstein Telescope. Crediti: Einstein Telescope Italy

Nella lettera del sottosegretario di Stato alla presidenza del Consiglio dei ministri, Alfredo Mantovano, inviata al presidente Infn Zoccoli, si certifica tra l’altro l’importante impegno finanziario che il governo è pronto ad assumere in caso di assegnazione dell’infrastruttura. Si tratta di circa 950 milioni di euro complessivi per i nove anni previsti per la costruzione (dal 2026 al 2035). In particolare, le spese serviranno alla realizzazione e all’acquisto di beni, materiali e tecnologie. La dotazione è stata prevista tenendo conto anche dell’elevato impatto occupazionale e di indotto atteso e del ritorno in termini di coesione territoriale.

«Ringraziamo il presidente del Consiglio Giorgia Meloni per il significativo sostegno del nostro governo al progetto Einstein Telescope, sostegno fondamentale per la candidatura italiana della Sardegna a ospitare il futuro grande rivelatore di onde gravitazionali» commenta Antonio Zoccoli, presidente dell’Infn. «Ringraziamo il ministro Anna Maria Bernini per la grande risolutezza con cui il ministero dell’Università e della Ricerca ha sostenuto fin da subito e promuove, a livello sia nazionale sia internazionale, questa grande impresa scientifica, che rivoluzionerà lo studio del nostro universo, permettendo di raggiungere luoghi e tempi ad oggi inesplorati e inesplorabili. Einstein Telescope è un’opportunità unica non solo per la scienza e per la conoscenza, ma anche per il nostro Paese. Se riusciremo a vincere la dura competizione internazionale, e oggi la candidatura italiana è davvero la più solida, per realizzare questa grande infrastruttura scientifica in Italia, la Sardegna sarà al centro della ricerca mondiale sulle onde gravitazionali, e potrà attrarre sul proprio territorio risorse e ricercatori e ricercatrici da tutta Europa, con esiti positivi in termini di innovazione e crescita industriale, economica, sociale e culturale che interesseranno il territorio e l’intero Sistema Paese. Per disegnare il futuro ci vogliono visione e determinazione. Einstein Telescope è un investimento strategico per il futuro della Sardegna, dell’Italia, di tutti noi e, è bello dirlo, soprattutto delle nostre giovani e dei nostri giovani».

Einstein Telescope sarà un osservatorio internazionale di terza generazione all’avanguardia assoluta nella ricerca fisica e astronomica. L’Italia ha ufficializzato la sua candidatura nello scorso mese di giugno. Il sito scelto per l’infrastruttura, e cioè nell’area della miniera dismessa a Sos Enattos a Lula (in provincia di Nuoro), è considerata ottimale per le eccellenti condizioni geologiche e ambientali che può garantire.

Guarda su MediaInaf Tv il servizio sul meeting dell’11 e 12 dicembre 2023:

youtube.com/embed/gG4FAdRCE1E?…


Cas A: lo sguardo di Jwst sulla regina


11069036
Cassiopeia A, Cas A in breve, è uno dei resti di supernova – ciò che resta di una stella esplosa – meglio studiati del cosmo. Situato a 11mila anni luce dalla Terra nella costellazione di Cassiopea, nel corso degli anni l’oggetto celeste è stato osservato da diversi telescopi terrestri e spaziali, ottenendo immagini a più lunghezze d’onda. Ora, grazie all’estrema sensibilità del James Webb Space Telescope, gli scienziati sono entrati in una nuova era dello studio di questo relitto stellare.

11069038
L’immagine di Cassiopeia A ottenuta dallo strumento NirCam di Jwst con annotate alcune delle principali caratteristiche osservate. Il riquadro 1 mostra il guscio interno costituito da filamenti e grumi di gas. Il riquadro 2 mostra invece i cerchi bianchi con sfumature di viola costituiti da gas ionizzato. I riquadri 3 e 4 indicano gli echi di luce. Il riquadro 4, in particolare, mostra Baby Cas A. Crediti: Nasa, Esa, Csa, StscI, D. Milisavljevic (Purdue University), T. Temim (Princeton University), I. De Looze (University of Gent)

Lo sguardo di Jwst si era posato per la prima volta su Cas A nell’aprile del 2023, rivelando, grazie alla sensibilità dello strumento Miri – l’unico occhio del telescopio in grado di osservare nel medio infrarosso – caratteristiche nuove e inaspettate del resto di supernova. A metterci ora di nuovo gli occhi sopra è stato lo strumento NirCam, l’imager principale del telescopio Nasa/Esa/Csa. Il risultato lo vedete nell’immagine qui sopra (cliccare per ingrandire): una vista di Cas A con una risoluzione senza precedenti, che mostra in dettaglio il guscio in espansione del relitto stellare schiantarsi contro il gas rilasciato dalla stella prima che esplodesse.

I colori più evidenti nell’immagine, ottenuti utilizzando una combinazione di tre dei 29 filtri NirCam – il blu (F162M/1,62 micron), il verde (F356W/3,56 micron) e il rosso (F444W/4,44 micron) – sono l’arancio brillante e il rosa chiaro, che disegnano il guscio interno del resto di supernova: rappresentano filamenti e grumi di gas composti principalmente da zolfo, ossigeno, argon e neon. Si tratta di strutture rilevabili solo grazie alla straordinaria risoluzione di NirCam, e che forniscono ai ricercatori informazioni su come la stella si sia disintegrata quando è esplosa. Il gas custodisce una miscela di polveri e molecole che, alla fine, verrà incorporata in nuove stelle e sistemi planetari.

Alla periferia del guscio interno a dominare è il bianco: è il colore della regione che segna il punto in cui la materia espulsa dalla stella esplosa si scontra con la materia del mezzo circostante. Colore che i ricercatori ritengono sia dovuto alla luce proveniente dalla radiazione di sincrotrone, generata da particelle cariche che viaggiano a velocità elevatissime spiraleggiando attorno alle linee del campo magnetico presenti alla periferia di Cas A.

11069040
Cassiopeia A vista con il Mid-Infrared Instrument (Miri) di Webb. Crediti: Nasa, Esa, Csa, D. Milisavljevic (Purdue University), T. Temim (Princeton University), I. De Looze (UGent), J. DePasquale (Stsci)

Visibili in giallo ci sono diversi echi luminosi. Uno in particolare, che vedete nel riquadro numero 4 in basso a destra dell’immagine, è stato soprannominato dai ricercatori Baby Cas A. Il perché è semplice: sembra una struttura “figlia” di Cas A. Si tratta in realtà di una nube situata a circa 170 anni luce dietro il resto di supernova, le cui polveri, dopo essere state riscaldate dalla radiazione proveniente dall’esplosione della stella, brillano mentre si raffreddano.

Ulteriori informazioni su Cas A si possono ottenere confrontando la nuova immagine nel vicino infrarosso con quella precedente nel medio infrarosso, ottenuta con lo strumento Miri. La vedete qui a fianco: ciò che salta subito all’occhio è la presenza di un anello di luce verde nella cavità di Cas A, chiamato dai ricercatori Green Monster (mostro verde), che è assente nell’immagine di NirCam. Sebbene il “verde” di questa struttura sia invisibile nell’ultimo ritratto di Jwst del resto di supernova, ciò che ci mostra di questa regione lo strumento NirCam può fornire comunque informazioni su questa misteriosa caratteristica. Ciò che si vede sono cerchi bianchi con sfumature di viola costituiti da gas ionizzato: secondo i ricercatori il prodotto di detriti della supernova che attraversano e scolpiscono il gas lasciato dalla stella prima di esplodere.


Reti neurali per riscrivere la storia della Via Lattea


11063332
11063334
L’ammasso stellare aperto Ngc 2264, detto anche Albero di Natale. Crediti: Eso

Negli ultimi anni, il numero di ammassi aperti conosciuti è più che quintuplicato, passando da circa duemila nel 2021 a oltre tredicimila nel 2023. Questo rapido incremento nell’acquisizione di grandi moli di dati ha reso necessario lo sviluppo di strumenti moderni e veloci per la loro analisi. In questo frangente hanno trovato ampio spazio di applicazione le reti neurali, ovvero tecniche di intelligenza artificiale ispirate al funzionamento del cervello umano che possono “imparare” e migliorare le loro prestazioni attraverso un processo di apprendimento, con cui regolano i pesi delle connessioni tra i neuroni basandosi sui dati che ricevono.

La scorsa settimana sono stati pubblicati su The Astronomical Journal i risultati del nuovo studio di un gruppo di ricerca internazionale che ha utilizzato per la prima volta, e in modo innovativo, un algoritmo basato su QuadTree – una particolare struttura di dati – per estrarre efficacemente le informazioni da grandi set di dati astronomici relativi agli ammassi stellari aperti, da usare poi come input per la rete neurale artificiale che dovrà analizzarli.

Con questa tecnica è stato sperimentato per la prima volta un approccio multi-banda utilizzando informazioni provenienti sia da Gaia (in banda ottica) che dalla survey fotometrica 2Mass (nell’infrarosso). L’algoritmo è stato testato su ammassi simulati, con lo scopo di stimare età, metallicità, estinzione e distanza degli ammassi aperti, e si è dimostrato efficace nel determinare accuratamente i parametri cruciali di questi oggetti a seguito di una validazione scientifica completa. Grazie a questo lavoro è stata prodotta una mappa 3d di oltre quattromila ammassi aperti che permette di studiare possibili correlazioni tra la distribuzione spaziale e le caratteristiche degli ammassi.

11063336
La distribuzione spaziale degli ammassi analizzati per differenti età (da sinistra: giovani, di età intermedia e vecchi) con sovrapposta la mappa di sovradensità (Poggio 2021) utilizzando stelle giovani e di alta sequenza (massicce e luminose). Crediti: Cavallo et al. 2023

Rispetto al passato, questa tecnica rappresenta un metodo molto più efficiente per rimuovere le degenerazioni nei parametri da stimare che generalmente colpiscono tutti i metodi classici di analisi degli ammassi aperti. Lo sviluppo di tale approccio è da considerarsi strategico per campagne osservative e telescopi di nuova generazione come il Vera Rubin Observatory, che produrranno dati ad altissima precisione in diverse bande fotometriche.

11063338
Da sinistra: Lorenzo Spina e Lorenzo Cavallo. Crediti: Inaf

«Uno dei fattori chiave dell’utilizzo di tecniche di machine learning», spiega Lorenzo Cavallo, dottorando di ricerca all’università di Padova e primo autore dello studio, «è massimizzare l’efficienza con cui gli algoritmi riescono a estrarre le informazioni dai dati che devono analizzare. Siamo ancora agli inizi, ma le capacità dimostrate finora sono promettenti e nel prossimo futuro potrebbero compiere balzi in avanti a oggi impensabili».

Ma perché concentrare questi sforzi proprio sull’analisi degli ammassi aperti? Come si sia formato il disco galattico, o dove si formino le stelle, sono solo alcune delle domande a cui lo studio di questi oggetti può rispondere. «Gli ammassi aperti sono oggetti chiave per lo studio della nostra galassia. Nei prossimi anni il flusso di dati aumenterà ulteriormente», conferma Lorenzo Spina, ricercatore dell’Inaf di Arcetri e coautore dell’articolo, «grazie a nuovi strumenti e collaborazioni, con un grande coinvolgimento dell’astronomia italiana. Dunque lo sviluppo di nuove tecniche di analisi è strategico in questo ambito di ricerca, poiché ci permetterà di sfruttare tutta questa ricchezza di informazioni al massimo del suo potenziale».

Per saperne di più:


Grandi dubbi sulle grandi esolune


11048056
11048058
Impressione artistica di un esopianeta gigante gassoso in orbita attorno a una stella simile al Sole, come potrebbe essere Kepler-1625b. Crediti: Nasa/Jpl-Caltech

Qualche anno fa, nelle osservazioni dei pianeti Kepler-1625b e Kepler-1708b effettuate dai telescopi spaziali Kepler e Hubble, i ricercatori hanno scoperto per la prima volta tracce di esolune, con dimensioni paragonabili a quelle di Nettuno. Grandi satelliti naturali, quindi.

Ora, uno studio pubblicato sulla rivista Nature Astronomy sta sollevando dubbi in proposito. Come riferiscono gli scienziati del Max Planck Institute for Solar System Research e dell’Osservatorio di Sonnenberg, entrambi in Germania, le interpretazioni delle osservazioni che coinvolgono solo pianeti sembrano essere più convincenti. Per l’analisi, i ricercatori hanno utilizzato un algoritmo che facilita e accelera la ricerca delle esolune. Inoltre, hanno anche cercato di capire quali tipi di esolune potrebbero essere idealmente trovate con le moderne osservazioni astronomiche spaziali. E la risposta è piuttosto scioccante.

Nel Sistema solare, il fatto che un pianeta abbia una o più lune sembra essere la regola, non l’eccezione. A parte Mercurio e Venere, tutti gli altri pianeti hanno satelliti naturali; addirittura, nel caso di Saturno, siamo arrivati a contarne 146. È pertanto probabile che anche i pianeti in sistemi stellari lontani ospitino delle lune. Finora, tuttavia, sono state trovate presunte prove della loro esistenza solo in due casi: Kepler-1625b e Kepler-1708b. Questa apparente mancanza di esolune non deve sorprendere. Dopotutto, i satelliti lontani sono molto più piccoli dei mondi attorno ai quali orbitano e quindi molto più difficili da trovare. Inoltre, è estremamente dispendioso in termini di tempo setacciare i dati osservativi di migliaia di esopianeti alla ricerca di lune.

Come si diceva, per rendere la ricerca più semplice e veloce, gli autori dello studio si sono affidati a un algoritmo di ricerca da loro stessi sviluppato e ottimizzato per la ricerca di esolune: Pandora. Hanno pubblicato il loro metodo lo scorso anno e il loro codice è open source, disponibile a tutti i ricercatori interessati. Quando è stato applicato ai dati osservativi di Kepler-1625b e Kepler-1708b, i risultati sono stati sorprendenti. «Avremmo voluto confermare la scoperta delle esolune intorno a Kepler-1625b e Kepler-1708b», afferma il primo autore, René Heller. «Ma purtroppo le nostre analisi dimostrano il contrario», aggiunge.

Il pianeta Kepler-1625b, simile a Giove, ha fatto notizia cinque anni fa, quando i ricercatori della Columbia University di New York riportarono una forte evidenza dell’esistenza di una luna gigante nella sua orbita, molto più grande di tutte le lune del Sistema solare. Gli scienziati avevano analizzato i dati del telescopio spaziale Kepler della Nasa, che durante la sua prima missione – dal 2009 al 2013 – aveva osservato più di 100mila stelle e scoperto oltre 2000 esopianeti. Tuttavia, negli anni successivi alla scoperta del 2018, la candidata esoluna pareva essere scomparsa, dopo che i dati di Kepler erano stati ripuliti dal rumore sistematico. Poi gli indizi sono stati ritrovati in successive osservazioni con il telescopio spaziale Hubble. Poi, lo scorso anno, questo straordinario candidato ha avuto compagnia: secondo i ricercatori di New York, un’altra luna gigante, molto più grande della Terra, orbita attorno al pianeta Kepler-1708b, di dimensioni pari a quelle di Giove.

«Le esolune sono così lontane che non possiamo vederle direttamente, nemmeno con i telescopi moderni più potenti», spiega Heller. Ciò che i telescopi registrano sono le fluttuazioni di luminosità delle stelle lontane, la cui serie temporale è chiamata curva di luce. I ricercatori cercano quindi tracce dell’esistenza delle lune in queste curve di luce. Se un esopianeta passa davanti alla sua stella, vista dalla Terra, oscura la stella di una piccola frazione. Questo evento è chiamato transito e si ripete regolarmente con il periodo orbitale del pianeta intorno alla stella. Una esoluna che accompagna il pianeta avrebbe un effetto di oscuramento simile. La sua traccia nella curva di luce, tuttavia, non sarebbe solo significativamente più debole. A causa del movimento della luna e del pianeta intorno al loro reciproco centro di gravità, questo ulteriore oscuramento della curva di luce seguirebbe un andamento piuttosto complicato. E ci sono altri effetti da considerare, come le eclissi pianeta-luna, le variazioni naturali di luminosità della stella e altre fonti di rumore generate durante le misurazioni.

11048060
Quando un pianeta extrasolare passa davanti a una stella lontana, i telescopi sensibili registrano una diminuzione della luminosità della stella. Quanto sia significativa questa misurazione dipende da vari fattori che portano al rumore nella curva di luce. Per individuare in questi dati un’esoluna in orbita attorno all’esopianeta, viene effettuata la ricerca di un debole segnale periodico che potrebbe essere nascosto nel rumore della curva di luce. Un compito molto impegnativo per la strumentazione del telescopio e per i metodi statistici utilizzati per analizzare i dati. Crediti: Mps/hormesdesign.de

Per individuare le lune, sia i ricercatori newyorkesi che i loro colleghi tedeschi hanno dapprima simulato molti milioni di curve di luce “artificiali” per tutte le possibili combinazioni di dimensioni, distanze reciproche e orientamenti orbitali di possibili pianeti e lune. Un algoritmo ha poi confrontato queste curve di luce simulate con la curva di luce osservata alla ricerca della migliore corrispondenza. I ricercatori di Göttingen e Sonneberg hanno utilizzato il loro algoritmo open-source Pandora, ottimizzato per la ricerca di esolune e in grado di risolvere questo compito diversi ordini di grandezza più velocemente rispetto agli algoritmi precedenti.

Nel caso del pianeta Kepler-1708b, il duo tedesco ha scoperto che gli scenari senza luna possono spiegare i dati osservativi con la stessa precisione di quelli con una luna. «La probabilità che una luna orbiti attorno a Kepler-1708b è chiaramente più bassa di quanto riportato in precedenza», afferma Michael Hippke dell’Osservatorio di Sonneberg e co-autore del nuovo studio. «I dati non suggeriscono l’esistenza di un esoluna intorno a Kepler-1708b», continua Hippke.

Molti elementi suggeriscono che anche Kepler-1625b sia privo di un compagno gigante. I transiti di questo pianeta davanti alla sua stella sono stati osservati in precedenza con i telescopi Kepler e Hubble. I ricercatori tedeschi sostengono ora che la variazione istantanea di luminosità della stella attraverso il suo disco ha un impatto cruciale sul presunto segnale dell’esoluna. Il bordo del disco solare, ad esempio, appare più scuro del centro. Tuttavia, a seconda che si osservi la stella natale di Kepler-1625b attraverso il telescopio Kepler o Hubble, questo effetto di oscuramento appare diverso. Questo perché Kepler e Hubble sono sensibili a diverse lunghezze d’onda della luce che ricevono. I ricercatori di Göttingen e Sonneberg sostengono ora che la loro modellizzazione di questo effetto spiega i dati in modo più convincente di un esoluna gigante.

Le loro nuove analisi mostrano anche che gli algoritmi di ricerca delle esolune producono spesso risultati falsi positivi. Più volte “scoprono” una luna quando in realtà si tratta solo di un pianeta in transito sulla sua stella ospite. Nel caso di una curva di luce come quella di Kepler-1625b, il tasso di falsi positivi è probabilmente di circa l’11 per cento. «La precedente affermazione di esolune da parte dei nostri colleghi di New York era il risultato di una ricerca di lune intorno a decine di esopianeti», dice Heller. «Secondo le nostre stime, un falso positivo non è affatto sorprendente, ma quasi prevedibile», aggiunge.

I ricercatori hanno anche utilizzato il loro algoritmo per prevedere tipologie realistiche di esolune che potrebbero essere chiaramente individuabili nelle curve di luce delle missioni spaziali come Kepler. Secondo la loro analisi, solo le lune particolarmente grandi che orbitano intorno al loro pianeta in un’orbita ampia sono rilevabili con la tecnologia attuale. Rispetto alle familiari lune del Sistema solare, sarebbero tutte strane: almeno il doppio di Ganimede, la luna più grande del Sistema solare, quindi grandi quasi come la Terra. «Le prime esolune che verranno scoperte nelle osservazioni future, come quelle della missione Plato, saranno certamente molto insolite e quindi emozionanti da esplorare», conclude Heller.

Per saperne di più:


Fissione stellare ai confini della tavola periodica


11046604
media.inaf.it/wp-content/uploa…
La fusione di due stelle di neutroni è tra i principali siti candidati alla sintesi degli elementi più pesanti della tavola periodica attraverso il processo di cattura rapida dei neutroni. L’immagine artistica raffigura due stelle di neutroni che si scontrano rilasciando neutroni che i nuclei radioattivi catturano rapidamente. La combinazione di cattura dei neutroni e decadimento radioattivo produce successivamente elementi più pesanti. Si ritiene che l’intero processo avvenga in un solo secondo. Crediti: Matthew Mumpower/Los Alamos National Laboratory

À rebours, a ritroso. Non nel tempo, questa volta, ma nella tavola periodica: un gioco dell’oca che le stelle percorrono dagli elementi più leggeri ai più pesanti – fusione su fusione, esplosioni e merging –, dall’idrogeno al ferro e oltre. Così almeno siamo abituati a pensare. Ma che stando a uno studio pubblicato la settimana scorsa su Science può essere percorso anche controcorrente, tornando indietro di qualche casella. Dunque attraverso processi non solo di fusione nucleare, come quelli che stiamo in tutti i modi tentando di replicare qui sulla Terra, ma anche di fissione: processi, questi ultimi, che avvengono quotidianamente nelle nostre centrali nucleari, ma mai prima d’ora documentati nell’evoluzione di una stella.

Analizzando la quantità di elementi pesanti presenti in 42 antiche stelle della Via Lattea, gli autori dello studio hanno trovato una correlazione inattesa fra la quantità di alcuni metalli preziosi e quella di alcuni nuclei di terre rare. Quando uno di questi gruppi di elementi aumenta, aumentano anche gli elementi corrispondenti dell’altro gruppo: ciò che in gergo si definisce una correlazione positiva. Più precisamente, le abbondanze di rutenio, rodio, palladio e argento (elementi con numero atomico compreso fra 44 e 47 e numero di massa fra 99 e 110) sono risultate correlate con quelle degli elementi più pesanti (numero atomico fra 63 e 78, numero di massa maggiore di 150) – terre rare, appunto, e altri nuclei di elementi pesanti, fino al platino. Non solo: questa correlazione è invece assente per elementi di numero atomico e numero di massa appena inferiori (rispettivamente da 34 a 42 e da 48 a 62).

«L’unica spiegazione plausibile per un simile risultato in stelle diverse è che ci sia uno stesso processo in atto durante la formazione degli elementi pesanti», dice uno dei coautori dello studio, Matthew Mumpower, fisico teorico al Los Alamos National Laboratory. Quale? Il team ha messo alla prova tutte le possibilità, e la fissione nucleare è stata l’unica in grado di riprodurre la tendenza osservata. «È un risultato incredibilmente “profondo” ed è la prima prova di fissione nucleare all’opera nel cosmo», continua Mumpower, «la conferma di una teoria che avevamo già proposto parecchi anni fa. Man mano che il numero di osservazioni è andato aumentando, il cosmo ha iniziato a dirci che qui c’è una firma, e che può provenire solo dalla fissione».

Fissione di cosa? Di elementi molto pesanti. Elementi sintetizzati attraverso il cosiddetto processo r, attivo in tutte e 42 le stelle del campione preso in esame. «Il processo r», spiega Ian Roederer della North Carolina State University, primo autore dello studio pubblicato su Science, «è necessario se si vogliono ottenere elementi più pesanti, ad esempio, del piombo e del bismuto. Richiede che vengano aggiunti molti neutroni e molto rapidamente. Il problema è che per riuscirci servono molta energia e molti neutroni. E il posto migliore in cui trovare entrambe le cose è là dove una stella di neutroni sta nascendo, o là dove due stelle di neutroni si scontrano e producono la materia prima per il processo stesso».

Uno fra i risultati più sorprendenti al quale sono giunti gli autori è il peso degli elementi che potrebbero venir sintetizzati – prima della fissione – nelle stelle prese in esame: il processo r, scrivono, può produrre atomi con una massa atomica di almeno 260. Mostrando dunque che potrebbero esistere in natura elementi al di là del confine ultimo della tavola periodica così come la conosciamo, perlomeno di quella degli elementi non sintetizzati in laboratorio.

Per saperne di più:


Marte al calar del vento solare


11044216
11044218
Questa visualizzazione dei dati descrive un periodo di diminuzione del vento solare su Marte avvenuto il 25 dicembre 2022, causando l’espansione della magnetosfera del pianeta verso l’esterno. Crediti: Goddard Space Flight Center/Nasa

Anche se spesso ce ne dimentichiamo, la nostra stella ci ricorda la sua presenza emettendo costantemente luce. Altrettanto costantemente, però, il Sole emette anche plasma, particelle cariche – principalmente protoni ed elettroni – che espelle dalla corona con il vento solare. La nostra stella può lanciare questi venti a velocità diverse, una “bassa” e una alta. Gli astronomi vi si riferiscono come a venti solari lenti e venti solari veloci. Entrambe le tipologie di flussi si originano dall’atmosfera solare esterna, ma mentre i primi emergono da una corona che non presenta caratteristiche osservative particolari, i secondi emergono da aree scure, fredde e a minore densità rispetto alle zone circostanti. Zone che appaiono temporaneamente sul Sole e che gli astronomi chiamano buchi coronali.

Quando sul Sole si formano queste strutture e vengono lanciati venti solari veloci, quello che succede è che nello spazio interplanetario il vento lento e il vento veloce interagiscono, formando quelle che in gergo vengono chiamate regioni di interazioni del flusso (Sir, stream interaction region, in inglese). La conseguenza di queste interazioni è che il vento solare lento è spazzato via dal vento solare veloce. Se questa interazione avviene in prossimità di un pianeta, il risultato è la riduzione della densità delle particelle cariche del vento solare in cui il pianeta stesso è immerso.

Maven (Mars Atmosphere e Volatile EvolutioN), il satellite della Nasa in orbita attorno a Marte dal 2014, è riuscito a osservare questo raro e straordinario fenomeno. I risultati delle osservazioni sono in corso di presentazione all’American Geophysical Union meeting 2023.

«Quando abbiamo visto per la prima volta i dati di Maven e quanto drammatico sia stato il calo del vento solare, ci è sembrato quasi incredibile», dice Jasper Halekas, professore all’Università dell’Iowa e autore principale di un nuovo studio in uscita sull’argomento. «Abbiamo dunque formato un gruppo di lavoro per studiare l’evento e abbiamo scoperto che questo periodo di minore densità del vento solare è ricco di scoperte incredibili».

Tutto è cominciato il 25 dicembre del 2022. Mentre noi eravamo seduti a tavola ad abbuffarci di prelibatezze, Maven, lungo la sua orbita scientifica, ha registrato un’improvvisa e drammatica diminuzione della densità del vento solare. La conseguenza della riduzione della pressione del vento solare sul Pianeta rosso è stata l’espansione della sua magnetosfera e della regione di bow shock, il confine nel quale il vento solare cade bruscamente a contatto con la magnetopausa del pianeta. Dopo poco tempo, dalla prospettiva del veicolo spaziale, il vento solare attorno a Marte era praticamente scomparso. L’analisi dei dati ottenuti con il Solar Wind Ion Analyzer (Swia), uno dei nove strumenti a bordo del satellite, ha mostrato una riduzione della densità delle particelle cariche di un fattore 100, causando l’espansione della magnetosfera e della ionosfera del pianeta fino a oltre tre volte le sue dimensioni normali. La causa di tutto questo è stato il plasma lanciato ad alta velocità verso il pianeta: plasma emerso dalla corona del Sole proprio da un buco coronale. Durante l’evento, spiegano i ricercatori, il campo magnetico del Sole, che tipicamente è incorporato nella ionosfera di Marte, è stato spinto verso l’esterno, trasformando la ionosfera del pianeta in uno strato non magnetizzato. Allo stesso tempo, aggiungono i ricercatori, lo strato tra il vento solare e la magnetosfera è diventato elettro-magneticamente tranquillo.

«Ciò che stiamo vedendo è come risponde Marte quando il vento solare viene effettivamente rimosso», sottolinea Halekas. «Si tratta di un ottimo caso studio per comprendere come sarebbe Marte se orbitasse attorno a una stella meno “ventosa”».

Una così forte riduzione della densità del vento solare attorno a un pianeta è estremamente rara. Qualcosa di simile è successo l’ultima volta nel 1999, quando il satellite Ace della Nasa ha osservato il fenomeno sulla Terra. In quel caso la densità del vento solare è diminuita di oltre il 98 per cento, causando l’espansione della magnetosfera del nostro pianeta fino a oltre cinque volte le sue dimensioni normali. Nel corso degli anni, diversi veicoli spaziali in orbita attorno a Marte e alla Terra hanno osservato aspetti diversi del fenomeno della “scomparsa” del vento solare. La recente osservazione dell’evento da parte di Maven rappresenta però la prima volta in cui vengono effettuare misurazioni simultanee sia della risposta del Sole che dell’atmosfera di Marte a simili eventi.

Con la stessa rapidità con cui è scomparso, il vento solare è ricomparso pochi giorni dopo, esattamente il 27 dicembre, riportando la magnetosfera e il bow shock alle loro proporzioni abituali. Maven ha così nuovamente potuto sentire il vento solare soffiare sui suoi strumenti, continuando a studiare come Marte si sia trasformato da mondo umido e ospitale al pianeta freddo e secco che vediamo oggi.

«Maven è stato progettato per osservare questo tipo di interazioni tra il Sole e l’atmosfera marziana», ricorda Shannon Curry, ricercatrice dell’Università della California, Berkeley e principal investigator di Maven. «Durante quest’evento davvero anomalo, la navicella spaziale ha fornito dati eccezionali».

Ora che il Sole si sta avviando verso il suo massimo solare, cioè il picco del suo ciclo di attività undecennale, Maven – che nel 2024 festeggerà i suoi dieci anni di missione in orbita attorno a Marte – potrebbe avere un impatto ancora maggiore sulla nostra comprensione degli eventi solari estremi. Maven non sta osservando solo le dinamiche dell’atmosfera marziana, ma sta anche monitorando gli input solari per migliorare la nostra comprensione del Sole», concludono i ricercatori.

Guarda il video (in inglese) sul canale YouTube Nasa Goddard:

youtube.com/embed/nF2FJB-QKs8?…


Benvenuti nell’Antropocene lunare


11024244
11024246
L’astronauta statunitense Buzz Aldrin mentre allestisce un esperimento sul vento solare durante la missione Apollo 11. Crediti: Nasa

Intatta, candida. Così Giacomo Leopardi definiva la Luna nel suo “Canto notturno di un pastore errante dell’Asia”. In realtà, la polvere lunare è stata perturbata dagli esseri umani già a partire da più di 60 anni fa, quando la navicella spaziale senza equipaggio dell’Unione Sovietica, “Luna 2”, si posò sulla superficie lunare, il 13 settembre 1959.

Da allora, dopo decenni di esplorazione spaziale, più di un centinaio di veicoli, con o senza equipaggio, hanno toccato la Luna, a volte atterrando e a volte precipitando. I più famosi sono sicuramente stati i moduli lunari della missione Apollo della Nasa, che hanno trasportato, per la prima volta, gli esseri umani sulla superficie lunare sotto gli occhi stupiti di tutti noi.

Nei prossimi anni, le missioni e i progetti spaziali già pianificati cambieranno il volto della Luna in modo ancora più estremo e, oggi, molti scienziati invitano a riflettere su un nuovo capitolo della relazione con il nostro satellite, riconoscendo che le attività antropiche sono, di fatto, diventate le forze principali che plasmano l’ambiente lunare. In un commento recentemente pubblicato venerdì scorso su Nature Geoscience, gli antropologi e i geologi dell’Università del Kansas sostengono, infatti, che è giunto il momento di dichiarare ufficialmente l’inizio di una nuova era geologica: l’Antropocene lunare.

«L’idea è molto simile a quella del dibattito sull’inizio dell’era Antropocene sulla Terra, iniziata con l’analisi di quanto l’umanità abbia influito sullo stato del nostro pianeta», dice Justin Holcomb, ricercatore postdoc all’Università del Kansas e primo autore del commento. «L’opinione comune è che l’Antropocene terrestre sia iniziato in un momento preciso del passato, remoto o prossimo, centinaia di migliaia di anni fa – oppure negli anni Cinquanta. Allo stesso modo, sulla Luna, sosteniamo che l’Antropocene lunare sia già iniziato – probabilmente con la missione Luna 2 – e vogliamo adesso cercare di evitare ulteriori danni importanti, o un ritardo nel riconoscerli, senza attendere l’attimo in cui non saremo più in grado di misurare un alone lunare significativo a causa delle attività antropiche. Sarebbe troppo tardi».

Per la sua ricerca, Holcomb ha collaborato con il collega antropologo Rolfe Mandel e con Karl Wegmann, professore di Sscienze marine, terrestri e atmosferiche alla North Carolina State University, tutti concordi sul fatto che l’impatto delle attività umane sia maggiore degli effetti di un naturale cambiamento della Luna. «I processi antropici stanno iniziando a superare lo scenario dei processi geologici sulla Luna», osserva Holcomb. «Questi processi comportano lo spostamento di sedimenti polverosi e frammenti di materiale – quello che chiamiamo regolite – e, in genere, includono impatti con meteoriti e spostamenti di masse. Tuttavia, il movimento di rover e di lander e l’allunaggio di equipaggi disturbano i sedimenti di regolite e causeranno un significativo cambiamento nel paesaggio lunare entro cinquant’anni».

Il mito della Luna come ambiente immutabile sembrerebbe, quindi, destinato a scomparire. Anzi, secondo gli autori della ricerca, nelle missioni lunari saranno presenti sempre più paesi, il che comporterà maggiori sfide ambientali. «Il nostro obiettivo è quello di sfatare il mito di una Luna statica e sottolineare l’importanza dell’impatto antropico, non solo nel passato, ma anche nel presente e nel futuro», sottolineano gli autori. «Dovremmo avviare discussioni sul nostro impatto sulla superficie lunare prima che sia troppo tardi».

11024248
Segni lasciati dalle missioni lunari. a) Cratere da impatto con la sonda lunare Usa Ranger 6 nel 1964; b) Sito di impatto dello stadio superiore dell’Apollo 13 Saturn IVB del 1970; c) Sito di schianto del lander lunare israeliano Beresheet dall’atterraggio morbido nel 2019; d) Sito di schianto del lander lunare di Israele dell’Apollo 13 Saturn IVB del 1970; (c) il sito di impatto del lander lunare Beresheet di Israele dopo un atterraggio morbido nel 2019; (d) il lander lunare Chang’e 4 della Cina, lanciato nel 2018; (e) Fotografia e impronta parziale lasciata dall’astronauta Charles Duke durante la missione Apollo 16 degli Usa nel 1972; (f) il sito del Lunar Surface Experiments Package dell’Apollo 17 degli Usa nel 1972, che mostra il Gravimetro della Superficie Lunare in primo piano e il modulo lunare sullo sfondo; (g) La sonda Surveyor 3 della Nasa atterrata nel 1967 e le impronte della missione Apollo 13, con il conseguente recupero di alcuni componenti della sonda; (h) Tracce del rover russo Lunokhod 2, durante la missione Luna 21 del 1973. Crediti: Holcomb et al., 2023

Inoltre, a differenza della Terra, dove vale il principio del “Leave No Trace“, non lasciare tracce, noto agli amanti della vita all’aria aperta e dell’escursionismo, sembra che queste regole ecologiche non valgano sulla Luna. Componenti di veicoli spaziali scartati e abbandonati, sacchetti di escrementi umani, attrezzature scientifiche e altri oggetti comuni come bandiere, palline da golf, fotografie e testi religiosi: curioso e vasto sembra essere il catalogo dei rifiuti delle missioni umane, diventati ormai parte integrante del suolo lunare.

Il team di ricerca ha sottolineato la necessità di considerare e calcolare il potenziale impatto antropico sulla Luna cercando di mitigare le conseguenze nelle future missioni spaziali. «Sappiamo che la Luna non ha atmosfera o magnetosfera proprie, ma una delicata esosfera composta da polvere e gas, con ghiaccio all’interno di aree permanentemente in ombra. Tutti elementi suscettibili alla propagazione dei gas di scarico», spiegano gli autori. «Le missioni future dovranno perciò considerare la possibilità di mitigare gli effetti deleteri sugli ambienti lunari».

Il concetto di Antropocene lunare non vuole dunque essere solo una “dichiarazione geologica”, ma anche un richiamo alla consapevolezza: oltre a sensibilizzare sul rispetto ambientale, gli scienziati sperano che ci sia maggiore attenzione alla vulnerabilità dei siti lunari – attualmente non protetti legalmente o politicamente – con la volontà di preservarne il valore storico e antropologico.

«Un tema ricorrente nel nostro lavoro di ricerca scientifica è l’importanza del materiale lunare e delle impronte sulla Luna come risorse preziose, parte di una documentazione archeologica che ci impegniamo a preservare», dice Holcomb. «Il concetto di Antropocene lunare vuole far riflettere anche sulla nostra capacità di conservazione di tali artefatti storici». Secondo i ricercatori statunitensi, si dovrebbero conservare e catalogare gli oggetti e i resti lasciati sul nostro satellite dopo le missioni. «Come archeologi, percepiamo le impronte sulla luna come un’estensione del viaggio dell’umanità fuori dall’Africa iniziato circa 300mila anni fa», conclude lo scienziato. «Queste impronte s’intrecciano con la narrazione generale dell’evoluzione. È in questo contesto che cerchiamo di catturare l’interesse non solo degli scienziati planetari, ma anche di archeologi e antropologi che di solito non sono coinvolti in tale tipo di tematiche planetarie».

Insomma, proteggere il “patrimonio spaziale” per conservare anche i segni del viaggio dell’umanità, dalla culla alla Luna, nuova pietra miliare nella nostra evoluzione.

Per saperne di più:


Con la Mond la tensione di Hubble scompare


11022314
media.inaf.it/wp-content/uploa…
L’immagine mostra la distribuzione della materia nello spazio (in blu; i punti gialli rappresentano le singole galassie). La Via Lattea (in verde) si trova in un’area con poca materia. Le galassie nella bolla si muovono in direzione delle densità di materia più elevate (frecce rosse). L’universo sembra quindi espandersi più velocemente all’interno della bolla. Crediti: AG Kroupa/University of Bonn

L’universo si espande e la velocità con cui lo fa è descritta dalla costante di Hubble-Lemaitre. Tuttavia, esiste un’interessante controversia sul valore di questa costante, in quanto diversi metodi di misurazione forniscono valori contraddittori. Questa controversia è conosciuta come tensione di Hubble e rappresenta un bel rompicapo per i cosmologi. Ora, i ricercatori delle Università di Bonn e St. Andrews hanno proposto una nuova soluzione: utilizzando una teoria alternativa della gravità – la Mond, acronimo di Modified Newtonian Dynamics – la discrepanza nei valori misurati può essere facilmente spiegata. Lo studio è stato pubblicato sulla rivista Monthly Notices of the Royal Astronomical Society.

L’espansione dell’universo fa sì che le galassie si allontanino le une dalle altre. La velocità con cui lo fanno è proporzionale alla distanza tra loro. Per esempio, se la galassia A è due volte più lontana dalla Terra della galassia B, anche la sua distanza da noi cresce due volte più velocemente. Uno dei primi a riconoscere questa correlazione è stato l’astronomo statunitense Edwin Hubble. Per calcolare la velocità con cui due galassie si allontanano l’una dall’altra è quindi necessario conoscere la loro distanza. Tuttavia, ciò richiede anche la conoscenza di una costante, per la quale questa distanza deve essere moltiplicata. Si tratta della cosiddetta costante di Hubble-Lemaitre, un parametro fondamentale della cosmologia. Il suo valore può essere determinato, ad esempio, osservando regioni molto distanti, nello spazio e nel tempo, corrispondenti a un’epoca prossima all’origine dell’universo, circa 380mila anni dopo il Big Bang. Da queste osservazioni si ottiene una velocità di quasi 244mila chilometri all’ora per megaparsec (un megaparsec corrisponde a poco più di tre milioni di anni luce).

«Ma si possono osservare anche corpi celesti molto più vicini a noi: le cosiddette supernove di tipo Ia, che sono un certo tipo di stelle che esplodono», spiega Pavel Kroupa dell’Helmholtz Institute of Radiation and Nuclear Physics dell’Università di Bonn. È possibile determinare con estrema precisione le distanze di queste supernove, che pertanto vengono chiamate candele standard. Sappiamo anche che gli oggetti che emettono luce “cambiano colore” quando si allontanano da noi – la loro luce si sposta verso il rosso quando si allontanano e verso il blu quando si avvicinano – e più velocemente si muovono, più intenso è il cambiamento. Un po’ come succede con la sirena di un’ambulanza o dei vigili del fuoco, il cui suono ha una frequenza maggiore quando si avvicina e minore quando si allontana. Se calcoliamo la velocità delle supernove Ia in base al loro cambiamento di colore e la mettiamo in relazione con la loro distanza, otteniamo un valore diverso per la costante di Hubble-Lemaitre: poco meno di 264mila chilometri all’ora per megaparsec.

«L’universo sembra quindi espandersi più velocemente nelle nostre vicinanze – cioè fino a una distanza di circa tre miliardi di anni luce – rispetto alla sua totalità», dice Kroupa. «E non dovrebbe essere così».

Recentemente è stata fatta un’osservazione che potrebbe spiegare questa anomalia. Secondo gli autori dello studio apparso su Mnras, la Terra si trova in una regione dello spazio in cui c’è relativamente poca materia, paragonabile a una bolla d’aria in una torta. La densità della materia è maggiore intorno alla bolla. Da questa materia circostante si sprigionano forze gravitazionali che attirano le galassie all’interno della bolla verso i bordi della bolla stessa. «Ecco perché si allontanano da noi più velocemente di quanto ci si aspetterebbe», spiega Indranil Banik della St. Andrews University. Le deviazioni potrebbero quindi essere spiegate semplicemente da una sotto-densità locale.

A supporto di questa ipotesi ci sono anche le evidenze riscontrate da un altro gruppo di ricerca, che recentemente ha misurato la velocità media di un gran numero di galassie che si trovano a 600 milioni di anni luce da noi. «È emerso che queste galassie si stanno allontanando da noi quattro volte più velocemente di quanto previsto dal modello cosmologico standard», spiega Sergij Mazurenko del gruppo di ricerca di Kroupa. Questo perché il modello standard non prevede tali “bolle”. Al contrario, la materia dovrebbe essere uniformemente distribuita nello spazio. Se così fosse, però, diventerebbe difficile spiegare quali forze spingano le galassie alla loro alta velocità.

«Il modello standard si basa sulla teoria della natura della gravità proposta da Albert Einstein», spiega Kroupa. «Tuttavia, le forze gravitazionali potrebbero comportarsi in modo diverso da quanto previsto da Einstein». I gruppi di lavoro delle Università di Bonn e St. Andrews hanno utilizzato una teoria modificata della gravità in una simulazione al computer. Questa “dinamica newtoniana modificata” (conosciuta come Mond) è stata proposta quattro decenni fa dal fisico israeliano Mordehai Milgrom e ancora oggi è considerata una teoria outsider. «Nei nostri calcoli, tuttavia, la Mond prevede con precisione l’esistenza di queste bolle», conclude Kroupa.

Se si assume che la gravità si comporti effettivamente secondo le ipotesi di Milgrom, la tensione di Hubble scompare: ci sarebbe una sola costante per l’espansione dell’universo e le deviazioni osservate sarebbero dovute a irregolarità nella distribuzione della materia.

Per saperne di più:

Guarda l’intervista a Pavel Kroup su MediaInaf Tv:

youtube.com/embed/cUccExCdLC0?…


Sorvegliati Spaziali a teatro


10923166
10923168
Crediti: Sorvegliati Spaziali, Il Piccolo Teatro d’Arte

La relazione tra astronomia e teatro è un rapporto di lunga data, le cui radici sono antiche e profonde. Sorvegliati Spaziali, il progetto di comunicazione sulla difesa planetaria dell’Istituto nazionale di astrofisica, vuole contribuire a questa tradizione per portare su un palcoscenico virtuale il lavoro e le emozioni delle donne e degli uomini che hanno posto le fondamenta delle ricerche sulla difesa planetaria.

Da sempre uno degli scopi del progetto è infatti quello di esplorare diverse forme di linguaggi di comunicazione scientifica per raggiungere un ampio pubblico. Senza comprometterne l’accuratezza, il teatro può infatti tradurre idee scientifiche complesse in narrazioni coinvolgenti e accessibili a una vasta gamma di persone, e quella di esplorare questo linguaggio, creando una sinergia con attori professionisti, è stata una delle prime idee di Sorvegliati Spaziali.

Ecco così che è nato il progetto Sorvegliati Spaziali a teatro, una serie di video-monologhi, ognuno approssimativamente della durata di dieci minuti, raccontati in prima persona per dare corpo e voce agli studi di scienziate e scienziati legati alla difesa planetaria e quindi al mondo di asteroidi e comete, meteore e meteoriti, meteorologia e rifiuti spaziali.

Il progetto nasce come frutto di una stretta collaborazione dell’autrice di quest’articolo, coordinatrice di Sorvegliati Spaziali e in forze all’Inaf – Istituto di radioastronomia, e di Daniele Gardiol dell’Inaf – Osservatorio astrofisico di Torino con Claudio Ottavi Fabbrianesi, direttore artistico de Il Piccolo Teatro d’Arte, una compagnia di prosa composta prevalentemente da professionisti under-30 che ha all’attivo altre due produzioni con Inaf, la performance itinerante Selene – un mistero lunare e il documentario Cavezzo – storia di una meteorite.

In un’ambientazione ricostruita ad hoc e con la colonna sonora originale a cura di Roberto Bertulli, i protagonisti di ogni video si rivolgono direttamente al pubblico raccontando dettagli sui loro studi ma anche le emozioni e le riflessioni che li hanno accompagnati. Ascolteremo le parole tratte dai loro scritti, adattate da lettere o immaginate dalle loro opere, per cercare di attraversare il tempo e trovare una connessione anche emotiva con questi personaggi di scienza.

La sinergia tra scienziati e artisti teatrali può portare a produzioni che possono comunicare la bellezza e l’importanza della scienza in modo unico. «Sono sempre stato affascinato dalla scienza, specialmente dalla fisica, dalla matematica e dall’astronomia e, da profano, sono convinto che l’estetica possa giocare un ruolo nell’immaginare una buona teoria. Alcune formule – tra le poche che sono riuscito a capire – hanno una bellezza impeccabile e mi colpiscono per la loro capacità di condensare in modo estremamente elegante tanta complessità in pochissimi tratti d’inchiostro», dice il regista Claudio Ottavi Fabbrianesi. «In Sorvegliati Spaziali a teatro ho svolto il lavoro un po’ in senso contrario, cercando di ricostruire, per renderli fruibili a tutti, i procedimenti deduttivi che hanno condotto alla formulazione delle teorie, anche se temo che il risultato possa non essere altrettanto elegante. Quella di collaborare con Inaf, dando un contributo al progetto Sorvegliati Spaziali, è stata per me una bellissima occasione che mi ha permesso di coniugare la mia passione per la scena e la mia curiosità scientifica».

Nei primi tre episodi, in uscita su MediaInaf Tv giovedì 7, 14 e 21 dicembre, incontreremo rispettivamente Giovanni Virginio Schiaparelli, Maria Clara Eimmart, e Giuseppe Piazzi.

E ora si apra il sipario!

youtube.com/embed/AjZxBBG4twA?…

Sorvegliati Spaziali a Teatro è una produzione del Piccolo Teatro dell’Arte. Attori vari. Soggetto di Daria Guidetti, Daniele Gardiol, Claudio Ottavi Fabbrianesi e Pierdomenico Memeo. Sceneggiatura di Claudio Ottavi Fabbrianesi. Musiche di Roberto Bertulli. Regia, riprese e montaggio di Claudio Ottavi Fabbrianesi.


Pianeti in fasce tra i ghiacci siderali del Camaleonte


10917361
10917363
Immagine composita della regione attorno al disco protoplanetario HH 48 NE. La luce diffusa sul disco è rossa. Il gas del vento sopra il disco è verde. Il getto è blu. Crediti: Hst, Jwst, Sturm et al.

Il ghiaccio è importante per la formazione di pianeti e comete. Grazie al ghiaccio, le particelle solide di polvere si raggruppano in frammenti più grandi, dai quali si formano poi pianeti e comete. Ed è probabile che siano stati gli impatti di comete ghiacciate ad aver portato acqua sulla Terra, fornendo così la materia prima per mari e oceani. Inoltre, il ghiaccio contiene atomi di carbonio, idrogeno, ossigeno e azoto – atomi importanti per la nascita della vita. Tuttavia, fino a oggi, il ghiaccio presente nei dischi di formazione dei pianeti non era mai stato mappato in dettaglio. Questo perché la vista dei telescopi terrestri, da un lato, è ostacolata dalla nostra atmosfera acquosa, mentre i telescopi spaziali, dall’altro, non erano fino a poco tempo fa grandi a sufficienza per rilevare obiettivi così deboli. Ora però il telescopio spaziale James Webb (Jwst) permette di superare entrambi i problemi.

Un team internazionale di ricercatori guidato da Ardjan Sturm dell’Università di Leiden (Paesi Bassi) ha così potuto studiare la luce della stella HH 48 NE mentre attraversa – illuminandolo – il suo disco di formazione planetaria in direzione di Jwst. La stella e il disco si trovano a circa 600 anni luce dalla Terra, nella costellazione meridionale del Camaleonte. Visto di lato – perché è di taglio che lo stiamo osservando – il disco ricorda un hamburger, con una fascia centrale scura e due “panini” luminosi sopra e sotto. Nel suo percorso verso il telescopio, la luce della stella entra in collisione con le molecole del disco. Ciò da luogo a bellissimi spettri di assorbimento con picchi specifici per ogni molecola – una sorta d’impronta digitale. Il prezzo da pagare è che la luce che raggiunge il telescopio è poca, in particolare dalla parte più densa del disco, la regione della fascia più scura. Ma poiché il James Webb Space Telescope, quanto a sensibilità non ha rivali, anche un flusso di luce così ridotto non costituisce un problema.

10917365
In alto a sinistra: la regione osservata. In alto a destra: dettagli sulla luce osservata e sul ghiaccio d’acqua. In basso: spettro con i picchi e gli avvallamenti relativi alle diverse molecole. Crediti: Sturm et al., A&A, 2023

È così che ricercatori sono riusciti a osservare, negli spettri d’assorbimento, picchi ben distinti di ghiaccio d’acqua (H2O), di anidride carbonica (CO2) e di monossido di carbonio (CO). Uno dei risultati notevoli dello studio è la scoperta che il ghiaccio di CO, rilevato dai ricercatori, potrebbe essere mescolato con i ghiacci – meno volatili – di CO2 e d’acqua, consentendogli così di mantenersi ghiacciato anche in regioni più vicine alla stella di quanto si pensasse in precedenza. Sono state inoltre individuate tracce di ghiaccio di ammoniaca (NH3), cianato (OCN-), solfuro di carbonile (OCS) e anidride carbonica pesante (13CO2) – ovvero con l’isotopo carbonio-13 al posto del comune carbonio-12. Il rapporto tra anidride carbonica “regolare” e anidride carbonica pesante, in particolare, ha permesso ai ricercatori di calcolare per la prima volta la quantità di anidride carbonica presente nel disco. «Grazie a questi calcoli», dice Sturm, «possiamo ora iniziare trarre conclusioni più sicure sulla fisica e la chimica alla base della formazione stellare e planetaria».

Un ruolo determinante, in questo studio, lo hanno avuto anche i ricercatori dell’Istituto nazionale di astrofisica: per interpretare correttamente gli spettacolari spettri prodotti da Jwst sono stati infatti utilizzati dati prodotti dal Laboratorio di astrofisica sperimentale dell’Inaf di Catania. Dati che hanno permesso di fare luce sulla composizione chimica dei ghiacci e sull’interazione tra le loro diverse componenti.

10917367
Maria Elisabetta Palumbo e Riccardo Urso nel Laboratorio di astrofisica sperimentale dell’Inaf di Catania. Crediti: Giuseppe Baratta/Inaf Catania

«Il Laboratorio di astrofisica sperimentale di Catania è equipaggiato con tutta la strumentazione necessaria per simulare le condizioni di vuoto e bassa temperatura in cui si trovano i ghiacci nelle regioni di formazione planetaria. In laboratorio», spiega Maria Elisabetta Palumbo, dirigente di ricerca all’Inaf di Catania e coautrice dello studio pubblicato su A&A, «possiamo simulare sia le fasi di formazione dei ghiacci sia i processi a cui sono sottoposti a causa della interazione con la protostella. Durante gli esperimenti acquisiamo spettri infrarossi che utilizziamo per il confronto con le osservazioni astronomiche».

«Gli esperimenti realizzati nel Laboratorio di astrofisica sperimentale di Catania», aggiunge un altro dei coautori dello studio, Riccardo Urso, ricercatore all’Inaf di Catania, «ci permettono di capire meglio qual è la composizione chimica dei ghiacci in HH 48 NE e come le molecole sono mescolate fra loro. Particolare attenzione è stata dedicata alla molecola di OCS (solfuro di carbonile), che è l’unica molecola contente zolfo identificata fino a oggi nei ghiacci in un disco di una regione di formazione stellare. Lo studio del profilo della banda ci ha permesso di capire che l’OCS è in miscela con altre molecole e che si trova in regioni del disco a diversa distanza dalla stella centrale».

Per il prossimo futuro l’intenzione dei ricercatori è studiare spettri più ampi dello stesso disco planetario e di osservare altri dischi di formazione planetaria. Se la scoperta sulle miscele di ghiaccio di CO fosse confermata, sottolineano, ciò modificherebbe la nostra attuale comprensione delle composizioni planetarie, portando a ipotizzare pianeti più ricchi di carbonio.

Per saperne di più:


Another Brick in the Webb


10903738
Alcuni potrebbero pensare che ormai sappiamo tutto sulla Via Lattea, la galassia per eccellenza, quella di cui sentiamo parlare sin da piccoli nelle notti estive scrutando il cielo.

In realtà, la nostra galassia nasconde diversi segreti: ad esempio, nel suo cuore c’è una zona oscura che ha suscitato per anni vivaci dibattiti all’interno della comunità scientifica. Un recente studio a guida statunitense ha provato a far luce proprio su questa misteriosa regione al centro della Via Lattea: una turbolenta nube di gas – soprannominata scherzosamente The Brick, il Mattone – proprio per la sua opacità.

10903740
In questa immagine del “Mattone”, i ricercatori hanno utilizzato i filtri del Jwst per rimuovere tutte le stelle. Il risultato mostra la nube scura al centro, con il blu che rappresenta il monossido di carbonio. Il potente sistema di filtri di Jwst rende possibili immagini come questa. Crediti: Ginsburg et al., ApJ, 2023

Per decifrare questo enigma galattico, Adam Ginsburg, astronomo dell’Università della Florida, e i suoi studenti Desmond Jeff, Savannah Gramze e Alyssa Bulatek, si sono rivolti al telescopio spaziale James Webb (Jwst) e al suo “sguardo” a infrarossi. Le nuove osservazioni, riportate questa settimana su The Astrophysical Journal, non solo mettono in luce l’esistenza d’un paradosso al centro della nostra galassia, ma indicano la necessità di riconsiderare teorie finora ben consolidate sulla formazione delle stelle.

Con il suo inaspettato tasso di formazione stellare, estremamente basso, The Brick è da sempre considerata una delle regioni più intriganti e studiate e, per decenni, ha sfidato gli scienziati: perché, pur essendo piena di gas denso, dunque matura come “fabbrica stellare”, nel Mattone non nascono poi così tante nuove stelle?

10903742
Il Mattone è una delle nubi molecolari più massicce e dense della galassia che non presenta segni di formazione stellare diffusa. Non si tratta di un’unica struttura coerente, nonostante il nome che suona “solido”. Si tratta invece di un sistema di strutture complesse agglomerate. Crediti: J. D. Henshaw et al., 2019

Grazie alle avanzate capacità infrarosse della NirCam (Near Infrared Camera) del Jwst, il team guidato da Ginsburg ha scrutato all’interno della regione, scoprendo una notevole presenza di monossido di carbonio (CO) allo stato solido – una quantità di ghiaccio significativamente maggiore di quanto previsto in precedenza. «Le nostre osservazioni dimostrano in modo convincente che il ghiaccio è molto diffuso, al punto che ogni osservazione futura ormai dovrà tenerne conto», dice Ginsburg, primo autore dell’articolo.

Dato che le stelle nascono tipicamente in ambienti di gas freddo, la presenza significativa di ghiaccio di CO dovrebbe suggerire che nel Mattone esista una zona fiorente per la formazione stellare. Ma così non sembra essere. Nonostante questa ricchezza di monossido di carbonio freddo, gli scienziati hanno infatti scoperto, contro ogni aspettativa, che il gas all’interno di The Brick è più caldo rispetto ad altre nubi simili.

Inoltre, le recenti osservazioni metterebbero in discussione anche ciò che sapevamo finora sulla quantità di CO nel centro della nostra galassia e sul rapporto gas-polvere in quella regione: entrambe le misure sembrano essere minori di quanto si pensasse in precedenza. «Con Jwst, stiamo aprendo nuove strade per misurare le molecole in fase solida – dunque ghiaccio – e non solo gassosa, come fatto finora», continua Ginsburg. «Questa nuova visione ci offre una panoramica più completa su dove siano le molecole e su come vengano trasportate». Generalmente, infatti, la quantità di monossido di carbonio galattico è stata studiata solo limitatamente all’emissione gassosa.

10903744
La zona molecolare centrale nel cuore della Via Lattea in cui è evidenziato il Mattone. Crediti: Henshaw / Mpia

Per svelare la distribuzione del ghiaccio di CO all’interno della vasta nube, i ricercatori hanno sfruttato l’intensa retroilluminazione da parte delle stelle e del gas caldo. Se in precedenza le stelle misurate erano circa un centinaio, i nuovi risultati ne comprendono oltre diecimila – su 56146 in totale, rilevate e catalogate in tutti e sei i filtri ottici utilizzati –, fornendo preziose indicazioni sulla natura del ghiaccio interstellare. Dato che, probabilmente, il nostro Sistema solare ha avuto origine grazie alla combinazione di ghiaccio su piccoli grani di polvere, combinatisi poi per formare pianeti e comete, la scoperta del team statunitense segna di fatto un passo avanti anche verso la comprensione delle origini delle molecole che hanno dato forma al nostro vicinato cosmico.

E non finisce qui. Questi sono solo i risultati iniziali di una piccola parte delle osservazioni effettuate sul Mattone dal telescopio spaziale James Webb. «Non conosciamo, ad esempio, le quantità esatte relative di CO, di acqua, di anidride carbonica e delle molecole più complesse. Con la spettroscopia potremo misurarle e farci un’idea di come la chimica progredisca nel tempo in queste nubi», conclude Ginsburg che, con il suo gruppo, ora punta a un’indagine più estesa dei ghiacci celesti.

All in all, come cantavano i Pink Floyd, un’indagine che, con l’avvento del Jwst e dei suoi filtri avanzati, offre un’opportunità ghiotta e promettente per continuare la nostra esplorazione cosmica.

Per saperne di più:


Fischio d’inizio per i Campionati di astronomia


10895651
10895653
Studenti del liceo “Berard” di Aosta impegnati nella preselezione. Crediti: Marina Villani

Oggi, mercoledì 6 dicembre, si è svolta in tutt’Italia la fase di preselezione per i partecipanti alla 22esima edizione dei Campionati italiani di astronomia. Campionati che di anno in anno superano se stessi: anche quest’anno registrano un nuovo record delle iscrizioni per numero di scuole partecipanti, 394, e per numero totale di studenti iscritti, 12432, a fronte di 287 scuole e 9318 studenti dell’edizione precedente.

Anche per questa edizione i partecipanti sono suddivisi in quattro categorie: Junior 1, ovvero le studentesse e gli studenti frequentanti il terzo anno delle scuole secondarie di primo grado (per un totale di 5060 iscritti), Junior 2 e Senior con i frequentanti le scuole secondarie di secondo grado nati, rispettivamente, negli anni 2009-2010 e 2007-2008 (3054 e 2995 partecipanti) e infine i Master, anch’essi frequentanti le scuole secondarie di secondo grado, ma nati negli anni precedenti il 2007 (1323 partecipanti).

Si conferma buona la distribuzione di genere, sia nel totale degli iscritti che nelle singole categorie: maschi 55 per cento, femmine 45 per cento.

«È un risultato che va oltre le nostre più rosee previsioni», dice Giuseppe Cutispoto, coordinatore del Comitato organizzatore. «Dopo il periodo di crisi legato alla pandemia, la nostra crescita è stata continua anno dopo anno, ma non ci aspettavamo di superare così largamente i risultati delle più recenti edizioni. Con grande entusiasmo stiamo già organizzando la gara interregionale del 7 e 8 febbraio 2024, che vedrà coinvolte un numero ancor maggiore di sedi sul territorio italiano e non solo. Infatti, per la prima volta, registriamo anche la partecipazione di due scuole italiane all’estero, una a Pointe-Noire, in Congo, e l’altra a Teheran. Anche questo è un segnale di crescita dei nostri Campionati».

10895655
Quest’anno, per la prima volta, hanno partecipato alla preselezione anche due scuole italiane all’estero, una a Pointe-Noire in Congo (in foto) e l’altra a Teheran. Crediti: Alessio Gava

Quanto alla distribuzione geografica, la regione Calabria rimane sul primo gradino del podio (con 59 scuole e 4157 studenti in totale), seguita dal Lazio (44 scuole e 1208 studenti) e dalla Sicilia (41 scuole e 1024 studenti). In quasi tutte le regioni si è registrato un forte aumento della partecipazione. Da segnalare la crescita della Campania e dell’Abruzzo, che passano, rispettivamente, da 614 e 323 iscritti all’edizione del 2023 a 1251 e 677 partecipanti di quest’anno.

L’ottimo risultato delle iscrizioni segue quelli, non meno brillanti, ottenuti dalla squadra italiana alle recenti Olimpiadi internazionali di astronomia, che si sono svolte a Pechino dal 4 al 14 novembre. «Siamo molto contenti», dicono la team leader, Giulia Iafrate (Inaf di Trieste) e il jury member, Gaetano Valentini (Inaf d’Abruzzo), della squadra azzurra, «perché dopo due anni è stato possibile tornare a svolgere una finale internazionale in presenza, nonostante i problemi legati ai conflitti in corso abbiano limitano la partecipazione. L’Italia ha avuto un grande ruolo nel tener vivo il movimento olimpico per avere – nel momento delicato della pandemia – organizzato in modalità remota due edizioni delle Olimpiadi internazionali (Milano 2022 e Matera 2023). In Cina il risultato della squadra italiana è stato molto soddisfacente, con due argenti, tre bronzi e una menzione speciale per la migliore prova osservativa».

Tornando alla competizione italiana, la fase di preselezione di oggi si è svolta in simultanea in tutte le scuole partecipanti e per tutte le categorie a partire dalle ore 11:00. Un tempo massimo di quarantacinque minuti per compilare un questionario di 30 domande a risposta multipla, suddivise in tre livelli di difficoltà crescente, su argomenti che andavano dalla galassia di Andromeda alla radioastronomia, dal programma lunare Artemis alla radiazione cosmica di fondo. Per la preparazione, gli studenti hanno avuto a disposizione un dossier preparato dal comitato organizzatore sugli argomenti del questionario. Gli studenti che supereranno la preselezione – i loro nomi saranno resi noti entro il 9 gennaio – accederanno alla gara interregionale, in calendario il 7 e 8 febbraio 2024 in varie sedi su tutto il territorio nazionale. Sede della finale nazionale di quest’anno sarà Reggio Calabria, presso il Liceo scientifico “Leonardo da Vinci”, dal 16 al 19 aprile 2024.


È l’ora della teoria postquantistica della gravità


10893254
10893256
Jonathan Oppenheim (il primo da destra) e il suo team all’Ucl. Crediti: philipp@photoammon.com

L’incompatibilità fra relatività generale e meccanica quantistica ha i giorni contati? È quanto lasciano sperare due articoli pubblicati questa settimana – uno su Physical Review X e l’altro su Nature Communications – da un ristretto gruppo di fisici dello University College London (Ucl) guidati da Jonathan Oppenheim. Come? Proponendo che lo spazio-tempo non abbia alcuna necessità di essere governato dalla teoria quantistica, e possa dunque continuare a essere un campo “classico”. Quella che va modificata sarebbe invece la teoria quantistica stessa.

«La teoria quantistica e la teoria della relatività generale di Einstein sono matematicamente incompatibili tra loro, quindi è importante capire come si risolve questa contraddizione. È lo spazio-tempo che deve essere quantizzato, oppure dobbiamo modificare la teoria quantistica, o ancora si tratta di qualcosa di completamente diverso? Ora che abbiamo una teoria fondamentale coerente in cui lo spazio-tempo non viene quantizzato», dice Oppenheim, riferendosi alla sua proposta, «possiamo azzardare scommesse».

Un approccio radicale, in un certo senso rivoluzionario: è da quasi un secolo che i fisici stanno tentando in tutti i modi di unificare le due grandi teorie del Novecento, e i due approcci che vanno per la maggiore – quello della teoria delle stringhe e quello della gravità quantistica – hanno sempre suggerito che sia la teoria della gravità di Einstein a dover essere rivista, o “quantizzata”, per adattarsi alla teoria quantistica. Non viceversa.

Un approccio radicale al punto che due tra i più noti esponenti dei due approcci – Geoff Penington per la teoria delle stringhe e Carlo Rovelli per la gravità quantistica – sono talmente scettici riguardo alla nuova teoria “postquantistica” – così è stata chiamata – da aver accettato una scommessa uno a cinquemila con Oppenheim. Nel caso in cui si dovesse dimostrare la natura quantistica dello spazio-tempo, prevede l’accordo, Oppenheim regalerà a ciascuno dei due colleghi un item a loro scelta. Se invece risultasse corretto il contrario, Penington e Rovelli daranno ciascuno 5000 items a Oppenheim. Dove per item si intende un qualsiasi oggetto a scelta del vincitore, di valore non superiore a 25 cents. Viene anche suggerito qualche esempio: un sacchetto di patatine, una modesta quantità d’olio d’oliva, di aceto balsamico, di vino o… una bazinga ball!

Insomma, anche nella peggiore delle ipotesi, Oppenheim dovrebbe cavarsela con poco. Ma come stabilire chi vincerà? È qui che la vicenda si fa interessante: la teoria postquantistica dei fisici dell’Ucl promette di essere falsificabile sperimentalmente. Anzi, ci sarebbe più d’un modo per metterla alla prova. Lo illustra il secondo articolo, quello pubblicato su Nature Communications, che già nel titolo riporta “testing the quantum nature of gravity”.

10893258
Il fisico dell’Ucl Carlo Sparaciari, fra gli autori dello studio pubblicato su Nature Communications. Crediti: Ucl

Fra gli autori di questo secondo articolo c’è anche un giovane ricercatore italiano, Carlo Sparaciari, nato a Varese, laureato alla Statale di Milano e oggi ricercatore all’Ucl. Ed è a lui che abbiamo chiesto come si potrebbe mettere alla prova la teoria postquantistica.

«Il nostro lavoro», spiega Sparaciari a Media Inaf, «parte dall’idea che la gravità e lo spazio-tempo siano classici, mentre la materia sia quantistica. Per poter mantenere questa differenza tra gravità e materia, l’interazione tra loro deve introdurre un certo grado di “casualità” – come quando si gioca a dadi – nel comportamento dello spazio-tempo. Questa casualità nello spazio-tempo si rivelerebbe nella variazione del “peso” di oggetti come una mela, o un atomo».

Ad esempio, al Bureau international des poids et mesures, in Francia, si pesa a più riprese, e con estrema precisione, il prototipo del chilogrammo, una massa di riferimento da 1 kg che dal 1889 – e fino al 2019 – è stata usata appunto per la definizione di chilogrammo. «Se per esempio la fluttuazione della massa in questo esperimento fosse minore di una certa soglia», spiega Sparaciari, «la nostra teoria verrebbe falsificata».

Oppenheim e colleghi sottolineano inoltre come la teoria postquantistica possa avere implicazioni che vanno oltre la gravità. Il “postulato della misura” della teoria quantistica, per esempio, non sarebbe più necessario, poiché le sovrapposizioni quantistiche – spiegano – si localizzerebbero necessariamente attraverso la loro interazione con lo spazio-tempo classico.

Vale infine la pena osservare che all’origine dell’elaborazione teorica di Oppenheim c’è un fenomeno legato anche all’astrofisica: è infatti “figlia” del tentativo di risolvere il paradosso dell’informazione nei buchi neri. Secondo la teoria quantistica standard, un oggetto che entra in un buco nero dovrebbe poter essere in qualche modo irradiato all’esterno, poiché l’informazione non può essere distrutta, ma ciò viola la relatività generale, secondo la quale non è possibile conoscere gli oggetti che attraversano l’orizzonte degli eventi del buco nero. La perdita assoluta dell’informazione sarebbe invece ammessa dalla teoria postquantistica, sciogliendo così i presupposti del paradosso. Bazinga!

Per saperne di più:


Angelo Antonelli fra gli Italian Knowledge Leaders


10877674
10877676
Crediti: Convention Bureau Italia

Sono trenta gli Italian Knowledge Leaders premiati oggi a Roma, presso la Sala della Protomoteca in Campidoglio, e tra di loro c’è Angelo Antonelli, astrofisico dell’Istituto nazionale di astrofisica e direttore dell’Osservatorio astronomico di Roma, per il suo contributo a portare in Italia la General Assembly della Iau – l’Unione astronomia internazionale – nel 2027.

Italian Knowledge Leaders, arrivato oggi alla sua terza edizione, è un progetto nato dalla collaborazione tra Enit, l’Agenzia nazionale del turismo, e Convention Bureau Italia, l’ente privato nazionale che da quasi un decennio promuove il turismo congressuale e degli eventi in Italia. L’evento, che gode del patrocinio del Ministero del turismo, nasce con l’obiettivo di promuovere il capitale intellettuale italiano, riconoscendo la qualità e l’impegno costante di coloro che si sono distinti nel panorama accademico e scientifico, e rappresenta un’importante tappa di questo percorso, che non solo intende celebrare il successo di coloro che hanno già raggiunto importanti traguardi ma anche incoraggiare e supportare nuovi “leader intellettuali” nel perseguire una maggiore attività a livello internazionale.

Grazie alla partecipazione di prestigiosi congressi internazionali sul territorio è possibile promuovere il nostro Paese come polo di eccellenza e di conoscenza. Questo ha un impatto tangibile sullo sviluppo del settore accademico e scientifico italiano, ma anche sull’economia e la cultura del Paese nel suo complesso. La General Assembly della Iau si tiene ogni tre anni e raccoglie oltre quattromila astronomi da tutto il mondo che, per due settimane, discutono dello stato dell’arte dell’astrofisica e prendono decisioni che possono cambiare la storia dell’astronomia – come avvenne nel 2006 con il “declassamento” di Plutone a pianeta nano.

10877678
Angelo Antonelli, direttore dell’Inaf – Osservatorio astronomico di Roma, Italian Knowledge Leader 2023. Crediti: E. Nichelli/Inaf

«Questo premio viene assegnato da Enit e Convention Bureau Italia, in collaborazione con la Crui e il Ministero del turismo, a quegli accademici che si sono distinti per essersi adoperati a far conoscere l’Italia all’estero tramite l’organizzazione di grandi eventi. La mia candidatura è stata presentata da Symposia per aver promosso l’iniziativa che ha riportato in Italia dopo 70 anni la General Assembly dell’International Astronomical Union», spiega Angelo Antonelli a Media Inaf, ricordando che l’Assemblea generale si terrà a Roma dal 9 al 20 agosto del 2027 e sarà organizzata dall’Inaf in collaborazione con Symposia srl di Patrizia Pasolini. L’ Italia aveva già ospitato nel 1919 la prima Assemblea generale della massima organizzazione mondiale nel campo dell’astronomia, e poi di nuovo nel 1952. Con l’edizione del 2027 diventerà il primo paese a ospitare per la terza volta questa importante manifestazione.

Angelo Antonelli è un astrofisico e dal 2018 ricopre il ruolo di direttore dell’Osservatorio astronomico di Roma, uno degli istituti dell’Inaf. Precedentemente è stato responsabile dello Space Science Data Center dell’Agenzia spaziale italiana. Autore di oltre quattrocento articoli su riviste internazionali, ha ricevuto il Premio Bruno Rossi dell’American Astronomical Society nel 1998 per la soluzione della natura extragalattica dei lampi gamma. È membro delle collaborazioni internazionali Magic e Cta, si è sempre occupato di astrofisica delle alte energie e, in particolare, dello studio di fenomeni transienti meglio conosciuti come lampi gamma, o Grb.


È atteso per il 2024 il picco dell’attività solare


10875998
10876000
Immagine dalla missione del Solar Dynamics Observatory del disco solare con diverse macchie solari, che appaiono scure rispetto all’ambiente circostante. Crediti: Hmi/Sdo/Nasa

I ricercatori del Center of Excellence in Space Sciences India dell’Iiser Kolkata hanno scoperto una nuova relazione tra il campo magnetico del Sole e il ciclo delle macchie solari, che può aiutare a prevedere quando si verificherà il picco dell’attività solare.

Il loro lavoro indica che l’intensità massima del ciclo solare numero 25 – quello attualmente in corso – è imminente e probabilmente si verificherà entro un anno. La nuova ricerca è apparsa su Monthly Notice of the Royal Astronomical Society: Letters.

Vediamo come sono arrivati a questa interessante conclusione. Il Sole è composto da plasma, ossia gas caldo ionizzato. Gli enormi flussi di plasma e la convezione agiscono insieme per generare all’interno del Sole campi magnetici che si manifestano sulla superficie come macchie scure. Queste macchie solari sono paragonabili, in termini di estensione, alle dimensioni della Terra e sono sedi di un intenso campo magnetico, circa 10mila volte più forte del campo magnetico terrestre.

A volte i campi magnetici delle macchie solari vengono “interrotti” da eventi violenti che provocano la nascita di tempeste magnetiche come brillamenti solari o espulsioni di massa coronale. Queste tempeste rilasciano radiazioni di alta energia e scagliano grandi quantità di plasma magnetizzato nello spazio. Le più intense, quando dirette verso la Terra, possono effettivamente causare gravi danni ai satelliti in orbita, alle reti elettriche e alle telecomunicazioni.

Secoli di osservazioni mostrano, a partire dagli inizi del 1600, che il numero di macchie solari varia periodicamente: circa ogni 11 anni il numero di macchie e l’intensità dell’attività solare raggiungono un picco. Tuttavia, prevedere quando si verificherà questo picco non è semplice.

Il ciclo solare è prodotto da un meccanismo a dinamo azionato dall’energia proveniente dai flussi di plasma all’interno della nostra stella. Si ritiene che questo meccanismo coinvolga due componenti primarie del suo campo magnetico, una che si manifesta nel ciclo delle macchie solari e un’altra che si manifesta in un riciclo del campo dipolare su larga scala; quest’ultima componente è molto simile al campo magnetico terrestre, che si estende da un polo del Sole all’altro.

Con il ciclo delle macchie solari si osserva anche che il campo dipolare del Sole aumenta e diminuisce di intensità, i poli magnetici nord e sud si scambiano, sempre ogni 11 anni. Nel 1935, l’astronomo svizzero Max Waldmeier scoprì che quanto più veloce è la rapidità di ascesa di un ciclo di macchie solari, tanto più intensa è la sua forza, quindi i cicli più forti impiegano meno tempo per raggiungere la loro massima intensità. Questa relazione è stata spesso utilizzata per prevedere la forza di un ciclo di macchie solari in base alle osservazioni della sua fase iniziale di ascesa.

Nello studio in questione, Priyansh Jaswal, Chitradeep Saha e Dibyendu Nandy dell’Iiser di Calcutta hanno riportato la scoperta di una nuova relazione, ossia che anche il tasso di diminuzione del campo magnetico del dipolo del Sole è correlato al tasso di aumento del ciclo delle macchie solari in corso.

Questa scoperta, che utilizza archivi di dati vecchi di decenni provenienti da diversi osservatori solari in tutto il mondo, completa l’effetto Waldmeier, collegando le due componenti primarie del campo magnetico del Sole e sostenendo la teoria secondo cui l’evoluzione delle macchie solari è parte integrante del funzionamento del processo di dinamo solare, anziché esserne un semplice sintomo.

In particolare, gli scienziati hanno dimostrato come le osservazioni del tasso di diminuzione del campo magnetico dipolare del Sole possano essere utilmente combinate con le osservazioni delle macchie solari per prevedere quando il ciclo in corso raggiungerà il picco. La loro analisi suggerisce che il massimo del 25esimo ciclo solare si verificherà molto probabilmente all’inizio del 2024, con un’incertezza nella stima che va fino a settembre 2024. Grazie a questa scoperta, si apre una nuova finestra per la previsione dei tempi del picco dei cicli solari, quando si prevede l’attività più intensa e le perturbazioni meteorologiche spaziali più frequenti.

«Questo lavoro determina una correlazione interessante tra il tasso di decadimento del campo magnetico poloidale e il tasso di crescita del numero di macchie solari», commenta Alessandro Bemporad dell’Inaf di Torino, a cui Media Inaf ha chiesto un parere in merito all’affidabilità della previsione. «Sulla base di questa correlazione elabora un metodo per predire che il massimo del ciclo solare attualmente in corso si verificherà a inizio 2024, con una barra di errore di almeno sei mesi circa. Considerando però che il lavoro è stato pubblicato a fine novembre 2023, e considerando che (come abbiamo spiegato nel penultimo bollettino di Sorvegliati Spaziali a ottobre) il campo magnetico polare mostrava già due mesi fa che eravamo ormai arrivati al momento dell’inversione di polarità che si verifica proprio al massimo del ciclo solare, la previsione fornita in questo lavoro non sembra che possa avere un impatto sulle previsioni dell’andamento del ciclo a lungo termine (per esempio sui tempi scala di 11 anni tipici del ciclo solare). La correlazione identificata è comunque senz’altro interessante e può contribuire a migliorare in futuro i modelli previsionali».

Per saperne di più:


Buchi neri supermassicci, a tavola son tutti uguali


10864180
10864182
Ilaria Ruffa, prima autrice dello studio pubblicato su Mnras Letters, astrofisica di Vibo Valentia, con laurea e dottorato a Bologna, oggi ricercatrice postdoc alla Cardiff University (Regno Unito) e associata all’Inaf di Bologna. Crediti: Eva Duran-Camacho/Cardiff University.

Non c’è tanta varietà, fra i buchi neri. Secondo gli astrofisici sono solo due le proprietà necessarie a descriverli: massa e spin. Per il resto, sono tutti uguali. Ma se usciamo appena un po’ dall’orizzonte degli eventi ecco che le cose cambiano radicalmente. Prendiamo un Agn, un nucleo galattico attivo, per esempio: vale a dire il “kit completo”, formato dal buco nero supermassicio – nel cuore di una galassia – più tutto quel che gli sta attorno e che gli consente di rilasciare enormi quantità di energia nell’ambiente circostante. Secondo il classico Modello unificato degli Agn, il kit dovrebbe comprendere un disco di accrescimento, attraverso il quale il buco nero “ingerisce” materia in maniera efficiente e a ritmi elevati, una corona sopra e sotto, e un “toro” di gas e polveri che circonda entrambi come una ciambella. Anche se la varietà fra gli Agn non manca, l’ipotesi attualmente più accreditata è che diversi gruppi di Agn possiedano queste caratteristiche, tra cui – per esempio – le galassie di Seyfert, suddivise a loro volta Seyfert 1 e Seyfert 2 in base alla presenza o meno di materiale oscurante lungo l’angolo di vista dell’osservatore, e dunque di righe di assorbimento.

Se invece proviamo a classificarli in base alla luminosità, ecco che abbiamo gli Agn low-luminosity e quelli high-luminosity: a distinguerli non è solo la quantità di luce che emettono, ma anche il modo il cui lo fanno – il processo fisico soggiacente. Semplificando un po’, gli Agn ad alta luminosità sarebbero quelli nei quali è in atto un processo di accrescimento ad efficienza molto alta, come quello delle galassie di Seyfert e dei quasar, che sono entrambi appunto Agn molto luminosi. Negli Agn a bassa luminosità, al contrario, il processo d’accrescimento non sarebbe quasar-like o Seyfert-like bensì Adaf-like, sigla che sta per advection-dominated accretion flow (flusso di accrescimento dominato dall’avvezione): un processo molto più inefficiente, nel quale il classico disco di accrescimento è troncato nelle zone più interne o addirittura assente, e il passaggio di materia verso il buco nero procede in maniera più turbolenta e a ritmi molto meno elevati rispetto a quanto avviene negli Agn ad alta luminosità.

Ora però uno studio condotto su un campione primario di 48 Agn, la maggior parte dei quali low-luminosity, osservati in banda millimetrica con Alma e in banda X con Chandra e pubblicato oggi su Mnras Letters, mette in dubbio questa dicotomia, suggerendo che anche negli Agn più luminosi il processo di accrescimento Adaf-like, dunque quello tipico degli Agn meno luminosi, possa avere un ruolo fondamentale. È un po’ come provare a capire se gli aerei che ci sorvolano funzionano a elica (Agn a bassa efficienza) o a reazione (Agn ad alta efficienza) ascoltandone il rumore (la luminosità in banda mm) e osservandone la velocità (la luminosità X). E scoprire che tutti gli aerei visti passare – non solo i 48 a elica ma anche quelli che si pensavano a reazione, anche i più veloci – sono in realtà aerei a elica.

«In base allo scenario attualmente più accreditato, high- e low-luminosity Agn sono considerati oggetti intrinsecamente diversi, caratterizzati da processi di accrescimento sul buco nero molto differenti tra loro. La cosa più sorprendente del nostro lavoro è stata quindi verificare che non solo entrambe le tipologie di Agn seguono le stesse correlazioni, ma anche che potrebbero condividere la stessa fisica dell’accrescimento», spiega infatti la prima autrice dello studio, Ilaria Ruffa, astrofisica di Vibo Valentia, con laurea e dottorato a Bologna, oggi ricercatrice postdoc alla Cardiff University (Regno Unito) e associata all’Inaf di Bologna. «È chiaro che – se confermati da ulteriori studi su campioni più grandi – un risultato simile potrebbe rivoluzionare la nostra conoscenza della fisica dei processi di accrescimento di materia sui buchi neri».

I campioni presi in considerazione nello studio, al quale ha preso parte fra gli altri anche Federico Lelli dell’Inaf di Arcetri, non sono comunque così piccoli. Le correlazioni emerse dall’analisi dei 48 Agn del campione primario – fra i quali c’è anche M87, divenuto celebre per essere stato il protagonista della prima “fotografia” di un buco nero – sono state infatti messe successivamente alla prova su un ulteriore campione di ben 88 Agn, tutti classificati come high-luminosity, ed è così che gli autori dello studio hanno verificato che entrambe le tipologie di Agn seguono le stesse correlazioni e che potrebbero condividere la stessa fisica del processo di accrescimento.

Si tratta, per la precisione, di due correlazioni: una tra la luminosità del nucleo dell’Agn osservato in banda millimetrica e la massa del buco nero, e una che insieme alle prime due include anche la luminosità nucleare in banda X. Quest’ultima è stata soprannominata “piano fondamentale nel millimetrico” (millimetre fundamental plane) dell’accrescimento di un buco nero. E potrebbe avere importanti ricadute non solo per ricostruire il processo di accrescimento, ma anche per calcolare la massa del buco al centro di un Agn: la massa di M87*, per esempio, stimata in maniera indiretta con il “piano fondamentale nel millimetrico” si scosta di appena il due per cento da quella misurata direttamente.

«Oltre a fornirci informazioni sulla fisica dell’accrescimento, le nostre correlazioni», sottolinea infatti Ruffa, «forniscono un nuovo metodo indiretto per stimare la massa del buco nero, che è un parametro tanto fondamentale per gli studi dell’interazione tra buco nero e galassia ospite quanto difficile da misurare in maniera diretta su larga scala. Cosa ancora più fondamentale, grazie all’utilizzo del potente interferometro Alma (o di quelli di prossima generazione, come il next-generation Very Large Array, ngVLA) e delle X-ray surveys che sono in corso e che verranno, le nostre correlazioni ci consentiranno di fare stime della massa del buco nero fino a distanze cosmiche che non erano accessibili fino a ora».

Per saperne di più:

  • Leggi su Monthly Notices of the Royal Astronomical Society Letters l’articolo “A fundamental plane of black hole accretion at millimetre wavelengths”, di Ilaria Ruffa, Timothy A. Davis, Jacob S. Elford, Martin Bureau, Michele Cappellari, Jindra Gensior, Daryl Haggard, Satoru Iguchi, Federico Lelli, Fu-Heng Liang, Lijie Liu, Marc Sarzi, Thomas G. Williams e Hengyue Zhang


Dono di un pendolo “Galileo” all’Inaf di Arcetri


10859403
10859405
Il pendolo Galileo donato dall’ingegner Giacomo Franceschini, collocato nella cupola Amici dell’Osservatorio astrofisico di Arcetri. Si noti il metodo di compensazione della deformazione dell’asta, costituito da sei ampolle piene di mercurio: quando l’asta si allunga per il calore, il mercurio si dilata in senso opposto, mantenendo costante l’altezza del centro di massa del sistema. Crediti: S. Bianchi/Inaf Arcetri

La vita dell’ingegner Giacomo Franceschini è da sempre indissolubilmente intrecciata con quella delle Officine Galileo (oggi parte di Leonardo Spa). Nella storica azienda fiorentina Franceschini ha lavorato, così come suo padre e suo nonno materno, Giulio Martinez, che ne fu anche proprietario dal 1895 al 1907 (quando ancora si chiamava “Officina”, al singolare). Franceschini, fino a qualche giorno fa, abitava nella stessa palazzina dove viveva il nonno, adiacente ad una vecchia sede dell’Officina, in un appartamento colmo di cimeli della Galileo. Fra questi, spiccava un orologio a pendolo prodotto nel 1896: uno dei pochi esemplari di orologi di precisione, con scappamento Denison e compensazione a mercurio, prodotti dalla Galileo, dono di Giulio Martinez ai genitori dell’ingegnere in occasione del loro fidanzamento.

Spiccava, appunto, perché Franceschini ha voluto farne dono all’Osservatorio astrofisico di Arcetri. L’orologio è stato collocato nella cupola Amici, a fianco dello storico telescopio, dove i visitatori potranno apprezzare la finezza e la precisione di questo pregevole saggio dell’arte meccanica fiorentina. Ma non è stata solo la possibilità di mostrarlo a un pubblico più vasto a motivare la scelta di Franceschini. Infatti, l’Osservatorio è intimamente connesso agli esordi della Galileo. Fu l’astronomo Giovanni Battista Donati, fondatore dell’Osservatorio di Arcetri, a ideare il primo nucleo dell’Officina, e la prima commessa fu proprio la montatura equatoriale originale del telescopio Amici, installato ad Arcetri già nel 1869.

Il pendolo Galileo va ora a integrare la piccola collezione di orologi dell’Osservatorio. Insieme a lui nella cupola Amici si trova un altro pendolo, costruito nella prima metà dell’Ottocento dall’orologiaio fiorentino Filippo Manetti. Proveniente dalla vecchia Specola di via Romana, ad Arcetri il pendolo Manetti ha quasi sempre affiancato il telescopio Amici, fornendo il riferimento di tempo siderale per calcolare una delle coordinate celesti degli astri, l’angolo orario. Il pendolo Manetti a sua volta è copia di un pendolo inglese di fine Settecento realizzato dall’illustre orologiaio londinese Larcum Kendall. Il pendolo Kendall, nella Specola e ad Arcetri, è stato principalmente utilizzato nella sala meridiana – dove veniva controllato grazie all’osservazione del passaggio delle stelle a sud. Ora invece fa mostra di sé nella Biblioteca dell’Osservatorio, ancora in perfetta efficienza a più di 230 anni dal suo acquisto: segna infatti il tempo con uno scarto di solo una frazione di secondo al giorno.

10859409
Dettaglio del quadrante del pendolo Galileo.Crediti: S. Bianchi/Inaf Arcetri

Dal 1894 la conservazione del tempo ad Arcetri venne affidata a un pendolo più moderno, costruito da Sante Mioni, meccanico dell’Officina dell’Osservatorio di Padova, diretta da Giuseppe Cavignato. Copia di un pendolo dell’Osservatorio di Padova, anche il pendolo Mioni, così come il pendolo Galileo da poco arrivato ad Arcetri, utilizzava il metodo della compensazione a mercurio. Il pendolo Mioni era il pendolo di riferimento di Arcetri, il cosiddetto pendolo normale o regolatore, ed era installato in uno stanzino isolato dagli altri ambienti dell’Osservatorio. L’ora conservata dal Mioni era anche il riferimento per il tempo della città di Firenze: su questo era infatti regolato anche l’orologio della Specola di via Romana (ridotta a osservatorio meteorologico e geofisico dopo la fondazione di Arcetri), da cui, dal 1899, partiva un segnale telefonico per impartire l’ordine di sparare un colpo di cannone a mezzogiorno dal vicino Forte Belvedere. Era il cosiddetto cannone votapentole, che segnalava ogni giorno, fino al 1953 circa, l’ora esatta all’orologio della Torre di Palazzo Vecchio e alla città, e più prosaicamente l’ora di servire il pranzo. Prima ancora, a partire dall’adozione del tempo medio a Firenze il 24 dicembre 1860, il mezzogiorno era segnalato dall’abbassamento di una bandiera sul Torrino della Specola: a quei tempi era il Kendall a fungere da pendolo normale.

Purtroppo il pendolo Mioni non esiste più, e ora il pendolo Galileo va a integrarne la mancanza. Anche il nuovo orologio di Arcetri è collegato, se pur indirettamente, alla segnalazione del tempo in città. Un altro pendolo costruito dall’Officina Galileo, analogo al nostro, era infatti utilizzato come pendolo normale all’Osservatorio Ximeniano di Firenze, situato nel centro cittadino e retto dai padri Scolopi. Il direttore Padre Guido Alfani fu fra i primi, già nel 1912, a utilizzare la radio per ricevere il segnale orario trasmesso dalla Torre Eiffel: regolato su questo, il pendolo normale dello Ximeniano (oggi conservato nel museo delle Officine Galileo) trasmetteva elettricamente l’ora ad altri pendoli, fra cui uno nella portineria dell’Osservatorio a pianterreno, accessibile ai cittadini che volessero regolare i propri orologi.

Oggi non abbiamo più bisogno di un segnale orario, visto che i nostri smartphone sono costantemente regolati su vari timeserver in rete. Con uno di questi abbiamo da poco iniziato a controllare l’andamento del Pendolo Galileo, che già mostra prestazioni eccellenti. Ci rammarichiamo soltanto che Giacomo Franceschini non possa più vigilare sull’esattezza del “suo” orologio: l’ingegnere è infatti scomparso improvvisamente pochi giorni fa. Almeno ha fatto in tempo a vedere il pendolo installato nella cupola Amici, come ha tanto desiderato.


A caccia di oggetti fantasma con Webb


10850761
media.inaf.it/wp-content/uploa…
Immagine composita della galassia AzTecc71 ottenuta da più filtri colorati dello strumento NirCam sul telescopio spaziale James Webb. Crediti: J. McKinney/M. Franco/C. Casey/Università del Texas ad Austin

Nulla sembra più sfuggire all’occhio di Webb. L’infaticabile telescopio spaziale ha individuato un misterioso oggetto “impolverato” che sembrava impossibile da osservare. L’oggetto AzTecc71è stato classificato come una galassia polverosa impegnata nella formazione di tante nuove stelle e risalente a quasi un miliardo di anni dopo il Big Bang. Un tempo si pensava che galassie di questo tipo nell’universo primordiale fossero estremamente rare, ma la nuova scoperta suggerisce invece che potrebbero essere da tre a dieci volte più comuni di quanto previsto.

Il risultato è stato pubblicato su The Astrophysical Journal da un team di ricercatori della collaborazione Cosmos-Web guidato da Jed McKinney, ricercatore alla University of Texas, negli Stati Uniti. «Questa cosa è un vero mostro», diceMcKinney. «Anche se sembra una piccola massa informe, in realtà produce centinaia di nuove stelle ogni anno. E il fatto che qualcosa di così estremo sia appena visibile nelle immagini più sensibili del nostro nuovo telescopio è, per me davvero emozionante. Qual che ci sta dicendo è che potrebbe esistere un’intera popolazione di galassie che si nasconde da noi».

In effetti, le galassie ricche di polvere e con un elevato tasso di formazione stellare sono molto difficili da individuare in banda ottica, poiché gran parte della luce proveniente dalle sue giovani stelle viene assorbita dal velo di polvere che le avvolge e riemessa a lunghezze d’onda più rosse – o più lunghe. Prima dei risultati ottenuti da Webb, gli astronomi erano soliti chiamare questi oggetti “galassie oscure di Hubble”, in riferimento allo Hubble Space Telescope, il telescopio spaziale all’epoca più sensibile.

Se la conclusione dello studio venisse confermata, dall’analisi di immagini come questa si evincerebbe che l’universo primordiale era molto più polveroso di quanto ipotizzato in precedenza. «Fino a ora, l’unico modo in cui siamo stati in grado di vedere le galassie nell’universo primordiale è stato da una prospettiva ottica con Hubble», prosegue McKinney. «Ciò significa che la nostra comprensione della storia dell’evoluzione delle galassie è distorta, perché vediamo solo le galassie non oscurate e meno polverose»

La galassia AzTecc71, come in una “caccia al fantasma”, è stata individuata mettendo insieme i dati provenienti da telescopi da terra e dallo spazio. Era stata inizialmente rilevata come un cumulo indistinto di emissioni di polveri da una fotocamera del telescopio James Clerk Maxwell, alle Hawaii, che vede nelle lunghezze d’onda tra il lontano infrarosso e le microonde. Il team di Cosmos-Web ha successivamente individuato l’oggetto nei dati raccolti dal telescopio Alma, in Cile, che ha una risoluzione spaziale più elevata e può vedere nell’infrarosso. Ciò ha permesso agli autori dello studio di restringere la localizzazione della fonte fino a quando, esaminando i dati di Webb nell’infrarosso a una lunghezza d’onda di 4,44 micron (sotto i 2,7 micron era invisibile), non è emersa la debole galassia.

«Con Webb, possiamo studiare per la prima volta le proprietà ottiche e infrarosse di questa popolazione di galassie nascoste e pesantemente oscurate dalla polvere», conclude McKinney, «perché [Webb, ndr] è così sensibile che non solo può guardare indietro fino ai confini più remoti dell’universo, ma può squarciare anche il più spesso dei veli polverosi».

Per saperne di più:


Alla ricerca dei quark oscuri al Cern


10842825
10842827
Sukanya Sinha (ricercatrice postdoc all’Università di Manchester) e Deepak Kar, della School of Physics at alla University of the Witwatersrand a Johannesburg, Sud Africa. Crediti: University of the Witwatersrand

La natura elusiva della materia oscura rimane uno dei più grandi misteri della fisica delle particelle. Costituisce circa un quarto dell’universo, ma non interagisce in modo significativo con la materia ordinaria. La sua esistenza è stata confermata da una serie di osservazioni astrofisiche e cosmologiche, tra cui le straordinarie immagini del telescopio spaziale James Webb. Tuttavia, fino a oggi non è stata riportata alcuna osservazione sperimentale della materia oscura. Finora la maggior parte delle ricerche è andata a caccia di eventi in cui viene prodotta una particella di materia oscura “debolmente interagente” insieme a una particella nota del Modello standard. Ma niente.

È anche per questo che si fa ricerca di base, per sondare i misteri più profondi dell’universo. «Il Large Hadron Collider del Cern è il più grande esperimento mai costruito e le collisioni di particelle che creano condizioni simili al Big Bang possono essere sfruttate per cercare indizi della materia oscura», afferma Deepak Kar, della Scuola di Fisica dell’Università del Witwatersrand a Johannesburg, in Sudafrica. Lavorando all’esperimento Atlas del Cern, Kar e Sukanya Sinha (ora ricercatrice post-dottorato presso l’Università di Manchester), hanno sperimentato un nuovo modo di cercare la materia oscura e hanno pubblicato la loro ricerca sulla rivista Physics Letters B.

«Negli ultimi decenni sono state condotte numerose ricerche della materia oscura con i collisori, che finora si sono concentrate sulle particelle massive debolmente interagenti, dette Wimp», spiega Kar. «Le Wimp sono una classe di particelle che si ipotizza possano spiegare la materia oscura, poiché non assorbono né emettono luce e non interagiscono fortemente con altre particelle. Tuttavia, poiché finora non sono state trovate evidenze di Wimp, ci siamo resi conto che la ricerca della materia oscura necessitava di un cambiamento di paradigma».

Poiché le particelle di materia oscura non possono essere viste dal rivelatore Atlas, quello che i ricercatori cercano è uno sbilanciamentonel momento trasverso (chiamato anche energia mancante). Tuttavia, alcuni modelli teorici prevedono un settore oscuro fortemente interagente, con quark e gluoni oscuri come repliche di quark e gluoni del modello standard, che interagiscono fortemente tra loro ma possono interagire con il Modello standard solo attraverso opportuni “mediatori”.

«I quark oscuri si legano in adroni oscuri che possono essere stabili o instabili», commenta a Media Inaf Federica Fabbri, membro della collaborazione Atlas e ricercatrice all’Università di Bologna. «La componente instabile decade in particelle visibili in Atlas mentre la parte stabile risulta invisibile, ed è un possibile candidato per la materia oscura. La combinazione di queste componenti dà origine a getti semi-visibili. Questi getti vengono solitamente creati in coppie, con l’energia mancante allineata con la direzione di uno dei due jet».

«Ciò rende la ricerca di getti semi-visibili molto impegnativa, in quanto questa firma può anche essere frutto di errori sistematici nella misura», continua Fabbri. «In questi casi infatti l’energia mancante è allineata con il getto standard mal-ricostruito. Per aggirare questo problema la nuova analisi di Atlas cerca eventi in cui i getti semi-visibili siano prodotti insieme a getti aggiuntivi del modello standard. In questo modo, grazie alla presenza di due getti semi-visibili, la direzione dell’energia mancante viene disallineata da quella di uno dei due getti e questo fornisce la possibilità di definire quantità specifiche per identificare eventi con jet semi-visibili».

Dopo aver tenuto conto di tutti i processi del modello standard che contribuiscono a questa topologia di eventi, non hanno trovato alcun accenno di getti semi-visibili, anche se il nuovo risultato pone i primi limiti a questo specifico scenario di produzione di tali getti. La ricerca è più sensibile a valori intermedi della frazione invisibile ed esclude masse mediatrici fino a 2,7 TeV. I ricercatori sono stati anche in grado di riportare il numero di eventi di dati osservati corrispondenti ai requisiti di selezione degli eventi. Questo pone importanti basi per le future ricerche sulla materia oscura, consentendo ai fisici di costruire modelli di getti semi-visibili che tengano conto dei vincoli esistenti su questa firma.

C’è ancora molto da esplorare. I ricercatori della collaborazione Atlas intendono studiare sistematicamente tutte le possibili firme provenienti dal “settore oscuro”, che potrebbero includere firme scoperte come quella considerata in questa ricerca. Man mano che l’esperimento Atlas continuerà ad ampliare il suo gigantesco set di dati, fornirà nuove opportunità di esplorazione e nuove opzioni per estendere la ricerca di getti semi-visibili.

Per saperne di più:


Nati storti


10842668
10842670
In questo diagramma, due pianeti orbitanti presentano una leggera inclinazione rispetto all’asse di rotazione del sole che li ospita. La geometria di un sistema planetario – caratterizzata dagli orientamenti e dalle forme delle orbite che lo compongono, nonché dagli orientamenti dei vettori di spin – offre una ricca serie di informazioni su come quel sistema si è formato ed evoluto. Crediti: Malena Rice/ Yale University

Da anni gli scienziati si interrogano sul perché tutti i pianeti del Sistema solare percorrano intorno al Sole orbite leggermente inclinate. Gli astronomi avevano da tempo ipotizzato che i pianeti con orbite inclinate – orbite che non si allineano con l’asse di rotazione del sole che li ospita – fossero il risultato di un qualche rumore cosmico di alto livello, come ad esempio la “spinta” da parte di stelle vicine e pianeti nei dintorni.

Un recente studio pubblicato su The Astronomical Journal suggerisce, invece, che anche nei sistemi planetari “incontaminati” da fattori esterni i pianeti abbiano orbite inclinate, e che questa caratteristica non sia dunque presente solo nel nostro Sistema solare. Un team di di ricerca internazionale, guidato dall’astronoma Malena Rice dell’Università di Yale negli Stati Uniti, ha analizzato sistemi solari multi-pianeta le cui orbite sono rimaste indisturbate e allineate con l’asse di rotazione del sole che li ospita sin dalla loro formazione. «È più facile osservare questo tipo di configurazione, in cui l’orbita di un pianeta è esattamente ordinata con quella di altri pianeti in un rapporto intero di periodi orbitali, in un sistema solare all’inizio del suo sviluppo», ha detto Rice, prima autrice dello studio. «È una configurazione splendida, ma solo una piccola percentuale di sistemi la mantiene nel tempo».

Quando due pianeti orbitano con periodi di rivoluzione proporzionali tra loro e secondo frazioni di numeri interi – un rapporto intero quasi esatto, 2:3 oppure 1:1 e così via, per intenderci –, si chiamano pianeti risonanti e subiscono, tra di loro, una reciproca regolare influenza gravitazionale. Questo aspetto stabilizza e protegge le orbite da perturbazioni esterne rendendo di fatto le geometrie dei sistemi planetari quasi risonanti una finestra relativamente incontaminata per studiare le condizioni iniziali dei sistemi di esopianeti. I sistemi multi-planetari che conservano la loro risonanza sono molto rari, circa l’1 per cento. Un incontro troppo ravvicinato con una stella o con un pianeta massiccio o un gigantesco impatto possono alterare l’equilibrio iniziale; molti dei sistemi planetari conosciuti non sono in risonanza oggi, ma potrebbero esserlo stati in passato. La storia della formazione e del passato dei sistemi planetari può essere ricostruita solo osservando la loro attuale “demografia” orbitale e i sistemi quasi risonanti offrono un’utilissima lente d’ingrandimento, particolarmente ben circoscritta, per studiare l’evoluzione planetaria.

10842672
Illustrazione grafica dell’esopianeta gioviano Toi-2202 b. Crediti: Nasa

In questo caso, i ricercatori hanno inizialmente misurato l’orbita inclinata di Toi-2202 b, un pianeta gioviano caldo in un sistema solare incontaminato che ruota attorno alla stella TOI-2202. Un pianeta gioviano è molto più grande del nostro e ha dimensioni paragonabili a Giove – o anche maggiori – con un periodo orbitale molto più breve dei 365 giorni impiegati dalla nostra Terra. I ricercatori hanno confrontato l’orbita di Toi-2202 b con i dati dell’intero censimento di pianeti simili presenti nell’archivio esopianeti della Nasa. Rice e i suoi collaboratori hanno scoperto che, anche in questi sistemi solari, i pianeti possono avere un’inclinazione orbitale fino a 20 gradi e che proprio il sistema di Toi-2202 b è uno di quelli evidentemente più inclinati.

La scoperta ha fornito informazioni preziose sullo sviluppo del sistemi solari primordiali e ha aggiunto dettagli sul nostro Sistema solare dimostrando che l’inclinazione delle orbite è un fenomeno molto diffuso nel cosmo. «I risultati delle nostre analisi sono rassicuranti e ci dicono che non siamo un sistema solare “super-strano”», dice Rice. «È come se ci guardassimo in uno specchio a effetto e vedessimo come siamo inseriti nel quadro più generale dell’intero universo».

La nuova ricerca, parte della survey Soles (Stellar Obliquities in Long-period Exoplanet Systems), ha aiutato, inoltre, a comprendere meglio i sistemi solari gioviani “caldi”, al cui interno pianeti giganti gassosi simili a Giove orbitano con periodi molto brevi. «Stiamo cercando di capire perché i sistemi gioviani abbiano orbite così estremamente inclinate», conclude Rice. «Quando si sono inclinati? Sono così dalla nascita? Per capirlo, servirebbe prima scoprire in quali sistemi le orbite non sono così drasticamente inclinati».

Per saperne di più:


Eran trecento, eran giovani stelle, e sono pulsar


10841469
Pulsar gamma, le chiamano gli astrofisici. Vale a dire, stelle di neutroni in rapidissima rotazione che, un po’ come farebbe un faro, spazzano la galassia – e oltre – con fasci di raggi gamma, le onde elettromagnetiche di energia più elevata. Fino a quindici anni fa se ne conoscevano pochissime, tanto che le si chiamava per nome. C’era quella del Granchio (Crab), c’era quella delle Vele, c’era Geminga… si contavano sulle dita delle mani. Poi l’11 giugno del 2008 venne lanciato Fermi, un telescopio spaziale per raggi gamma della Nasa a forte partecipazione italiana. E da allora tutto è cambiato. Il catalogo pubblicato lunedì scorso su The Astrophysical Journal dal team di Fermi di pulsar gamma ne elenca oltre trecento.

10841471
Pulsar gamma presenti nel nuovo catalogo di Fermi. Ne sono evidenziate alcune “notevoli”, fra le quali, sulla destra, Crab, Vela e Geminga. I circoletti mostrano le millisecond pulsar. Crediti: Nasa’s Goddard Space Flight Center

Un incremento di quasi trenta volte. Ora le si identifica con anonime coordinate, quattro cifre per l’ascensione retta e quatto per la declinazione. E con la quantità sono aumentate anche la varietà e la possibilità di fare scienza. Non si tratta dunque “solo” di avere a disposizione un campione assai più ampio, che pure sarebbe già moltissimo, o di poter vedere la prima pulsar gamma extragalattica, scoperta proprio da Fermi nel 2015, ma anche di poter assistere a fenomeni prima pressoché sconosciuti. Fenomeni come le pulsar gamma al millisecondo (rappresentate nell’immagine qui sopra dai circoletti) appartenenti a sistemi binari (qui sopra, in giallo) del gruppo “aracneo” delle vedove nere o dei redbacks, che dopo aver rallentato nel tempo il loro periodo di rotazione, come farebbe una trottola, si sono ritrovate a disposizione la materia fornita dalle loro stelle compagne, riprendendo così ruotare veloci – ancor più di quanto facessero prima.

Prendendo ancora in prestito un termine dal mondo dei ragni, avere a disposizione una fitta ragnatela di segnali regolarissimi – le pulsar hanno un clock da far invidia a quelli degli orologi atomici, quanto a stabilità – che copre l’intera galassia apre, inoltre, la strada ad applicazioni altrimenti impensabili. Gli astrofisici le stanno usando, per esempio, per esperimenti basati sui pulsar timing arrays: reti di pulsar come quella che lo scorso giugno ha annunciato di aver colto tracce di onde gravitazionali a bassissima frequenza. In quel caso si trattava di radio pulsar, ma anche le pulsar gamma si stanno dimostrando utili allo scopo. «A differenza delle onde radio, che vengono piegate come la luce in un prisma mentre viaggiano verso la Terra, i raggi gamma ci raggiungono direttamente. Questo riduce i potenziali errori sistemici nelle misurazioni», osserva a questo proposito uno degli autori dello studio, Matthew Kerr, del Naval Research Laboratory statunitense.

10841473
Rappresentazione artistica di una pulsar gamma. Crediti: Nasa’s Goddard Space Flight Center

«Un catalogo di quasi 340 pulsar (294 certi, perché visti pulsare, e gli altri in lista di attesa aspettando timing radio più preciso) è un risultato al di là di ogni più rosea aspettativa», dice a Media Inaf un’altra delle autrici dello studio, Patrizia Caraveo, dell’Istituto nazionale di astrofisica. «All’inizio della missione Fermi, quando di pulsar gamma ce n’erano una decina, immaginavamo che, se tutto fosse andato per il meglio, saremmo arrivati a cento, invece lo strumento Lat ci ha sorpreso dimostrandosi un eccellente cacciatore di pulsar. Ancora più straordinario è vedere che la curva con il numero degli oggetti in funzione del tempo continua a crescere. In altre parole, a 15 anni dal lancio Fermi continua a rivelare nuove stelle di neutroni, anzi, in alcuni casi è responsabile della loro scoperta. Infatti, la caccia alla controparte delle sorgenti Fermi non identificate ha portato alla scoperta di decine di nuove pulsar velocissime che, una volta caratterizzate in radio, hanno mostrato di pulsare anche in gamma. Altrettanto stupefacente è vedere la crescita delle pulsar radio quiete, le cugine di Geminga, che hanno toccato quota 70. Frutto di un mix di algoritmi, potenza di calcolo e determinazione della squadra dei cacciatori di pulsar che non si sono mai fatti spaventare dalle difficoltà legate all’esiguità del numero di fotoni gamma raccolti su periodi di tempo sempre più lunghi».

Squadra della quale fanno parte molti ricercatori dell’Istituto nazionale di astrofisica. Scorrendo l’elenco dei quasi 160 autori, oltre a Caraveo troviamo Marta Burgay, Alessandro Corongiu e Andrea Possenti dell’Inaf di Cagliari, Graziano Chiaro, Giorgio Galanti e Martino Marelli dell’Inaf Iasf Milano e Filippo D’Ammando, Marcello Giroletti e Monica Orienti dell’Inaf Ira di Bologna.

«Il terzo catalogo è frutto di un lunghissimo lavoro e non esisterebbe senza la tranquilla leadership di David Smith», ricorda Caraveo, «che ha dedicato anni a tenere traccia di tutte le analisi fatte e dei risultati ottenuti cercando di omogeneizzare il lavoro di diversi gruppi, convincendo altri a controllare curve di luce e tabelle senza fine. Per riconoscere il contributo di David, la collaborazione Fermi da deciso di fare uno strappo alla regola che vuole la lista degli autori in ordine alfabetico, e il catalogo 3PC è uno “Smith et al.”. Ma la pubblicazione, pur importante, non ha certo posto fine alla caccia a nuovi pulsar. Nel periodo intercorso tra la sottomissione del manoscritto alla pubblicazione, David ha aggiunto al suo database altri 10 pulsar che sono passati dalla lista d’attesa a quella degli oggetti confermati, portando il gran totale dei pulsar certificati a 304. Un numero che certamente crescerà ancora».

Per saperne di più: