Se la materia oscura interagisce con sé stessa
Immagine composita dell’ammasso di galassie interagenti “El Gordo”, che mostra in blu la luce a raggi X ripresa da Chandra della Nasa, i dati ottici del Very Large Telescope in rosso, verde e blu e l’emissione infrarossa del telescopio spaziale Spitzer della Nasa in rosso e arancione. Crediti: X-ray: Nasa/Cxc/Rutgers/J. Hughes et al; Optical: Eso/Vlt & Soar/Rutgers/F. Menanteau; IR: Nasa/Jpl/Rutgers/F. Menanteau
Al contrario di quanto stabilito dal modello standard, la materia oscura potrebbe possedere la proprietà di interagire con sé stessa. A dirlo è una ricerca pubblicata lo scorso aprile su Astronomy & Astrophyics e condotta da Riccardo Valdarnini del gruppo di astrofisica e cosmologia della Sissa. Utilizzando delle simulazioni numeriche, lo studio ha analizzato quanto succede in “El Gordo” (“Il grasso” in spagnolo), un gigantesco ammasso di galassie (un cluster, in inglese) in collisione lontano sette miliardi di anni luce da noi. I calcoli effettuati nella ricerca hanno spiegato che la separazione fisica tra i punti di massima densità della materia oscura da quelli delle altre componenti della massa, osservata in quel cluster, si può spiegare con un modello alternativo a quello standard, definito Sidm (Self Interacting Dark Matter). Con questa analisi viene quindi data una significativa evidenza a favore del modello Sidm secondo cui le particelle di dark matter si scambiano energia fra di loro attraverso collisioni, con interessanti ripercussioni in ambito astrofisico.
“El Gordo”: una gigantesca struttura cosmica per studiare la materia oscura
«Secondo il modello cosmologico standard, la materia che conosciamo, definita in gergo “barionica”, costituirebbe solo il 10 per cento della materia totale. Il restante 90 per cento sarebbe materia oscura» spiega l’autore della ricerca, Riccardo Valdarnini. «È generalmente ritenuto che questa materia sia non barionica, fatta da particelle che non collidono e rispondono solo alla gravità. Da qui la definizione “cold dark matter”. Ci sono tuttavia una serie di questioni aperte a cui ci pongono i dati osservativi che non sono state ancora spiegate con il modello standard. Per rispondere a queste domande, diversi autori propongono un modello alternativo, chiamato appunto Sidm». Provare le proprietà collisionali della materia oscura e, più in generale, le teorie alternative a quello standard è molto complicato. «Esistono però dei laboratori unici molto utili a questo scopo, distanti da noi molti anni luce», continua il ricercatore. «Sono i cluster massivi di galassie, ossia gigantesche strutture cosmiche che quando collidono fra di loro sono tra gli eventi più energetici dal Big Bang in poi. Tra questi “El Gordo”, con una massa di circa 10 milioni di miliardi di masse solari, è uno dei più grandi. Questo ammasso celeste, per le sue peculiarità, è stato oggetto di numero studi, sia teorici che osservazionali».
La materia oscura potrebbe essere collisionale
Secondo il modello standard, durante la fusione di questi grandi ammassi di galassie il comportamento della massa gassosa in collisione sarà diverso da quello delle altre due componenti, galassie e materia oscura. In uno scenario come questo, il gas dissiperà parte della sua energia iniziale. «Per questo, dopo la collisione, il picco della densità di massa del gas rimarrà indietro rispetto a quelli della materia oscura e delle galassie, che resteranno uniti», spiega Valdarnini. Con il modello Sidm, invece, si dovrebbe assistere a un fenomeno caratteristico: le posizioni dei punti di massima densità della materia oscura, i centroidi, si separerebbero da quelli delle altre componenti di massa con delle peculiarità che rappresentano una vera e propria “firma dei modelli Sidm”. In effetti, secondo le osservazioni, questo è proprio ciò che accade in “El Gordo”.
El Gordo: ecco cosa mostrano le osservazioni
«Partiamo dunque dalle osservazioni: “El Gordo” è costituito da due sub ammassi massivi», spiega Valdarnini, «rispettivamente denominati nord-occidentale (NW) e sud-orientale (SE). L’immagine ai raggi X del cluster “El Gordo” mostra un singolo picco di emissione ai raggi X nel sub-ammasso SE e due deboli code allungate dietro il picco X. Una caratteristica degna di nota è la posizione dei picchi delle diverse componenti di massa. A differenza di quanto osservato nel Bullet Cluster, un altro importante esempio di ammasso in collisione, il picco dei raggi X precede il picco di materia oscura del cluster SE. Inoltre, la galassia più luminosa del cluster (Bcg) non solo segue il picco dei raggi X, ma sembra anche essere spazialmente spostata rispetto al centroide di massa del cluster SE. Un altro aspetto degno di nota si osserva nel sub-ammasso NW, dove il picco della densità numerica delle galassie è spostato spazialmente rispetto al corrispondente picco di massa».
I risultati dello studio: la materia oscura collisionale come spiegazione di quanto osservato
Per spiegare quanto evidenziato, e avvalorare i modelli Sidm, nello studio pubblicato su Astronomy & Astrophyics Valdarnini si è avvalso di un ampio insieme di simulazioni, definite in gergo N-body/idrodinamiche. In questo modo ha effettuato uno studio sistematico mirato a riprodurre le caratteristiche osservate nel cluster “El Gordo”. «Il risultato più significativo di questo studio di simulazione è che gli spostamenti relativi osservati tra le posizioni dei diversi centroidi di massa del cluster “El Gordo” sono spiegati in modo naturale se la materia oscura interagisce con sé stessa», dice Valdarnini. «Per questa ragione, questi risultati forniscono una firma inequivocabile di un comportamento della materia oscura che mostra proprietà collisionali in uno scontro molto energetico fra ammassi. Esistono comunque delle incoerenze, in quanto da queste simulazioni si ottengono per la sezione d’urto Sidm valori al di sopra degli attuali limiti superiori ottenuti su scale di ammassi. Questo suggerisce che gli attuali modelli Sidm dovrebbero essere considerati solo come un’approssimazione al primo ordine, e che i processi fisici sottostanti che descrivono l’interazione della materia oscura nelle collisioni fra ammassi siano più complessi di quanto possa essere adeguatamente rappresentato dall’approccio comunemente assunto, basato cioè su un modello di urti fra particelle di materia oscura. Ma, senza dubbio, viene dato un significativo supporto alla possibilità di una materia oscura auto-interagente fra ammassi in collisione, come alternativa al paradigma standard della materia oscura non collisionale».
Per saperne di più:
- Leggi su Astronomy & Astrophyics l’articolo “An N-body/hydrodynamical simulation study of the merging cluster El Gordo: A compelling case for self-interacting dark matter?”, di R. Valdarnini
Chang’e 6 è sul lato nascosto della Luna
Poco dopo la mezzanotte, alle 00:23 ora italiana di domenica 2 giugno, la sonda lunare cinese Chang’e 6 ha toccato con successo il suolo lunare. Lo riferisce Xinuha, l’agenzia statale cinese, e un video che mostra gli ultimi istanti prima dell’allunaggio, acquisito dalla landing camera di Chang’e 6, è stato pubblicato sul sito della Cnsa, l’agenzia spaziale cinese.
media.inaf.it/wp-content/uploa…
L’allunaggio di Chang’e 6 è avvenuto nell’immenso bacino Polo Sud-Aitken: si tratta di un cratere meteoritico di oltre duemila chilometri di diametro situato sul lato a noi nascosto della Luna, vicino al polo sud lunare. In questa zona, risalente a oltre quattro miliardi di anni fa, il lander procederà alla raccolta di materiale – fino a due chilogrammi – mediante l’uso di una trivella e una paletta. Il modulo di risalita con i campioni a bordo raggiungerà poi l’orbita lunare, dove si aggancerà al modulo di rientro. Il prezioso bottino farà quindi ritorno sulla Terra intorno al 25 giugno.
La missione, lanciata il 3 maggio scorso dallo spazioporto di Wenchang con un razzo Lunga Marcia 5 ed entrata nell’orbita lunare cinque giorni più tardi, accoglie anche alcune partecipazioni straniere, tra cui Innri (Instrument for landing-Roving laser Retroreflector Investigations), un retroriflettore laser passivo italiano dell’Istituto nazionale di fisica nucleare.
Chang’e 6 rientra in un più ampio programma lunare della Cina, che prevede la prossima missione Chang’e 7 per il 2026 e Change 8 intorno al 2028. Il Paese mira a lanciare la sua prima missione lunare con equipaggio entro il 2030.
A permettere le comunicazioni di Chang’e 6 con la Terra è il satellite Queqiao-2, lanciato a marzo 2024, che grazie alla sua potente antenna parabolica di ben 4,2 metri di diametro è in grado di fornire una sorta di ponte radio con il lato nascosto della Luna.
A proposito di contatti con sonde spaziali, l’agenzia spaziale giapponese Jaxa ha invece da poco reso noto con un post su X che le comunicazioni con Akatsuki, l’unica sonda ancora attiva in orbita attorno a Venere, si sono interrotte a fine aprile, e sono in atto vari tentativi per ristabilirle quanto prima. Per riuscire nell’impresa, però, è essenziale che la sonda mantenga un orientamento stabile per poter puntare la sua antenna verso la Terra. La sonda, anche nota come Venus Climate Orbiter, aveva già avuto un avvio di missione alquanto sfortunato: nel dicembre 2010 aveva mancato l’inserimento nell’orbita di Venere a causa di un guasto al motore principale. Solo dopo cinque anni di orbite intorno al Sole la sonda era riuscita, con un secondo tentativo, a entrare con successo in orbita attorno a Venere.
Houston, un podcast di Media Inaf
La cover di Houston. Crediti: Davide Coero Borga/Media Inaf
Tutto inizia con un ritardo. Un ritardo di pochi secondi sulla tabella di marcia. Una tensione che non sale. Una pressione che non cambia. Una temperatura che non scende. Un bit di telemetria che doveva diventare uno e invece eccolo lì, sullo schermo, davanti agli occhi sempre più allarmati di decine d’ingegneri e scienziati, ancora inchiodato su quel dannato zero. Ingegneri e scienziati come te, che su quel bit si giocano il senso degli ultimi dieci, quindici anni di lavoro. Ancora non ne sai il motivo, forse lo scoprirai fra mesi, forse mai. Sai solo che lì a pochi metri, fuori dalla sala di controllo, stampa e tv ti stanno aspettando. E l’ultima cosa al mondo che avresti voglia di fare è aprire quella porta, con il cerchio di luci e microfoni che ti si stringe attorno, per annunciare: abbiamo un problema. Un problema a centinaia di milioni di km dalla Terra.
È di situazioni come queste che parla Houston, un podcast di Media Inaf ideato e realizzato da Valentina Guglielmo. Un podcast sui momenti difficili, le crisi e i fallimenti delle missioni spaziali – in particolare quelle per la ricerca scientifica. Se per una testata giornalistica raccontare le cose che non sono andate come si sarebbe voluto è normale, per noi che siamo la testata dell’Inaf – un ente di ricerca dedicato all’astrofisica – è un po’ più complesso: già molti dubitano sull’utilità delle nostre ricerche, se poi mettiamo pure in risalto quelle finite male… Un timore comprensibile. Solo che la scienza funziona così. Non è l’inanellare un successo dietro l’altro, anzi: è il faticoso susseguirsi d’imprevisti da affrontare, problemi da risolvere – spesso improvvisando – e delusioni da superare. E l’esplorazione spaziale lo è all’ennesima potenza. Ultima frontiera sull’ignoto, scelta non perché facile ma perché difficile, portando la tecnologia ai limiti e oltre: l’errore e il malfunzionamento sono inevitabilmente dietro l’angolo. È dunque così che vogliamo raccontarla – con tutte le sue incertezze, difficoltà, disfatte ed emozioni. Ed è così che la racconta Houston.
Valentina Guglielmo. Crediti: Media Inaf
«Non mi ero mai avvicinata al mondo dell’esplorazione spaziale dal punto di vista ingegneristico. Non avevo mai visto una sala controllo, e non mi ero mai spinta oltre l’utilizzo di un telescopio per fini scientifici. Houston mi ha aperto un mondo», dice Valentina Guglielmo, redattrice di Media Inaf e già autrice di un altro podcast, Come se ci fosse un domani. «A guidarmi, passo dopo passo, fra le pagine dei suoi libri prima e per i corridoi e gli uffici del centro di controllo a Darmstadt poi, Paolo Ferri, senza il quale questo podcast non sarebbe potuto esistere. Spero che queste storie appassionino chi le ascolta così come hanno appassionato me, per la complessità delle sfide che raccontano e l’umanità delle reazioni che le colorano. L’esplorazione spaziale è eleganza, armonia, complessità e imprevisto: grazie a Davide Coero Borga per averli saputi mettere tutti, dentro al logo di Houston».
Da oggi Houston lo potete ascoltare su Apple Podcast, su Spotify e su YouTube, oltre che sul nuovo sito di Media Inaf dedicato ai podcast. Per invogliarvi a seguirlo e a sottoscriverlo, non ci siamo limitati a un antipasto, vi proponiamo da subito un’abbuffata di cinque episodi: Beagle 2, Schiaparelli, i fallimenti marziani della Nasa di fine anni Novanta, Rosetta e Philae. Poi, da luglio, un nuovo episodio ogni mese. Ascoltateli, condivideteli, fateci sapere cosa ne pensate.
Per ascoltare gli episodi già pubblicati:
Tutti gli strati e i colori di Marte
Gli spettacolari mosaici colorati che vedete qui sotto altro non sono che meteoriti provenienti da un antico vulcano marziano. Sono stati proiettati nello spazio circa 11 milioni di anni fa in seguito all’impatto di una grande meteora sulla superficie del Pianeta rosso, e sono arrivati fin qui. L’analisi della loro composizione chimica non solo li rende distinguibili, ma ha permesso agli scienziati di capire meglio com’è fatto Marte sotto la superficie. I risultati sono stati pubblicati oggi su Science Advances.
In alto, la meteorite di Nakhla: l’intero campione misura 4 cm nel lato più lungo. In basso, la meteorite di Chassigny in luce polarizzata: è composta principalmente dal minerale olivina, e i grani hanno una dimensione di circa 0,5 millimetri. Crediti: Scripps Institution of Oceanography at UC San Diego
«Le meteoriti marziane sono gli unici materiali fisici che abbiamo a disposizione da Marte», dice James Day, geologo all’Istituto di oceanografia dell’Università della California e primo autore dello studio. «Ci permettono di effettuare misurazioni precise e accurate e di quantificare i processi che si sono verificati all’interno di Marte e in prossimità della superficie marziana. Forniscono informazioni dirette sulla composizione di Marte, che possono essere alla base delle missioni scientifiche, come le operazioni in corso del rover Perseverance».
Le meteoriti studiate da Day e collaboratori provengono da rocce formate circa 1,3 miliardi di anni fa e poi raccolte negli ultimi decenni in siti dell’Antartide e dell’Africa. Si tratta di due tipi diversi, che prendono il nome dai luoghi in cui sono stati fatti i primi ritrovamenti: le “chassigniti”, scoperte nel 1815 a Chassigny, in Francia, e le “nakhliti”, scopertie nel 1905 a Nakhla, in Egitto. Da allora, altre meteoriti di questo tipo sono state scoperte in località come la Mauritania e l’Antartide. Le potete vedere qui a fianco, nelle loro diverse composizioni: le nakhliti sono basaltiche, simili alle lave che eruttano oggi in Islanda e alle Hawaii, ricche di un minerale chiamato clinopirosseno. Le chassigniti sono costituite quasi esclusivamente dal minerale olivina. Si può dire con certezza che provengano da Marte innanzitutto perché queste meteoriti sono relativamente giovani, e quindi devono provenire da un pianeta che è stato attivo di recente, perché hanno composizioni diverse (soprattutto per quanto riguarda alcuni elementi chiave come l’ossigeno) rispetto alla Terra, e infine perché conservano la composizione dell’atmosfera di Marte misurata sulla superficie dai lander Viking della Nasa negli anni ‘70.
Nonostante ciò, mantengono alcune somiglianze con le rocce che compongono i diversi strati della superficie terrestre, e anche grazie a questo gli scienziati sono riusciti a trovare loro un posto nel sottosuolo di Marte.
Sulla Terra, infatti, i basalti sono i componenti principali della crosta del pianeta, soprattutto sotto gli oceani, mentre le olivine sono abbondanti nel mantello. E lo stesso vale per Marte: nello studio si dimostra infatti che queste rocce sono collegate tra loro attraverso un processo noto come cristallizzazione frazionata all’interno del vulcano in cui si sono formate. Analizzando la composizione di queste rocce, si è riusciti a comprendere che alcune delle nakhliti ancora fuse hanno incorporato porzioni di crosta vicino alla superficie che hanno interagito con l’atmosfera di Marte.
«Determinando che le nakhliti e le chassigniti provengono dallo stesso sistema vulcanico e che hanno interagito con la crosta marziana alterata dalle interazioni atmosferiche, possiamo identificare un nuovo tipo di roccia su Marte», continua Day. «Con la collezione esistente di meteoriti marziane, tutte di origine vulcanica, siamo in grado di comprendere meglio la struttura interna di Marte».
Una struttura che sarebbe così suddivisa: una crosta superiore alterata dall’atmosfera, una crosta più profonda e più complessa, e un mantello in cui i pennacchi provenienti dalle profondità di Marte sono penetrati fino alla base della crosta; quanto all’interno di Marte, formatosi all’inizio della sua evoluzione, si è fuso producendo diversi tipi di vulcani.
«Ciò che è notevole è che il vulcanismo di Marte presenta incredibili somiglianze, ma anche differenze, con la Terra», conclude Day. «Da un lato, le nakhliti e le chassigniti si sono formate in modo simile al recente vulcanismo di luoghi come Oahu, nelle Hawaii. Lì, i vulcani appena formati premono sul mantello generando forze tettoniche che producono ulteriore vulcanismo. D’altra parte, i bacini di Marte sono estremamente antichi, essendosi separati l’uno dall’altro poco dopo la formazione del Pianeta rosso. Sulla Terra, la tettonica a placche ha contribuito a rimescolare i bacini nel tempo. In questo senso, Marte fornisce un importante collegamento tra l’aspetto che aveva la Terra primitiva e quello che vediamo ora».
Per saperne di più:
- Leggi su Science Advances l’articolo “A heterogenous mantle and crustal structure formed during the early differentiation of Mars”, di James M.D. Day, Marine Paquet, Arya Udry e Frederic Moynier
All’origine dei buchi neri di massa intermedia
Questa animazione mostra il moto delle stelle vagabonde blu negli ammassi globulari. Crediti: Eso/Nasa/Esa, L. Calçada, F. Ferraro (University of Bologna)
Gli ammassi globulari sono ammassi stellari che possono contenere decine di migliaia o addirittura milioni di stelle, densamente impacchettate in strutture di forma sferica.
Effettivamente, guardando quella che potrebbe essere l’evoluzione temporale delle cosiddette stelle vagabonde blu in un ammasso globulare riportata nell’animazione accanto, viene da chiedersi cosa succeda al centro dell’ammasso stesso. Deve esserci un gran fitto, come si usa dire da queste parti, ed è ragionevole pensare che le stelle dell’ammasso, stipate verso il centro, si scontrino e si fondano. Ma in cosa?
Una ricerca congiunta guidata da Michiko Fujii dell’Università di Tokyo ha dimostrato che proprio lì, negli ammassi globulari, è possibile che si formino buchi neri di massa intermedia. Le prime simulazioni di formazione di ammassi di questo tipo stella per stella hanno rivelato che le nubi molecolari sufficientemente dense – i “nidi di nascita” degli ammassi stellari – possono dare vita a stelle molto massicce che si evolvono in buchi neri di massa intermedia. I risultati dello studio sono stati pubblicati ieri sulla rivista Science.
«Osservazioni precedenti avevano suggerito che alcuni ammassi stellari massicci (gli ammassi globulari) ospitassero un buco nero di massa intermedia (Imbh)», spiega Fujii, motivando il progetto di ricerca. «Un Imbh è un buco nero con una massa di 100-10mila masse solari. Finora non ci sono state prove teoriche forti che dimostrino l’esistenza di Imbh con 1000-10mila masse solari rispetto a quelli meno massicci (di massa stellare) e più massicci (supermassicci)».
Ammasso stellare in formazione in una nube molecolare gigante riprodotta dalla simulazione. Crediti: Takaaki Takeda (Vasa Entertainment Inc.)
Sebbene i nidi di nascita evochino immagini di calore e tranquillità, per le stelle la realtà è ben diversa. Gli ammassi globulari sono ambienti turbolenti. Le differenze di densità fanno sì che le stelle si scontrino e si fondano. Quando le stelle continuano a fondersi e a crescere, le forze gravitazionali crescono con loro. Le ripetute collisioni che avvengono nella densa regione centrale degli ammassi globulari possono portare alla nascita di stelle molto massicce, con oltre 1000 masse solari, che potrebbero evolvere in buchi neri di massa intermedia. Tuttavia, precedenti simulazioni di ammassi già formati hanno suggerito che i venti stellari spazzano via la maggior parte della loro massa, lasciando oggetti troppo poco massicci per dare luogo a buchi neri di massa intermedia. Per verificare se gli Imbh possono “sopravvivere”, i ricercatori hanno dovuto simulare un ammasso mentre si stava ancora formando.
«Per la prima volta abbiamo eseguito con successo simulazioni numeriche della formazione di ammassi globulari, modellando le singole stelle», spiega Fujii. «Risolvendo le singole stelle con una massa realistica per ciascuna, abbiamo potuto ricostruire le collisioni delle stelle in un ambiente strettamente compatto. Per queste simulazioni, abbiamo sviluppato un codice di simulazione innovativo, in cui abbiamo potuto integrare milioni di stelle con un’elevata precisione».
Omega Centauri, un ammasso globulare della Via Lattea, che potrebbe ospitare un buco nero di massa intermedia. Crediti: Eso
Nella simulazione, le collisioni hanno effettivamente portato alla formazione di stelle molto massicce che si sono evolute in buchi neri di massa intermedia. I ricercatori hanno anche scoperto che il rapporto di massa tra l’ammasso e il buco nero intermedio corrisponde a quello delle osservazioni che avevano originariamente motivato il progetto.
«Il nostro obiettivo finale è quello di simulare intere galassie risolvendo le singole stelle», sottolinea Fujii, parlando delle ricerche future. «È ancora difficile simulare galassie delle dimensioni della Via Lattea risolvendo le singole stelle con i supercomputer attualmente disponibili. Tuttavia, sarebbe possibile simulare galassie più piccole, come le galassie nane. Vogliamo anche puntare ai primi ammassi, ovvero agli ammassi di stelle formatisi nell’universo primordiale. I primi ammassi sono luoghi in cui possono nascere gli Imbh».
Per saperne di più:
- Leggi su Science l’articolo “Simulations predict intermediate-mass black hole formation in globular clusters” di Michiko S. Fujii, Long Wang, Ataru Tanikawa, Yutaka Hirai e Takayuki R. Saitoh
I telescopi Inaf misurano il Sole nelle onde radio
Sardinia Radio Telescope, 64 metri di diametro, San Basilio (CA). Crediti: P. Soletta/Inaf
Sono partiti letteralmente da zero nel 2018 con un’idea visionaria e, per l’epoca, un po’ stramba: osservare il Sole nelle onde radio con i radiotelescopi Inaf di Bologna e Cagliari. Parliamo del team di Sundish, il progetto osservativo dell’Inaf che, dopo il primo articolo pubblicato dal responsabile scientifico Alberto Pellizzoni nel 2022, si arricchisce oggi di due nuove ricerche condotte da Marco Marongiu dell’Inaf di Cagliari, pubblicate il mese scorso in tandem sulla rivista Astronomy and Astrophysics.
Come mai questa curiosità per la misurazione del raggio solare? Non dovrebbe essere una stima già consolidata?
«La misura del raggio solare nasce in realtà da un nostro collega, anch’egli sardo, che lavora in Olanda, al telescopio Lofar, e che un giorno ci chiese “ma voi il Sole lo vedete tondo?”. All’inizio siamo rimasti un po’ stupiti, certo lo vediamo tondo, abbiamo risposto! In effetti a quella domanda c’è una motivazione importante: i telescopi a bassissime frequenze come Lofar vedono il Sole come una nebulosa informe che corrisponde all’atmosfera esterna, ovvero alla corona solare, piena di materia che, per quanto rarefatta, circonda la massa solare principale. Quindi loro il Sole lo vedono ellittico e misurano un semiasse maggiore e un semiasse minore. Da lì è nata la curiosità di fare un lavoro di misura del raggio del Sole a frequenze più alte (ovvero osservando onde radio più corte) e praticamente mai esplorate. Per farlo ci siamo avvalsi, e lo stiamo facendo tuttora integrandoli, di diversi metodi osservativi».
Quali?
«L’half-power method (in italiano, metodo di mezza potenza) calcola il raggio del Sole prendendo tutti quei punti sul disco solare che si trovano al 50 per cento della temperatura di “Sole quieto” a una determinata frequenza di osservazione, nel nostro caso tra 18 e 26 GHz. Questo valore varia in base alla frequenza e considera il Sole quieto come un modello teorico di Sole senza macchie e senza attività ulteriori rispetto alla pura radiazione termica, chiamata free–free. In pratica è un modello ideale molto vicino al Sole considerato nel suo minimo del ciclo undecennale. Il secondo metodo si chiama inflection-point (in italiano, metodo dei punti di flesso) e calcola il raggio “tagliando a fette” il Sole in orizzontale e/o in verticale e calcolando i punti di flesso (ossia quei punti in cui si manifesta un cambiamento di convessità o di segno di curvatura) nei tanti profili di temperatura ottenuti. Tutti questi punti, come nel caso precedente, vanno a comporre sul disco solare un “cerchioide” che noi andiamo a modellare secondo la classica equazione parametrica di un’ellisse. Questo metodo è più preciso rispetto a quello precedente, in quanto non considera le eccedenze, rispetto ai bordi al cerchio, dovute a brillamenti o regioni attive. Un terzo metodo, più complesso e più preciso, sfrutta il fatto che noi con le nostre mappe solari non vediamo il segnale del Sole “vero”, bensì il risultato della somma tra il segnale vero del Sole ed il beam pattern, ossia il sistema di ricezione del ricevitore che ne determina la risoluzione, un po’ come i bastoncelli della nostra retina o i pixel di una camera digitale. Abbiamo assunto come Sole vero due tipi di funzione empirica: un classico cilindro (come i cappelli a cilindro degli abiti), oppure un cilindro con l’aggiunta di una coda ai suoi estremi, per simulare l’emissione dell’atmosfera solare che abbiamo visto nelle nostre mappe. La simulazione delle code richiama la radiazione “sfumata” che la nostra stella mostra ai suoi bordi. Il Sole, in quanto gassoso, non ha infatti un orizzonte netto come nel caso di un corpo roccioso come la Terra».
Con quali telescopi lo avete osservato?
«A oggi abbiamo circa venti mappe solari eseguite con Srt, il Sardinia Radio Telescope di San Basilio (Cagliari), e ben 370 mappe solari fatte con il Medicina “Gavril Grueff” Radio Telescope, il radiotelescopio Inaf di Bologna, recentemente intitolato a uno dei padri degli strumenti più importanti della radioastronomia italiana, compreso Srt. Il nostro paper è probabilmente uno dei primi pubblicati che nomina questo strumento con il suo nuovo nome».
Radiotelescopio da 32 metri “Gavril Grueff” di Medicina (BO). Crediti: Fabrizio Melandri (2012)
Siete riusciti quindi a misurare il raggio?
«La qualità delle nostre mappe è tale che riusciamo a misurare il raggio con un margine di errore molto piccolo. Su un raggio, alle frequenze radio, di circa 980 arcosecondi – che corrispondono nella realtà a circa 710mila km – l’errore varia tra uno e due arcosecondi. E poi abbiamo visto che, sempre dentro a margini di errore predefiniti, il Sole cambia forma e le misure equatoriali differiscono da quelle polari a seconda della fase del ciclo undecennale. Quando infatti il Sole è al massimo della sua attività (che per via delle protuberanze e irregolarità ci rende il lavoro un po’ più difficile) molte regioni attive vengono a formarsi nella zona equatoriale espandendo quel raggio rispetto a quello polare. Viceversa nel minimo solare il raggio polare aumenta le dimensioni e nel radio mostra brillamenti polari (polar brightening) là dove alle alte energie (Uva e raggi X) si vedono invece delle macchie, come dei buchi di attività. La differenza è comunque veramente minima: si parla di qualche arcosecondo».
Queste differenze tra il diametro solare durante i massimi e i minimi del ciclo undecennale erano già conosciute?
«Sì, erano conosciute ma, ad esempio, fino a cinquant’anni fa alcune stime avevano errori quantificabili in oltre un arcominuto, ovvero 60–100 arcosecondi. Nel tempo abbiamo acquisito un vantaggio notevole arrivando a errori di pochi arcosecondi. Inoltre, la distanza Terra–Sole durante l’anno varia tra afelio e perielio ed è consuetudine per tutta la comunità solare normalizzare il raggio solare calcolandolo sempre a un’unità astronomica, che è la distanza media. In tal modo, a seconda del momento in cui osserviamo, possiamo applicare questo correttivo e avere stime precise e condivise in tutta la comunità scientifica».
Il secondo dei vostri articoli è dedicato all’atmosfera solare. Perché l’avete studiata?
«L’atmosfera solare è un insieme di tre strati a cipolla composti da gas elettricamente carico chiamato plasma. La superficie solare, quella che vediamo ribollire con i telescopi ottici, è la fotosfera che raggiunge solamente circa 6000 °C ma i cui fotoni sono in grado di passare gli strati seguenti e di arrivare fino a noi sotto forma di calore e luce visibile. Segue poi la cromosfera, visibile durante le eclissi di sole (che, paragonata al nostro pianeta, sarebbe l’aria che inizia a livello del mare) e, infine la periferica e caldissima corona solare, che raggiunge il milione di gradi nonostante la densità di particelle sempre minore. Lo studio in radio dell’atmosfera solare è stata una conseguenza non prevista delle misure del raggio, per questo abbiamo deciso di farne una pubblicazione a parte».
Marco Marongiu, ricercatore all’Inaf di Cagliari e primo autore dei due studi pubblicati su A&A. Crediti: P. Soletta/Inaf
E cosa avete scoperto, sull’atmosfera solare?
«Questi primi studi radioastronomici in banda K sono orientati a stabilire metodi e parallelismi con misurazioni precedenti e quello che abbiamo trovato è che, utilizzando il modello del Sole quieto, le informazioni su temperatura e densità che abbiamo registrato corrispondono a quelle effettuate in precedenza e in altre frequenze, ma solo partendo dalla fotosfera e fino ad una certa altezza dell’atmosfera solare che corrisponde più o meno a 1,2 – 1,4 raggi solari. Dopodiché questi valori si discostano, evidentemente perché non abbiamo considerato altre componenti come ad esempio gli effetti del campo magnetico e per questo occorrerà continuare ad osservare tenendo conto anche di altre variabili».
A proposito di valori che si discostano, un’ultima curiosità: il raggio che misurate voi è di circa 710mila km, ci ha detto prima, ma quello che trovo su Wikipedia è 696mila km, quasi il due per cento in meno. Qual è il motivo di questa incongruenza?
«Non ci sono incongruenze: il raggio canonico è stato deciso “a tavolino” ed è quello misurato con particolari tecniche nelle frequenze del visibile. Quando andiamo a frequenze più basse, e quindi nel radio, questo raggio diventa più grande. Il motivo a oggi non è ben chiaro, ma due possibili aspetti che possono influire su questa discrepanza sono sia la risoluzione più bassa delle nostre mappe nel radio rispetto alle alte frequenze (Uv, raggi X), che ci fanno vedere mappe più “sfocate” e non ci fanno apprezzare al meglio tutti i dettagli e la morfologia del Sole, sia il metodo di misurazione del raggio, e il fatto che per compiere tali misure bisogna anche assumere un modello che descriva il Sole in modo accurato anche da un punto di vista fisico, non solo da un punto di vista empirico».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Study of solar brightness profiles in the 18-26 GHz frequency range with INAF radio telescopes I: solar radius”, di
M. Marongiu, A. Pellizzoni, S. Mulas, S. Righini, R. Nesti, G. Murtas, E. Egron, M. N. Iacolina, A. Melis, G. Valente, G. Serra, S. L. Guglielmino, A. Zanichelli, P. Romano, S. Loru, M. Bachetti, A. Bemporad, F. Buffa, R. Concu, G. L. Deiana, C. Karakotia, A. Ladu, A. Maccaferri, P. Marongiu, M. Messerotti, A. Navarrini, A. Orfei, P. Ortu, M. Pili, T. Pisanu, G. Pupillo, A. Saba, L. Schirru, C. Tiburzi e P. Zucca - Leggi su Astronomy & Astrophysics l’articolo “Study of solar brightness profiles in the 18-26 GHz frequency range with INAF radio telescopes II. Evidence for coronal emission”, di M. Marongiu, A. Pellizzoni, S. Righini, S. Mulas, R. Nesti, A. Burtovoi, M. Romoli, G. Serra, G. Valente, E. Egron, G. Murtas, M. N. Iacolina, A. Melis, S. L. Guglielmino, S. Loru, P. Zucca, A. Zanichelli, M. Bachetti, A. Bemporad, F. Buffa, R. Concu, G. L. Deiana, C. Karakotia, A. Ladu, A. Maccaferri, P. Marongiu, M. Messerotti, A. Navarrini, A. Orfei, P. Ortu, M. Pili, T. Pisanu, G. Pupillo, P. Romano, A. Saba, L. Schirru, C. Tiburzi, L. Abbo, F. Frassati, M. Giarrusso, G. Jerse, F. Landini, M. Pancrazzi, G. Russano, C. Sasso e R. Susino
Lo strano caso dei buchi neri primordiali mancanti
Infografica Esa sulla formazione dei buchi neri primordiali. Crediti: European Space Agency
Di buchi neri primordiali (Phb, da primordial black holes), piccoli buchi neri risalenti ai primissimi istanti subito dopo il Big Bang, pare se ne siano formati relativamente pochi. È la conclusione alla quale è giunta una coppia di fisici del Kavli Institute for the Physics and Mathematics of the Universe (Kavli Ipmu) – in Giappone, all’Università di Tokyo – applicando allo studio dell’universo primordiale la teoria quantistica dei campi. Il risultato, pubblicato ieri su Physical Review Letters, potrebbe avere implicazioni anche per lo studio della materia oscura: una fra le ipotesi per spiegarne la natura è che sia fatta proprio da questi antichissimi buchi neri.
«Li chiamiamo buchi neri primordiali, e molti ricercatori li ritengono un forte candidato per la materia oscura», ricorda infatti il primo autore dello studio, Jason Kristiano, del Kavli Ipmu, «ma per soddisfare questa teoria ce ne dovrebbero essere in grande quantità». Ed è proprio su questo che interviene il nuovo studio: considerando i principali modelli inflazionistici e confrontandoli con i dati forniti dalle osservazioni della radiazione di fondo cosmico a microonde (Cmb), il team del Kavli Ipmu è infatti giunto a porre un limite superiore a un parametro dello spettro di potenza su piccola scala legato alla formazione di questi buchi neri primordiali. Una conclusione, sottolineano gli autori dello studio, che potrebbe essere sottoposta a verifica con le future osservazioni da interferometri di onde gravitazionali – sia quelle dovute alla fusione di buchi neri stellari rivelate da interferometri come Ligo e Virgo, sia quelle di fondo, rilevabili attraverso sistemi come il pulsar timing array.
Ma abbondanti o rari che siano, come si sarebbero formati, questi buchi neri primordiali? «È opinione diffusa si creino dal collasso di onde di lunghezza molto piccola ma di ampiezza molto grande nell’universo primordiale», dice Kristiano. Insomma, è un po’ come se fossero le “particelle” delle fluttuazioni quantistiche presenti all’epoca dell’inflazione. Fluttuazioni che avrebbero lasciato traccia nella Cmb a larga scala.
«In principio l’universo era incredibilmente piccolo, molto più piccolo delle dimensioni di un singolo atomo. L’inflazione cosmica lo ha rapidamente espanso di 25 ordini di grandezza», spiega l’altro autore dello studio, Jun’ichi Yokoyama, direttore del Kavli Ipmu. «Le onde che all’epoca si propagavano attraverso quello spazio minuscolo potevano avere ampiezze relativamente grandi ma lunghezze d’onda molto piccole. Ciò che abbiamo scoperto è che queste onde minuscole ma intense possono tradursi in un’amplificazione altrimenti inspiegabile di onde molto più lunghe che osserviamo nell’attuale Cmb».
Lo studio mostra come le fluttuazioni di grande ampiezza generate su piccola scala possano amplificare le fluttuazioni su larga scala osservate nel fondo cosmico a microonde. Crediti: Collaborazione Esa/Planck, modificato da Jason Kristiano Cc-By-Nd
«La nostra ipotesi è che ciò sia dovuto a occasionali casi di coerenza tra queste prime onde corte, spiegabili facendo ricorso alla teoria quantistica dei campi, la teoria più robusta di cui disponiamo per descrivere fenomeni come i fotoni o gli elettroni. Mentre le singole onde corte sarebbero relativamente poco potenti, i gruppi coerenti avrebbero potenza sufficiente ad alterare onde molto più grandi. Si tratta di un raro caso», sottolinea Yokoyama riferendosi alla relazione fra il microcosmo della meccanica quantistica e il macrocosmo della cosmologia, «in cui una teoria su qualcosa a un estremo della scala sembra spiegare qualcos’altro all’estremo opposto della scala».
Se dunque, come suggeriscono Kristiano e Yokoyama, le fluttuazioni primordiali su piccola scala influenzano alcune delle fluttuazioni su scala maggiore che osserviamo oggi nella Cmb, dato che possiamo misurare queste ultime per vincolare efficacemente l’estensione delle corrispondenti lunghezze d’onda nell’universo primordiale, ciò vincola altresì qualsiasi altro fenomeno che potrebbe basarsi su queste lunghezze d’onda più corte e più forti, concludono i due fisici. È così che sono giunti a stabilire il limite superiore sui buchi neri primordiali, che del collasso di quelle onde sarebbero l’esito, e a concludere che siano in quantità assai inferiore a quella richiesta per rappresentare un valido candidato per la materia oscura.
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Constraining Primordial Black Hole Formation from Single-Field Inflation”, di Jason Kristiano e Jun’ichi Yokoyama
La Lune Lumière
Una corona lunare, assieme alla Tour Eiffel, in una notte di Parigi di fine aprile (cliccare per ingrandire). Oggi Apod della Nasa. Crediti: Valter Binotto
La foto astronomica del giorno è piena di colori rari. Una Tour Eiffel illuminata, un raggio di luce che l’attraversa, ma soprattutto una corona lunare. Un effetto ottico affascinante e difficile da immortalare, che si verifica nel cielo quando nubi sottili velano una sorgente luminosa come il Sole o la Luna. La firma, la potete vedere in basso a destra, è di Valter Binotto, fotografo amatore di Possagno – il paese di Antonio Canova, ai piedi del Monte Grappa, in Veneto – che a fine aprile si trovava a Parigi in viaggio di piacere con la famiglia.
«Con me porto sempre una fotocamera essendo un appassionato fotografo. Il cielo lo scruto sempre con attenzione, visto che sia di giorno che di notte offre spunti interessantissimi, in particolare i fenomeni legati alla luce come corone, aurore, sprites o altro», racconta a Media Inaf Valter Binotto, che ha scattato la foto la sera del 20 aprile scorso. «Quando ho visto la corona lunare ho cercato un punto dove poter fotografarla inserendo la torre Eiffel nello scatto. Con me, per stare leggero, avevo una fotocamera con un solo obiettivo: una Nikon D5 con obiettivo zoom 24/70 – 2.8. Non avendo con me un treppiedi ho dovuto appoggiarmi a un muro lungo la Senna per contenere le vibrazioni. Ho scattato a 1/40 di secondo a 5.000 ISO ed f 2.8».
Il fenomeno fisico dietro alla formazione delle corone è la diffrazione. Quando la luce passa attraverso le minuscole goccioline che formano le nuvole (o anche piccoli cristalli di ghiaccio) subisce una curvatura (cioè un cambio di direzione) che varia nelle diverse lunghezze d’onda che la compongono – un fenomeno noto come dispersione – che dà luogo alla creazione degli intricati disegni e colori osservati in una corona. Le dimensioni e la gradazione di queste goccioline o cristalli di ghiaccio giocano un ruolo nell’aspetto degli anelli all’interno della corona. In alcuni casi, gli anelli possono apparire leggermente decentrati a causa delle variazioni delle dimensioni delle goccioline all’interno della nube. Le corone lunari sono uno dei pochi effetti cromatici di meccanica quantistica che possono essere facilmente visti a occhio nudo, e sono un fenomeno dinamico, che può cambiare di forma e dimensione mentre le nuvole si muovono di fronte alla Luna o al Sole.
«Se lo conoscevo? Corone e aloni lunari sono talmente fotogenici che ho perso il conto di quante volte li ho fotografati», dice Binotto. «Quella sera la Luna, con la corona, era già bella di suo, ma la presenza della torre e il fascio di luce proiettato nella corona ne facevano un quadretto ancora più bello. Penso comunque che in pochi abbiano visto la scena, attratti come erano dalla maestosità della Torre e impegnati a farsi i selfie sotto di essa».
All’alba del tempo, la galassia più lontana mai vista
Per qualche anno c’è stata lei, Gn-z11, scoperta nel 2016, a detenere il record di galassia più lontana mai osservata. Nel 2022 ci ha pensato la galassia Hd1 a contenderle questo primato. Poi, dopo il lancio del telescopio Webb, impareggiabile occhio puntato sull’universo infrarosso, galassie a distanze remotissime hanno cominciato pian piano a fioccare sugli schermi degli astronomi, ma non senza diverse incertezze. Il parametro che gli astrofisici usano per quantificare la distanza delle galassie si chiama redshift, ed è una conseguenza dell’espansione dell’universo. Maggiore è il redshift e maggiore sarà la distanza della galassia osservata: 10.6 è per esempio il redshift di Gn-z11, mentre quello di Hd1 è stimato intorno a 13. E così si è arrivati a Jades-Gs-z13-0, oggetto a redshift 13.2, scoperto con Webb e – fino a ieri – galassia più lontana mai vista.
Le galassie Jades-Gs-z14-0 e Jades-Gs-z14-1 viste dallo strumento NirCam del telescopio spaziale Webb (cliccare per ingrandire). Crediti: S. Carniani, 2024; Jades collaboration
Fino a ieri, appunto: è di oggi infatti la scoperta di due galassie a distanza ancora maggiore. Jades-Gs-z14-0 e Jades-Gs-z14-1 si chiamano, rispettivamente a redshift 14.3 e 13.9. Le due galassie sono state scoperte dalla collaborazione internazionale Jades (Jwst Advanced Deep Extragalactic Survey). A guida italiana l’articolo che presenta la scoperta: primo nome dello studio, reso pubblico oggi su arXiv, è infatti Stefano Carniani, aretino di origine e ricercatore alla Scuola Normale Superiore di Pisa. Per la prima volta viene così abbattuto il muro di redshift 14: mai prima di ora si era riusciti a scrutare i recessi dell’universo e delle sue inquiline più remote tanto in profondità. Redshift 14 che, tradotto in epoche cosmiche, vuole dire: trecento milioni di anni dopo il Big Bang. Maggiore è la distanza e più antica sarà infatti l’epoca cosmica da cui la luce delle galassie ci avrà raggiunti. Trovare galassie a distanze remote consente dunque agli astronomi di investigare epoche primordiali della storia dell’universo.
Nello studio sono state utilizzate sia le immagini delle due galassie, ottenute con gli strumenti NirCam e Miri a bordo di Webb, che gli spettri realizzati con lo spettrografo NirSpec. Questi ultimi sono stati fondamentali per la conferma delle distanze. In particolare, Jades-Gs-z14-0, oltre a essere la galassia più lontana mai vista, è straordinariamente brillante. Nessun altro telescopio se non Webb avrebbe potuto catturare la luce remotissima di questo oggetto. Un’altra conseguenza dell’espansione dell’universo è che la luce delle galassie lontane si sposta dalla finestra dell’ultravioletto e del visibile a quella dell’infrarosso, terreno di caccia per gli occhi sempre aperti di Webb. Alla scoperta è stata dedicato un post uscito oggi sul blog della Nasa dedicato a Webb. Un’alba cosmica che si rivela dunque luccicante, più di quanto ci si aspettasse, riprendendo il titolo – “A shining cosmic dawn” – dell’articolo di Carniani e collaboratori. Lo abbiamo intervistato per commentare questa straordinaria scoperta.
Cos’ha pensato, così, a caldo, la prima volta che ha visto gli spettri di queste due galassie?
«Penso che guardare per la prima volta i dati ottenuti con lo spettrografo NirSpec in modalità multi-oggetto, ovvero quando osserva più sorgenti contemporaneamente, è come aprire una pacchetto di figurine, non sai quello che ci sarà, ma sai che sicuramente rimarrai a bocca aperta. Come un bambino con il suo pacchetto di figurine appena aperto, io sono rimasto senza parole quando ho visto il primo spettro della galassia ad alto redshift. Quando ho visto i dati anche delle seconda galassia, ho rilanciato la pipeline di riduzione dati e controllato che il processo di calibrazione dati non avesse avuto problemi. Appena ho realizzato che i dati erano ben calibrati, ho subito condiviso gli spettri con i colleghi del gruppo Jades per condividere lo stupore con loro».
Nell’articolo si legge che la galassia più distante, Jades-Gs-z14-0, vi ha dato del filo da torcere. Per puro caso nelle immagini la vediamo molto prossima a una galassia decisamente più vicina alla Via Lattea, il che vi aveva fatto pensare che le due sorgenti potessero essere associate. Come vi siete accorti che Jades-Gs-z14-0 era un oggetto in qualche modo speciale, molto più distante della galassia “compagna”?
«È una storia che ha inizio a fine 2022, quando abbiamo ottenuto le prime immagini NirCam di questa galassia. Avevamo notato subito che, mentre la galassia vicina emetteva luce a tutte le lunghezze d’onda visibili con Webb, Jades-Gs-z14-0 era assente nelle immagini nei filtri più blu. Viceversa, Jades-Gs-z14-0 appariva molto luminosa nelle immagini più rosse, ottenute con Miri. Benché le immagini sembrassero convincenti, siamo sempre stati un po’ dubbiosi che questa galassia fosse così lontana, perché era troppo luminosa per esistere nell’universo primordiale. Temevamo che la galassia più vicina contaminasse la nostra analisi e quindi la nostra stima della distanza. Con l’arrivo dei dati NirSpec, nel gennaio 2024, abbiamo risolto il nostro dubbio e misurato con precisione la distanza tra noi e Jades-Gs-z14-0. Per sicurezza abbiamo ottenuto dati spettroscopici della galassia accanto, per escludere qualsiasi tipo di contaminazione e incertezza».
Per ottenere uno spettro della lontana galassia Jades-Gs-z14-0, al fine di misurare con precisione il suo redshift e quindi determinare la sua età, gli scienziati hanno utilizzato il NirSpec (Near-Infrared Spectrograph) del James Webb Space Telescope della Nasa. Il redshift può essere determinato dalla posizione di una lunghezza d’onda critica nota come Lyman-alfa break. Questa galassia risale a meno di 300 milioni di anni dopo il Big Bang. Crediti: Nasa, Esa, Csa, Joseph Olmsted (Stsci); S. Carniani (Scuola Normale Superiore), Collaborazione Jades
Quale tecnica avete utilizzato per assegnare una distanza a queste galassie? Possiamo fidarci della robustezza di questo risultato?
«Abbiamo utilizzato una tecnica, già utilizzata da anni, che consiste nel misurare la lunghezza d’onda alla quale vediamo il cosiddetto Lyman-break. Il Lyman-break è una netta discontinuità nello spettro elettromagnetico osservato con i telescopi perché la luce emessa dalle stelle a lunghezze d’onda corte viene assorbita dagli atomi di idrogeno neutro presenti nell’universo, mentre la luce a lunghezze d’onda più lunghe non risente di questo effetto e riesce ad arrivare fino a noi. Negli spettri elettromagnetici delle galassie lontane, questo processo si mostra con una forma “a scalino” e la sua posizione in unità di lunghezza d’onda dipende dalla distanza che c’è tra la galassia e noi. Il Lyman-break, ovvero lo scalino, appare nei dati di Jades-Gs-z14-0 e Jades-Gs-z14-1 in modo chiaro e indistinguibile, permettendoci cosi di misurare la loro distanza dalla Terra con buona accuratezza».
Con il vostro team avete studiato in maniera approfondita anche la galassia Gn-z11, che per alcuni anni è stata la detentrice del record di galassia più lontana mai osservata. In particolare, lo spettro di Gn-z11 rivela una straordinaria abbondanza di elementi chimici, in un’epoca remota nella storia dell’universo. C’è qualche somiglianza tra Jades-Gs-z14-0 e Gn-z11? O in comune hanno solo l’aver conquistato questo record?
«Inizialmente pensavo che Jades-Gs-z14-0 e Gn-z11 fossero simili e che la loro storia evolutiva fosse la stessa. Analizzando gli spettri delle due galassie, mi sono accorto che i tipici profili di luce, detti righe di emissione, degli elementi chimici osservati nello spettro elettromagnetico di Gnz-11 non sono presenti in quelli di Jades-Gs-z14-0. Poi mi sono accorto che la galassia Gn-z11 è molto più compatta della nostra. Sinceramente sono stupito che due galassie così brillanti abbiano caratteristiche diverse e non so spiegarmi questa differenza».
Stefano Carniani, aretino di origine e ricercatore alla Scuola Normale Superiore di Pisa, mostra gli spettri delle due galassie protagoniste della scoperta. Crediti: S. Carniani
Continuiamo a parlare di lei, Jades-Gs-z14-0, la galassia più lontana mai osservata. Così distante e così brillante: è un problema per i modelli attuali?
«Se tre anni fa mi avessero chiesto cosa mi sarei aspettato di osservare con Webb nell’universo primordiale, avrei risposto galassie appena formate e poco brillanti. Questo è quello che ci si aspettava sulla base dei modelli teorici e delle simulazioni numeriche che erano calibrate principalmente su quello che sapevamo grazie al telescopio spaziale Hubble. La scoperta di Jades-Gs-z14-0 non è proprio quello che ci si aspettava, dato che si presenta luminosa e probabilmente già arricchita di polvere e atomi di ossigeno prodotti dalle stelle al suo interno. I modelli prevedono che una galassia così evoluta si formi in centinaia di milioni di anni e che non esista in epoche cosi vicine al Big Bang. Jades-Gs-z14-0 dimostra chiaramente che le galassie si formano ed evolvono molto più velocemente di quello che si pensava. In particolare i nostri studi indicano che la galassia sia arrivata al suo stadio attuale in una decina di milioni di anni. È chiaro che dobbiamo rivedere quello che sapevamo dei processi fisici che regolano l’evoluzione delle galassie nella loro fase iniziale».
Da quando Webb è stato lanciato, parlare di galassie oltre redshift 10 sta diventando usuale in astronomia, un fatto assolutamente impensabile fino a un paio di anni fa. I redshift delle galassie più distanti continuano ad aumentare. A quale redshift diventerebbe inevitabile rivedere profondamente tutto l’impianto teorico sulla formazione delle prime strutture?
«Si pensa che le prime galassie si siano formate tra redshift 20 e 30, ovvero quando l’universo aveva solo 100-150 milioni di anni. Se trovassimo galassie così distanti e già evolute, temo che dovremmo iniziare a riscrivere i libri universitari di astrofisica e aprire la nostra mente a nuove teorie. Poiché a solo due anni dal lancio di Jwst siamo già arrivati a redshift 14.3 (meno di 300 milioni di anni dal Big Bang), penso che fra qualche anno potremo confermare o confutare le basi principali della cosmologia».
Per saperne di più:
- Leggi su arXiv il preprint dell’articolo, ancora in attesa di pubblicazione, “A shining cosmic dawn: spectroscopic confirmation of two luminous galaxies at z∼14”, di Stefano Carniani, Kevin Hainline, Francesco D’Eugenio, Daniel J. Eisenstein, Peter Jakobsen, Joris Witstok, Benjamin D. Johnson, Jacopo Chevallard, Roberto Maiolino, Jakob M. Helton, Chris Willott, Brant Robertson, Stacey Alberts, Santiago Arribas, William M. Baker, Rachana Bhatawdekar, Kristan Boyett, Andrew J. Bunker, Alex J. Cameron, Phillip A. Cargile, Stéphane Charlot, Mirko Curti, Emma Curtis-Lake, Eiichi Egami, Giovanna Giardino, Kate Isaak, Zhiyuan Ji, Gareth C. Jones, Michael V. Maseda, Eleonora Parlanti, Tim Rawle, George Rieke, Marcia Rieke, Bruno Rodríguez Del Pino, Aayush Saxena, Jan Scholtz, Renske Smit, Fengwu Sun, Sandro Tacchella, Hannah Übler, Giacomo Venturi, Christina C. Williams e Christopher N. A. Willmer
Metti uno “Squalo” nel telescopio
La luna gioviana Io, ripresa da Shark-Vis@Lbt il 10 gennaio 2024. I canali rosso, verde e blu di questa immagine in tricromia mostrano rispettivamente le bande spettrali I (infrarosso), R (rosso) e V (verde) (corrispondenti a lunghezze d’onda a 755, 620 e 550 nanometri). Si tratta dell’immagine di Io a più alta risoluzione mai ottenuta da un telescopio terrestre. Crediti: Inaf/Large Binocular Telescope Observatory/Georgia State University; osservazioni in banda IRV di Shark-Vis@LBT (P.I. F. Pedichini); elaborazione di D. Hope, S. Jefferies, G. Li Causi.
Acquisita la più dettagliata immagine mai ottenuta da un telescopio da Terra di Io, la luna vulcanica di Giove, grazie al nuovo strumento Shark-Vis, costruito dall’Istituto nazionale di astrofisica (Inaf) e installato sullo specchio destro del Large Binocular Telescope (Lbt) sul Monte Graham in Arizona. L’immagine e le prime analisi scientifiche a essa legate saranno pubblicate nei prossimi giorni in un articolo sulla rivista Geophysical Research Letters.
L’immagine mostrata è una delle prime osservazioni condotte con Shark-Vis a gennaio 2024 e mostra l’incredibile potenziale dello strumento, fornendo un livello di dettaglio mai raggiunto prima con telescopi da Terra. L’eccezionale risoluzione ottenuta, al limite delle capacità teoriche del telescopio, permette di distinguere caratteristiche sulla superficie di Io, separate da soli 80 km. Ciò equivale a individuare una moneta da dieci centesimi a 200 km di distanza, una risoluzione spaziale fino a ora raggiunta esclusivamente da riprese di sonde spaziali inviate su Giove.
Nel 2023 il grande telescopio binoculare Lbt, dotato di due specchi principali affiancati da 8,2 metri di diametro ciascuno, è stato equipaggiato con un nuovo strumento ottimizzato per sfruttare a pieno il sistema di ottica adattiva, in grado di acquisire immagini ad alto contrasto nella luce visibile e corrette per le deformazioni causate dalla turbolenza atmosferica. Lo strumento, chiamato Shark-Vis, è gestito da un team guidato dal suo principal investigator, Fernando Pedichini, in forza all’Inaf di Roma. Ad affiancare Shark-Vis c’è lo strumento omologo Shark-Nir, guidato da un team di Inaf-Padova, operativo nella banda del vicino infrarosso e installato sullo specchio sinistro del Large Binocular Telescope.
Costruito presso il Laboratorio di ottica “Dario Lorenzetti” dal gruppo Adoni dell’Inaf di Roma, Shark-Vis (‘squalo’ in lingua inglese e acronimo di System for coronagraphy with High order Adaptive optics from R to K band – Visible) è uno strumento compatto ed estremamente versatile. Installato lo scorso giugno su Lbt a valle del sistema di ottica adattiva Soul, questo strumento ospita una telecamera sCmos veloce e a bassissimo rumore. Con questa configurazione è possibile osservare il cielo in modalità di “imaging veloce”, catturando riprese in slow motion e congelando le distorsioni ottiche causate dalla turbolenza atmosferica. I dati così ottenuti hanno una risoluzione senza precedenti.
«Elaboriamo i nostri dati al computer per rimuovere ogni traccia dell’impronta elettronica del sensore, quindi selezioniamo i migliori fotogrammi e infine li combiniamo utilizzando un pacchetto software altamente efficiente chiamato Kraken, sviluppato dai nostri colleghi Douglas Hope e Stuart Jefferies della Georgia State University, che ci consente di rimuovere gli effetti atmosferici, rivelando Io con una nitidezza incredibile», spiega Gianluca Li Causi, responsabile dell’elaborazione dati per Shark-Vis e ricercatore dell’Inaf di Roma.
L’immagine presentata fa parte di un programma scientifico focalizzato sull’eccezionale vulcanismo di Io, guidato da Al Conrad, primo autore dell’articolo che include scienziati della Nasa (Ashley Davies), dell’Università della California – Berkeley (Imke de Pater) e del California Institute of Technology (Katherine de Kleer). Come spiega Al Conrad, «Io è il corpo più attivo del nostro Sistema solare dal punto di vista vulcanico, e monitorando le eruzioni sulla sua superficie otteniamo informazioni sui processi di trasporto del calore sottostanti, sulla struttura interna del satellite e, in ultima analisi, sul meccanismo di riscaldamento mareale responsabile dell’intenso vulcanismo».
«Le immagini dei telescopi nell’infrarosso», ricorda Simone Antoniucci, instrument scientist di Shark-Vis, «possono rilevare le zone più calde dove sono presenti eruzioni vulcaniche, ma non sono abbastanza nitide da mostrare i dettagli superficiali, come l’intensità e il colore dei depositi di lava, dai quali è possibile ricavare informazioni sulla composizione dei minerali presenti. Quindi, immagini più nitide nella banda del visibile, come quelle fornite da Shark-Vis e Lbt, sono essenziali per identificare i cambiamenti superficiali non rilevabili nell’infrarosso».
La ricchezza di dettagli di questa immagine ha permesso di identificare un importante evento di ripavimentazione che ha interessato il deposito di un pennacchio attorno al vulcano Pele. I cambiamenti osservati sono stati interpretati come depositi di lava scura e di biossido di zolfo bianco, originati da un’eruzione del vulcano Pillan coprendo parzialmente il deposito di pennacchio rosso ricco di zolfo di Pele. Un evento simile si è verificato nel 1997, osservato dalla sonda spaziale Galileo. Tali eventi di ripavimentazione, prima di Shark-Vis, erano impossibili da osservare da Terra.
Il project manager del nuovo strumento, Roberto Piazzesi, ricercatore all’Inaf di Roma, anticipa nuove osservazioni che tale strumento condurrà sugli oggetti del Sistema solare: «La vista penetrante di Shark-Vis è particolarmente adatta all’osservazione delle superfici di molti corpi del Sistema solare, non solo delle lune dei pianeti giganti ma anche degli asteroidi: ne abbiamo già osservati alcuni, con i dati attualmente in fase di analisi, e stiamo pianificando di osservarne altri».
Per saperne di più:
- Leggi su Geophysical Research Letters l’articolo “Observation of Io’s Resurfacing via Plume Deposition Using Ground-based Adaptive Optics at Visible Wavelengths with LBT SHARK-VIS”, di A. Conrad, F. Pedichini, G. Li Causi, S. Antoniucci, I. de Pater, A. G. Davies, K. de Kleer, R. Piazzesi, V. Testa, P. Vaccari, M. Vicinanza, J. Power, S. Ertel, J. C. Shields, S. Ragland, F. Giorgi, S. M. Jefferies, D. Hope, J. Perry, D. A. Williams e D. M. Nelson
Un “eso-Venere” con temperature quasi terrestri
Rappresentazione artistica di Gliese 12 b, che orbita intorno ad una stella nana rossa fredda a 40 anni luce dalla Terra. Il pianeta promette di dire agli astronomi di più su come i pianeti vicini alle loro stelle conservano o perdono le loro atmosfere. In questa rappresentazione Glise 12 b è mostrato conservare una sottile atmosfera. Crediti: Nasa/Jpl-Caltech/R. Hurt (Caltech-Ipac)
L’umanità è sempre stata molto curiosa di conoscere meglio lo spazio in cui vive. Una volta il confine oltre il quale scoprire una nuova terra era il mare, e la gioia provata quando veniva gridato dalla vedetta dall’albero “Terra!” per avvertire i compagni dell’arrivo in una regione inesplorata era altissima. Oggi, mentre la ricerca si spinge sempre più lontano, sono gli astrofisici a gridare, in un laboratorio invece che su una barca, “un pianeta Earth-like!”.
La ricerca di esopianeti negli ultimi anni ha portato alla scoperta di tantissimi nuovi mondi, ma solo una manciata di essi sono temperati e simili alla Terra. Nonostante siano rari non sono però impossibili da trovare: il “grido” – sotto forma di articolo scientifico, pubblicato la setimana scorsa su Monthly Notices of the Royal Astronomical Society – si è udito anche molto di recente, giusto la settimana scorsa, con l’annuncio della scoperta di Gliese 12 b: un esopianeta che orbita ogni 12.8 giorni intorno alla sua stella ospite, Gliese 12, situata a 40 anni luce da noi nella costellazione dei Pesci, e con dimensioni paragonabili a quelle di Venere – quindi leggermente più piccolo della Terra. E simile a quella della Terra è la sua temperatura superficiale, stimata attorno a 42 °C, dunque inferiore a quella della maggior parte dei circa cinquemila esopianeti confermati finora. Questo, però, assumendo che non abbia atmosfera, che è il prossimo obiettivo da indagare per accertarsi che il pianeta sia potenzialmente abitabile.
Gliese 12 b potrebbe avere un’atmosfera simile a quella terrestre, una più simile a Venere – il nostro vicino, che ha sperimentato un effetto serra fuori controllo che lo ha reso un inferno a 400 °C – senza atmosfera, o forse un tipo di atmosfera ancora diverso, non presente nel nostro Sistema solare. La risposta alla domanda sull’atmosfera del pianeta è vitale, in quanto rivelerebbe se l’esopianeta ha temperature adatte all’esistenza sulla sua superficie di acqua in forma liquida – e forse la vita. La risposta a questo quesito permetterebbe anche di mettere alla prova alcune ipotesi sul come e perché la Terra e Venere si sono evolute in modo così diverso.
Gliese 12 b non è il primo esopianeta simile alla Terra a essere stato scoperto, ma c’è comunque solo una manciata di mondi simili – sottolinea la Nasa – che meritano uno sguardo più attento. Il pianeta è stato presentato come “il mondo più vicino, transitante, temperato, delle dimensioni della Terra individuato fino ad oggi”, e un potenziale obiettivo per ulteriori indagini da parte del James Webb Space Telescope.
Rappresentazione artistica di Proxima Centauri b l’esopianeta simile alla Terra più vicino a noi — a 4 anni luce di distanza — e probabilmente il più famoso. Non essendo un pianeta in transito c’è ancora molto da imparare, compreso se abbia un’atmosfera e il potenziale per ospitare la vita. Crediti: Nasa Visualization Technology Applications and Development (Vtad)
Come già detto Gliese 12 b non è l’unico pianeta extrasolare simile alla Terra: il più vicino a noi – e forse il più famoso – è Proxima Centauri b, che dista solo 4 anni luce. Nonostante la vicinanza, però, non essendo un pianeta che possiamo osservare in transito davanti alla propria stella, non lo conosciamo ancora bene – in particolare, non sappiamo se abbia un’atmosfera e il potenziale per ospitare la vita. La maggior parte degli esopianeti sono transitanti, ovvero sono stati individuati utilizzando il metodo dei transiti: quando un pianeta passa davanti — dal nostro punto di vista — alla sua stella ospite, provoca un calo della luminosità della stella. Non solo: durante il transito, la luce della stella passa attraverso l’eventuale atmosfera del pianeta, che ne assorbe alcune lunghezze d’onda. Poiché diverse molecole di gas assorbono colori diversi, il transito fornisce una serie di impronte chimiche che possono essere rivelate da telescopi come Webb e dalle quali è possibile ricavare la composizione chimica dell’atmosfera. A rendere d’interesse Gliese 12 b è anche il fatto che potrebbe aiutare a comprendere se le stelle del tipo più comune nella Via Lattea – le stelle fredde – sono in grado di ospitare pianeti temperati dotati di atmosfera e dunque potenzialmente abitabili.
«Gliese 12 b rappresenta uno dei migliori obiettivi per studiare se i pianeti delle dimensioni della Terra che orbitano attorno a stelle fredde possono mantenere la loro atmosfera, un passo cruciale per far avanzare la nostra comprensione dell’abitabilità dei pianeti nella nostra galassia», osserva a questo proposito Shishir Dholakia, studente di dottorato al Centre for Astrophysics alla University of Southern Queensland in Australia, che ha guidato la ricerca insieme a Larissa Palethorpe, studentessa di dottorato alla University of Edinburgh e University College London.
La stella ospite dell’esopianeta, Gliese 12, ha circa il 27 per cento delle dimensioni del nostro Sole e ha una temperatura superficiale che è circa il 60 per cento di quella della nostra stella. Tuttavia, la distanza che la separa dal pianeta è solo il 7 per cento della distanza tra la Terra e il Sole. Gliese 12 b riceve quindi dalla sua stella 1,6 volte più energia di quella che la Terra riceve dal Sole e circa l’85 per cento di quella che riceve Venere. Questa differenza nella radiazione solare è importante, perché significa che la temperatura superficiale del pianeta dipende fortemente dalle sue condizioni atmosferiche. Per un confronto, rispetto alla temperatura superficiale stimata di Gliese 12 b di 42°C, la Terra ha una temperatura superficiale media di 15 °C.
Le dimensioni stimate di Gliese 12 b potrebbero essere grandi quanto la Terra o leggermente più piccole — paragonabili a Venere nel nostro sistema solare. La rappresentazione di questo artista mette a confronto la Terra con diverse possibili interpretazioni di Gliese 12 b, da una senza atmosfera a una con una spessa atmosfera simile a Venere. Crediti: Nasa/Jpl-Caltech/R. Hurt (Caltech-Ipac)
«Le atmosfere intrappolano il calore e, a seconda del tipo, possono modificare sostanzialmente la temperatura superficiale effettiva», spiega Dholakia. «Quella che riportiamo è la “temperatura di equilibrio” del pianeta, quella che avrebbe se non ci fosse atmosfera. Gran parte del valore scientifico di questo pianeta è capire che tipo di atmosfera potrebbe avere. Dato che Gliese 12 b, quanto a quantità di luce ricevuta dalla propria stella, si trova tra la Terra e Venere, sarà utile per colmare il divario tra questi due pianeti nel Sistema solare».
«Si pensa che le atmosfere primordiali della Terra e di Venere siano state strappate via e poi ricostituite dal degassamento vulcanico e dai bombardamenti di materiale residuo nel Sistema solare», aggiunge Palethorpe. «La Terra è abitabile, ma Venere non lo è, a causa della completa perdita di acqua. Poiché in termini di temperatura Gliese 12 b si trova tra la Terra e Venere, la sua atmosfera potrebbe insegnarci molto sui percorsi di abitabilità che i pianeti seguono man mano che si sviluppano».
Un fattore importante per trattenere un’atmosfera è l’irrequietezza della stella ospite. Le nane rosse tendono a essere magneticamente attive, provocando frequenti e potenti brillamenti di raggi X, tuttavia le osservazioni – condotte anche da un team di astronomi di Tokyo usando il telescopio spaziale Tess della Nasa – suggeriscono che Gliese 12 non mostri segni di un comportamento così estremo, facendo dunque sperare che l’atmosfera di Gliese 12 b possa essere ancora intatta.
«Conosciamo solo una manciata di pianeti temperati simili alla Terra che sono abbastanza vicini a noi e soddisfano altri criteri necessari per questo tipo di studio, chiamato spettroscopia di trasmissione, utilizzando le facilities attuali», sottolinea Michael McElwain, astrofisico al Goddard Space Flight Center della Nasa e coautore dello studio giapponese condotto con Tess. «Per comprendere meglio la diversità delle atmosfere e gli esiti evolutivi di questi pianeti, abbiamo bisogno di più esempi come Gliese 12 b».
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “Gliese 12 b, a temperate Earth-sized planet at 12 parsecs discovered with TESS and CHEOPS” di Shishir Dholakia, Larissa Palethorpe, Alexander Venner, Annelies Mortier, Thomas G Wilson, Chelsea X Huang, Ken Rice, Vincent Van Eylen, Emma Nabbie, Ryan Cloutier, Walter Boschin, David Ciardi, Laetitia Delrez, Georgina Dransfield, Elsa Ducrot, Zahra Essack, Mark E Everett, Michaël Gillon, Matthew J Hooton, Michelle Kunimoto, David W Latham, Mercedes López-Morales, Bin Li, Fan Li, Scott McDermott, Simon J Murphy, Catriona A Murray, Sara Seager, Mathilde Timmermans, Amaury Triaud, Daisy A Turner, Joseph D Twicken, Andrew Vanderburg, Su Wang, Robert A Wittenmyer e Duncan Wright
- Leggi su The Astrophysical Journal l’articolo “Gliese 12 b: A temperate Earth-sized planet at 12 pc ideal for atmospheric transmission spectroscopy”, di M. Kuzuhara, A. Fukui, J. H. Livingston, J. A. Caballero, J. P. de Leon, T. Hirano, Y. Kasagi, F. Murgas, N. Narita, M. Omiya, Jaume Orell-Miquel, E. Palle, Q. Changeat, E. Esparza-Borges, H. Harakawa, C. Hellier, Yasunori Hori, Kai Ikuta, H. T. Ishikawa, T. Kodama, T. Kotani, T. Kudo, J. C. Morales, M. Mori, E. Nagel, H. Parviainen, V. Perdelwitz, A. Reiners, I. Ribas, J. Sanz-Forcada, B. Sato, A. Schweitzer, H. M. Tabernero, T. Takarada, T. Uyama, N. Watanabe, M. Zechmeister, N. Abreu García, W. Aoki, C. Beichman, V. J. S. Béjar, T. D. Brandt, Y. Calatayud-Borras, I. Carleo, D. Charbonneau, K. A. Collins, T. Currie, J. P. Doty, S. Dreizler, G. Fernández-Rodríguez, I. Fukuda, D. Galán, S. Geraldía-González, J. González-Garcia, Y. Hayashi, C. Hedges, T. Henning, K. Hodapp, M. Ikoma, K. Isogai, S. Jacobson, M. Janson, J. M. Jenkins, T. Kagetani, E. Kambe, Y. Kawai, K. Kawauchi, E. Kokubo, M. Konishi, J. Korth, V. Krishnamurthy, T. Kurokawa, N. Kusakabe, J. Kwon, A. Laza-Ramos, F. Libotte, R. Luque, A. Madrigal-Aguado, Y. Matsumoto, D. Mawet, M. W. McElwain, P. P. Meni Gallardo, G. Morello, S. Munoz Torres, J. Nishikawa, S. K. Nugroho, M. Ogihara, A. Pel’aez-Torres, D. Rapetti, M. S’anchez-Benavente, M. Schlecker, S. Seager, E. Serabyn, T. Serizawa, M. Stangret, A. Takahashi, H. Teng, M. Tamura, Y. Terada, A. Ueda , T. Usuda, R. Vanderspek, S. Vievard, D. Watanabe, J. N. Winn e M. R. Zapatero Osorio
La doppia luna dell’asteroide Dinkinesh
Un collage costruito con le riprese di Lucy che mostra Dinkinesh con il suo satellite binario a contatto (cliccare per ingrandire). Dinkinesh è ingrandito di un fattore 2 rispetto alla ripresa originaria per mostrarne la struttura a “diamante” con la cresta equatoriale tipica dei rubble pile in rapida rotazione attorno al proprio asse. Crediti delle immagini originali: Nasa/Goddard/Swri/Johns Hopkins Apl/NoirLab
Il 1 novembre 2023 la missione Lucy della Nasa, destinata a studiare gli asteroidi troiani di Giove a partire dal 2027, ha fatto un rapido flyby con l’asteroide main belt (152830) Dinkinesh, un asteroide di tipo S che orbita in prossimità del confine interno della main belt, a 2,1 unità astronomiche dal Sole. Questo flyby era solo un test per verificare il funzionamento della sonda e non ci si aspettava gran che, ma ci fu la sorpresa di scoprire che Dinkinesh è un sistema binario. Le osservazioni fotometriche fatte con i telescopi al suolo, prima dell’incontro con Lucy, avevano stabilito che Dinkinesh era un rotatore lento con periodo di 52,67 ore, quindi nessuno si aspettava la binarietà. Ricordatevi questo numero perché lo incontreremo ancora. Come se non bastasse, le immagini del satellite, riprese durante la fase di allontanamento di Lucy, hanno rivelato che si tratta di un binario a contatto, ossia con due lobi appoggiati l’uno sull’altro. Mentre gli asteroidi binari a contatto sono comuni nel Sistema solare, il satellite di Dinkinesh è il primo esempio conosciuto di satellite con questa struttura. La cosa interessante è capire come si possa essere formato un satellite di questo tipo: a questa domanda cerca di rispondere un articolo appena pubblicato su Nature da un team internazionale di ricercatori, che vede come primo firmatario Harold F. Levison del Southwest Research Institute di Boulder, in Colorado.
Dalle immagini riprese da Lucy, risulta che l’asteroide primario ha un diametro medio di 719 m, mentre il satellite ha due lobi con diametro medio di 212 e 234 m. Il “collo” che congiunge i due lobi non è stato ripreso direttamente da Lucy perché è sempre rimasto in ombra. Il satellite, che nel frattempo ha ricevuto il nome di Selam, si trova a 3,11 km dal primario, e dalle osservazioni fotometriche post-incontro è risultato che percorre la propria orbita impiegando 52,44 ore, un valore in ottimo accordo con il periodo trovato dalle osservazioni fotometriche dal suolo, che quindi mostravano il periodo del satellite, non quello del primario. Dalle immagini di Lucy si può anche misurare il periodo di rotazione del primario che avviene in 3,74 ore. Dalle immagini riprese da Lucy risulta inoltre che i due lobi del satellite sono allineati verso il primario e questo non è casuale: se orbitassero l’uno attorno all’altro avrebbe un periodo di circa 4 ore che però non è stato rilevato, quindi il sistema si trova in una configurazione di sincronia mareale, come la Luna con la Terra: il satellite mostra sempre la stessa faccia a Dinkinesh.
Dalle osservazioni di Lucy risulta anche che l’asse di rotazione del primario è praticamente ortogonale al suo piano orbitale, dove giace anche il piano orbitale del satellite. Anche questa simmetria non è casuale, ma riflette il modo in cui si è formato il sistema binario. Se si guardano con attenzione le immagini trasmesse da Lucy si noterà che Dinkinesh ha la tipica forma “a diamante”, simile a quella di Bennu e Ryugu: infatti la sua forma è dominata da una prominente cresta equatoriale dovuta all’accumulo di materiale proveniente dai poli dell’asteroide, ed è questa la chiave per capire come si è formata questa coppia di asteroidi. Ancora, la densità media del sistema binario può essere stimata dal periodo orbitale dei due corpi e dal relativo semiasse maggiore: risulta che la densità media di Dinkinesh è di circa 2400 kg/m³, mentre per le meteoriti del tipo condrite ordinaria, rappresentative degli asteroidi di tipo S, ci si aspetterebbe un valore di circa 3400 kg/m³. Da qui si deduce che Dinkinesh non è un asteroide monolitico, ma un corpo con una struttura a rubble pile avente un 25 per cento di spazio vuoto al proprio interno. Come possono essere spiegate tutte queste caratteristiche? Il team di Levison propone tre diversi possibili scenari, che vedono tutti come protagonista l’effetto Yorp (vedi figura).
Tre possibili meccanismi per la formazione del sistema binario di Dinkinesh e della sua doppia luna. Crediti: Harold F. Levison et al., Nature, 2024
L’effetto Yorp (Yarkovsky–O’Keefe–Radzievskii–Paddack) consiste in un’accelerazione della rotazione dell’asteroide conseguenza dei processi di assorbimento ed emissione della radiazione solare dalla superficie dell’asteroide stesso. Se l’asteroide fosse perfettamente simmetrico il periodo di rotazione e la direzione del relativo asse non verrebbero alterati dalla riemissione della radiazione solare. Nella realtà, tutti gli asteroidi hanno forme asimmetriche e l’effetto Yorp può portare a una diminuzione (o un aumento) del periodo di rotazione. Nel caso di diminuzione, se il periodo scende al di sotto della così detta spin-barrier, pari a circa 2,5 ore, un asteroide con una struttura a rubble pile inizierà a perdere materiale nello spazio che si potrà riaggregare fino a formare un piccolo satellite. Questo è quello che deve essere successo nel caso di Dinkinesh. Nel primo scenario, il più semplice, l’effetto Yorp ne ha diminuito il periodo di rotazione al di sotto della spin barrier ed è stato espulso del materiale nello spazio dalla cresta equatoriale che si era nel frattempo formata, materiale che poi si è riaggregato a formare il satellite binario. Uno scenario più complesso è la formazione di un primo satellite e poi, di nuovo per effetto Yorp, la formazione di un secondo che va a collidere a bassa velocità relativa con il primo formando il binario a contatto. Infine, nel terzo scenario, il satellite una volta formatosi è soggetto a sua volta all’effetto Yorp che lo sdoppia.
Come si vede la complessità evolutiva non manca e suggerisce che i piccoli asteroidi della main belt siano sistemi più complessi di quanto si potesse immaginare. Il fatto che un binario a contatto possa formarsi in orbita attorno a un oggetto più grande suggerisce anche una nuova modalità per la formazione di piccoli corpi bilobati come Itokawa, che un tempo potrebbero essere stati i componenti di un sistema come Dinkinesh, successivamente sciolto.
Per saperne di più:
- Leggi su Nature l’articolo “A contact binary satellite of the asteroid (152830) Dinkinesh”, di Harold F. Levison, Simone Marchi, Keith S. Noll, John R. Spencer, Thomas S. Statler, et al.
Prevedere la turbolenza ottica? Ora ci pensa Fate
La Via Lattea si staglia sopra ai telescopi che costituiscono il Very Large Telescope, all’Osservatorio del Paranal, in Cile. Crediti: P. Horálek/Eso
Per ottenere immagini astronomiche sempre più accurate non basta solo aumentare le dimensioni dei nuovi telescopi o dotarli di strumentazione allo stato dell’arte. Le prestazioni della maggior parte degli strumenti che osservano il cielo, soprattutto nella luce visibile e nell’infrarosso, dipendono fortemente dalle condizioni meteorologiche in atto durante le operazioni, e in particolare dalla turbolenza dell’atmosfera sopra di essi. Conoscere con sufficiente anticipo tali condizioni diventa quindi sempre più importante e decisivo per ottimizzare l’utilizzo dei migliori telescopi al mondo, come l’attuale Very Large Telescope (Vlt) e il futuro Extremely Large Telescope (Elt), sulle Ande cilene, entrambi dello European Southern Observatory (Eso). È cruciale poter sfruttare al massimo le capacità di questi gioielli della tecnologia compatibilmente con le condizioni atmosferiche massimizzando il ritorno scientifico prodotto. Il costo tipico di una notte di osservazioni con il Vlt si aggira infatti attorno ai centomila euro: una cifra che spiega da sé quanto sia critico sfruttare al meglio le condizioni ideali dell’atmosfera. Con questi obiettivi l’Istituto nazionale di astrofisica ha vinto un bando internazionale dell’Eso finalizzato a produrre previsioni della turbolenza ottica e dei principali parametri atmosferici per ottimizzare le osservazioni astronomiche del Vlt e di tutti gli strumenti di cui è equipaggiato. Il progetto selezionato, denominato Fate (Forecasting Atmosphere and Turbulence for Eso sites), vede la collaborazione del consorzio Cnr/Regione Toscana Lamma (Laboratorio di monitoraggio e modellistica ambientale per lo sviluppo sostenibile), che fornisce servizi meteo anche per la Protezione civile italiana.
Il progetto Fate è iniziato nel novembre 2022 e nel periodo settembre-dicembre 2023 è entrato in fase di commissioning, con i test di verifica delle specifiche tecniche e di funzionamento. Una volta terminato si entrerà nella fase operativa. in cui Eso potrà ottimizzare strategie osservative per il Vlt e iniziare a pianificare quelle di Elt, la cui entrata in funzione è attualmente prevista per il 2028.
«Il commissioning è durato quattro mesi e aveva come scopo quello di verificare la robustezza del sistema di previsione e il rispetto delle specifiche tecniche richieste da Eso, ovvero dell’accuratezza delle previsioni dei distinti parametri a scale temporali differenti», dice Elena Masciadri, ricercatrice Inaf e responsabile scientifica del progetto Fate. «Le fluttuazioni spazio-temporali della turbolenza ottica hanno scale tipiche molto più piccole di quelle dei classici parametri atmosferici e pertanto la previsione della turbolenza ottica è un obiettivo molto più difficile da raggiungere. Le specifiche tecniche di Eso sono inoltre abbastanza stringenti come è naturale aspettarsi, considerando che il Vlt è senza dubbio uno dei telescopi di maggior prestigio al mondo ma anche uno dei più complessi, essendo costituito da ben quattro telescopi da 8,2 m di diametro più quattro telescopi ausiliari da 1.8 metri, dotati di una grande varietà di strumentazione e quindi di possibilità osservative. Possiamo dire di essere soddisfatti del commissioning, in quanto ci ha permesso di dimostrare la robustezza e l’affidabilità del sistema e allo stesso tempo di meglio definire i margini di miglioramento dell’accuratezza delle previsioni dove ci concentreremo nella seconda fase del progetto».
I moderni telescopi sono ormai dotati di strumentazione intercambiabile che ha specifiche condizioni di utilizzo, che dipende anche dalle condizioni atmosferiche in essere durante le osservazioni. Alcuni di questi strumenti sono poco sensibili, ad esempio, a un’elevata concentrazione di umidità nell’aria, altri invece ne vengono quasi completamente “accecati”. Per alcune tipologie di programmi scientifici è molto importante raccogliere dati in presenza di poca turbolenza atmosferica, ad esempio in tutte le osservazioni che necessitano un elevato livello di dettaglio in piccole porzioni di cielo che sfruttano i benefici dell’ottica adattiva, come nella ricerca di esopianeti. In generale la conoscenza della turbolenza ottica è fondamentale in tutte le osservazioni supportate da ottica adattiva. L’Elt sarà una facility supportata al cento per cento dall’ottica adattiva, quindi la previsione della turbolenza ottica è certamente cruciale per l’astronomia del prossimo futuro».
Oltre a prevedere una serie di parametri atmosferici sopra il sito osservativo del Vlt come temperatura, intensità e direzione del vento, umidità relativa, vapore acqueo e copertura nuvolosa, il progetto Fate si occuperà nelle ore notturne anche della previsione di parametri cosiddetti astroclimatici, tra cui il cosiddetto seeing, un parametro che indica il livello di perturbazione dell’atmosfera nella qualità delle immagini astronomiche. Ma cos’è la turbolenza ottica? Le fluttuazioni di temperatura nell’aria generano fluttuazioni dell’indice di rifrazione che a sua volta perturba il fronte d’onda della luce proveniente dagli oggetti celesti osservati. Tale fronte d’onda risulta così “imperfetto” e l’immagine raccolta dal telescopio perde l’accuratezza dei dettagli, limitando così le potenzialità della strumentazione impiegata. Le tecniche di ottica adattiva hanno l’obiettivo di correggere queste perturbazioni, ma le loro prestazioni dipendono dallo stato della turbolenza: per questo è fondamentale poter disporre di una previsione accurata della turbolenza ottica.
Un sistema di previsione come quello previsto nel progetto Fate si basa su modelli idrodinamici che si definiscono a “mesoscala”: il modello viene applicato su una regione limitata della Terra, raggiungendo una più alta risoluzione rispetto a quello che potrebbe fornire una previsione su scala globale. Si tratta di una previsione che viene realizzata usando come dati di inizializzazione quelli prodotti da modelli a circolazione generale, ovvero applicati all’intero globo terrestre dall’Ecmwf (European Centre for Medium Range Weather Forecast), il centro che agisce per conto dell’intera comunità europea.
L’esperienza dell’Inaf nel campo delle previsioni di turbolenza ottica per l’astronomia acquisita negli anni è stata fondamentale per arrivare al progetto Fate. «Abbiamo sviluppato un modello per la previsione della turbolenza ottica, denominato Astro-Meso-Nh, negli anni ’90 e da allora il sistema si è evoluto, è stato applicato a diversi tra i maggiori osservatori al mondo e più recentemente è stato automatizzato rendendo il modello utilizzabile in modalità operativa e non solo di ricerca», ricorda Masciadri. «Lo sviluppo delle moderne tecniche di assimilation data e più in generale le tecniche statistiche di filtraggio spaziale ci hanno garantito livelli di accuratezza inimmaginabili solo una decina di anni fa».
«L’Inaf», spiega Masciadri, «ha la responsabilità scientifica del progetto Fate, curando lo sviluppo del sistema automatico di previsione operativa, dello studio e sviluppo degli algoritmi necessari per ottenere le specifiche tecniche del sistema di previsione e di tutte le attività necessarie al miglioramento delle prestazioni che verrà attuato nel corso dei primi anni della fase operativa. Il Lamma ha la responsabilità operativa di gestire e monitorare il sistema di previsione, sia a livello giornaliero che su intervalli temporali più lunghi e di garantire quindi una copertura ottimale del sistema».
«Il software per la produzione delle previsioni della turbolenza ottica è operativo presso il Lamma e sfrutta risorse computazionali dei sistemi Hpc (High Performance Computing) dedicate esclusivamente a Fate e acquisite anche grazie a un contributo di Regione Toscana. La collaborazione del Lamma in questo progetto poggia in primis sul suo centro di calcolo che, da oltre venti anni, ha mostrato la propria affidabilità in termini di robustezza e resilienza nell’ambito del servizio meteo svolto per la Regione Toscana», aggiunge Alberto Ortolani, ricercatore del Lamma e responsabile delle attività Lamma in Fate. «Le notevoli competenze scientifiche sviluppate presso l’Inaf nel campo della previsione della turbolenza ottica e la pluriennale esperienza del consorzio Lamma nel gestire servizi operativi ha fatto sì che la proposta risultasse vincitrice nella call internazionale aperta dall’Eso. Aver vinto con una proposta toscana ci rende particolarmente orgogliosi».
Estrellas Compartidas ☮️ likes this.
Vicine e vecchissime
Un’immagine del disco della Via Lattea. Le tre stelle antichissime si trovano nell’alone di stelle che circonda il disco a una distanza di trentamila anni luce dalla Terra. Crediti: Serge Brunier, Nasa
Tra i dodici e i tredici miliardi di anni: questa è l’età che avrebbero tre fra le stelle più vecchie mai osservate. E non si nascondevano chissà dove ma ci girano letteralmente intorno. Gli astronomi hanno infatti individuato questi astri all’interno dell’alone della Via Lattea, ovvero quella vasta nube di stelle che avvolge il disco della nostra galassia.
La scoperta è stata pubblicata questo mese su Monthly Notices of the Royal Astronomical Society ed è stata coordinata da Anna Frebel, professoressa del Massachusetts Institute of Technology (Mit). Come riportato da Jennifer Chu sul sito del Mit, la scoperta è nata all’interno di un corso universitario in cui gli studenti hanno imparato alcune tecniche per studiare le stelle antiche, tecniche che hanno poi applicato a diversi oggetti mai studiati. Dieci anni hanno aspettato i dati per poter essere analizzati. Le stelle messe a disposizione degli studenti erano infatti state osservate tra il 2013 e il 2014 con il telescopio Magellan-Clay, uno strumento con uno specchio da sei metri e mezzo situato nell’Osservatorio astronomico di Las Campanas, in Cile.
Il risultato è stato sorprendente: scandagliando i dati collezionati da Frebel nel corso degli anni, gli studenti hanno individuato tre stelle antichissime, la cui origine si colloca fra 800 milioni e meno di due miliardi di anni dopo il Big Bang. Ma come si fa a dare un’età alle stelle? Fondamentale in tal senso è la loro composizione chimica. Poco dopo il Big Bang l’universo era ricco di idrogeno ed elio ma particolarmente povero di elementi chimici più pesanti, comunemente detti metalli in astronomia, che sono stati rilasciati nel mezzo circostante dalle prime generazioni di stelle. Le stelle più antiche risulteranno dunque piuttosto povere di metalli, a differenza del nostro Sole, che ha potuto godere dell’arricchimento chimico da parte delle stelle vissute fino a circa cinque miliardi di anni fa.
Le tre stelle sono state dunque selezionate in quanto povere di metalli. Gli studenti in particolare si sono concentrati sul contenuto di stronzio e bario, e sull’abbondanza di ferro – quest’ultima diecimila volte meno abbondante rispetto al Sole. Applicando alcuni modelli, gli studenti son dunque riusciti a ricostruire l’età delle stelle, stimata fra i dodici e i tredici miliardi di anni, ovvero l’epoca in cui si sono formate le prime galassie.
E l’eccezionale abbondanza di metalli non è l’unica stranezza che contraddistingue questi astri. Anche le loro traiettorie appaiono bizzarre. Utilizzando i dati del satellite Gaia, i ricercatori hanno infatti appurato che tutte e tre le stelle si muovono di moto retrogrado – in pratica orbitano nel verso opposto rispetto alle stelle dell’alone. Questo introduce scenari intriganti sulla loro provenienza: il moto retrogrado è infatti un segno distintivo di un’origine esterna alla Via Lattea. Si pensa infatti che le tre stelle facessero parte di galassie satelliti che sono state catturate dall’attrazione gravitazionale della nostra galassia.
E non è tutto. La composizione chimica di queste stelle è simile a quella delle cosiddette galassie nane ultra-deboli, ritenute fra le prime galassie formatisi dopo il Big Bang e che sono ancora in vita. Il problema è che, come suggerisce il nome, la loro luce è spesso troppo fioca o sono troppo distanti per poter essere studiate. Si pensa che le tre stelle appartenessero una volta a oggetti di questa tipologia. Trovare altre stelle con queste caratteristiche consentirebbe dunque agli astronomi di studiare letteralmente “dietro casa” condizioni analoghe a quelle nelle prime galassie dell’universo.
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “The oldest stars with low neutron-capture element abundances and origins in ancient dwarf galaxies” di Hillary Diane Andales, Ananda Santos Figueiredo, Casey Gordon Fienberg, Mohammad K. Mardini e Anna Frebel
Alle sorgenti del vento solare
Una regione attiva sul Sole, osservata con gli strumenti Eui, Spice e Phi di Solar Orbiter, i cui effetti sul vento solare lento sono stati in seguito misurati in prossimità della sonda. Crediti: Esa & Nasa/Solar Orbiter/Eui & Spice
Il Sole, fonte di luce ed energia che permette – fra le altre cose – la vita sulla Terra, rilascia anche un flusso continuo di particelle cariche, il vento solare. Come la luce, anche queste particelle si propagano attraverso il Sistema solare, dove interagiscono con il campo magnetico di pianeti come il nostro e, quando l’attività solare è particolarmente intensa, regalano lo spettacolo delle aurore colorando il cielo delle regioni prossime ai poli (e in casi eccezionali anche di quelle meno prossime, come accaduto poche settimane fa proprio in Italia). Se le aurore sono la manifestazione più appariscente e affascinante dell’interazione tra il vento solare e la Terra, non sono certo l’unica: le tempeste geomagnetiche possono avere un forte impatto sulla tecnologia spaziale, sulle reti elettriche e i sistemi di volo. È anche per questo, oltre agli interessi più squisitamente scientifici, che da decenni ricercatrici e ricercatori cercano di comprendere a fondo il funzionamento di questo flusso di plasma che permea il Sistema solare, collegando intimamente il nostro pianeta alla sua stella.
Indagare sull’origine del vento solare è uno degli obiettivi di Solar Orbiter, sonda dell’Esa con partecipazione della Nasa lanciata nel 2020, che con i suoi strumenti è in grado sia di osservare il Sole da lontano sia di “sentire” direttamente gli effetti del plasma, misurandone le proprietà in situ. Ma c’è di più: come dimostra uno studio apparso oggi su Nature Astronomy, Solar Orbiter può mettere in relazione questi due tipi di dati diversi, tracciando gli effetti del vento solare registrati in prossimità della sonda fino alla regione del Sole da cui si è originato.
«È il primo studio che di fatto sfrutta a pieno le potenzialità della missione», spiega a Media Inaf Raffaella D’Amicis, ricercatrice dell’Istituto nazionale di astrofisica a Roma, co-principal investigator del Solar Wind Analyzer (Swa) a bordo di Solar Orbiter e co-autrice del nuovo lavoro. «In genere le due comunità – quella in situ e quella di osservazioni da remoto – si concentrano solo sulle rispettive osservazioni. Questo lavoro invece mostra come sia possibile sfruttare la combinazione delle osservazioni da remoto e le misure in situ per la prima volta nell’eliosfera interna e studiare così il collegamento tra le regioni sorgenti e il vento solare misurato localmente, con particolare riferimento alle misure di composizione, fondamentali per studi di connettività».
Sembrerebbe banale combinare questi due set di dati, ma non lo è affatto. Gli strumenti di telerilevamento, infatti, mostrano il Sole come appare istantaneamente – o meglio, con qualche minuto di ritardo, a seconda della posizione della sonda e quindi del percorso che la luce solare deve percorrere per raggiungerla. Gli strumenti in situ, invece, rivelano lo stato del vento solare che è stato rilasciato dalla superficie solare alcuni giorni prima, poiché le particelle rilasciate dal Sole viaggiano con velocità variabili tra 250 e 800 km/s, e a volte anche più alte: velocità rispettabilissime, certamente, ma di molto inferiori rispetto a quella della luce (pari a 300mila km/s). Un “ritardo da star”, insomma. Un po’ come quando, durante un temporale, scorgiamo prima il bagliore di un fulmine e poi, solo dopo qualche secondo, ascoltiamo il fragore del tuono: il suono viaggia più lentamente della luce, e così l’informazione sonora ci raggiunge con un certo ritardo rispetto a quella luminosa.
Gli strumenti di telerilevamento (a sinistra) e in situ (a destra) a bordo di Solar Orbiter, utilizzati per ricondurre il vento solare misurato dalla sonda a una regione attiva sulla superficie del Sole. Crediti: Esa
Per mettere in relazione le osservazioni del Sole e le misure del vento solare, il team guidato da Stephanie Yardley della Northumbria University, nel Regno Unito, ha usato il Magnetic Connectivity Tool, un software online che calcola la propagazione del vento solare nello spazio interplanetario sulla base di osservazioni che monitorano continuamente la superficie del Sole con sei telescopi solari sparsi in tutto il mondo. Questo software, usato generalmente per fare previsioni di space weather, è stato utilizzato in questo caso al contrario, ovvero per stimare la regione sorgente sulla superficie del Sole da dove ha avuto origine il vento solare osservato in situ da Solar Orbiter.
Il vento solare, dicevamo, si propaga a diverse centinaia di chilometri al secondo. Ma a voler essere più precisi, si possono distinguere due regimi di velocità. C’è quello “veloce”, che supera i 500 km/s e proviene da configurazioni magnetiche note (come buchi coronali che incanalano il vento solare nello spazio). E poi c’è quello “lento”, che viaggia sotto i 500 km/s, la cui origine rimane tuttora misteriosa, anche se si sospetta possa aver a che fare con le “regioni attive” del Sole, dove compaiono le macchie solari.
L’esperimento è stato condotto sui dati raccolti da Solar Orbiter nei primi nove giorni di marzo del 2022, a circa 75 milioni di chilometri dal Sole (metà della distanza media Terra-Sole). In questo periodo, la sonda ha attraversato regioni di vento solare sia veloce che lento, che risultano connesse rispettivamente al bordo di un buco coronale e a un complesso di macchie solari sulla superficie del Sole. Così è stato possibile studiare come la velocità e le proprietà del plasma cambiano a seconda della loro origine. «Solar Orbiter ha sorvolato il buco coronale e la regione attiva, e abbiamo visto flussi di vento solare veloce, seguiti da quello lento. Abbiamo notato molta complessità che siamo riusciti a collegare alle regioni di origine», dice Stephanie Yardley.
Raffaella D’Amicis, ricercatrice all’Inaf Iaps di Roma
«In particolare, in questo studio, si mostra come la variabilità del vento solare osservata in situ da Solar Orbiter nei primi giorni di marzo 2022 sia dovuta a cambiamenti spazio-temporali nella connettività magnetica alla sorgente», aggiunge D’Amicis. «Infatti, i cosiddetti ‘footprint’ del campo magnetico connessi alla sonda si muovono dai bordi di un buco coronale verso una regione attiva (AR12961) e ne attraversano un’altra (AR12957)».
Pur non essendo tecnicamente una missione dedicata allo space weather, Solar Orbiter offre un supporto importante anche per la meteorologia spaziale. «In primo luogo, permette di monitorare il Sole anche quando il satellite si trova dietro il lembo (cioè nella parte nascosta) a seconda dell’orbita del satellite», sottolinea D’Amicis. «È quello che è successo dopo la “grande aurora di maggio”, quando la regione attiva che ha causato l’aurora è stata interessata da un grande brillamento osservato da Solar Orbiter quando non era più rivolta verso la Terra. Oppure è stato suggerito che Solar Orbiter potrebbe essere usato, quando si trova lungo la congiungente Terra-Sole, come monitor per previsioni in tempo reale di space weather, in combinazione con altri satelliti, per eventi transienti come espulsioni di massa coronale che potrebbero causare disturbi geomagnetici».
Guarda l’animazione sul sito dell’Esa:
esa.int/content/view/embedjw/5…
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Multi-source connectivity as the driver of solar wind variability in the heliosphere” di Stephanie L. Yardley, David H. Brooks, Raffaella D’Amicis, Christopher J. Owen, David M. Long, Deb Baker, Pascal Démoulin, Mathew J. Owens, Mike Lockwood, Teodora Mihailescu, Jesse T. Coburn, Ryan M. Dewey, Daniel Müller, Gabriel H. H. Suen, Nawin Ngampoopun, Philippe Louarn, Stefano Livi, Sue Lepri, Andrzej Fludra, Margit Haberreiter e Udo Schühle
Se la scienza sbaglia sulla parità di genere
Katalin Karikó, “Nonostante tutto. La mia vita nella scienza” (trad. it. di Andrea Asioli), Bollati Boringhieri 2024, 261 pagine, 22 euro
Nonostante tutto è l’azzeccato titolo dell’edizione italiana della biografia di Katalin Karikó, premio Nobel per la medicina 2023 per i suoi fondamentali studi sullo mRna che hanno permesso il rapido sviluppo dei vaccino contro il Covid-19. Niente nella carriera della Karikó è stato facile: costretta a lasciare l’Ungheria, dove il laboratorio nel quale lavorava non aveva più finanziamenti, ha dovuto iniziare una nuova vita negli Stati Uniti, dove non ha trovato né rose né fiori.
Arrivata con il marito e la figlia Susan di due anni che, senza saperlo, aveva trasportato il rotolo di banconote che rappresentavano tutte le riserve economiche della famiglia cucite nel suo orsacchiotto, si accorse subito che i servizi offerti per scuola e sanità erano radicalmente diversi da quelli che aveva a disposizione in Ungheria. In Pennsylvania tutto era a pagamento e il suo stipendio era modesto. La carriera non andava bene: rapporti difficili con colleghi e superiori che non capivano il suo caparbio interesse per le evanescenti molecole dello Rna messaggero, che produceva pochi risultati e non attirava finanziamenti, la rendevano l’ultima ruota del carro nei laboratori dove lavorava.
La svolta è venuta dall’incontro casuale con Drew Weissman che, davanti a una fotocopiatrice, le racconta che vuole sviluppare vaccini contro malattie infettive. Lei risponde che lo mRna potrebbe fare al caso suo, così iniziano a collaborare sulla strada che porterà entrambi al Nobel nonostante, a un certo punto, lei venga estromessa dal suo laboratorio all’Università di Pennsylvania perché altri, più produttivi, hanno bisogno dello spazio. Vedere la sua roba negli scatoloni fa scattare la molla e Katalin Karikó dice basta. Si guarda intorno e decide di tentare la strada delle industrie farmaceutiche, accettando l’offerta della tedesca BioNTech, dove vogliono puntare sullo mRna per vaccini antiinfluenzali. Inizia una vita tra Magonza e Philadelphia, dove continua a stare il marito, mentre la figlia, medaglia d’oro per il canottaggio alle olimpiadi di Pechino e Londra, vive in California. Un ménage complicato ma appagante che viene travolto dalla pandemia, che vede BioNTech in prima fila con Pfizer nello sviluppo del vaccino basato proprio sullo mRna. Sono mesi frenetici che Katalin passa in lockdown a Philadelphia da dove dirige il suo team.
La notizia del successo dei test clinici del vaccino arriva pochi giorni dopo il matrimonio di Susan. Katalin non è sorpresa: era sicura che il vaccino avrebbe funzionato. Quello che non immaginava era quanto la sua vita sarebbe cambiata. Nel 2023 è la tredicesima donna a ricevere il premio Nobel per la medicina, che divide con Weissman. I loro nomi sono gli ultimi della lista di 230 vincitori del Nobel per la medicina, dove le donne sono solo il 5 per cento. Se la percentuale appare bassa dobbiamo ricordare che la situazione della fisica è molto peggiore, con 5 premiate su un totale di 225 vincitori (in effetti sono 224 persone, perché John Bardeens ha vinto due volte). L’ultima delle premiate è Anne L’Huillier, che ha ricevuto il premio Nobel nel 2023 per avere contribuito allo sviluppo della fisica sui tempi scala degli attosecondi, un’unità di misura corrispondente ad un milionesimo di milionesimo di milionesimo di secondo. Un intervallo di tempo veramente minuscolo, che permette di vedere i convulsi spostamenti degli elettroni nel corso delle reazioni chimiche. Prima di lei erano state premiate Marie Curie (1903), Maria Goeppert-Mayer (1963), Donna Strickland (2018) e Andrea Ghez (2020). Un contingente veramente esiguo, poco più del 2 per cento del totale. La situazione è leggermente meglio per la chimica, che ha 8 premiate su 191 vincitori.
Elisabetta Strickland, “Le madri di idee. Le donne scienziate ed il premio Nobel”, Nemapress Edizioni 2023, 146 pagine, 15 euro
Un’anomalia che è stata più volte sollevata e che l’Accademia svedese fa fatica a gestire. Di sicuro la strada da fare è ancora lunghissima, come fa giustamente notare Elisabetta Strickland nel suo Le madri di idee, dove racconta le storie delle 25 signore che hanno ricevuto il Nobel nel campo della fisica, della chimica e della medicina. In totale i premi sono 26, ma Marie Curie vale doppio perché di Nobel ne ha presi due – uno per la fisica e uno per la chimica.
Avrebbe potuto sembrare un inizio radioso, dopo tutto il premio era stato istituito nel 1901. Ma gli archivi ci dicono che Marie venne premiata nonostante non fosse stata nominata dall’Accademia delle scienze francesi, che indicò i nomi di Pierre Curie e Henri Becquerel. Solo l’ostinazione di Pierre fece includere Marie. Del resto non si può certo dire che Marie Curie abbia avuto un buon rapporto con l’Accademia delle scienze francese. Dopo la morte di Pierre, presentò domanda per entrare a farne parte. Sarebbe stata la prima donna, ma la sua candidatura non ottenne abbastanza voti e Marie non venne eletta. Per trovare un nuovo premio Nobel al femminile bisogna aspettare il 1935, quando Irène Joliot Curie e suo marito vennero premiati per la chimica. Irène fu la seconda donna a ricevere il premio Nobel per la chimica dopo sua madre, che lo aveva avuto nel 1911. Lei e il marito furono anche la seconda coppia di scienziati, come i coniugi Curie. Dopo 12 anni Gerty Teresa Cory e suo marito riceveranno il Nobel per la medicina e dovranno passare altri 16 anni per il Nobel per la fisica a Maria Goppert-Mayer, che aveva collaborato al progetto Manhattan.
La situazione sta lentamente migliorando: tre dei cinque premi Nobel per la fisica al femminile sono stati conferiti negli ultimi sei anni. Speriamo, nonostante tutto.
Scoperte recenti colate di lava su Venere
media.inaf.it/wp-content/uploa…
Le colate di lava identificate sulla superficie di Venere. Crediti: Irsps – Università d’Annunzio/D. Sulcanese
Osservate per la prima volta tracce recenti di colate laviche su Venere, il pianeta gemello della Terra, che a causa di un’atmosfera molto densa è quasi impossibile da studiare. A scoprire i segni di queste eruzioni è stato uno studio tutto italiano, guidato da Davide Sulcanese dell’Università d’Annunzio di Pescara, il cui lavoro, pubblicato ieri su Nature Astronomy, dimostra come Venere sia ancora attivo e aiuterà a pianificare le future missioni spaziali, come Veritas e EnVision, a cui partecipa anche l’Agenzia spaziale italiana.
«Si avevano indizi su una possibile attività su Venere e ora ne abbiamo la certezza», ha detto all’Ansa Giuseppe Mitri della “d’Annunzio”, che ha realizzato lo studio con Sulcanese e Marco Mastrogiuseppe, dell’Università Sapienza di Roma. Venere è una sorta gemello infernale della Terra poiché, nonostante abbia massa e dimensioni quasi identiche al nostro pianeta, ha un’atmosfera talmente densa da avere in superficie temperature di oltre 400 gradi e pressioni che arrivano a 90 atmosfere. Proprio la sua densa atmosfera rende molto difficile studiare la superficie di Venere, gli strumenti difficilmente resistono a tali condizioni e gran parte delle analisi sono possibili solo usando i radar, come nel caso della missione Magellan della Nasa, che tra il 1990 e il 1994 ha mappato il pianeta con un radar.
«Grazie al rinnovato interesse, in vista di future missioni, e ai grandi miglioramenti tecnologici di elaborazione dei dati», ha detto Sulcanese, «abbiamo potuto mettere a confronto le immagini ottenute tra i due periodi scoprendo la presenza in due regioni alcune colate laviche avvenute in quell’intervallo di tempo». Si tratta della prova più limpida di attività del pianeta, che si aggiunge alla scoperta fatta circa un anno fa di deformazioni in un cratere, segno di una probabile eruzione.
«Studiando Venere», ha aggiunto Mitri, «possiamo comprendere anche molto del nostro pianeta, perché ci aiuta ad esempio a capire come mai nonostante siano così simili e si siano formati nello stesso ambiente hanno poi avuto un’evoluzione così diversa». Studi che aiuteranno anche allo sviluppo dei nuovi strumenti che saranno a bordo di Veritas della Nasa e EnVision dell’Agenzia spaziale europea e che avranno entrambi importanti contributi italiani.
Per saperne di più:
- Leggi su Nature Astronomy lo studio “Evidence of ongoing volcanic activity on Venus revealed by Magellan radar”, di Davide Sulcanese, Giuseppe Mitri e Marco Mastrogiuseppe
Guarda il video sul canale YouTube di Nature:
Europa Clipper al via gli ultimi controlli prima del lancio l AsiTV
Europa Clipper è giunta a Cape Canaveral in vista degli ultimi preparativi prima del lancio. La sonda della Nasa - che ha come obiettivo lo studio della luna ghiacciata di Giove Europa - è stata trasportata in Florida a bordo di un aereo dell’aereona…
BepiColombo ancora in volo a spinta ridotta
L’avevamo lasciata due settimane fa alle prese con un malfunzionamento del sistema di propulsione elettrica, che non riesce a fornire tutta la spinta richiesta, emerso esattamente un mese fa, il 26 aprile. Da allora la situazione della sonda Esa/Jaxa BepiColombo, in viaggio verso Mercurio, non sembra essere mutata. Abbiamo comunque raggiunto per un aggiornamento Elsa Montagnon, capo della Mission Operations Division dell’Agenzia spaziale europea a Esac, in Spagna.
Il 7 maggio scorso eravate riusciti a portare la propulsione elettrica di BepiColombo al 90 per cento della spinta prevista. Come sta andando, ora?
«La sonda – che ha appena superato un periodo di comunicazione limitata a causa del passaggio dietro al Sole, come parte della sua traiettoria pianificata – continua a esercitare la spinta. Secondo il programma rivisto, l’attuale propulsione elettrica continuerà fino alla fine di giugno, con un’interruzione già programmata il 6 giugno. È stato aggiunto un altro periodo di spinta “di rabbocco” a luglio. Dalla fine di luglio in poi, per una navigazione più precisa verso lo swing-by con Mercurio di inizio settembre, entrerà invece in azione la propulsione chimica: questa fase rimane invariata, è la normale procedura prevista, in questa missione, nell’ultimo mese prima di un’assistenza gravitazionale».
Cronologia degli “swing-by” programmati durante i 7,2 anni di viaggio di BepiColombo verso Mercurio (cliccare per ingrandire). In rosso è evidenziato lo swing-by in programma il prossimo settembre con Mercurio. Crediti: Esa
Avete già individuato la causa del guasto? È possibile che sia dovuto ai pannelli solari?
«Sappiamo che il problema è che il Mercury Transfer Module non è in grado di fornire energia sufficiente al sottosistema di propulsione elettrica. Il team sta attualmente verificando l’intera catena di produzione e distribuzione di energia su questo modulo».
Nella nota Esa del 15 maggio si spiegava che, se si riesce a mantenere il livello di potenza del 90 per cento, BepiColombo dovrebbe comunque riuscire ad arrivare a Mercurio in tempo per l’assistenza gravitazionale – il cosiddetto swing-by – di inizio settembre. Qual è la soglia di potenza al di sotto della quale la sonda rischierebbe invece di non farcela?
Traiettoria di BepiColombo con indicazione della distanza dal Sole, degli swing-by con la Terra, Venere e Mercurio e, in rosso, dell’impiego della propulsione elettrica (“SEP”). La freccia arancione indica il periodo di propulsione elettrica attuale (cliccare per ingrandire). Fonte: C. Steiger, E. Montagnon, F. Budnik et al., “BepiColombo – Solar Electric Propulsion System Operations for the Transit to Mercury”, 2019
«Il prossimo swing-by con Mercurio è senza dubbio una pietra miliare molto importante nel percorso di BepiColombo. Questo swing-by e i due che lo seguiranno fino a gennaio 2025 serviranno a ridurre ulteriormente la velocità della navicella e a cambiare la direzione del suo vettore di velocità rispetto al Sole, come richiesto per completare la traiettoria in modo corretto nel 2025. Abbiamo verificato che c’è margine per un’ulteriore piccola riduzione del livello di spinta, che sarebbe comunque compatibile con l’incontro con Mercurio previsto a settembre. Determinare il valore esatto di tale soglia, però, sarebbe molto impegnativo».
Mancare l’appuntamento di settembre metterebbe a repentaglio ogni possibilità di successo della missione?
«Il mancato swing-by con Mercurio comprometterebbe la data di arrivo attualmente prevista nel dicembre 2025. Ma nella sua attuale traiettoria eliocentrica la sonda spaziale è già in risonanza con Mercurio – quattro rivoluzioni della sonda attorno al Sole ogni cinque rivoluzioni di Mercurio – il che dovrebbe consentire il ripetersi della traiettoria attuale in una fase successiva».
Quando saprete con certezza se BepiColombo arriverà a Mercurio in tempo?
«Il nostro team di esperti dell’Esa e dell’industria sta lavorando incessantemente per rispondere a questa domanda legittima. Vi informeremo non appena ne sapremo di più».
Per saperne di più:
- Leggi il conference paper “BepiColombo -Solar Electric Propulsion System Operations for the Transit to Mercury”, di C. Steiger, E. Montagnon, F. Budnik et al.
Da Galileo a Jwst, venerdì sera a Pisa
Immagine a falsi colori della galassia JO204 ottenuta da osservazioni con il telescopio spaziale Hubble: i colori più chiari definiscono il disco della galassia mentre le regioni dove si stanno formando nuove stelle sono colorate in blu e formano delle strisce colorate che assomigliano ai tentacoli di una medusa. Crediti: Esa/Hubble & Nasa, M. Gullieuszik and the Gasp team
Venerdì 31 maggio, nella Gipsoteca dell’Università di Pisa, l’astronomo Sirio Belli dell’Università di Bologna terrà una conferenza aperta al pubblico intitolata “Alla scoperta delle prime galassie: da Galileo al telescopio spaziale James Webb”: una storia che parla dell’evoluzione delle galassie partendo dalle ultimissime scoperte del telescopio spaziale Webb, che è riuscito a vedere per la prima volta le prime nate dopo il Big Bang. Un incontro di carattere divulgativo a conclusione di Gaspisa, il convegno finale di Gasp, un progetto quinquennale finanziato dal Consiglio di ricerca europeo (Erc).
«È bello e anche doveroso condividere con tutti la conoscenza dell’universo che acquisiamo attraverso le scoperte scientifiche, che sono un patrimonio di tutti. Questa conferenza pubblica è un “regalo” che vogliamo fare alla città che ci ospita, la bella Pisa, che è anche la mia città natale, dove ho vissuto fino alla conclusione dei miei studi», dice la responsabile di Gasp, Bianca Maria Poggianti, direttrice dell’Inaf di Padova. «Abbiamo scelto come tema della conferenza pubblica di venerdì sera la frontiera attuale dell’astrofisica, cioè le scoperte sulle galassie più lontane e sull’origine del cosmo che stanno arrivando dal telescopio spaziale James Webb. Quali siano le condizioni fisiche del gas nelle prime galassie è un argomento molto legato al progetto Gasp. È quindi un’occasione unica per tutta la cittadinanza per avere di prima mano le “ultime notizie” dai confini dell’universo».
Lo scopo del progetto Gasp – acronimo di Gas stripping phenomena in galaxies – era capire i processi fisici che rimuovono il gas dalle galassie quando queste, ad esempio, entrano in ambienti molto “affollati” come gli ammassi di galassie. Negli ammassi, il plasma molto caldo e diffuso (fino a 10 milioni di gradi) che riempie lo spazio fra una galassia e l’altra strappa il gas delle galassie che vi stanno cadendo dentro. «Il gas serve alle galassie per formare nuove stelle», spiega Poggianti. «Quindi, i processi fisici che agiscono sul gas hanno un’influenza diretta sulla storia di formazione stellare e tutte le principali caratteristiche delle galassie».
In altre parole, le galassie di Gasp hanno un destino inevitabilmente segnato: mentre viene loro strappato il gas talvolta assumono una particolare forma che ricorda quella di una medusa – vengono infatti chiamate jellyfish – e incorrono in una serie di fenomeni particolari che Poggianti e il suo gruppo hanno indagato in dettaglio. «Abbiamo capito come e perché alle galassie viene “strappato” via il gas quando entrano a far parte degli ammassi di galassie. Si è anche compreso che in questo gas strappato inizialmente si formano molte stelle, anche fuori dal disco delle galassie, anche se alla fine di tutto il processo rimarrà una galassia senza gas che non formerà mai più stelle. Inaspettatamente si è scoperto che nelle prime fasi di questa storia evolutiva un po’ di gas finisce al centro e “accende” il buco nero supermassiccio centrale dando origine a un cosiddetto nucleo galattico attivo».
La conferenza si terrà alla Gipsoteca dell’Università di Pisa, in Piazza San Paolo all’Orto 20 a Pisa, alle ore 20:45. L’ingresso sarà possibile dalle 20.15 e sarà libero, fino a esaurimento posti (la sala può ospitare fino a 80 persone).
Consegnata la fotocamera più grande del mondo
La fotocamera Lsst e il team della fotocamera realizzata allo Slac (Usa) fotografati nella camera bianca di test. Crediti: Jacqueline Ramseyer Orrell/Slac National Accelerator Laboratory
Tutto pronto per catturare il mega “Cheese!” del cosmo. L’innovativa fotocamera Lsst da 3200 megapixel – 3.2 miliardi di pixel – è finalmente arrivata al sito dell’Osservatorio Vera C. Rubin, sul Cerro Pachón, in Cile. A partire dalla fine del 2025, scatterà – per la campagna osservativa Lsst (Legacy Survey of Space and Time) – immagini dettagliate del cielo dell’emisfero australe per dieci anni, costruendo la più completa visione in timelapse del nostro universo mai prodotta.
La fotocamera Lsst – di fatto la più grande fotocamera digitale del mondo – è stata costruita presso lo Slac National Accelerator Laboratory di Menlo Park, in California, e il suo completamento, dopo due decenni di lavoro, aprirà nuove strade per l’esplorazione cosmica. Grande come un’automobile e con una sensibilità e una risoluzione incredibili, la fotocamera Lsst sarà installata sul telescopio del Vera Rubin, dove produrrà immagini dettagliate con un campo visivo enorme, sette volte più ampio della Luna piena, grazie al suo piano focale costituito da 189 sensori ccd disposti in una forma approssimativamente quadrata con angoli tagliati.
Utilizzando la fotocamera Lsst, l’Osservatorio Rubin consentirà di compiere nuove scoperte in molte aree dell’astrofisica, tra cui lo studio della natura della materia oscura e dell’energia oscura, la mappatura della Via Lattea, l’osservazione del Sistema solare e di oggetti celesti di luminosità o posizione variabili. «L’arrivo in Cile della fotocamera all’avanguardia Lsst ci avvicina enormemente alla scienza che ruota attorno alle domande più importanti dell’astrofisica di oggi», dice Kathy Turner, program manager del Dipartimento dell’energia degli Stati Uniti per l’Osservatorio Rubin.
Considerando le dimensioni e la fragilità dei componenti della fotocamera, il viaggio dalla California al Cile non è stato proprio una passeggiata. Il team dello Slac ha guidato il processo di spedizione del container, tenendo sotto controllo – grazie a registratori presenti sia sul telaio della fotocamera che sul mezzo stesso – temperatura, umidità, vibrazioni e accelerazioni per l’intera durata del viaggio, e seguendone ogni movimento grazie a un sistema di localizzazione Gps.
Vista dell’Osservatorio Rubin al tramonto. Il telescopio di 8,4 metri dotato della fotocamera digitale a più alta risoluzione del mondo, scatterà immagini dettagliate del cielo dell’emisfero meridionale, ininterrottamente per 10 anni, creando una visione in timelapse dell’Universo mai vista prima. Crediti: Olivier Bonin/SlacNational Accelerator Laboratory
Al sicuro all’interno del container, la fotocamera Lsst ha poi viaggiato a bordo di un veicolo equipaggiato con uno speciale sistema di sospensione pneumatica fino all’aeroporto di San Francisco, dove è stata imbarcata la mattina del 14 maggio su un volo charter Boeing 747 diretto verso il Cile, dov’è atterrata il giorno successivo all’aeroporto Arturo Merino Benítez di Santiago, l’aeroporto più vicino all’Osservatorio adatto a ospitare un aereo cargo di queste dimensioni. La sera stessa la telecamera si trovava all’interno del cancello custodito alla base del Cerro Pachón. Il mattino seguente, in circa cinque ore, ha compiuto l’ultima tratta del suo viaggio – 35 chilometri di tortuosa strada sterrata fino alla cima del Cerro Pachón, a quasi 2700 metri d’altitudine.
Al suo arrivo nell’edificio dell’Osservatorio, la fotocamera è stata immediatamente trasferita nella camera bianca dell’osservatorio – un ambiente controllato senza contaminanti nell’aria – ed è stata ispezionata dal commissioning team per verificarne le condizioni e l’assenza di segni di sollecitazioni impreviste. «Il nostro obiettivo era quello di assicurarci che la fotocamera non solo fosse sopravvissuta, ma anche che fosse arrivata in perfette condizioni», spiega Kevin Reil, scienziato al Vera Rubin. «Le prime indicazioni, compresi i dati raccolti dai data logger, dagli accelerometri e dai sensori d’urto, indicano che siamo riusciti nel nostro intento».
La fotocamera Lsst, finanziata dal Dipartimento dell’energia degli Stati Uniti e dalla National Science Foundation, è l’ultimo, cruciale, componente del Simonyi Survey Telescope dell’Osservatorio Rubin. Una volta superati tutti i test nella camera bianca dell’Osservatorio – operazione che durerà parecchi mesi – sarà installata sul telescopio insieme allo specchio primario da 8,4 metri, del quale è stata completata da poco l’alluminatura, e allo specchio secondario da 3,4 metri. «Portare la fotocamera in vetta è stato l’ultimo importante tassello del puzzle», conclude Victor Krabbendam, project manager dell’osservatorio Rubin. «Con tutti i componenti di Rubin fisicamente in loco, siamo in dirittura d’arrivo verso la scienza trasformativa di Lsst».
Per saperne di più:
- Visita il sito web del Vera C. Rubin Observatory
- Guarda tutte le immagini del trasporto e dell’arrivo della fotocamera in Cile
Guarda il servizio video di MediaInaf Tv:
Il CodyTrip nei luoghi dell’astrofisica bolognese
Locandina del CodyTrip a Bologna. Crediti: CodeMooc
Il CodyTrip – il format delle gite scolastiche online che ogni anno coinvolge oltre 50mila partecipanti, concepito da Alessandro Bogliolo dell’Università di Urbino per offrire esperienze formative coinvolgenti alla scoperta di luoghi, persone, tradizioni e saperi – arriva a Bologna, nei luoghi dell’astrofisica. In provincia di Bologna si trovano infatti due sedi dell’Istituto nazionale di astrofisica: la stazione radioastronomica di Medicina, a una trentina di chilometri a est di Bologna, verso il mare, e il Parco astronomico di Loiano, a circa quaranta chilometri verso sud, e a 700 metri di quota.
La gita scolastica online – organizzata da Digit srl, in collaborazione con Università di Urbino, Giunti Scuola e Inaf – si svolgerà il 28 e 29 maggio. In particolare, il 28 maggio studenti e studentesse di tutto il Paese trascorreranno la mattinata alla Stazione radioastronomica di Medicina, nella pianura bolognese.
Cartolina dell’evento con la stazione radioastronomica di Medicina. Crediti: Inaf/R. Bonuccelli
«I radiotelescopi sono grandi antenne che osservano i corpi celesti sintonizzandosi sulle onde radio, anziché sulla luce visibile. In Italia ci sono tre osservatori dotati di queste antenne. La più grande, il Sardinia Radio Telescope, si trova in provincia di Cagliari. Un’altra antenna si trova a Noto, in provincia di Siracusa. Mentre in provincia di Bologna, a Medicina, si trovano ben due strumenti, la Croce del Nord e il radiotelescopio Grueff, che lavorano a numerosi progetti di ricerca», afferma Simona Righini dell’Inaf, responsabile del centro visite e delle osservazioni single dish con la parabola di Medicina. «Ed è proprio a Medicina che durante il CodyTrip spiegheremo ai partecipanti il funzionamento dei radiotelescopi e racconteremo cosa osservano, dal monitoraggio del Sole alle più lontane radiogalassie, oltre alle attività particolari che conduciamo, come l’osservazione radar della spazzatura spaziale».
Cartolina dell’evento con il telescopio storico di Loiano. Crediti: F. Villa
Dopo un pomeriggio dedicato alla visita di Bologna e alla sua università, alla sera i partecipanti si ritroveranno virtualmente nel bosco del Parco astronomico di Loiano e, sotto un cielo stellato, si tornerà a parlare di astronomia. «Alla fine del XIX secolo, vista la crescente influenza delle luci della città e dell’inquinamento atmosferico sulle osservazioni astronomiche, gli astronomi decisero di costruire una nuova struttura di osservazione fuori dalla città. Gli astronomi bolognesi scelsero una collina nei pressi di Loiano, una piccola città sul crinale appenninico settentrionale, a circa quaranta chilometri da Bologna», racconta Silvia Galleti dell’Inaf, che si occupa di didattica e divulgazione presso l’osservatorio. «Accoglieremo i partecipanti del CodyTrip sul Monte Orzale, dove si trovano i nostri due telescopi: il Cassini e lo storico Zeiss. Dal telescopio Cassini, che normalmente usiamo per monitorare asteroidi e osservare gli oggetti celesti, se il tempo lo permetterà faremo insieme ai partecipanti un’osservazione del cielo notturno».
«La stazione radioastronomica di Medicina, con il centro visite Marcello Ceccarelli, accoglie continuamente scolaresche e visitatori interessati ad approfondire lo studio dell’universo. Così come il Parco astronomico di Loiano, con i suoi due telescopi, il planetario e l’aula didattica. Con questo CodyTrip vogliamo portare queste due realtà dell’Inaf nelle scuole e nelle case del maggior numero di persone possibile, come solo questa gita online sa fare», aggiunge Maura Sandri dell’Inaf, responsabile del gruppo Play.Coding dedicato alla didattica innovativa. «Al CodyTrip a Matera, che ci ha visti coinvolti nel 2022 al Centro Spaziale dell’Asi con la trasmissione nello spazio dei messaggi vincitori del concorso C’è posta per ET, i partecipanti effettivi sono stati oltre 15mila, connessi da 417 città, per un totale di 430 minuti di diretta interattiva. E recentemente ho saputo che alcuni studenti porteranno quell’esperienza come Capolavoro alla maturità 2024. È una grande soddisfazione e mi auguro, con questo CodyTrip in questi luoghi estremamente affascinanti, che sapremo dare ai giovani nuovi spunti di interesse, contribuendo a promuovere la passione per lo studio dell’universo e per la tecnologia che permette di osservarlo».
Sebbene l’iniziativa sia rivolta principalmente alle scuole, CodyTrip è aperto alla partecipazione di chiunque ne condivida lo spirito e intenda approfittarne per vivere un’esperienza non convenzionale di turismo culturale. Trovate tutti i dettagli sul programma della gita alla pagina del Cody Trip.
Per saperne di più:
Guarda la presentazione sul canale youtube di CodeMooc:
youtube.com/embed/JhPDGLuEyEc?…
Psyche accende i suoi propulsori elettrici allo xenon
Questa foto mostra un propulsore elettrico in funzione, identico a quelli utilizzati per spingere la navicella Psyche della Nasa. Il bagliore blu proviene dagli atomi carichi, o ioni, di xenon. Crediti: Nasa/Jpl-Caltech
A più di 330 milioni di chilometri dalla Terra e con una velocità di 135mila chilometri all’ora, la sonda Psyche ha acceso la propulsione ionica per accelerare ulteriormente verso il suo obiettivo: l’omonimo asteroide ricco di metalli, 16 Psyche, fra Marte e Giove, attorno al quale orbiterà e raccoglierà dati scientifici. La sonda è partita lo scorso 13 ottobre 2023 dal Kennedy Space Center in Florida a bordo di un Falcon Heavy di SpaceX, che gli ha dato la spinta necessaria a superare l’orbita del Pianeta rosso.
Entro il prossimo anno Psyche raggiungerà quella che in gergo si chiama “modalità di crociera completa”, in cui i suoi propulsori elettrici prenderanno il sopravvento e spingeranno l’orbiter verso la fascia degli asteroidi.
Psyche utilizza un sistema di propulsione elettrica solare molto simile a quello che sta dando problemi a BepiColombo, la missione dell’Esa in viaggio verso Mercurio. In particolare, è dotata di quattro propulsori a effetto Hall che utilizzano campi elettromagnetici per espellere atomi carichi – o ioni – di xenon, che a loro volta creano una spinta, emettendo un bagliore blu che si espande dietro la navicella. Viene utilizzato un solo propulsore alla volta, che in piena modalità di crociera fornisce fino a 240 millinewton di spinta – circa la quantità di forza che si percepisce sostenendo il peso di una batteria AA. Psyche trasporta sette serbatoi da 82 litri di propellente allo xenon – che corrispondono a circa 1.085 chilogrammi.
Sembra una spinta fin troppo delicata, ma nel vuoto dello spazio interplanetario, senza la resistenza dell’aria a rallentarla, grazie a questi propulsori Psyche accelererà fino a raggiungere una velocità di circa 200mila chilometri all’ora.
Questo grafico illustra il percorso della sonda Psyche della Nasa durante il viaggio verso l’asteroide Psyche. Sono indicate le tappe fondamentali della missione principale, tra cui l’assistenza gravitazionale su Marte nel maggio 2026. Crediti: Nasa/Jpl-Caltech
Arriverà a destinazione, in orbita attorno all’asteroide 16 Psyche, nel 2029 ed effettuerà osservazioni per circa due anni. I dati raccolti aiuteranno gli scienziati a comprendere meglio la formazione dei pianeti rocciosi con nucleo metallico, come la Terra. L’asteroide, infatti, che nel suo punto più largo misura circa 280 chilometri, potrebbe essere quel che resta del nucleo di un planetesimo, lo stadio iniziale di un pianeta mai formato.
Il team di Psyche ha sfruttato i primi cento giorni della missione (oggi il conto segna 224 giorni) per eseguire un checkout completo delle funzionalità del veicolo spaziale. Tutti i sistemi ingegneristici funzionano come previsto, così come i tre strumenti scientifici. Il magnetometro funziona così bene che è stato in grado di rilevare un’eruzione di particelle cariche dal Sole, e anche lo spettrometro di raggi gamma e neutroni. Lo scorso dicembre, inoltre, le due fotocamere dello strumento di imaging hanno catturato le prime immagini.
«Fino a questo momento abbiamo acceso e controllato i vari dispositivi necessari per il completamento della missione e possiamo dire che funzionano a meraviglia», dice Henry Stone, responsabile del progetto Psyche al Jet Propulsion Laboratory della Nasa, in California. «Ora siamo in viaggio e non vediamo l’ora di effettuare un sorvolo ravvicinato di Marte».
La traiettoria prevista riporterà Psyche verso il Pianeta rosso nella primavera del 2026: dirigendosi verso Marte, la sonda spegnerà i propulsori e sfrutterà la gravità del pianeta per accelerare, una classica manovra basata sull’assistenza gravitazionale. Da lì, i propulsori torneranno poi ad accendersi in modalità di crociera completa, per non spegnersi più fino al traguardo.
Euclid, è l’ora della scienza: dieci articoli e cinque nuove immagini l MediaInaf TV
Non sono stati facili, i primi mesi di attività del telescopio spaziale Euclid dell’Esa, l’Agenzia spaziale europea.#Astronomia #Astronomy #Astrofisica #Astrophysics #INAF
Morire con discrezione: da stella a buco nero
Impressione artistica del sistema binario Vtfs 243. Crediti: Esol. Calçada
Un giorno, tra presumibilmente quattro miliardi e mezzo di anni (sì, potete ancora dormire sonni tranquilli), la stella al centro del Sistema solare, il Sole, comincerà a espandersi fino a inglobare la Terra. Successivamente, diventerà sempre più instabile fino a collassare in un oggetto piccolo e denso, noto come nana bianca. Ma se il Sole avesse una massa circa otto volte superiore, la sua morte sarebbe molto meno discreta: prima di finire i suoi giorni come stella di neutroni o buco nero, farebbe un gran “botto”, quello che gli astronomi chiamano supernova. Ecco, sebbene sia questa l’evoluzione stellare che studiamo sui libri di scuola, resta ancora molto da capire sul cielo stellato e in particolare sulla morte più o meno spettacolare delle stelle massicce.
Una nuova ricerca condotta dagli astrofisici del Niels Bohr Institute dell’Università di Copenaghen pubblicata su Physical Review Letters presenta prove convincenti che in realtà è possibile per certe stelle molto massicce morire “con discrezione”. La loro indagine suggerisce infatti che, con una massa sufficiente, l’attrazione gravitazionale di una stella può essere così forte da non provocare alcuna esplosione al momento della sua morte. Al contrario, la stella può subire il cosiddetto collasso completo.
Il motivo di questa indagine risiede nella constatazione che a oggi, più volte, è stato riscontrato il fenomeno della cosiddetta scomparsa delle stelle. Il progetto “A Survey about Nothing”, guidato dall’astrofisico Chris Kochanek, è un esempio degli sforzi che si stanno facendo per indagare le stelle che scompaiono e trovare le spiegazioni per la loro scomparsa. In questo contesto, la scoperta degli autori fornisce un chiaro esempio e una spiegazione scientifica plausibile di fenomeni di questo tipo.
Oggetto dello studio è la recente osservazione di un insolito sistema stellare binario ai margini della nostra galassia, chiamato Vfts 243, nel quale una stella massiccia e un buco nero nove volte più massiccio del Sole, orbitano l’una intorno all’altro. «Se si osservasse una stella che subisce un collasso totale, al momento giusto sarebbe come osservare una stella che si spegne improvvisamente e scompare dal cielo. Il collasso è così completo che non si verifica alcuna esplosione, nulla fuoriesce e non si vedrebbe alcuna supernova luminosa nel cielo notturno. Negli ultimi tempi gli astronomi hanno osservato l’improvvisa scomparsa di stelle molto luminose. Non possiamo essere certi di un collegamento, ma i risultati ottenuti analizzando Vfts 243 ci hanno portato molto più vicino a una spiegazione plausibile», afferma Alejandro Vigna-Gómez, primo autore dello studio.
Il telescopio spaziale James Webb rivela i dettagli della struttura e della composizione della Nebulosa Tarantola, dove si trova il sistema binario Vfts 243, oltre a decine di galassie sullo sfondo. La nursery stellare 30 Doradus prende il soprannome di Nebulosa Tarantola per via dei suoi lunghi filamenti polverosi. Situata nella Grande Nube di Magellano, è la più grande e luminosa regione di formazione stellare vicina alla nostra galassia e ospita le stelle più calde e massicce conosciute. Crediti: Nasa, Esa, Csa, StScI, Webb Ero Production Team
Da decenni gli scienziati conoscono l’esistenza di sistemi stellari binari di questo tipo nella Via Lattea, in cui una delle stelle è diventata un buco nero. Ma la recente scoperta di Vfts 243, appena fuori dalla Via Lattea, nella Grande Nube di Magellano, è qualcosa di veramente speciale. «Normalmente, gli eventi di supernova nei sistemi stellari possono essere misurati in vari modi dopo che si sono verificati. Ma nonostante Vfts 243 contenga una stella che è collassata in un buco nero, le tracce di un’esplosione non si trovano da nessuna parte. Vfts 243 è un sistema straordinario. L’orbita del sistema è cambiata a malapena dal collasso della stella in un buco nero», spiega Vigna-Gómez.
I ricercatori hanno analizzato i dati osservativi alla ricerca di una serie di indicazioni che ci si aspetterebbe da un sistema stellare che in passato ha subito un’esplosione di supernova, non trovando prove convincenti in tal senso. Ad esempio, il sistema non mostra segni di un’accelerazione degli oggetti orbitanti che ci si aspetterebbe in seguito all’esplosione di una supernova. Inoltre è molto simmetrico, caratterizzato da un’orbita quasi perfettamente circolare, e le tracce di un rilascio di energia avvenuto durante il collasso del nucleo dell’ex stella indicano un tipo di energia coerente con il collasso completo.
Le loro stime sono coerenti con uno scenario in cui la spinta più piccola impartita durante il collasso stellare non è dovuta alla materia barionica, che comprende neutroni e protoni, bensì ai neutrini. Questa è un’altra indicazione che il sistema non ha subito un’esplosione. «La nostra analisi indica inequivocabilmente che il buco nero in Vfts 243 si è molto probabilmente formato immediatamente, con l’energia persa principalmente attraverso i neutrini», afferma Irene Tamborra del Niels Bohr Institute.
Secondo Tamborra, il sistema Vfts 243 permette di confrontare una serie di teorie astrofisiche e di calcoli di modelli con osservazioni reali. «I nostri risultati evidenziano che Vfts 243 è il miglior caso osservabile finora per la teoria dei buchi neri stellari formati attraverso il collasso totale, dove l’esplosione di supernova fallisce, e che i nostri modelli hanno dimostrato essere possibile. Si tratta di un’importante verifica della realtà per questi modelli. E ci aspettiamo certamente che il sistema serva come punto di riferimento cruciale per le future ricerche sull’evoluzione e il collasso stellare», conclude Tamborra.
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Constraints on Neutrino Natal Kicks from Black-Hole Binary VFTS 243” di Alejandro Vigna-Gómez, Reinhold Willcox, Irene Tamborra, Ilya Mandel, Mathieu Renzo, Tom Wagg, Hans-Thomas Janka, Daniel Kresse, Julia Bodensteiner, Tomer Shenar e Thomas M. Tauris
Bolide nell’Atlantico, forse di natura cometaria
Questi primi mesi del 2024 sono ricchi di impatti di grossi meteoroidi per l’Europa. Dopo la caduta del piccolo asteroide 2024 BX1 avvenuta in Germania il 21 gennaio alle 00:33 Utc, ora è stata la volta di Spagna e Portogallo assistere a un evento di caduta di notevole luminosità. In questo caso però il meteoroide non è stato scoperto poche ore prima dell’impatto, com’era successo per il near-Earth 2024 BX1 e per i sette precedenti, ma è stato “scoperto” quando già era in atmosfera nella fase di fireball.
Il fireball del 18 maggio 2024 delle 22:47 Utcripreso dalla dashcam di un anonimo automobilista portoghese che si trovava a percorrere l’autostrada A1 all’altezza dello svincolo di Aveiras de Cima e Alcoentre. Fonte: YouTube
Vediamo i fatti. Alle 22:46:50 Utc del 18 maggio 2024 i satelliti militari statunitensi hanno rilevato un’esplosione in atmosfera alle coordinate +41.0° N e 8.8° W. Questo punto si trova nell’Oceano Atlantico, 25 km a sud-ovest della città portoghese di Porto. In effetti all’Imo (International Meteor Organization) sono arrivate ben 131 segnalazioni dell’evento che ha ricevuto la sigla 2481-2024. Su YouTube e sui social si possono trovare diversi video ripresi da Cadiz, Almeria, Calar Alto, Madrid, Siviglia, Oporto e così via che mostrano un brillante fireball, di colore verdastro, mentre cade verso terra. La luminosità dell’oggetto era talmente elevata da riuscire, durante il picco di luminosità, a illuminare a giorno il paesaggio inoltre, dopo la scomparsa è rimasta una scia persistente per diversi secondi indicativo di un fenomeno d’alta quota. Fra i tanti video pubblicati, vi mostriamo qui sopra un frame ripreso da una dashcam di un anonimo automobilista che si trovava in Portogallo, sull’autostrada A1, allo svincolo per Aveiras de Cima e Alcoentre. Il fireball ha attraversato il campo di vista della dashcam da destra verso sinistra impiegando diversi secondi e a un certo punto ha avuto un flare, indice della frammentazione del meteoroide.
Secondo i dati di origine militare resi pubblici dal Cneos della Nasa, il fireball è caduto verso il suolo alla velocità di 40,4 km/s, disintegrandosi a un’altezza di circa 75,3 km. Complessivamente, il fireball ha rilasciando in atmosfera un’energia totale di 0,13 kt (1 kt = 4,184 TJoule), circa tremila volte inferiore a quella dell’evento di Chelyabinsk, del 15 febbraio 2013. Equiparando l’energia totale emessa nell’esplosione all’energia cinetica posseduta dal meteoroide, quest’ultimo doveva avere una dimensione dell’ordine del metro di diametro. Elaborando i dati del vettore velocità fornito dai satelliti e usando una parte del software sviluppato per la rete Prisma, coordinata dall’Inaf, si trova che il fireball è arrivato dall’azimut 136,0° (in pratica si muoveva da sud-est verso nord-ovest), su una traiettoria inclinata di circa 7° sulla superficie terrestre, quindi molto radente: questo spiega la lunga durata del fireball mostrata nei video. Purtroppo il Cneos non fornisce mai le incertezze del punto dell’esplosione e della velocità, per cui vanno ipotizzate assumendo valori ragionevoli, come ad esempio ±0,5 km sull’altezza dell’airburst, ±1 km/s sulla velocità e ±0,1° sulle coordinate geografiche del flare. Così facendo, il radiante vero cade alle coordinate equatoriali Ra = 262° ± 1°, Dec = -29° ± 1° (J2000), un punto che si trova fra le costellazioni dello Scorpione e del Serpente. Considerate le grandi dimensioni e l’elevata quota di disintegrazione, la velocità di 40,4 km/s deve coincidere abbastanza bene con quella che il meteoroide aveva fuori atmosfera e si può utilizzare direttamente – insieme al valore della distanza della Terra dal Sole – per stimare l’orbita eliocentrica percorsa dal meteoroide, ovviamente correggendo per la gravità e la rotazione terrestre.
L’orbita nominale del fireball ha il perielio all’interno dell’orbita di Mercurio e l’afelio all’altezza dell’orbita di Giove. Crediti: A. Carbognani/Inaf/Prisma
Il risultato che si ottiene è che la velocità geocentrica del meteoroide risulta elevata, quasi 39 ± 1 km/s, e l’orbita eliocentrica nominale è molto allungata con un semiasse maggiore di 2,4 ± 0,5 unità astronomiche, un periodo orbitale di 4 ± 1 anni, un’eccentricità di 0,95 ± 0,01 e un’inclinazione di ben 17° ± 3° sul piano dell’eclittica. Il perielio di quest’orbita cade a 0,12 ± 0,01 unità astronomiche dal Sole, ossia all’interno dell’orbita di Mercurio, mentre l’afelio arriva a 4,8 ± 1 unità astronomiche, praticamente all’altezza dell’orbita di Giove. Considerando l’invariante di Tisserand TJ rispetto a Giove e tutte le possibili orbite compatibili con i dati e le ragionevoli incertezze assunte, risulta che TJ < 3 nel 90 per cento dei casi, mentre solo nell’altro 10 per cento TJ > 3. Il primo caso corrisponde a un’orbita di natura cometaria, il secondo a un’orbita di tipo asteroidale. In sostanza, il fireball molto probabilmente è stato provocato dalla caduta di un piccolo meteoroide di natura cometaria che, date le piccole dimensioni, si è completamente disintegrato in atmosfera senza conseguenze. Forse proveniva da una cometa che si è disintegrata in passato? Oppure ricade nel 10 per cento di origine asteroidale e, in barba alla statistica, si trattava di un meteoroide originatosi da un asteroide frammentato come Phaethon? Sono scenari che vanno entrambi analizzati più in dettaglio. Purtroppo, è davvero improbabile che qualche frammento sia arrivato al suolo, ma anche nel caso, sarebbe impossibile recuperarlo perché sarebbe finito nell’Oceano Atlantico.
Galassie, stelle, ammassi: novità da Euclid
La galassia a spirale Ngc 6744, in cui è evidente l’attività di formazione stellare. I nuovi dati hanno permesso di identificare una galassia nana mai vista prima in orbita attorno alla spirale (visibile in alto, vicino al braccio a spirale). Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo
Il telescopio spaziale europeo Euclid arricchisce il nostro “album” dell’universo con cinque nuovi ritratti mozzafiato. La missione della European Space Agency (Esa), che vede la partecipazione anche della Nasa, continua così a inviare a terra immagini strabilianti, che contengono un dettaglio di informazione senza precedenti. La soddisfazione è grande anche per le ricercatrici e i ricercatori italiani di Asi, Inaf e Infn che partecipano al Consorzio internazionale della missione, composto da oltre duemila scienziati provenienti da trecento istituti in 13 paesi europei, oltre a Stati Uniti, Canada e Giappone.
L’intera serie di prime osservazioni realizzate da Euclid, che ha puntato il suo telescopio verso 17 oggetti astronomici, dalle vicine nubi di gas e polvere a distanti ammassi di galassie, è stata effettuata in vista del programma principale delle osservazioni che Euclid condurrà per svelare i segreti del cosmo oscuro e rivelare come e perché l’universo appare così com’è oggi. Le nuove immagini, che hanno richiesto appena 24 ore di osservazioni, meno dello 0,1 per cento del tempo totale dedicato all’obiettivo principale della missione, sono accompagnate dalla pubblicazione di dieci articoli sui primi dati scientifici prodotti dalla missione e da cinque articoli che descrivono la missione, gli strumenti e le performance basate sui primi dati in volo
Le immagini ottenute da Euclid coprono vaste porzioni di cielo e permettono di osservare l’universo lontano con una risoluzione molto migliore di quella dei telescopi terrestri, utilizzando sia la luce visibile, sia quella infrarossa. E, sebbene siano straordinarie già solo visivamente, queste immagini sono molto più di semplici belle ‘istantanee’: grazie alle nuove e uniche capacità di osservazione di Euclid, infatti, esse rivelano anche moltissime informazioni sul cosmo.
Messier 78 (la regione centrale e più luminosa), un vivaio di stelle in formazione avvolto nella polvere interstellare, a 1300 anni luce da noi. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo
Per esempio, è stato possibile studiare i meccanismi di formazione ed evoluzione di stelle e galassie, nonché identificare oggetti mai visti prima, come pianeti neonati vaganti nella nostra galassia e galassie nane alla periferia di un ammasso di galassie.
Due studi guidati dall’Inaf hanno svelato i dettagli inediti di un ammasso stellare nella Via Lattea e di alcune galassie vicine alla nostra. Inoltre, lo strumento Nisp a bordo di Euclid, sensibile alla luce infrarossa, ha permesso di rivelare nuove galassie che si sono formate nelle fasi primordiali dell’universo, circa 13 miliardi di anni fa, dimostrando che è possibile osservare e studiare questa categoria di oggetti astrofisici, scoperti solo poche decine di anni fa e ancora così misteriosi.
Euclid è uno dei programmi più ambiziosi a livello internazionale nel quale l’Italia, attraverso l’Agenzia spaziale italiana, l’Istituto nazionale di astrofisica e l’Istituto nazionale di fisica nucleare, gioca un ruolo di protagonista coinvolgendo oltre duecento scienziate e scienziati italiani, appartenenti anche a numerose università: Università di Bologna, Università di Ferrara, Università di Genova, Università Statale di Milano, Sapienza Università di Roma, Università di Trieste, Sissa, Università di Ferrara, Cisas dell’Università di Padova.
L’ammasso di galassie Abell 2390, con oltre 50mila galassie e una bellissima visualizzazione dell’effetto di lente gravitazionale, con grandi archi di luce nel cielo. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo
Grazie a questo fondamentale ruolo italiano il satellite Euclid ospita un telescopio a specchio di 1,2 metri di diametro e due strumenti scientifici, il Vis (Visible Instrument) e il Nisp (Near Infrared Spectrometer Photometer), che hanno l’obiettivo principale di osservare il cielo extragalattico con lo scopo di ottenere immagini con altissima risoluzione e misurare gli spettri di milioni di galassie. L’Italia ha avuto il ruolo fondamentale di progettare la strategia osservativa della missione e ha oggi quello di coordinare tutte le attività per la riduzione dei dati a terra.
L’Asi, inoltre, sempre in collaborazione con l’Inaf e con l’Infn, ha guidato il team industriale che ha progettato e realizzato i contributi agli strumenti, formato da un’associazione temporanea d’imprese con Ohb Italia mandataria, Sab Aerospace e Temis mandanti mentre la leadership per la realizzazione della piattaforma è stata affidata da Esa a Thales Alenia Space Italia del gruppo Leonardo. L’Asi ha inoltre finanziato le attività industriali per la progettazione e la realizzazione del Science Data Center italiano della missione, affidate ad Altec di Torino.
Euclid cattura “in azione” le galassie del gruppo del Dorado, mentre si fondono creando bellissime strutture a forma di coda e di conchiglia. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo
«Euclid è, al momento, la missione più complessa del Programma Scientifico di Esa per quanto riguarda gli obiettivi scientifici ed è destinata ad aprire un capitolo importante nella conoscenza del nostro Universo» commenta Barbara Negri, responsabile Volo Umano e Sperimentazione Scientifica di Asi. «Queste nuove immagini ottenute da Euclid confermano le ottime prestazioni degli strumenti scientifici a bordo, a cui l’Asi ha contribuito con la realizzazione di parti importanti, e il grande lavoro del Science Ground Segment, di responsabilità italiana, nell’elaborazione dei dati scientifici».
«Queste nuove immagini, insieme a quelle divulgate lo scorso novembre, permettono di comprendere l’enorme potenziale della missione, in termini sia del numero di oggetti che Euclid sarà in grado di osservare sia della qualità delle misure stesse», commenta Anna Di Giorgio dell’Inaf, che coordina le attività italiane per la missione Euclid finanziate dall’Asi. «I primi risultati scientifici pubblicati oggi, che vedono un forte contributo da parte di ricercatrici e ricercatori Inaf, danno anche una misura di quale e quanta “legacy science” sarà possibile fare utilizzando i dati di Euclid: ad esempio lo studio di ammassi stellari extragalattici o la scoperta di nuove galassie nane di piccola massa o, ancora, di galassie luminose molto distanti, fino ad esplorare oggetti la cui luce è stata emessa più di 10 miliardi di anni fa, ai primordi dell’universo».
L’ammasso di galassie Abell 2764 (in alto a destra), con centinaia di galassie all’interno di un vasto alone di materia oscura a circa un miliardo di anni luce da noi. In primo piano si vede anche V*BP-Phoenicis, una stella molto luminosa dell’emisfero meridionale. Crediti: Esa/Euclid/Euclid Consortium/Nasa – Cc By-Sa 3.0 Igo
«Lo scopo della missione Euclid è studiare come energia oscura e materia oscura abbiano governato l’evoluzione dell’universo», spiega Stefano Dusini, che coordina la partecipazione dell’Infn in Euclid. «Il 95 per cento dell’universo sembra essere composto da queste due forme misteriose di energia e materia di cui sappiamo ancora poco o niente. La qualità eccellente di queste prime immagini ci rendono confidenti che Euclid riuscirà a raggiungere il suo obiettivo scientifico. E le ottime prestazioni dello strumento Nisp, cui l’Infn ha contribuito con la responsabilità dell’integrazione dell’elettronica calda, e condivide con Inaf il monitoraggio e la gestione in volo dello strumento, e il monitoraggio delle performance e della buona qualità dei dati, ci rendono orgogliosi del lavoro fatto dai ricercatori e dalle ricercatrici dell’Infn», conclude Dusini.
Il satellite Euclid è stato lanciato da Cape Canaveral in Florida il 1° luglio del 2023 a bordo di un vettore Falcon 9 della società privata americana SpaceX.
Per saperne di più:
- Leggi sulla pagina Esa della missione Euclid i dieci articoli scientifici dedicati alle Early Release Observations (saranno disponibili su arxiv.org il 24 maggio)
Guarda il servizio video su MediaInaf Tv:
youtube.com/embed/VHs-QJXcUqE?…
L’Asse sistino al tempo del lunistizio
Un allineamento voluto verso il punto più a nord in cui tramonta la Luna sulla Città eterna, in quello che viene definito astronomicamente lunistizio superiore: un inedito e magico “Sistine-henge” per cacciatori di irripetibili panorami celesti.
La Luna tramonta lungo l’Asse sistino al lunistizio superiore visto da Piazza Esquilino, proprio dietro la torre solare di Monte Mario, il 13 aprile 2024. Crediti: Gianluca Masi, Virtual Telescope Project/Inaf
Questo ci raccontano queste splendide foto del nostro satellite naturale che si prepara a scomparire all’orizzonte in uno dei più famosi rettilinei di Roma, composto da via Depretis, via Quattro Fontane e via Sistina.
È l’Asse Sistino, centro del nuovo assetto urbanistico ideato da Sisto V e dal suo architetto e ingegnere Domenico Fontana (1585-1590) per collegare le principali basiliche e consentire un comodo pellegrinaggio tra le strade dell’Urbe. Il tratto che collega gli obelischi di S. Maria Maggiore e Trinità dei Monti, lungo circa un chilometro e mezzo, è infatti orientato verso un azimut di 307°, con un’elevazione dell’orizzonte di circa 1,5° in direzione del colle di Monte Mario, dove nel XX secolo fu trasferito l’Osservatorio Astronomico di Roma, oggi sede dell’Istituto Nazionale di Astrofisica.
Tramonto della Luna lungo l’Asse sistino al lunistizio superiore visto da Piazza Esquilino il 14 (a sinistra) e il 13 (a destra) aprile 2024. L’azimut del punto di scomparsa cambia leggermente da una notte all’altra. Crediti: Gianluca Masi, Virtual Telescope Project/Inaf
Questo allineamento trasforma il canyon urbano dell’antica “via Felice” (dal nome di Papa Peretti) in un traguardo telescopico che è un naturale prolungamento dell’asse della celebre basilica di Santa Maria Maggiore. La circostanza suggerisce fortemente un legame con l’orientamento originario della chiesa paleocristiana, concepita per celebrare la Vergine Maria e il suo corrispondente celeste.
Piazza Esquilino trasformata in un immenso strumento per seguire i moti della Luna. Incisione di Cornelis Meyer, 1696
Questo fenomeno – identificato e fotografato da Giangiacomo Gandolfi dell’Inaf di Roma e Gianluca Masi del Virtual Telescope Project e associato Inaf – è stato presentato oggi a Corfù, al 12esimo Convegno internazionale Insap, dedicato all’ispirazione dei fenomeni astronomici, ed è abbastanza raro: si verifica appena qualche decina di volte nel corso di una cinquantina di mesi, a intervalli di circa 18 anni.
A conferma del fatto che tale configurazione fosse nota anche in epoche successive una storica incisione barocca del 1696, che mostra l’obelisco dell’Esquilino utilizzato come gnomone per seguire e tracciare i complessi moti della Luna.
Se il campo magnetico del Sole fosse superficiale
Cosa c’era dietro le aurore che si sono viste – eccezionalmente – nelle scorse settimane in Italia? Il Sole, innanzitutto, che con la sua tempesta geomagnetica annunciata dalla comparsa di una regione attiva di macchie solari sempre più estesa sin da inizio maggio. «Le caratteristiche che vediamo osservando il Sole, come la corona che molti hanno visto durante la recente eclissi solare, le macchie solari e le eruzioni solari, sono tutte associate al suo campo magnetico», dice Keaton Burns, ricercatore al Dipartimento di matematica del Mit e coautore dell’articolo uscito oggi su Nature, e che mette in discussione tutto quel che finora era stato ipotizzato circa l’origine del campo magnetico solare. Continua, infatti, dicendo: «Dimostriamo che perturbazioni isolate vicino alla superficie del Sole, lontano dagli strati più profondi, possono crescere nel tempo fino a produrre le strutture magnetiche che vediamo». In altre parole, il campo magnetico del Sole nascerebbe nei suoi strati più esterni, vicino alla superficie.
media.inaf.it/wp-content/uploa…
Questa illustrazione sovrappone una rappresentazione dei campi magnetici solari a un’immagine catturata dal Solar Dynamics Observatory della Nasa. La complessa sovrapposizione di linee può insegnare agli scienziati i modi in cui il magnetismo del Sole cambia in risposta al costante movimento del plasma all’interno del Sole. Crediti: Nasa/Sdo/Aia/Lmsal
Il meccanismo che innesca il campo magnetico solare si chiama dinamo (sì, come quella che si usa nelle biciclette più tradizionali per accendere i faretti), ed è generato dai moti del flusso del plasma nei diversi strati della nostra stella. Il Sole è infatti una gigantesca palla di plasma che ribolle vicino alla superficie. In questa regione, che si chiama “zona di convezione” e si estende per circa 200mila chilometri sotto la superficie, si ha un flusso continuo di plasma dal basso verso l’alto e poi di nuovo verso il basso, in una sorta di moto circolare perenne.
«Una delle idee di base per l’avvio di una dinamo è che ci sia una regione in cui ci sia del plasma che si muove accanto ad altro plasma e che il movimento di taglio converta l’energia cinetica in energia magnetica», spiega Burns. «Si pensava che il campo magnetico del Sole fosse creato dai moti in fondo alla zona di convezione (e quindi, in profondità, ndr)». Per capirlo, finora si facevano complicatissime simulazioni che descrivevano il moto di questo plasma a diverse profondità. I risultati, però, non riuscivano a trovare riscontro nelle osservazioni di macchie solari, brillamenti ed eruzioni solari generate dal campo magnetico. In questo studio, invece, i ricercatori hanno raccolto modelli della struttura del Sole dalle osservazioni eliosismiche, con l’idea di comprendere la struttura interna e i processi partendo dalle vibrazioni registrate sulla superficie. «Poi – continua Burns – ci siamo chiesti: ci sono perturbazioni, o piccoli cambiamenti nel flusso di plasma, che potremmo sovrapporre a questa struttura media e che potrebbero crescere fino a causare il campo magnetico del Sole?».
Hanno cercato di rispondere sfruttando il Progetto Dedalus, una struttura numerica in grado di simulare molti tipi di flussi fluidi con alta precisione: l’algoritmo ha scoperto nuovi modelli che potrebbero crescere e dare origine a un’attività solare realistica. Hanno trovato, in particolare, modelli che corrispondono alle posizioni e ai tempi delle macchie solari osservate dagli astronomi fin da Galileo nel 1612. In queste simulazioni, alcuni cambiamenti nel flusso di plasma limitate ad appena il 5-10 per cento degli strati superficiali del Sole (fino a circa 32mila chilometri di profondità), sono sufficienti a generare strutture magnetiche. Al contrario, i cambiamenti negli strati più profondi (oltre 200mila chilometri di profondità) producono campi solari meno realistici.
Capire l’origine del campo magnetico solare, oltre ad essere una questione “in sospeso” da secoli con la nostra stella, è anche l’unica via per saper prevedere i brillamenti, le macchie e tutti quei processi che causano le tempeste magnetiche che colpiscono la Terra. Quando le eruzioni solari e le espulsioni di massa coronale si dirigono verso la Terra, infatti, oltre a stupirci con effetti speciali come le aurore, possono danneggiare gravemente le infrastrutture elettriche e di telecomunicazione, compresi gli strumenti di navigazione Gps. Anche le recenti tempeste solari di questo mese, ad esempio, hanno messo fuori uso sistemi di navigazione utili ad attività di sussistenza per l’uomo, come quelli usati per le attrezzature agricole.
Per saperne di più:
- Leggi su Nature l’articolo “The solar dynamo begins near the surface”, di Geoffrey M. Vasil, Daniel Lecoanet, Kyle Augustson, Keaton J. Burns, Jeffrey S. Oishi, Benjamin P. Brown, Nicholas Brummell, e Keith Julien
Prevedere il vento solare con le onde magnetiche
Immagine corona del Sole a disco intero, acquisita dallo strumento Aia a bordo della missione spaziale Solar Dynamic Observatory della Nasa, raffigurante la regione studiata nel lavoro pubblicato su PrL. Crediti: Adattata da Murabito et al. 2024
Capire appieno i processi fisici che governano l’attività del Sole, la nostra stella, è uno dei principali modi per migliorare la capacità di prevedere i fenomeni solari che possono produrre effetti nello spazio interplanetario e sui pianeti, in particolar modo la Terra, nell’ambito della cosiddetta meteorologia dello spazio (o space weather). Un nuovo passo in questa direzione arriva dal lavoro di un gruppo di ricercatrici e ricercatori dell’Istituto nazionale di astrofisica (Inaf) e dell’Agenzia spaziale italiana (Asi) pubblicato oggi sulla rivista Physical Review Letters. Lo studio suggerisce che, attraverso l’osservazione dei moti e delle riflessioni di un particolare tipo di onde magnetiche che si propagano negli strati più esterni dell’atmosfera del Sole sia possibile risalire alle regioni da cui si è originato il vento solare che possiamo osservare e analizzare quando raggiunge l’ambiente terrestre, migliorando così le informazioni sul suo percorso nello spazio e, quindi, le previsioni dei suoi potenziali effetti sul nostro pianeta.
Il lavoro, guidato dalla ricercatrice Inaf Mariarita Murabito, ha utilizzato i dati acquisiti dallo spettrografo ad alta risoluzione Eis a bordo della missione Hinode dell’agenzia spaziale giapponese Jaxa e dallo spettropolarimetro italiano ad alta risoluzione Ibis realizzato dall’Istituto Nazionale di Astrofisica e installato fino al 2019 al telescopio Dst (New Mexico, Usa) per studiare le onde di Alfvén. Queste, sono onde magnetiche prodotte nello strato visibile di colore rossastro dell’atmosfera solare, che prende il nome di cromosfera. Le onde di Alfvén possono trasportare quantità significative di energia lungo le linee del campo magnetico fino alla porzione più esterna dell’atmosfera solare, la corona, dove è stata osservata la presenza di un elevato flusso di questo tipo di onde. Infatti, nella corona, il campo magnetico gioca un ruolo fondamentale ed è responsabile di tutta l’attività solare che osserviamo: brillamenti, espulsioni di massa coronale, vento solare ed emissione di particelle energetiche.
Studi precedenti hanno rilevato che la composizione chimica della cromosfera e corona solare differiscono da quella della fotosfera. La teoria proposta nel 2004 da Laming per spiegare questo inatteso comportamento, attribuisce la variazione nella composizione chimica alla forza che agisce sulle particelle cariche quando esse si muovono nel campo elettromagnetico del Sole. Questo nuovo studio dimostra la connessione tra le onde di Alfvén e le anomalie di abbondanza degli elementi chimici presenti nella corona, misurando la direzione di propagazione delle onde stesse. Questa connessione è dovuta proprio all’azione di questa forza sul plasma della cromosfera.
«Le onde magnetiche e il loro legame con le anomalie chimiche erano state già rilevate nel 2021. Con il nostro studio abbiamo messo in evidenza, per la prima volta, la direzione di propagazione, ovvero la riflessione, di queste onde. Usando lo stesso modello teorico proposto e modificato negli ultimi 20 anni l’accordo con i dati è sorprendente», commenta l’autrice dell’articolo, Mariarita Murabito, ricercatrice dell’Inaf.
Questa connessione tra le onde di Alfvén e le proprietà del vento solare offre uno sguardo innovativo su come le interazioni magnetiche nel Sole possano influenzare l’ambiente spaziale circostante, portando a una maggiore comprensione dei processi che governano la fisica solare e dell’influenza dell’attività solare sui pianeti e corpi minori del Sistema solare.
«Le proprietà̀ chimiche del plasma solare restano invariate attraversando lo spazio interplanetario e possono essere utilizzate come tracciante delle sorgenti del vento solare e delle perturbazioni che in esso si propagano. Capire l’origine di questo tracciante ci offre uno strumento nuovo per comprendere in prospettiva in che modo il Sole governi le condizioni fisiche dello spazio interplanetario e quindi progredire anche nella comprensione dei fenomeni space weather», spiega Marco Stangalini, ricercatore dell’Asi e coautore dell’articolo. «Questi risultati, inoltre, ci permetteranno di sfruttare al meglio i dati ottenuti dalla missione Solar Orbiter dell’Esa e dalle future missioni Solar-C e Muse, alle quali l’Italia contribuisce, e che si focalizzeranno sullo studio della dinamica dell’atmosfera solare».
Per saperne di più:
- Leggi su Physical Review Letters l’articolo “Observation of Alfv́en Wave Reflection in the Solar Chromosphere: Ponderomotive Force and First Ionization Potential Effect”, di Mariarita Murabito, Marco Stangalini, J. Martin Laming, Deborah Baker, Andy S. H. To, David M. Long, David H. Brooks, Shahin Jafarzadeh, David B. Jess e Gherardo Valori
Come rivelare la natura quantistica della gravità
Ludovico Lami, fisico, primo autore dello studio pubblicato su Physical Review X. Originario di Pisa, dopo la laurea alla Scuola Normale, un dottorato a Barcellona, due post-doc a Nottingham (Regno Unito) e in Germania, ora è assistant professor all’Università di Amsterdam. Crediti: QuSoft
Cercare di comprendere quale sia la natura della forza di gravità è una delle sfide della fisica moderna. È una forza quantistica? Oppure è una forza “classica”, per cui una descrizione geometrica su larga scala è sufficiente? O è qualcosa di ancora diverso? Fino ad ora, tutte le proposte sperimentali per rispondere a queste domande si sono basate sulla creazione del fenomeno quantistico dell’entanglement tra masse pesanti e macroscopiche. Ma più un oggetto è pesante, più tende a perdere le sue caratteristiche quantistiche e diventare “classico”, rendendo incredibilmente difficile far comportare una massa pesante come una particella quantistica.
Sembrerebbe dunque di essere in una sorta di vicolo cieco: abbiamo teoricamente uno strumento, l’entanglement, che potrebbe aiutarci a chiarire dubbi fondamentali sulla natura della gravità, ma non riusciamo a mettere in piedi alcun esperimento, per adesso, che ci possa aiutare a raggiungere un tanto agognato responso. Ora potrebbe esserci un piccolo spiraglio, seppur ancora teorico, di via d’uscita: un articolo pubblicato questo mese su Physical Rewiew X da Ludovico Lami dell’Università di Amsterdam (Paesi Bassi) e Julen Pedernales e Martin B. Plenio, due fisici dell’Università di Ulm (Germania) propone un modo alternativo per testare la natura della gravità.
Qual è questa proposta? Quale idea ci sta dietro? Lo abbiamo chiesto al primo autore dell’articolo, Ludovico Lami appunto, fisico originario di Pisa, laurea alla Scuola Normale, dottorato a Barcellona, due postdoc a Nottingham (Regno Unito) e in Germania e oggi assistant professor all’Università di Amsterdam.
Lo scopo del vostro studio è rivelare la “quantumness of gravity”. Di che si tratta? E come la tradurrebbe in italiano?
«La natura quantistica della gravità, non c’è traduzione migliore. Semplicemente, si tratta di capire se l’interazione gravitazionale tra sistemi quantistici è quantistica, più genericamente non classica, oppure è descritta, come dice Einstein, da un campo puramente classico».
Quindi il vostro obiettivo è trovare un modo per mettere alla prova questa natura quantistica della gravità?
«In realtà si dovrebbe dire più accuratamente non classica. Questo perché l’esperimento che proponiamo non confermerebbe la natura quantistica della gravità: il suo scopo principale è confutare la sua natura puramente classica. L’esperimento potrebbe anche fornire indizi a supporto del fatto che sia quantistica, ma appunto, lo scopo primo è falsificare l’ipotesi che sia un campo classico a mediare le interazioni gravitazionali».
Dagli studi precedenti sembrava che gli unici esperimenti possibili dovessero basarsi sul fenomeno dell’entanglement. In che modo?
«Il metodo che fa affidamento sull’entanglement è stato proposto da Richard Feynman in una famosa conferenza a Chapel Hill nel 1957 e si basa su un’idea abbastanza semplice. Praticamente, si prende una massa sorgente che può trovarsi in uno stato di sovrapposizione, cioè sostanzialmente può trovarsi in due punti diversi dello spazio (immaginiamo uno a destra e uno a sinistra). Poi si considera di avere un’altra massa di test. Come si comporterà quest’ultima? Verrà attratta dalla massa precedente. Ma poiché la massa sorgente può trovarsi in due punti diversi dello spazio, avremo che la massa di test entrerà in uno stato di sovrapposizione anch’essa. Si forma perciò uno stato entangled: se la massa sorgente è a sinistra, la massa di test viene attratta a sinistra, se la massa sorgente è a destra viene attratta a destra. Perciò se in qualche modo possiamo certificare che l’unica interazione fra la massa sorgente e quella di test è la gravità e si è formato entanglement, allora vuol dire che il campo gravitazionale della massa sorgente è entrato in una sovrapposizione anch’esso, dunque non potrebbe avere una natura semplicemente classica».
E questo tipo di esperimento ha portato a qualche risultato concreto?
«No, perché si sta parlando di esperimenti estremamente complicati da realizzare. Per essere posta in uno stato quantistico di sovrapposizione, la massa deve essere molto piccola. Questo perché questi stati quantistici sono assai fragili, perciò è necessario che la massa sia completamente isolata, cioè si trovi in uno stato delocalizzato. Questo però non si riesce a fare per una massa abbastanza grande da generare un campo gravitazionale misurabile».
Schema della bilancia di torsione utilizzata da Henry Cavendish nel 1797 per misurare la forza di gravità. Analoghi “oscillatori armonici” potrebbero ora essere utilizzati per rivelare la natura quantistica della gravità
Il vostro approccio invece qual è?
«Quello che Feymann intendeva dire con il suo esperimento è che, se la gravità è classica, si comporta come un sistema puramente classico che però parla localmente con i due sistemi quantistici. Questo paradigma di due soggetti quantistici che comunicano attraverso un canale classico prende il nome di paradigma Locc (Local Operations and Classical Communication). Dunque, quello che diciamo nel nostro articolo è: partendo dal presupposto che se la gravità è classica agisce come una Locc, riusciamo a trovare delle condizioni a cui queste Locc devono per forza obbedire? E riusciamo a progettare un esperimento che potenzialmente violi queste condizioni? Quindi quello che noi deriviamo sono le condizioni che una qualunque dinamica su un sistema bipartito deve avere se vuole essere Locc. Noi, perciò, progettiamo un esperimento che cerchi di testare se queste condizioni, che chiamiamo Locc inequalities, siano verificate o meno».
Ma concretamente in cosa consiste?
«Allora questa è l’idea generale dell’esperimento. Poi noi nell’articolo consideriamo anche un’implementazione specifica, però, secondo me, è importante dire che indipendentemente dall’implementazione il concetto dell’esperimento è generale. Comunque, l’applicazione specifica di cui noi parliamo nell’articolo è molto semplice: prendiamo n oscillatori armonici quantistici, cioè n “massine” attaccate a molle quantistiche, che essendo dotate di massa interagiscono con la gravità. Le prepariamo in quelli che in fisica chiamiamo stati coerenti, stati molto classici ed estremamente facili da preparare. Le masse iniziano ad oscillare e si influenzano a vicenda, ma nonostante interagiscano tra di loro, dopo l’interazione rimangono ancora degli stati coerenti: non si è creato entanglement. Quello che noi riusciamo a dimostrare è che questa dinamica sul sistema quantistico non è una Locc. Quindi, sostanzialmente, l’esperimento funziona così: si prendono degli oscillatori armonici, noi abbiamo preso per esempio dei pendoli a torsione, si osserva quello che succede e si cerca di verificare che questa dinamica non sia compatibile con un campo gravitazionale puramente classico».
Ma è tutto teorico o si potrebbe realizzare? Che cosa manca per farlo?
«Sì, per ora è soltanto una proposta. Sostanzialmente quello che manca sono degli oscillatori di qualità. Infatti, prima di tutto bisognerebbe raffreddarli fino allo stato vicino al vuoto. Poi occorrerebbe conoscere con estrema precisione le frequenze di oscillazione, che tra l’altro dovrebbero essere molto basse, affinché gli oscillatori abbiano il tempo di influenzarsi. Io sono un teorico, non uno sperimentale, però da quello che so non esistono ancora degli oscillatori di cui si possa conoscere la frequenza esatta con una precisione così alta».
Per saperne di più:
- Leggi su Physical Review X l’articolo “Testing the Quantumness of Gravity without Entanglement”, di Ludovico Lami, Julen S. Pedernales e Martin B. Plenio
Raggi X da una bocca di scarico del centro galattico
L’immagine che vedete in questa pagina (in particolare il riquadro evidenziato in alto) mostra quella che sembra essere una “bocca di scarico” collegata a un camino, dalla quale fuoriesce gas caldo proveniente da una regione in prossimità del buco nero supermassiccio al centro della Via Lattea, Sagittarius A* (o Sgr A*). Questo “sfiato” si trova a circa 700 anni luce dal centro della nostra galassia ed è stato descritto in uno studio pubblicato su The Astrophysical Journal Letters che vede tra gli autori Gabriele Ponti dell’Inaf di Brera.
L’immagine mostra una regione vicina al centro della nostra galassia, in luce X e radio. Nella parte inferiore, vicino al centro, c’è una regione particolarmente brillante, dove si annida Sagittarius A*. Gran parte dell’immagine è piena di vaporose nubi blu che mostrano i raggi X rilevati da Chandra. In alcuni punti, le nubi blu sembrano formare delle sfere di luce color verde acqua: sono aloni di polvere, che riflettono i raggi X di sorgenti al loro interno. Al centro dell’immagine, da Sagittarius A* sembra ergersi un pilastro di luce blu. Si tratta di un camino di gas caldo circondato da nubi rosse piene di stelle, che si presentano come piccole macchie rosse. Vicino alla cima del pilastro blu c’è una strisciolina blu, inclinata, delineata da un riquadro grigio, che si ritiene essere lo “sfiato” del camino. A sinistra è riportato il contenuto del riquadro ingrandito e osservato da Chandra. Crediti: X-ray: Nasa/Cxc/Univ. of Chicago/S.C. Mackey et al.; Radio: Nrf/Sarao/MeerKAT; Image Processing: Nasa/Cxc/Sao/N. Wolk
Il camino di gas caldo vicino al centro galattico era già stato individuato utilizzando i dati a raggi X di Chandra della Nasa e di Xmm-Newton dell’Esa. Nell’immagine qui riportata, i raggi X osservati da Chandra (in blu) sono stati combinati con i dati radio del telescopio MeerKat (in rosso). L’emissione radio rilevata da MeerKat mostra l’effetto dei campi magnetici che racchiudono il gas nel camino.
«In questo studio ci siamo focalizzati nell’analisi di un puntamento particolarmente profondo di una parte della chimney (in italiano, camino) effettuato con il satellite per astronomia X della Nasa Chandra. In particolare, Chandra ha osservato una piccola regione di circa 0.01 gradi quadri per un periodo molto lungo equivalente a circa 12 giorni. Questo ci ha permesso di ottenere, almeno in questa regione, una visione molto dettagliata dell’emissione diffusa», racconta Ponti a Media Inaf. «Grazie alla qualità dei dati e agli eccellenti specchi di Chandra, una miriade di sorgenti puntiformi deboli, che normalmente non riusciremmo a distinguere e ci apparirebbero come emissione diffusa (non essendo risolte individualmente) sono state risolte e rimosse. Quindi la lunga esposizione e la rimozione del contributo delle sorgenti puntiformi ci hanno permesso di avere una migliore visione dell’emissione diffusa. Lo spettro Chandra dell’emissione diffusa ci ha confermato che la radiazione diffusa è prodotta da plasma caldo e dall’immagine è emerso che questo plasma si distribuisce formando quello che appare come la sezione di un canale, attraverso cui potrebbe appunto passare un flusso di gas caldo».
Per enfatizzare le caratteristiche del camino e dello sfiato, l’immagine è stata ruotata di 180 gradi rispetto all’orientamento convenzionale utilizzato dagli astronomi, in modo che il camino sia puntato verso l’alto. La condotta di scarico è evidenziata nell’inserto in alto a sinistra, che include solo i dati di Chandra. In bianco appaiono diverse creste di raggi X più luminosi, approssimativamente perpendicolari al piano della Via Lattea. I ricercatori pensano che si tratti delle pareti di un camino cilindrico, che aiuta a incanalare il gas caldo mentre si muove verso l’alto lungo il camino e si allontana dal centro galattico.
«È interessante che questo canale punta verso la direzione di Sgr A*, il buco nero supermassiccio al centro della Via Lattea, suggerendo quindi una possibile relazione causale (sebbene questa relazione non sia ancora provata)», spiega Ponti. «Attorno a questo canale osservato in banda X, si trova emissione in banda radio, il che è normalmente osservato quando un potente vento o shocks interagiscono con il mezzo interstellare, scaldandolo o spazzandolo via. Pensiamo quindi che questi camini siano prodotti dall’attività presente e/o passata che è avvenuta al centro della Via Lattea, per esempio dovuta a Sgr A*».
Una versione etichettata dell’immagine fornisce la posizione del condotto di scarico, del camino, del buco nero supermassiccio al centro della Via Lattea e del piano della galassia. Crediti: X-ray: Nasa/Cxc/Univ. of Chicago/S.C. Mackey et al.; Radio: Nrf/Sarao/MeerKAT; Image Processing: Nasa/Cxc/Sao/N. Wolk
Gli autori dello studio ritengono che la condotta di scarico si sia formata quando il gas caldo che sale attraverso il camino ha colpito il gas più freddo che si trovava sul suo percorso. La luminosità delle pareti della condotta nei raggi X sarebbe causata dalle onde d’urto – simili ai boom sonici degli aerei supersonici – generate da questa collisione. Il lato sinistro del condotto di scarico è probabilmente particolarmente luminoso ai raggi X perché il gas che scorre verso l’alto colpisce la parete del canale con un angolo più diretto e con maggiore forza rispetto alle altre regioni.
I ricercatori pensano che il gas caldo provenga molto probabilmente da una sequenza di eventi che coinvolgono materiale in caduta verso Sgr A*, e che le eruzioni dal buco nero abbiano poi spinto il gas verso l’alto, lungo il camino e verso l’esterno, attraverso la condotta di scarico.
Non è chiaro quanto spesso il materiale cada su Sgr A*. Studi precedenti hanno indicato che ogni poche centinaia di anni si verificano drammatici brillamenti di raggi X in corrispondenza o in prossimità della posizione del buco nero centrale, per cui questi potrebbero svolgere un ruolo importante nello spingere il gas caldo verso l’alto attraverso il condotto di scarico. Gli astronomi stimano inoltre che il buco nero galattico manifesti potenti ed esplosivi rilasci di energia ogni 20mila anni circa. Gran parte di questa energia sarebbe destinata a salire attraverso lo sfiato del camino.
«Per il momento l’associazione tra questo camino e l’attività al centro della Via Lattea è basata sulla sua morfologia, cioè il camino punta verso il centro. Infatti, se il camino fosse dovuto a Sgr A*, allora ci dovrebbe essere (o essere stato) un flusso di plasma caldo da Sgr A*, attraverso questo camino, fino alla base delle bolle di Fermi e di eRosita», conclude Ponti. «In futuro, avendo a disposizione un calorimetro in banda soft X, potremmo misurare le proprietà, come la velocità di deflusso o la turbolenza, del plasma all’interno di questi camini e quindi misurare se effettivamente è presente un vento prodotto da Sgr A* e quali sono le sue proprietà».
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “X-rays from a Central “Exhaust Vent” of the Galactic Center Chimney” di Scott C. Mackey, Mark R. Morris, Gabriele Ponti, Konstantina Anastasopoulou e Samaresh Mondal
Alla ricerca di anomalie con il transfer learning
A breve uscirà sulla rivista Astronomy & Astrophysics uno studio relativo a un nuovo metodo basato sul transfer learning che si sta rivelando molto utile per trovare anomalie nelle serie temporali astronomiche. Il transfer learning (o apprendimento per trasferimento) è una tecnica di apprendimento automatico in cui un modello addestrato su un compito specifico viene riutilizzato come punto di partenza per un altro compito. Questo approccio è particolarmente utile quando si hanno pochi dati per il nuovo compito, poiché sfrutta la conoscenza acquisita durante l’addestramento su un set di dati più ampio e diverso. Per capire come lavora il nuovo metodo ideato e realizzato anche grazie a ricercatori dell’Inaf, Media Inaf ne ha parlato con il primo autore, Stefano Cavuoti dell’Inaf di Napoli, ricercatore ed esperto di intelligenza artificiale, e con la coautrice Demetra De Cicco, ricercatrice dell’Università di Napoli Federico II.
Demetra De Cicco, ricercatrice dell’Università degli Studi di Napoli Federico II.
Nel vostro articolo presentate un nuovo metodo per l’identificazione di epoche problematiche nelle serie temporali astronomiche. Di quale serie temporali si tratta e cosa si intende per epoche problematiche?
[De Cicco] «Si tratta di osservazioni ripetute con un’elevata cadenza (circa ogni tre giorni, anche se divise in stagioni temporalmente separate) della stessa regione di cielo; dunque, le stesse sorgenti (o oggetti) vengono osservate ripetutamente, in tempi diversi. In totale possediamo oltre ventimila sorgenti con una cinquantina di osservazioni ciascuna, che diverranno di più non appena finiremo la riduzione dei dati. Nei dati astronomici possono esserci problemi, a volte relativi alla procedura che passa dal dato grezzo al dato anche detto ridotto su cui normalmente si lavora, ma per lo più dovuti a qualcosa che accade visivamente in prossimità dell’oggetto. Ad esempio, per le osservazioni da terra un tipico problema è il transito di un satellite o di qualche altro corpo celeste, che si manifesta con una traccia lineare nelle immagini. Questo transito nei casi peggiori può completamente coprire l’oggetto di interesse in una delle osservazioni, ma anche quando è solo relativamente vicino può andare a influenzare il calcolo del background o la fotometria di apertura, alterando la misura della magnitudine e quindi tutti i valori statistici che possiamo estrarre dalla curva di luce. In alcuni casi questo effetto è poco rilevante ma in alcuni casi può essere piuttosto evidente e falsare parzialmente l’analisi delle curve di luce stesse».
In che cosa consiste questo nuovo metodo che avete sviluppato?
[Cavuoti] «Il nostro metodo utilizza una metodologia dell’intelligenza artificiale chiamata transfer learning ovvero la capacità di trasferire parte di ciò che hanno imparato da un ambito a un altro. Vogliamo fare questa cosa perché come spesso si dice gli algoritmi di intelligenza artificiale sono buoni tanto quanto i dati con cui si vanno ad addestrare, frase che è in parte un’esagerazione ma non del tutto. Spesso in astrofisica uno dei problemi che si hanno applicando questo tipo di metodologie è proprio avere un insieme di dati abbastanza ampio e abbastanza ben definito da poterli applicare. Nella maggioranza dei casi abbiamo o insiemi di dati molto grandi ma con incertezze significative su “chi è cosa” oppure insiemi molto ben conosciuti ma di dimensioni relativamente piccole (per gli standard di questi algoritmi). La terza strada sono ovviamente le simulazioni che però pure sono soggette a criticità quando poi ci si confronta con il dato reale. In questo caso la dimensione della singola serie temporale è abbastanza ridotta, al di sotto del centinaio di epoche e rende problematico un addestramento specifico».
Stefano Cavuoti è un ricercatore dell’Osservatorio Astronomico di Capodimonte, esperto di Intelligenza Artificiale. Nel 2016 ha ricevuto il premio “Outstanding Publication in Astrostatistics PostDoc Award” dell’International Astrostatistics Association. È uno dei builder della missione Euclid. Crediti: S. Cavuoti
E come avete fatto?
[Cavuoti] «Abbiamo considerato un dataset molto noto e molto utilizzato nell’ambito dell’intelligenza artificiale: ImageNet. Si tratta di un insieme estremamente eterogeneo che contiene milioni di immagini suddivise in migliaia di categorie che vanno da cani, gatti, biciclette e auto. Su questo dataset si sono cimentati, e si cimentano ogni anno, alcuni tra i migliori metodi per la classificazione di immagini sviluppati nell’ambito dell’intelligenza artificiale. Noi siamo andati a considerare quello che è uno dei metodi che ha funzionato meglio EfficientNet-b0 e ne abbiamo estratto un pezzo».
Perché solo un pezzo? In che senso?
[Cavuoti] «Semplificando al massimo, praticamente tutti i metodi di intelligenza artificiale che lavorano sulla classificazione delle immagini sono composti da due parti: la prima, tramite la convoluzione con dei filtri (o Kernel) e tramite degli strati di compressione, estrae quelle che si chiamano in gergo feature e che sono dei parametri che rappresentano l’immagine. La seconda è il classificatore vero e proprio che lavora sulle feature estratte e può essere ad esempio una rete neurale. L’algoritmo da un lato deve imparare quali sono le feature più efficienti per effettuare il compito che gli è stato affidato (nel caso di ImageNet, classificare immagini), ossia deve imparare quali feature sono in grado di rappresentare in maniera quanto più efficace possibile l’immagine di partenza. Dall’altro, deve ottimizzare il processo di apprendimento vero e proprio del classificatore. Quello che andiamo a fare noi è eliminare la seconda parte dal sistema che ha imparato a classificare le immagini, lasciando solo quella di estrazione delle feature, sperando che la varietà delle immagini sia tale da permettere a queste feature di essere così generali da essere adeguate per descrivere anche le immagini astrofisiche».
Lo avete già testato su dati astronomici?
[De Cicco] «Sì, lo abbiamo utilizzato su un dataset di immagini prese da Vst (Vlt Survey Telescope) che sono per noi particolarmente interessanti perché sono uno dei pochi dataset che sarà confrontabile con i dati survey Lsst del Vera C. Rubin Observatory».
Alcune immagini problematiche identificate dal metodo presentato in questo articolo, che verrà illustrato anche al simposio Bridging Knowledge: Artificial Intelligence organizzato da Agenzia spaziale italiana questa settimana. Crediti: Cavuoti et al. 2024
Quali sono i vantaggi nella sua applicazione?
[Cavuoti] «Nel momento in cui i dati astronomici stanno aumentando sempre più, e in particolare le serie temporali che arriveranno da Lsst, non è ovviamente possibile analizzare le curve di luce una per una come magari si faceva in passato, attualmente nella maggior parte dei casi si fanno dei tagli – come ad esempio il sigma clip – che rimuovono alcuni valori estremi ma non riescono a individuare tutte le possibili problematiche che possiamo andare a trovare nelle immagini. Il nostro metodo, non cercando semplicemente un picco (o una valle) nella curva di luce, è in grado di identificare alcune di queste epoche che erano sfuggite, come ad esempio quelle che si possono vedere nella figura accanto».
Esistono limitazioni alla sua applicazione?
[De Cicco] «Sì, ci siamo resi conto che anche il nostro metodo da solo trascurava alcune epoche che invece il sigma clip riusciva a individuare (sebbene va detto che entrambi i metodi riescono a identificare agilmente tutte le epoche più catastrofiche). Abbiamo quindi deciso di applicarli in sequenza e, almeno nel dataset che abbiamo utilizzato per i test, dopo una lunga ispezione manuale non abbiamo trovato alcuna epoca problematica ulteriore da eliminare».
Per saperne di più:
- Leggi su arXiv il preprint dell’articolo in uscita su Astronomy & Astrophysics “Identification of problematic epochs in Astronomical Time Series through Transfer Learning” di Stefano Cavuoti, Demetra De Cicco, Lars Doorenbos, Massimo Brescia, Olena Torbaniuk, , Giuseppe Longo e Maurizio Paolillo
News Da Marte #28: Perseverance Ingenuity l Coelum Astronomia
Continua la nostra rassegna di aggiornamento delle news da Marte con Perseverance e Ingenuity#marte #Perseverance
Viaggio al termine della pipeline
Le unità di campo integrale combinano le capacità di imaging e spettroscopiche per acquisire una spettroscopia bidimensionale risolta spazialmente in una singola esposizione astronomica. Disperdendo la luce da elementi spaziali discreti del campo visivo, viene acquisita un’immagine della sorgente a ogni lunghezza d’onda e, in modo equivalente, uno spettro per ogni posizione spaziale. Crediti: Stsci
Lo studiano da così tanto tempo che ormai lo chiamano semplicemente il quasar. I suoi fotoni hanno viaggiato per 13 miliardi di anni. E alcuni di loro – i protagonisti dell’osservazione che stiamo per raccontarvi – una fine migliore non potevano farla: la loro avventura si è infatti conclusa, a circa un milione e mezzo di km dalla Terra, andando a impattare sull’unità a campo integrale (Ifu, Integral Field Unit) dello spettrografo NirSpec di Jwst, il telescopio spaziale Webb.
Questo avveniva fra il 22 e il 23 settembre 2022, durante le sette ore e mezza d’esposizione dedicate al Programma 1554, uno dei nove progetti a guida italiana del primo ciclo osservativo di Jwst. Il Programma 1554 è guidato da un ricercatore dell’Istituto nazionale di astrofisica, Roberto Decarli, e ha come obiettivo osservare la fusione fra la galassia che ospita il quasar – nome in codice, PJ308-21 – e due sue galassie satelliti. Per ottenere quelle sette ore e mezza di tempo del miglior telescopio spaziale mai realizzato, Decarli e la sua squadra si sono dati da fare per anni, e hanno dovuto superare una durissima selezione. D’altronde stiamo parlando di tempo davvero prezioso: volendo dargli un prezzo, oltre 200mila euro all’ora, dicono le stime. Detto altrimenti, il pacchetto di dati scientifici – uno fra i primi inviati a terra dal telescopio – contenente quelle sette ore e mezza d’osservazioni valeva più o meno un milione e mezzo di euro. Possiamo immaginare l’eccitazione con la quale Decarli e colleghi, appena saputo che era pronto per essere prelevato, lo hanno scaricato dall’archivio di Jwst e lo hanno aperto.
Il quasar – il loro quasar – era finalmente lì, nel disco del pc. Ed è da lì che ha inizio la seconda parte del viaggio dei suoi fotoni, divenuti a questo punto bit. Bit che solo poche persone al mondo sono in grado d’interpretare. Una di queste persone è Federica Loiacono, astrofisica che lavora con Decarli all’Inaf di Bologna. Ancora le vengono i brividi a ricordare quell’insolito unboxing. «All’inizio, quando sono arrivati i dati, non si capiva niente», dice a Media Inaf. «Non si vedeva proprio, questo quasar. Eravamo preoccupati. Ci siamo messi attorno a un tavolo per cercare di capire cosa c’era che non andava».
In realtà non c’era nulla che non andava. È solo che le osservazioni, in particolare queste spettroscopiche, non vengono servite bell’e pronte, chiavi in mano: richiedono una paziente opera di pulitura e ricostruzione, la cosiddetta riduzione. Una serie precisa di algoritmi da applicare a cascata che gli addetti ai lavori chiamano pipeline, nel corso della quale l’immagine – o meglio, in questo caso, lo spettro – pian piano emerge. È un po’ come quando si fa una risonanza magnetica: senza una complessa fase di post-processing, i dati acquisiti dai ricevitori sarebbero del tutto incomprensibili.
Se la pipeline di Jwst è dunque una sorta di bacchetta magica in grado di svelare l’autentico aspetto degli oggetti che si celano nel mare di zeri e di uni inviati dal telescopio, la sua Hermione – perlomeno qui in Italia, dov’è referente per la riduzione dei dati NirSpec al Jwst Support Center – è proprio Federica Loiacono. Originaria di Sannicandro di Bari, appassionata di fotografia e da qualche mese anche collaboratrice di Media Inaf, quando l’abbiamo raggiunta per farci raccontare la storia del “suo” quasar si trovava alle Hawaii, nella città di Hilo, alle pendici del vulcano Manua Kea, a insegnare ad alcuni astronomi che lavorano laggiù come si riducono i dati di Webb: una competenza che Loiacono si è costruita nel tempo, partendo da una serie di webinar organizzata dallo Space Telescope Science Institute di Baltimora, e che ora si sta rivelando preziosissima.
Spettro del quasar PJ308-21 ottenuto con lo strumento NirSpec di Webb. Si notano le quattro righe dell’idrogeno (H) alfa, beta, gamma e delta della serie di Balmer. Crediti: F. Loiacono et al., A&A, 2024
Ed è così che in pochi giorni, adattata la pipeline ad abili colpi di Python, Loiacono riesce a estrarre il grafico che vedete qui sopra. A noi può lasciarci del tutto indifferenti, ma per chi sa cosa significhi ottenere lo spettro del cuore di una galassia nata a ridosso del big bang, e distante oggi da noi decine di miliardi di anni luce, è qualcosa di arduo anche solo da descrivere.
«Quando ho visto le righe», dice Loiacono riferendosi ai picchi della curva nera, «sono rimasta impressionata. Lo abbiamo presentato a un workshop in Germania la settimana successiva, era la prima volta che venivano mostrati dati da Jwst di un quasar così distante, e sono rimasti tutti a bocca aperta: non s’era mai vista una cosa del genere. È una fra le prime volte in cui riusciamo a distinguere le righe H-alfa e H-beta in un oggetto a questa distanza. E quest’ultima è il tracciante principe per stimare la massa di un buco nero».
Le righe H-alfa e H-beta citate da Loiacono sono le firme della presenza, là attorno al buco nero supermassiccio che alimenta il quasar, di nubi di idrogeno. La riga H-beta, in particolare, è un indicatore molto affidabile per stimare la velocità alla quale il gas sta orbitando intorno al buco nero. E mettendo insieme raggio e velocità diventa possibile calcolare la massa di quell’antichissimo buco nero: il risultato, riportato questa settimana su Astronomy & Astrophysics in uno studio guidato da Loiacono e Decarli, dice 2.7 miliardi di masse solari. Confermando una precedente stima ottenuta da un’altra riga spettrale, quella del magnesio, osservata con Vlt, il Very Large Telescope dell’Eso.
Federica Loiacono, ricercatrice all’Inaf di Bologna e prima autrice dello studio su PJ308-21 in uscita su A&A, qui alle Hawaii davanti allo spettro del quasar da lei ottenuto usando i dati dello spettrografo NirSpec di Jwst. Crediti: F. Loiacono/Inaf
Un buco nero di mole spaventosa, per un’epoca così remota. Cresciuto dunque molto velocemente. Troppo, secondo alcuni modelli teorici. Ma l’incredibile nitidezza dello spettro di Webb non lascia scelta: se c’è qualcosa da rivedere, non sono i dati, piuttosto sono le teorie – alcune teorie, alcuni modelli, appunto.
«Paradossalmente, ottenere uno spettro così perfetto ci ha messo in crisi», spiega infatti Loiacono. «Trovare un modello che potesse riprodurre questi dati non è stato facile. Avendo questa forma estremamente definita, che sembra essa stessa un modello, ci ha dato del filo da torcere. Ci permette di escludere molti modelli, certo, e al tempo stesso ne mette in evidenza i limiti».
E a proposito di limiti: finora abbiamo parlato di un solo quasar. Per rimettere mani alla teoria occorrerà osservarne parecchi – sempre con Webb, sempre con il suo impareggiabile strumento NirSpec. «La nostra speranza è di poter ripetere lo studio su un’altra ventina di oggetti simili», conclude Loiacono. La pipeline è già lì pronta, non aspetta altro.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “A quasar-galaxy merger at z∼2: black hole mass and quasar properties from the NIRSpec spectrum”, di Federica Loiacono, Roberto Decarli, Marco Mignoli, Emanuele Paolo Farina, Eduardo Bañados, Sarah Bosman, Anna-Christina Eilers, Jan-Torge Schindler, Michael A. Strauss, Marianne Vestergaard, Feige Wang, Laura Blecha, Chris L. Carilli, Andrea Comastri, Thomas Connor, Tiago Costa, Massimo Dotti, Xiaohui Fan, Roberto Gilli, Hyunsung D. Jun, Weizhe Liu, Alessandro Lupi, Madeline A. Marshall, Chiara Mazzucchelli, Romain A. Meyer, Marcel Neeleman, Roderik Overzier, Antonio Pensabene, Dominik A. Riechers, Benny Trakhtenbrot, Maxime Trebitsch, Bram Venemans, Fabian Walter e Jinyi Yang
Tre lampi gamma al rallentatore cosmologico
Carlo Luciano Bianco, ricercatore all’Icranet e primo autore dello studio pubblicato su ApJ
I lampi di raggi gamma – o Grb, dall’inglese gamma ray burst – hanno una caratteristica antipatica, dal punto di vista di chi si trova a studiarli: durano quanto un lampo, appunto. Come il lampo di Pascoli, quello che “s’aprì si chiuse, nella notte nera”. Dunque per analizzarli fin dagli esordi occorre coglierli nel tratto – perlopiù brevissimo – fra la loro comparsa e la loro scomparsa. Come fare? Occorrono telescopi rapidissimi, telescopi spaziali come Swift, pronti a reagire senza indugio al cosiddetto trigger, l’istante in cui la sorgente del Grb preme il grilletto. Ma viene in aiuto anche la Natura: grazie a un fenomeno noto come dilatazione cosmologica del tempo – cosmological time dilation, in inglese – che consente di osservare eventi molto distanti al rallentatore. Permettendo così di guadagnare secondi preziosi.
Ed è proprio avvalendosi di questo effetto che un team di ricercatori guidato dall’Icranet di Pescara, fra i quali Massimo Della Valle dell’Inaf, ha studiato attentamente 368 Grb osservati da Swift tra il 2005 e il 2023. Concentrandosi in particolare su tre fra i più lontani, e dunque più rallentati, sono riusciti a ricostruire uno scenario che unifica i progenitori dei Grb “lunghi”, quelli di solito associati al collasso di una stella di grande massa, e dei Grb “corti”, associati invece alla fusione di stelle di neutroni. Entrambi potrebbero avere un’origine comune: un sistema binario di stelle massicce. In che modo? Lo abbiamo chiesto al primo autore dello studio pubblicato la settimana scorsa su ApJ, Carlo Luciano Bianco – nato a Roma nel 1977 «da genitori entrambi chimici, quindi io sono la pecora nera della famiglia», dice a Media Inaf, e con «un figlio che per il momento è ancora troppo piccolo per interessarsi a questi problemi».
Il vostro studio si basa su un fenomeno fisico, la dilatazione cosmologica del tempo, grazie al quale più un processo è avvenuto lontano nello spaziotempo e più lo vediamo accadere rallentato. È così? E rallentato quanto, nel caso dei vostri Grb – i tre lampi gamma sui quali vi siete concentrati?
«Sì, è precisamente così. A causa dell’espansione dell’universo, quanto più un fenomeno si svolge lontano da noi tanto più lo vediamo “rallentato”. Se il fenomeno dura un tempo t, a noi appare durare un tempo t moltiplicato per (1+z), dove z è un numero corrispondente al cosiddetto redshift cosmologico del punto in cui il fenomeno si sviluppa: più è distante da noi, più z aumenta. I Grb sono tra gli oggetti più luminosi dell’universo, se i nostri occhi potessero vedere nei raggi gamma ci abbaglierebbero. Quindi li possiamo vedere anche a distanze molto grandi, fin quasi a z=10, corrispondente a poche centinaia di milioni di anni dopo il Big Bang, per capirci. Per un Grb a z=3, per esempio, vediamo l’emissione durare il quadruplo di quello che è durata in realtà, essendo 1+z=4. I tre Grb analizzati in dettaglio nel nostro articolo, che si trovano a z=4.6, z=8.2 e z=9.4, li vediamo rallentati rispettivamente di 5.6, 9.2 e 10.4 volte».
Questo rallentamento cosmologico è un fenomeno che riguarda solo i Grb o è comune a tutti i processi osservati ad alto redshift?
«È un effetto di cosmologia assolutamente generale, non riguarda un oggetto specifico. Qualsiasi fenomeno osservato a un redshift z ci appare rallentato di un fattore 1+z. Si vede molto bene nei Grb perché li osserviamo a grande distanza. Ma anche, ad esempio, nelle supernove che osserviamo tra z=0.5 e z=1 l’effetto è ben visibile».
Veniamo allo strumento da voi utilizzato, il telescopio spaziale Swift. Il suo limite, scrivete, è che, per quanto sia velocissimo, dal momento del trigger – vale a dire, da quando si accorge del lampo gamma – impiega circa 40 secondi per puntare verso la sorgente. In che modo la dilatazione cosmologica del tempo lo aggirerebbe? Voglio dire, se il tempo apparisse rallentato dieci volte vi perdereste comunque i primi 4 secondi…
«Va anzitutto ricordato che Swift ha portato una vera e propria rivoluzione nel settore. Basti pensare che prima di Swift il tempo necessario a ripuntare un Grb per osservarlo nei raggi X era di almeno 8 o 10 ore. Grazie a Swift è sceso di colpo a qualche decina di secondi, e questo ci ha permesso di scoprire una quantità impressionante di fenomeni che si svolgono nei raggi X nelle prime decine di minuti di un Grb. Chiaramente, da bravi astrofisici, chiediamo sempre la Luna, e quindi adesso vogliamo cercare di arrivare a osservare nei raggi X il più vicino possibile al momento dell’esplosione. Nel nostro articolo facciamo appunto vedere che già adesso, grazie all’effetto di dilatazione cosmologica del tempo, per i Grb più lontani possiamo arrivare a osservare con Swift nei raggi X fino a quasi 7 secondi dopo l’esplosione. Ci perdiamo ancora qualche secondo, certamente, ma per fare meglio di così servirà aspettare le prossime missioni spaziali attualmente in fase di progettazione».
Infografica sull’origine dei Grb lunghi (a sinistra), di durata superiore a due secondi, e corti (a destra), di durata inferiore. Crediti: Nasa
Voi non siete i primi a usare la dilatazione cosmologica del tempo per lo studio dei Grb: cosa vi ha permesso di scoprire di nuovo, che non si sapesse già prima? E perché sarebbe utile ai fini dell’altro risultato che presentate nell’articolo, quello sui progenitori dei Grb short – i lampi di raggi gamma corti?
«Per capirlo dobbiamo fare una piccola digressione. Tradizionalmente, i Grb sono classificati in “lunghi” e “corti”, a seconda che il lampo iniziale nei raggi gamma sia visto durare più o meno di due secondi. Il modello che inizialmente si era imposto come “standard” prevedeva che i Grb lunghi avessero origine nel collasso di stelle massicce singole, mentre i corti nella coalescenza di sistemi binari. In questo modello, sia l’emissione iniziale nei raggi gamma che quella successiva nei raggi X hanno origine dall’espansione di un plasma ultrarelativistico formatosi rispettivamente nel collasso o nella coalescenza. Il modello che stiamo sviluppando noi, invece, prevede che tutti i Grb, sia corti che lunghi, abbiano origine in sistemi binari. In particolare, nel caso dei lunghi, il sistema progenitore è formato da una stella massiccia prossima all’esplosione come ipernova e da una stella di neutroni compagna. Quello che si realizza è un vero e proprio “ping-pong” tra le due: la prima esplode come ipernova, forma una nuova stella di neutroni e trasferisce materia alla stella di neutroni compagna, che a sua volta può collassare a buco nero e produrre l’esplosione del lampo di raggi gamma. L’emissione X che si osserva subito dopo questo lampo, in questo modello, proviene dalla nuova stella di neutroni che si è appena formata nell’esplosione dell’ipernova. Pertanto, è fondamentale poter osservare l’emissione X il prima possibile, per verificare che ci troviamo effettivamente di fronte all’emissione di una stella di neutroni appena formata e poter discriminare tra i vari modelli».
Mi sto perdendo… quanti Grb producono, queste binarie di stelle massicce?
«Un sistema binario può produrre un’ipernova, un Grb lungo e infine, eventualmente, un Grb corto. Il fatto è che, dopo il ping-pong che dicevamo prima, in cui si formano un’ipernova e un Grb lungo, può rimanere un sistema binario formato dalla nuova stella di neutroni e dalla vecchia compagna – che potrebbe essere diventata un buco nero oppure essere rimasta una stella di neutroni più massiccia di prima, seconda di quanta massa ha preso dalla compagna. Dico “può rimanere” perché può anche darsi che nell’esplosione di ipernova e Grb lungo il sistema si separi e i due oggetti non siano più legati. Se però rimangono legati in un sistema binario, questo in seguito può coalescere, formando un Grb corto».
Quali sono i tempi di questa sequenza? Intendo dire, quant’è l’intervallo fra una racchettata e l’altra del “ping pong”? E fra il Grb lungo e quello corto?
«Per quanto riguarda la durata del “ping pong”, nel modello che stiamo sviluppando l’intervallo di tempo tra l’esplosione dell’ipernova e quella del Grb è dell’ordine di qualche secondo, al limite magari una decina o giù di lì. Ma tutto quello che vediamo del momento dell’esplosione dell’ipernova è un primo lampo nei raggi gamma – quello che nell’articolo chiamiamo supernova rise, o episodio 1. L’emissione ottica dell’ipernova è dovuta a processi molto più lenti e diventa visibile solo una decina di giorni dopo. Quindi il “ping pong” nelle osservazioni tra l’emissione di una stella e l’emissione dell’altra in realtà continua a lungo. L’eventuale Grb corto successivo, invece, nel caso in cui si verificasse, potrebbe avvenire dopo un tempo dell’ordine di milioni o miliardi di anni… in altre parole, io non rimarrei qui fermo ad aspettare».
C’è una cosa che continua a non essermi chiara: a cosa è servito l’effetto della dilatazione cosmologica del tempo ai fini del vostro studio?
«Le osservazioni dell’emissione X nei primi secondi servono proprio per poter confermare lo scenario che ho appena descritto. Ma il legame è anche un altro, e ben rappresenta il modo in cui certi risultati vengono ottenuti».
Cioè?
«Praticamente, stavamo lavorando su quelle tre sorgenti ad alto redshift, per studiare i primi secondi dell’emissione X sfruttando la dilatazione dei tempi cosmologica. A quel punto ci siamo detti: ma per quante altre sorgenti potremmo fare questa analisi? E così abbiamo analizzato tutti i quasi 400 Grb con redshift misurato visti da Swift dal 2005 a fine 2023, e abbiamo visto che per una gran parte di essi l’effetto di dilatazione dei tempi è molto evidente. Ma, una volta che abbiamo avuto tra le mani questo campione di quasi 400 Grb con redshift misurato, ci è venuta l’idea di vedere la distribuzione dei redshift, dividendo il campione nelle diverse famiglie di Grb previste dal nostro modello. In questo modo ci siamo resi conto che queste distribuzioni supportavano un’ipotesi che avevamo proposto anni fa».
Quale?
«L’idea che i Grb lunghi potessero produrre sistemi binari a loro volta sorgenti di Grb corti. Non ci siamo ovviamente fermati qui, e un nuovo articolo dedicato ad approfondire questo aspetto è già in fase di referaggio. Ma il risultato era troppo interessante per non annunciarlo fin da subito, anche in considerazione del fatto che era stato ottenuto proprio come effetto collaterale dell’analisi dei Grb ad alto redshift presentata nel nostro articolo».
Un’ultima cosa: scrivete che il vostro studio evidenzia l’importanza di future missioni, come Theseus, in grado di osservare le emissioni gamma e X sin dal trigger del Grb – da quando il lampo gamma viene emesso, dunque. Però mi pare d’aver letto che Theseus sarà forse persino più lento di Swift, nelle manovre di puntamento. Perché dovrebbe dunque portare a risultati migliori?
«Il punto centrale è il campo di vista dello strumento. Il telescopio Xrt a bordo di Swift ha un campo di vista molto ristretto, quindi è sempre necessario effettuare un puntamento per poter osservare una sorgente. Nel caso di Theseus, invece, il campo di vista è molto più ampio e quindi potrebbe osservare un segnale senza doverlo ripuntare, semplicemente perché il segnale è capitato già nel campo di vista dello strumento. Per usare un’analogia con il mondo della fotografia, Swift ha un teleobiettivo, mentre con Theseus avremo a disposizione un grandangolo che ci permetterà di osservare il segnale fin dall’inizio, semplicemente perché sarà nel campo di vista dello strumento fin dall’inizio».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Probing electromagnetic-gravitational wave emission coincidence in type I binary-driven hypernova family of long GRBs at very-high redshift”, di C.L. Bianco, M.T. Mirtorabi, R. Moradi, F. Rastegarnia, J.A. Rueda, R. Ruffini, Y. Wang, M. Della Valle, Liang Li e S.R. Zhang
BepiColombo, abbiamo un problema di propulsione
Essenziali la nota stampa, e il tweet, pubblicati dall’Esa, l’Agenzia spaziale europea, riguardo il problema ai propulsori emerso durante l’ultima manovra di BepiColombo. Poco tradiscono sull’effettiva gravità della situazione e, soprattutto, sulla possibilità di recuperare la piena funzionalità in vista dell’ultimo anno e mezzo di viaggio prima dell’inserimento in orbita attorno a Mercurio, previsto per dicembre 2025.
The ESA/JAXA BepiColombo mission to Mercury has experienced a technical issue that is preventing its thrusters from operating at full power.Top spaceflight experts from ESA and its partners are working the problem, but the long-term impact on the mission is uncertain.
Details:… pic.twitter.com/vt89lFDbdT
— ESA Operations (@esaoperations) May 15, 2024
Il problema, secondo quanto riportato dall’Agenzia, sarebbe emerso il 26 aprile durante una manovra orbitale, quando il modulo responsabile del trasporto non sarebbe riuscito a fornire sufficiente energia elettrica ai propulsori della sonda. BepiColombo è una missione congiunta dell’Esa e dell’agenzia spaziale giapponese Jaxa formata da tre unità: due orbiter (il Mercury Magnetospheric Orbiter della Jaxa, e il Mercury Planetary Orbiter dell’Esa), e un modulo responsabile del trasporto, il Mercury Transport Module (Mtm), che utilizza una combinazione di propulsione elettrica e spinta gravitazionale.
«Durante l’utilizzo della propulsione elettrica abbiamo riscontrato un problema per cui il satellite non è stato in grado di fornire tutta la potenza elettrica necessaria», spiega a Media Inaf Andrea Accomazzo, responsabile della Divisione missioni interplanetarie al centro di controllo dell’Esa a Darmstadt, dal quale si controllano le operazioni di volo e le manovre orbitali di BepiColombo. «Questo ha causato uno spegnimento della propulsione elettrica, come previsto in questi casi. Questi archi di propulsione elettrica fanno parte delle manovre necessarie per guidare la sonda nel suo avvicinamento a Mercurio. La situazione è stata temporaneamente stabilizzata riducendo il livello di spinta dei motori e altri carichi elettrici del satellite, così da avere una fornitura di potenza stabile. In assenza di altri problemi, questa soluzione è in grado di raggiungere le condizioni orbitali per effettuare i tre passaggi gravitazionali con Mercurio previsti tra settembre e gennaio. Le investigazioni per capire l’origine del problema riscontrato continuano con il supporto necessario. Occorrerà del tempo per avere un quadro più preciso della situazione».
Le componenti della navicella BepiColombo. Dal basso verso l’alto: modulo di trasferimento di Mercurio, orbiter planetario di Mercurio, schermo solare e struttura di interfaccia e orbiter magnetosferico di Mercurio. Le navicelle sono mostrate con gli array solari e gli strumenti dispiegati. Crediti: Esa/Atg medialab
Il team dell’Esa a Darmstadt sta lavorando assieme ai partner industriali da fine aprile per risolvere il problema in vista delle prossime manovre orbitali. Sono riusciti, entro il 7 maggio, a riportare la spinta di BepiColombo a circa il 90 per cento del suo livello precedente. Tuttavia, la potenza disponibile del modulo di trasferimento è ancora inferiore a quella che dovrebbe essere, cosa che impedisce di ripristinare la spinta completa.
«La situazione al momento è sotto controllo e i motori stanno funzionando quasi a pieno regime, una leggera riduzione della potenza che non mette a rischio il prossimo flyby a settembre», rassicura Gabriele Cremonese, responsabile scientifico dello strumento Symbio-Sys a bordo di BepiColombo. Il flyby di cui parla è quello che sta portando la sonda a incontrare nuovamente Mercurio per la sua quarta manovra di assistenza gravitazionale. Mentre, come dicevamo, l’inserimento in orbita attorno al pianeta è previsto per la fine del 2025, con l’inizio delle operazioni scientifiche nella primavera 2026. «Come in tutte le risorse e sistemi di una missione spaziale ci sono dei margini, e quindi anche per la potenza dell’Mtm (il modulo di trasferimento responsabile della propulsione, ndr). Esa e le aziende coinvolte stanno lavorando per ottimizzare la potenza anche includendo i margini. In questo momento non sono previste variazioni nelle attività degli strumenti».
«I rischi associati a questo problema potrebbero anche avere effetti sulla definizione della missione», conclude Accomazzo, «pertanto richiedono massima attenzione e prudenza da parte nostra». Insomma, per il momento si lavora di conserva, e la fattibilità delle prossime manovre sembra non essere in discussione. L’Esa fa sapere che pubblicherà nuovi aggiornamenti non appena ci saranno avanzamenti di rilievo sui lavori.
Com’è fatto BepiColombo? Guarda il servizio di MediaInaf Tv:
youtube.com/embed/VQuSiLRhUsE?…
Speculoos-3 b, un pianeta simile alla Terra
Rappresentazione artistica dell’esopianeta Speculoos-3 b in orbita attorno alla sua stella. Il pianeta è grande come la Terra, mentre la sua stella è leggermente più grande di Giove, ma molto più massiccia. Crediti: Lionel Garcia.
È bene dirlo subito: non è un pianeta adatto alla vita. Nonostante sia roccioso e simile per dimensioni alla Terra, il pianeta scoperto dal progetto Speculoos non ha le caratteristiche giuste per ospitare la vita. Ma si tratta comunque di una scoperta importante nella ricerca di pianeti potenzialmente abitabili, perché ha centrato in pieno l’obiettivo del progetto: trovare pianeti di tipo terrestre attorno a stelle nane ultrafredde.
Forse ricorderete il sistema planetario Trappist-1, il primo ad essere scoperto attorno a una stella dello stesso tipo, e che quanto a ricchezza – con i suoi sette pianeti terrestri – ha davvero esagerato. Il progetto Speculoos – letteralmente Search for Planets Eclipsing Ultra-cool Stars, e sì, il nome vuole ricordare i biscottini alla cannella – guidato dall’astronomo Michaël Gillon dell’Università di Liegi, è il suo erede più diretto. Il progetto è infatti nato nel 2017 con l’intento di cercare esopianeti intorno alle stelle nane ultrafredde più vicine usando come prototipo il telescopio Trappist.
La stella in questione si trova a 55 anni luce dalla Terra, ha dimensioni simili a Giove, è calda meno della metà del Sole, dieci volte meno massiccia e cento volte meno luminosa. Vivrà però circa cento volte più a lungo, tanto che stelle come questa si pensa rimarranno le ultime a brillare quando l’universo diventerà freddo e buio. Non si tratta di una categoria di stelle particolare, anzi, sono piuttosto comuni, ma è difficile osservarle perché sono – appunto – poco luminose e dunque poco visibili. E poco si sa anche dei loro pianeti, sebbene si ritenga che rappresentino una frazione significativa della popolazione planetaria della Via Lattea.
Per avere buone possibilità di individuare un transito di pianeti attorno a stelle nane ultrafredde, occorre osservarle una per una, per intere settimane. Cosa che richiede una rete dedicata di telescopi robotici professionali. Per questo gli astronomi dell’Università di Liegi hanno dato il via al progetto Speculoos (cominciato a livello prototipale con Trappist), gestito congiuntamente dalle università di Liegi, Cambridge, Birmingham, Berna, Mit ed Eth Zürich. I quattro telescopi robotici da un metro di diametro della rete australe del progetto Speculoos si trovano a Cerro Paranal, in Cile, a oltre 2500 metri di altezza s.l.m., e osservano il cielo alle lunghezze d’onda del vicino infrarosso. Il loro primo pianeta scoperto, di cui si parla in un articolo pubblicato oggi da Nature Astronomy, si chiama Speculoos 3-b.
«Ha praticamente le stesse dimensioni del nostro pianeta», spiega l’astronomo Michaël Gillon, primo autore dell’articolo e guida del progetto. «Un anno, cioè un’orbita intorno alla stella, dura circa 17 ore. I giorni e le notti, invece, sembra non finiscano mai. Riteniamo infatti che il pianeta ruoti attorno alla stella in modo sincrono, ovvero rivolgendo a essa sempre lo stesso lato – il lato a giorno appunto, proprio come fa la Luna per la Terra. Il lato notturno, invece, rimane bloccato in un’oscurità senza fine».
La stella Speculoos-3 è di gran lunga più fredda rispetto al Sole: ha una temperatura media di circa 2.600 gradi. A causa della sua orbita iper-corta, il pianeta riceve dalla sua stella ogni secondo un’energia quasi sedici volte superiore a quella che riceve la Terra dal Sole, ed è quindi letteralmente bombardato da radiazioni ad alta energia. È improbabile – ritengono i ricercatori – che in condizioni simili si possa sviluppare un’atmosfera attorno al pianeta. Così come è improbabile che possa sviluppare e sostenere qualunque forma di vita. Rimane però un pianeta interessante da studiare anche con il telescopio spaziale Webb, pensano gli autori, che potrebbe vederne la mineralogia e approfittare dell’assenza dell’atmosfera per studiare più approfonditamente la sua stella. Per candidati più promettenti per la vita, invece, bisognerà attendere le prossime rilevazioni.
Per saperne di più:
- Leggi su Nature Astronomy l’articolo “Detection of an Earth-sized exoplanet orbiting the nearby ultracool dwarf star SPECULOOS-3“, di Michaël Gillon e tutta la collaborazione Speculoos
Estrellas Compartidas ☮️ likes this.