Salta al contenuto principale


Nuclei d’antimateria esotica, ecco i più massicci


18562257
18562259
Immagine composita del rivelatore Star, presso il Relativistic Heavy Ion Collider (Rhic) del Brookhaven National Laboratory, e un esempio delle tracce di particelle che rileva emergere da una collisione oro-oro. Crediti: Joe Rubino e Jen Abramowitz/Brookhaven National Laboratory

Di antimateria nell’universo ce n’è poca, pochissima, per quanto ne sappiamo. E quella poca che conosciamo è molto light: niente “antistelle” né “antipianeti”, almeno per ora, ma nemmeno atomi dal nucleo un po’ corposo come potrebbero essere quelli di antiferro o anticarbonio. Quando maneggiamo concretamente antimateria si tratta sempre di particelle leggerissime, perlopiù positroni – dunque particelle di massa pari a quella degli elettroni. In casi eccezionali si arriva ad atomi di anti-idrogeno e anti-elio. Ed è di questi giorni la scoperta dei più massicci ipernuclei di antimateria mai osservati: sedici particelle di anti-iperidrogeno-4 prodotte al Relativistic Heavy Ion Collider (Rhic) del Brookhaven National Laboratory di Long Island, negli Stati Uniti.

Formato da un anti-protone, due anti-neutroni e un anti-iperone lambda (gli iperoni sono barioni nei quali sono presenti quark strange, e quello lambda, in particolare, è formato da un quark up, uno down e uno strange), il nucleo di anti-iperidrogeno-4 descritto la scorsa settimana su Nature da un team guidato da ricercatori della Star Collaboration ha una vita brevissima, ma nei pochi centimetri che è riuscito a percorrere prima di decadere ha lasciato tracce sufficienti a individuarlo e caratterizzarlo.

«Dopo aver analizzato i dati sperimentali di circa 6,6 miliardi di eventi di collisione tra ioni pesanti», spiega Wu Junlin dell’Istituto di fisica moderna dell’Accademia cinese delle scienze, «abbiamo ricostruito l’anti-iperidrogeno-4 dai suoi prodotti di decadimento, l’anti-elio-4 e il mesone π+, e abbiamo identificato un segnale di circa sedici anti-iperidrogeno-4».

18562261
Rappresentazione artistica dell’anti-iperidrogeno-4 (un ipernucleo di antimateria composto da un antiprotone, due antineutroni e una particella antilambda) creato dalla collisione di due nuclei d’oro (a sinistra). Crediti: Istituto di fisica moderna (Cina)

Un’impresa tutt’altro che semplice. Affinché il segnale di cui parla Wu sia rilevabile è infatti necessario che tutti e quattro gli ingredienti dell’anti-iperidrogeno-4 (l’anti-protone, i due anti-neutroni e l’anti-iperone lambda) vengano emessi dalla zuppa di quark e gluoni generata nelle collisioni all’interno di Rhic nel posto giusto, nella stessa direzione e al momento giusto per aggregarsi in uno stato temporaneamente legato.

«È solo grazie al caso che le quattro particelle costituenti emergono dalle collisioni di Rhic abbastanza vicine da potersi combinare e formare questo anti-ipernucleo», sottolinea Lijuan Ruan del Brookhaven National Laboratory, una delle co-spokespersons della Star Collaboration.

Sedici anti-iperidrogeno-4, dicevamo. O meglio, circa sedici. La ragione dell’incertezza sta nel fatto che si tratta di una stima. L’analisi dei segnali prodotti dalle collisioni ha infatti portato alla scoperta di 22 eventi candidati, con un conteggio di fondo stimato a 6,4. «Questo significa che circa sei di quelli che sembrano decadimenti dell’anti-iperidrogeno-4 potrebbero essere solo rumore casuale», spiega Emilie Duckworth, dottoranda alla Kent State University (Usa), responsabile della correttezza del software utilizzato per passare al vaglio gli eventi. Ecco così che, sottraendo ai 22 eventi candidati il rumore di fondo, gli autori dell’esperimento arrivano a concludere di aver rivelato circa 16 nuclei anti-iperidrogeno-4 effettivi.

Aver rivelato le particelle di anti-iperidrogeno-4 ha consentito di confrontarne il tempo di vita media con quello delle corrispondenti particelle di materia ordinaria, l’iperidrogeno-4, e anche con quello di un’altra coppia di ipernuclei, l’ipertritone e l’anti-ipertritone. In nessun caso sono emerse differenze significative.

Un risultato che conferma dunque la correttezza degli attuali modelli. «Se dovessimo osservare una violazione di questa particolare simmetria», dice infatti Duckworth, «in pratica dovremmo buttare alle ortiche molte delle nostre conoscenze sulla fisica». Il prossimo passo sarà la misura della differenza fra la massa delle antiparticelle e quella delle corrispondenti particelle.

Per saperne di più:



Le stelle Wolf-Rayet non brillano da sole


Da un’analisi ai raggi X condotta con il telescopio spaziale Chandra sulla popolazione di stelle di Wolf-Rayet dell’ammasso stellare supermassiccio Westerlund 1 è emerso che più del 90 per cento, se non tutte, sono in sistemi binari o multipli. Lo studio,

18539091
18539093
Immagini ai raggi X delle stelle di Wolf-Rayet di Westerlund 1. La dimensione di ogni pannello è di 10×10 arcosecondi, che alla distanza di Westerlund 1 corrispondono a una dimensione di 0.7 anni luce. Il colore usato codifica l’energia dei fotoni osservati in ogni sorgente: in rosso i fotoni con un’energia compresa tra 0.5 e 2.0 keV, in verde tra 2.0 e 4.0 keV e in blu tra 4.0 e 8.0 keV. Il cerchio giallo mostra la posizione della sorgente di raggi X, mentre in magenta è indicata la regione attorno alla sorgente usata per misurare le proprietà dei fotoni osservati. Crediti: K. Anastasopoulou et al., A&A, 2024

Le stelle di grande massa vivono una vita breve e violenta. Soprattutto durante le fasi finali della loro evoluzione, queste stelle attraversano profonde trasformazioni della loro struttura e disperdono nell’ambiente circostante una grande quantità di massa sotto forma di venti stellari. In particolare, durante la fase di Wolf-Rayet, che dura solo poche centinaia di migliaia di anni, le stelle espellono completamente gli strati esterni ricchi di idrogeno in violenti venti che raggiungono velocità di duemila km/s, esponendo gli strati interni caldi (oltre ventimila gradi) ricchi di elio, azoto, carbonio e altri elementi pesanti sintetizzati all’interno della stella.

Le stelle di Wolf-Rayet sono oggetti di grande interesse per vari motivi. Questa breve fase, infatti, determina il futuro della stella e il tipo di oggetto compatto che essa formerà al termine della sua evoluzione. Inoltre, a causa delle temperature superficiali così elevate, queste stelle producono flussi intensi di radiazione ultravioletta che, insieme ai venti violenti, hanno un impatto importante sull’ambiente circostante.

Considerando il numero ridotto di stelle di grande massa e la brevità della fase di Wolf-Rayet, non sorprende che questo tipo di stelle sia in realtà molto raro. Il catalogo di stelle di Wolf-Rayet curato dall’Università di Sheffield e costantemente aggiornato conta infatti solamente 669 stelle, identificate nella Via Lattea e nelle galassie vicine. Il campione coevo di stelle di Wolf-Rayet più ricco nella nostra galassia è costituito dalle 24 stelle associate all’ammasso stellare supermassiccio Westerlund 1, oggetto del progetto Ewocs (Extended Westerlund 1 and 2 Open Cluster Survey), guidato da chi scrive.

18539095
Konstantina Anastasopoulou (Inaf Palermo). Crediti: Inaf Palermo

Lo studio delle 24 stelle di Wolf-Rayet di Westerlund 1 è l’oggetto di un articolo – in uscita su Astronomy & Astrophysics – guidato dall’astrofisica Konstantina Anastasopoulou dell’Inaf di Palermo, ora in forza all’Harvard-Smithsonian Center for Astrophysics di Cambridge (Usa). Dall’analisi di un’osservazione ai raggi X di Westerlund 1 con il telescopio Chandra della Nasa, durata più di 305 ore, il team autore dell’articolo ha studiato i fenomeni ad alta energia che avvengono in queste stelle. In particolare, l’analisi temporale (ossia lo studio di come varia nel tempo il flusso di radiazione emesso dalle sorgenti) mostra in molti casi delle variabilità periodiche tipiche dei sistemi binari (sistemi di due stelle in orbita l’una attorno all’altra). D’altro canto, dall’analisi spettrale (ossia dallo studio della distribuzione di energia dei fotoni ai raggi X delle sorgenti catturati dal telescopio) è emerso che in tutte queste stelle è presente plasma a temperature superiori ai dieci milioni di gradi. Questo plasma si può generare solo nella regione compresa tra due stelle in un sistema binario massiccio, dove i venti delle due stelle impattano l’uno contro l’altro, trasformando l’energia cinetica in calore.

Risulta quindi che tutte le stelle di Wolf-Rayet di Westerlund 1 sono componenti di sistemi binari con altre stelle di grande massa. Questa scoperta implica che la binarietà in sistemi massicci ha giocato un ruolo importante nella formazione delle stelle di Wolf-Rayet di Westerlund 1, determinandone il percorso evolutivo.

«Studiare le proprietà ai raggi X di questa eccezionale popolazione di stelle Wolf-Rayet con tale livello di dettaglio non sarebbe stato possibile in un ammasso stellare così denso senza le capacità dell’osservatorio a raggi X Chandra», dice Anastasopoulou. «L’analisi spettrale di queste stelle Wolf-Rayet ha rivelato, per la prima volta, la presenza di plasma termico molto caldo riscaldato da shock, che potrebbe originarsi solo in una zona dove il vento di una stella Wolf-Rayet collide con il vento di un’altra stella massiccia. Combinando questi risultati con studi precedenti siamo giunti alla conclusione che più del 90 per cento, se non tutte, le stelle Wolf-Rayet in Westerlund 1 sono in sistemi binari o multipli. Questo è un risultato entusiasmante poiché suggerisce che o tutte le stelle si formano in sistemi binari e multipli, o che questo potrebbe essere un percorso di formazione unico per le stelle Wolf-Rayet. Tuttavia, questo risultato solleva domande intriganti sui percorsi di formazione delle stelle negli ammassi di stelle massicce»

Per saperne di più:



La Stella Polare è a pois


Un gruppo di astronomi guidati da Nancy Evans dello Smithsonian Astrophysical Observatory ha osservato la superficie della Stella Polare, rivelando numerose macchie. Le immagini sono state ottenute utilizzando il Chara Array. Le stesse osservazioni hanno

18451409
18451411
Al centro, la Stella Polare. Crediti: Kush Chandaria/Wikimedia Commons

Riferimento imprescindibile per gli abitanti dell’emisfero boreale, dal navigatore antico che solcava i mari nelle tenebre al neofita che si cimenti con i rudimenti delle costellazioni, la Stella Polare è forse dopo il Sole l’astro più noto del firmamento. A onor del vero, non particolari meriti detiene la suddetta stella, se non quello di trovarsi nell’epoca attuale, per una mera coincidenza cosmica, a soli 0.7 gradi dal Polo nord celeste – proiezione del Polo nord terrestre sul firmamento. Circostanza che la rende, sola fra tutte, praticamente ferma e coincidente con il nord alla vista limitata degli umani, gemma incastonata nella sfera celeste, incurante della danza delle costellazioni che si avvicendano nel cielo notturno nel corso dell’anno. Dall’altra parte della Terra tale fortunata coincidenza non si è verificata, cosicché le genti dell’emisfero australe hanno dovuto utilizzare un’intera costellazione – la Croce del Sud – come surrogato per localizzare, con indubbia maggiore incertezza, il meridione.

Sommità della coda dell’Orsa Minore e stella più brillante di tale costellazione, avvalendoci di potenti telescopi, strabilianti dettagli che mai sospetteremmo si scoprono in questo astro noto da secoli. Intanto non è ferma, ma proprio per nulla, come ogni corpo celeste che popoli la nostra e ogni altra galassia dell’universo. Ed è pure in compagnia, ma non di chi penseremmo. Le stelle dell’Orsa Minore sono infatti solo apparenti vicine di casa, essendo astri che nulla hanno a che vedere fra di loro e che l’essere umano ha unito da linee e vicende leggendarie in maniera, dovremo ammettere, sfacciatamente arbitraria. Qui invece si parla proprio di stelle che qualcosa da condividere ce l’hanno davvero, prima fra tutte l’interazione gravitazionale che lega i destini dei corpi celesti coinvolti in orbite più e meno eccentriche. Non solitaria come il nostro Sole ma scortata da ben due stelle compagne si presenta la nota stella, più piccine in massa e luminosità e dunque celate alla nostra vista. Come se non bastasse, regolari pulsazioni scuotono quest’astro, con un periodo di circa quattro giorni, a seguito di una variazione periodica di dimensioni e temperatura. E adesso si scopre pure che non omogenea e liscia appare la sua superficie bensì coperta di macchie.

18451413
La Stella Polare vista dal Chara Array nell’aprile 2021. Numerose macchie, sia chiare che scure, ricoprono la superficie della stella. L’immagine è a falsi colori. Crediti: Evans et al., ApJ, 2024

La scoperta è stata realizzata da un gruppo di ricercatori guidati da Nancy Evans dello Smithsonian Astrophysical Observatory di Cambridge, in Massachusetts. Il team ha utilizzato il Center for High Angular Resolution Astronomy (Chara) Array dell’Osservatorio di Monte Wilson, nei pressi di Pasadena, per compiere le osservazioni. I risultati sono usciti martedì su The Astrophysical Journal. Obiettivo dello studio: misurare accuratamente l’orbita della compagna più vicina alla Stella Polare, un flebilissimo astro che le orbita attorno con un periodo di circa trent’anni. Per fare ciò i ricercatori hanno monitorato il sistema stellare per cinque anni, dal 2016 al 2021. Lo studio del moto ha consentito di stimare la massa della Stella Polare. Grosso quanto cinque soli sarebbe questo astro, che rientra dunque a buon diritto tra le stelle dette supergiganti. La sua luminosità sarebbe maggiore di quella predetta dai modelli per la famiglia di stelle di cui fa parte, le cefeidi, astri bizzarri che mutano la loro parvenza con regolarità. Esiste una relazione che lega il periodo di pulsazione alla luminosità di una cefeide. In virtù di questa proprietà le cefeidi sono dei formidabili indicatori di distanza. Quanto ci appare brillante un astro – ovvero la sua magnitudine apparente – dipende infatti da quanto è intrinsecamente brillante e da quanto è lontano dalla Terra. Misurando la magnitudine apparente e il periodo di pulsazione – e dunque la luminosità – potremo quindi stimare la distanza della stella (per la Stella Polare siamo a circa 450 anni luce dalla Terra). Gli indicatori di distanza godono di un’importanza cruciale in astrofisica, in quanto dalla stima delle distanze si può ottenere niente meno che il tasso di espansione dell’universo.

Per la prima volta sono state acquisite delle immagini dirette della superficie della Stella Polare. Grande stupore ha colto gli astronomi di fronte all’aspetto maculato con cui si è presentato il (non più così) familiare astro. Chiazze chiare e chiazze scure ne ammantano infatti la superficie. Una stella a pois, insomma. Tali straordinari dettagli sono visibili grazie alla tecnica dell’interferometria che, combinando le osservazioni di diversi telescopi, consente di ottenere una sopraffina risoluzione angolare. Il Chara Array è infatti il più potente interferometro nell’ottico e vicino infrarosso, con la risoluzione angolare equivalente a quella che avrebbe un telescopio con uno specchio dal diametro di 330 metri. Le macchie e la rotazione della stella potrebbero avere un legame con la variazione della velocità radiale che si osserva su un tempo scala di circa quattro mesi. Diversi scenari sull’origine delle macchie sono stati proposti, che potrebbero avere a che fare con il campo magnetico della stella. In futuro gli astronomi proveranno a ottenere nuove immagini della Stella Polare, per meglio comprendere il meccanismo che genera le macchie.

Chissà se alla prossima scampagnata notturna, quando spiegheremo a qualcuno come raggiungere la Stella Polare a partire dalle ultime due stelle del Grande Carro, ci ricorderemo di questa vicenda. Probabilmente no. O forse sì. E allora oltre alla storia delle orse, ai tormenti della sciagurata Callisto, tramutata in orsa dalla gelosia di Artemide e collocata fra gli astri per riscatto assieme al figlio, al fatto che dobbiamo prolungare di cinque volte la distanza fra Merak e Dubhe per raggiungerla, e che tra tredicimila anni la Stella Polare sarà Vega e che dunque questa stella variabile dell’Orsa Minore avrà esaurito il suo millenario momento di gloria, a fianco a queste avremo un’altra meravigliosa storia da raccontare.

Per saperne di più:



Rientro controllato del pioniere Cluster


L'8 settembre 2024 il primo dei quattro satelliti della missione europea Cluster rientrerà nell’atmosfera terrestre in modo “mirato” sopra l’area disabitata dell’Oceano Pacifico meridionale. Con questo rientro unico nel suo genere, l’Esa consacra Cluster

18451287
18451289
La missione europea Cluster comprende quattro satelliti che volano in formazione tetraedrica e raccolgono i dati più dettagliati mai ottenuti sui cambiamenti su piccola scala nello spazio vicino alla Terra e sull’interazione tra le particelle cariche del vento solare e la magnetosfera terrestre. Crediti: Esa

L’8 settembre 2024, il primo satellite della missione Cluster dell’Agenzia spaziale europea (Esa) rientrerà nell’atmosfera terrestre in modo “mirato” sopra l’area disabitata dell’Oceano Pacifico meridionale. Dei quattro satelliti Cluster – soprannominati Rumba, Salsa, Samba e Tango – Salsa sarà il primo a bruciare nell’atmosfera terrestre. Il rientro della missione Cluster sarà il primo del suo genere, per garantire una fine “pulita” della missione che vada oltre gli standard internazionali, configurando l’Esa come leader mondiale nell’esplorazione spaziale sostenibile.

«A gennaio abbiamo messo a punto l’orbita di Salsa per fare in modo che l’8 settembre effettui la sua caduta finale da un’altitudine circa 110 km alla quota di 80 km», spiega il responsabile delle operazioni di Cluster Bruno Sousa dell’Esa. «Questo ci permette di avere il maggior controllo possibile sul punto in cui la sonda sarà catturata dall’atmosfera e inizierà a bruciare».

Nonostante la certezza che nessun frammento residuo cadrà vicino alla terraferma, sono ancora pochi i dati a disposizione degli scienziati sul comportamento dei veicoli spaziali durante l’attraversamento degli strati più bassi dell’atmosfera. Il rientro controllato dei satelliti Cluster rappresenta un’occasione molto utile per imparare a prevedere ancora meglio il momento e la posizione dei rientri dei satelliti e garantire la sicurezza degli esseri umani sulla Terra. L’Esa sta valutando anche la possibilità di osservare l’ingresso in atmosfera di Salsa e degli altri satelliti da un aereo, perché le loro traiettorie leggermente diverse e le differenti condizioni meteorologiche offriranno l’opportunità unica di condurre un esperimento di rientro per studiare la disgregazione dei satelliti.

18451291
In alto, infografica sul rientro dei quattro satelliti della missione Cluster. In basso, il percorso del satellite Salsa della missione Cluster sulla superficie terrestre previsto per l’8 settembre 2024. La traiettoria di rientro termina nell’Oceano Pacifico meridionale, a ovest del Cile (cliccare per ingrandire). Crediti: Esa

Con questo rientro mirato, l’Esa consacra Cluster da pioniere del monitoraggio meteorologico spaziale a pioniere della mitigazione dei detriti spaziali, due elementi chiave negli obiettivi di sicurezza spaziale europea. Senza un intervento mirato, i quattro satelliti Cluster sarebbero rientrati naturalmente in modo meno prevedibile, potenzialmente anche sopra una regione popolata. Inoltre, intervenendo in modo attivo sui rientri dei satelliti, l’Esa sta contribuendo a evitare un ulteriore aumento (già vertiginoso) della spazzatura spaziale in orbita intorno alla Terra.

Questo momento segnerà la fine della storica missione dopo oltre ventiquattro anni dal suo lancio, nel 2000. Considerato un pioniere della sicurezza spaziale, Cluster era stato lanciato per misurare l’ambiente magnetico terrestre, per studiare uno degli elementi chiave che rende la Terra un mondo abitabile: la magnetosfera, che come un enorme scudo magnetico ci protegge (in gran parte) dalla pioggia di particelle provenienti senza sosta dal Sole. Le raffiche di questo vento solare sono in ogni caso in grado di raggiungerci inviando una cascata di particelle energetiche verso la superficie terrestre, dando come risultato più comune le aurore boreali, e – più raramente – disturbi alle forniture di energia elettrica e alle comunicazioni radio. L’influenza del vento solare sull’ambiente magnetico della Terra – il cosiddetto tempo meteorologico spaziale – era un mistero prima delle conoscenze che la missione Cluster ci ha fornito.

Dopo il rientro di Salsa, gli altri tre satelliti Cluster rimanenti entreranno in modalità di sicurezza e, pur non effettuando misurazioni scientifiche, verranno monitorati per ridurre al minimo il rischio di collisione con altri satelliti o con la Terra stessa. L’assetto dell’orbita di Rumba verrà reso definitivo entro fine agosto, mentre a novembre verranno manovrati in modo analogo Samba e Tango, pronti per l’addio definitivo di Cluster nell’agosto 2026.



Luna e Terra in posa per Janus durante il flyby


Nelle immagini preliminari – oltre quattrocento – raccolte dalla camera ottica a bordo della sonda Juice dell’Agenzia spaziale europea, crateri e paesaggi lunari, le isole degli arcipelaghi delle Hawaii e delle Filippine e immensi banchi di nuvole sull’Oc

18450879
18450881
La Luna ripresa dalla camera Janus a bordo della sonda Esa Juice. In prossimità del terminatore (la linea di separazione fra giorno e notte sulla superficie lunare) la luce solare è radente e questo permette di evidenziare dettagli preziosi per l’interpretazione geologica della superficie, se la dinamica dello strumento (la capacità dello strumento di separare molti livelli di intensità luminosa) è sufficientemente ampia. Crediti: team Janus (Inaf, Asi, Dlr, Csic-Iaa, OpenUniversity, Cisas-Università di Padova e altri partner internazionali)

Si chiama Janus la camera ottica che viaggia da oltre un anno a bordo della sonda Esa Juice (Jupiter Icy Moon Explorer) e nei giorni scorsi – durante il primo flyby del sistema Luna-Terra della storia – ha acquisito immagini straordinarie del nostro satellite naturale e del nostro pianeta. La fionda gravitazionale doppia è avvenuta con successo la notte tra il 19 e 20 agosto scorsi: tale manovra, mai realizzata in precedenza anche per i notevoli rischi, ha permesso a Juice di cambiare velocità e direzione di volo, preparando la sonda al successivo sorvolo ravvicinato di Venere previsto per agosto 2025.

«Dopo oltre 12 anni di lavoro per proporre, realizzare e verificare lo strumento, questa è la prima occasione per toccare con mano dati simili a quelli che acquisiremo nel sistema di Giove a partire dal 2031», dice Pasquale Palumbo, ricercatore all’Inaf di Roma e principal investigator del team che ha progettato, testato e calibrato la fotocamera Janus. «Anche se il flyby è stato pianificato esclusivamente per facilitare il viaggio interplanetario fino a Giove, tutti gli strumenti a bordo della sonda hanno approfittato del passaggio in prossimità di Luna e Terra per acquisire dati, provare operazioni e tecniche di elaborazione con il vantaggio di conoscere già cosa stavamo osservando».

«A poco più di un anno dal lancio di Juice, questo doppio passaggio ravvicinato ha rappresentato una pietra miliare per il viaggio della sonda verso la sua destinazione finale», commenta Angelo Zinzi, responsabile per l’Asi dello strumento Janus. «Oltre ad aver ottenuto l’assistenza gravitazionale richiesta, i vari strumenti sono stati accesi e hanno operato in modalità simili a quelle attese intorno a Giove e ai suoi satelliti: i dati sono stati ottenuti, inviati a terra e processati così come previsto, mostrando l’ottima preparazione dei team di strumento coinvolti. La camera nel visibile Janus e lo spettrometro Majis hanno inoltre sfruttato la possibilità di acquisire immagini quasi contemporanee con il satellite multispettrale Prisma dell’Asi. Dopo un lungo lavoro di preparazione tra i vari team coinvolti è stato infatti possibile ottenere una serie di osservazioni Prisma da poter confrontare con quelle di Janus e Majis: queste saranno molto utili per testare le procedure di calibrazione e l’accuratezza dei due strumenti di Juice coinvolti, così da rendere più robusto il lavoro scientifico futuro».

18450883
La Terra ripresa all’alba del 20 agosto 2024 dalla camera ottica Janus a bordo di Juice. Nell’immagine si vedono banchi di nuvole e l’Oceano Pacifico vicino alle Filippine. Le immagini di Janus della Terra, con diversi filtri, possono simulare quello che potremo una volta arrivati attorno a Giove: osservare diversi strati e componenti dell’atmosfera semplicemente cambiando filtro. Crediti: team Janus (Inaf, Asi, Dlr, Csic-Iaa, Open University, Cisas-Università di Padova e altri partner internazionali)

«Mentre la Luna offre il vantaggio di conoscere quello che osserviamo», spiega Palumbo, «il problema della Terra è la sua estrema variabilità temporale; si pensi alle nuvole che si muovono e cambiano nell’arco anche di minuti. Per ovviare a questo abbiamo pianificato osservazioni contemporanee con satelliti di osservazione della Terra: questo ci garantirà un termine di confronto».

La camera Janus è stata progettata per studiare la morfologia e i processi globali regionali e locali delle lune ghiacciate di Giove e per eseguire la mappatura delle nubi del gigante gassoso. Lo strumento è stato realizzato da un consorzio di industrie a guida Leonardo sotto la responsabilità dell’Agenzia spaziale italiana (Asi), ed è stata realizzata anche grazie alla collaborazione con l’agenzia tedesca Dlr, il Csic-Iaa di Granada e il Cei-Open University di Milton Keynes. La responsabilità scientifica dello strumento è dell’Istituto nazionale di astrofisica (Inaf). Lo strumento è equipaggiato con un sistema di 13 filtri (5 a banda larga e 8 a banda stretta) distribuiti nell’intervallo spettrale dal visibile al vicino infrarosso. Avere immagini della stessa zona in diversi filtri permette ai ricercatori di avere molto di più di semplici immagini a “colori”: le fotocamere che conosciamo acquisiscono le immagini con tre diversi filtri (rosso, verde e blu – o Rgb) depositati a scacchiera sullo stesso sensore, mentre Janus ne posiziona ben 13 davanti al rivelatore coprendo un intervallo più ampio di quello percepibile dall’occhio umano.

Lo scopo primario dei dati raccolti da Janus durante il doppio flyby è stato quello di valutare prestazioni e funzionalità dello strumento, non di eseguire misure scientifiche. Per questa ragione, le immagini – circa duecento della Luna e altrettante della Terra, ancora preliminari, non elaborate per un utilizzo scientifico – sono state acquisite a diversi intervalli temporali, con diversi filtri, numerosi fattori di compressione e altrettanti tempi di integrazione. «In alcuni casi», sottolinea Palumbo, «abbiamo provocato volontariamente un peggioramento della qualità utilizzando tempi di integrazione lunghi, ottenendo immagini per così dire “mosse”, in modo da testare algoritmi di recupero della risoluzione. In altri casi abbiamo parzialmente saturato l’immagine per studiare gli effetti indotti sulle zone non saturate. Abbiamo anche misurato per la prima volta e meglio del millesimo di grado l’allineamento fra il laser altimetro e la camera. Questo è un dato essenziale per integrare le risposte dei due strumenti».

«L’osservazione della superficie dei satelliti ghiacciati di Giove, come per la Luna, non è disturbata dall’atmosfera. Al contrario, Giove è una gigantesca, dinamica e turbolenta atmosfera. Le immagini di Janus della Terra, con diversi filtri, possono simulare quello che potremo fare a Giove: osservare diversi strati e componenti dell’atmosfera semplicemente cambiando filtro», conclude Palumbo conclude commentando le immagini della Terra raccolte all’alba del 20 agosto.

Janus permetterà l’acquisizione di immagini multi spettrali dei satelliti ghiacciati di Giove a una risoluzione e con una estensione 50 volte migliore delle camere inviate nel sistema gioviano in passato. La camera include anche un computer con un software che controlla tutte le funzionalità dello strumento, riceve i comandi e invia telemetria e dati a terra attraverso la grande antenna parabolica di Juice.

Tutte le operazioni si sono svolte secondo quanto programmato e, come confermato dalle telemetrie, completate con successo. Attualmente i dati che stanno piano piano arrivando a terra, anche da Rime, 3GM e Magis (gli altri strumenti italiani) sono al vaglio del team scientifico.

18450885
I dieci strumenti scientifici a bordo di Juice, tre dei quali sono stati sviluppati da team di ricerca a guida italiana: il radar Rime, la camera Janus, lo strumento di radioscienza 3Gm. Crediti: Esa

«L’insieme degli strumenti italiani a bordo della missione Juice è quanto di più tecnologicamente avanzato sia stato mai realizzato e consentirà di ottenere dei risultati scientifici di assoluta rilevanza consolidando la posizione di leadership raggiunta dall’Italia nell’ambito dell’esplorazione del Sistema solare», dice Barbara Negri responsabile dell’Ufficio volo umano e sperimentazione scientifica dell’Asi. «Infatti, la nostra agenzia ha coordinato e gestito, oltre alla realizzazione della camera Janus, la realizzazione del radar sotto-superficiale Rime, la realizzazione dell’esperimento di radio scienza 3GM e la realizzazione della testa ottica dello spettrometro Majis a guida francese».

Dopo il lancio della missione nell’aprile del 2023, le manovre gravitazionali previste nella tabella di marcia di Juice sono fondamentali per avvicinare sempre di più la sonda verso il sistema di lune gioviano, che dista in media 800 milioni di km dal nostro pianeta, con il minor dispendio di propellente. Il sorvolo di Venere nel 2025 spingerà Juice di nuovo verso la Terra. Gli altri flyby sono previsti a settembre 2026 e a gennaio 2029; l’arrivo su Giove è invece in programma per luglio 2031.

Fonte: comunicato stampa Inaf/Asi



Tutta l’acqua delle super-Terre


La maggior parte dell’acqua di un esopianeta non si trova sulla superficie, ma è nascosta nelle profondità del suo interno. Ciò influisce sulla sua potenziale abitabilità, come dimostrano i calcoli di un gruppo del Politecnico di Zurigo e dell’Università

18423043
media.inaf.it/wp-content/uploa…
I pianeti con un oceano di magma che contengono acqua, come Gj 1214 b, ne ospitano solo una minima parte sulla loro superficie. La maggior parte di essa è immagazzinata nelle profondità del loro interno. Crediti: Nasa, Jpl-Caltech, R. Hurt

Sappiamo che la Terra ha un nucleo di ferro circondato da un mantello di silicati, e tanta acqua sulla superficie, per lo più sotto forma di oceani. Fino a oggi la scienza ha utilizzato questo semplice modello per studiare gli esopianeti, ossia pianeti in orbita attorno ad altre stelle.

La maggior parte degli esopianeti oggi conosciuti si trova vicino alla propria stella. Ciò significa che si tratta principalmente di mondi caldi con oceani di magma fuso che non si sono ancora raffreddati per formare un mantello solido, come nel caso della Terra. In questi oceani di magma, l’acqua si scioglie molto bene a differenza, per esempio, dell’anidride carbonica, che degassa rapidamente e sale nell’atmosfera. Il nucleo di ferro si trova sotto il mantello fuso di silicati.

Come si distribuisce l’acqua tra i silicati e il ferro? È proprio a questa domanda che Caroline Dorn, docente di esopianeti al Politecnico di Zurigo, Haiyang Luo e Jie Deng dell’Università di Princeton, hanno cercato di dare una risposta, con l’aiuto di modelli di calcolo basati su leggi fisiche fondamentali. I risultati sono stati presentati su Nature Astronomy.

«Il nucleo di ferro richiede tempo per svilupparsi. Una buona parte del ferro è inizialmente contenuta nella zuppa di magma caldo sotto forma di goccioline», spiega Dorn. L’acqua segregata in questa zuppa si combina con le goccioline di ferro e affonda con esse nel nucleo. «Le goccioline di ferro si comportano come un ascensore che viene trasportato verso il basso dall’acqua».

Finora questo comportamento era noto solo per pressioni moderate, del tipo di quelle che prevalgono anche sulla Terra. Non si sapeva cosa accadesse nel caso di pianeti più grandi con condizioni interne di pressione più elevate. «Questo è uno dei risultati chiave del nostro studio», dice Dorn. «Più grande è il pianeta e maggiore è la sua massa, più l’acqua tende ad andare con le goccioline di ferro e a integrarsi nel nucleo. In determinate circostanze, il ferro può assorbire fino a 70 volte più acqua dei silicati. Tuttavia, a causa dell’enorme pressione nel nucleo, l’acqua non assume più la forma di molecole di H2O ma è presente come idrogeno e ossigeno.

Questo studio ha trovato spunto dalle indagini sul contenuto d’acqua della Terra, che quattro anni fa hanno dato un risultato sorprendente: gli oceani sulla superficie terrestre contengono solo una piccola parte dell’acqua complessiva del nostro pianeta. Il contenuto di oltre l’80 degli oceani della Terra potrebbe essere nascosto al suo interno. Questo secondo simulazioni che hanno valutato il comportamento dell’acqua in condizioni simili a quelle che prevalevano quando la Terra era giovane. Gli esperimenti e le misurazioni sismologiche sono compatibili con il risultato delle simulazioni.

Le nuove scoperte sulla distribuzione dell’acqua nei pianeti hanno conseguenze drammatiche per l’interpretazione dei dati delle osservazioni astronomiche. Utilizzando telescopi spaziali e terrestri è possibile, in determinate condizioni, misurare il peso e le dimensioni di un esopianeta e usare questi calcoli per elaborare diagrammi massa-raggio che permettono di trarre conclusioni sulla composizione del pianeta. Se nel fare ciò – come è stato fatto finora – si ignorano la solubilità e la distribuzione dell’acqua, il volume dell’acqua può essere drammaticamente sottostimato, fino a dieci volte.

La distribuzione dell’acqua è importante anche per capire come si formano e si sviluppano i pianeti. L’acqua che è affondata nel nucleo rimane intrappolata lì per sempre. Tuttavia, quella disciolta nell’oceano magmatico del mantello può degassare e risalire in superficie durante il raffreddamento del mantello. «Quindi, se troviamo acqua nell’atmosfera di un pianeta, probabilmente ce n’è molta di più al suo interno», spiega Dorn. «I pianeti sono molto più ricchi d’acqua di quanto si sia sempre pensato».

Questo è ciò che il James Webb Space Telescope sta cercando di scoprire, essendo in grado di rintracciare le molecole nell’atmosfera degli esopianeti. «Solo la composizione dell’atmosfera superiore degli esopianeti può essere misurata direttamente», spiega Dorn. «Il nostro gruppo vuole stabilire un collegamento tra l’atmosfera e le profondità interne dei corpi celesti».

I nuovi dati dell’esopianeta Toi-270d sono particolarmente interessanti. «Sono state raccolte prove dell’effettiva esistenza di queste interazioni tra l’oceano di magma al suo interno e l’atmosfera», afferma Dorn. Nella sua lista di oggetti interessanti che desidera esaminare più da vicino c’è anche il pianeta K2-18b, che ha fatto notizia per la probabilità di vita su di esso.

L’acqua è uno dei presupposti per lo sviluppo della vita. Da tempo si specula sulla potenziale abitabilità di super-Terre ricche d’acqua, cioè di pianeti con una massa ben superiore a quella della Terra e con una superficie coperta da un profondo oceano globale. Allora i calcoli suggerirono che troppa acqua poteva essere ostile alla vita. L’argomentazione era che in questi mondi acquatici uno strato di ghiaccio esotico ad alta pressione avrebbe impedito lo scambio di sostanze vitali all’interfaccia tra l’oceano e il mantello del pianeta.

Il nuovo studio giunge ora a una conclusione diversa: i pianeti con strati d’acqua profondi sono probabilmente rari, poiché la maggior parte dell’acqua sulle super-Terre non si trova in superficie, come si era ipotizzato finora, ma è intrappolata nel nucleo. Questa conclusione sta portando gli scienziati a ipotizzare che anche i pianeti con un contenuto d’acqua relativamente alto potrebbero avere il potenziale per sviluppare condizioni di abitabilità simili a quelle della Terra.

Per saperne di più:



Dall’esterno con furore


Analizzando la composizione isotopica del rutenio nello strato K-Pg e confrontandolo con quello di meteoriti di diversa tipologia è stato confermato che l'asteroide che 66 milioni di anni fa ha creato il cratere di Chicxulub, causando l'ultima grande esti

18389007
18389009
Rappresentazione artistica di un grande asteroide che colpisce la Terra. Crediti: Nasa, con modifiche di Stephen Mojzsis

Se c’è un’estinzione di massa nota a tutti è senz’altro quella dei dinosauri, avvenuta circa 66 milioni di anni fa. Per la verità non furono solo i dinosauri a scomparire dalla scena dell’evoluzione, ma circa il 75 per cento delle specie viventi all’epoca. Questo evento è noto come estinzione del Cretaceo-Paleogene (o evento K-Pg), ed è uno dei pochi di cui sia stato possibile stabilire, con ragionevole certezza, anche la causa. La svolta per capire il perché di questa estinzione di massa, si ebbe nel 1980 in seguito alle analisi effettuate dal fisico e premio Nobel Luis Walter Alvarez su antichi sedimenti marini – databili fra 185 e 30 milioni di anni fa – affioranti nella Gola Del Bottaccione nell’Appennino umbro a poca distanza da Gubbio. Alvarez e colleghi scoprirono, infatti, la presenza di uno strato di argilla scura (databile a circa 66 milioni di anni fa), dello spessore di circa 1 cm, con una concentrazione di iridio circa 30 volte superiore al normale.

L’iridio è un metallo che appartiene agli elementi del gruppo del platino (Pge, Platinum Group Elements) che sono rutenio, rodio, palladio, osmio, iridio e platino. Si tratta di elementi altamente siderofili quindi sono inglobati nel nucleo terrestre e hanno una scarsa abbondanza nelle rocce crostali. Al contrario, i Pge hanno alte concentrazioni nella maggior parte dei materiali di origine extraterrestre perché provenienti da corpi non differenziati come sono gli asteroidi.

Da qui la formulazione dell’ipotesi che l’estinzione dei dinosauri fu causata dalla caduta di un asteroide di circa 10 km di diametro che alterò il clima terrestre portando all’estinzione dei meno adatti a sopravvivere. L’ipotesi di Alvarez e colleghi fu pubblicata in un famoso paper sulla rivista Science. Nel 1980 però non erano note strutture da impatto compatibili con questa ipotesi. Nel decennio successivo alla scoperta dell’anomalia dell’iridio, furono identificati depositi di detriti intorno al Golfo del Messico e ai Caraibi e il cratere da impatto dello scenario ipotizzato da Alvarez venne scoperto nel 1991: ora è noto come cratere di Chicxulub. Si tratta di una struttura circolare di circa 180-200 km di diametro, parzialmente sepolta al di sotto della penisola dello Yucatan. Il cratere non è direttamente visibile, ma la sua presenza può essere messa in evidenza dalle anomalie gravitazionali e magnetiche che genera. La massa totale di iridio dello strato K-Pg è stimabile in circa 250 milioni di kg e si può dimostrare che un asteroide con una composizione simile a quella di una condrite carbonacea del diametro di 10 km può depositare circa 230 milioni di kg di iridio, in buon accordo con quanto si osserva. Che fosse un corpo simile a una condrite carbonacea è provato anche dal recupero di una meteorite fossile di questo tipo dai sedimenti K-Pg che si trovano nell’Oceano Pacifico; inoltre, anche il rapporto fra i Pge, specialmente quello rodio/iridio è coerente con una condrite carbonacea.

18389011
Le variazioni della concentrazione relative dell’isotopo con numero di massa 100 del rutenio rispetto a quello con numero di massa 101 in funzione del campione analizzato. Il valore zero si riferisce alla crosta terrestre. Crediti Fischer-Gödde et al., Science, 2024.

Un paper recente pubblicato su Science torna sulla determinazione della natura dell’asteroide di Chicxulub utilizzando come “tracciante” la composizione isotopica del rutenio (Ru), che ha sette isotopi stabili con numeri di massa che vanno da 96 a 104. I ricercatori hanno scelto il Ru perché, in diversi gruppi di meteoriti, presenta composizioni isotopiche che differiscono tutte da quella terrestre e quindi può fungere da “impronta genetica” per determinare la sorgente della componente extraterrestre. Nel caso delle rocce da impatto terrestri, ci si aspetta che la firma isotopica del Ru dell’impattore sia preservata, anche se i rapporti di abbondanza con gli altri elementi Pge vengono modificati durante l’impatto o da successivi processi geologici. Se il Ru nello strato limite K-Pg e in altre strutture da impatto terrestri ha origine da corpi extraterrestri, allora la composizione isotopica sarà diversa da quella della Terra, ma simile a una delle classi associate di meteoriti. La cosa interessante è che le firme isotopiche del Ru tra i meteoriti dipendono dalla distanza eliocentrica dove si sono formati i rispettivi asteroidi nel Sistema Solare primordiale, quindi è possibile risalire alla natura dell’asteroide responsabile dell’impatto: si possono distinguere due classi principali di meteoriti, le condriti carbonacee e tutte le altre.

Utilizzando campioni dal confine K-Pg è stata così misurata la composizione isotopica del Ru per determinare le origini dell’impattore di Chicxulub. I campioni sono stati prelevati da diversi siti europei, per coprire tutta la possibile gamma dello strato di ejecta. Per confronto è stata applicata la stessa analisi ad altre strutture d’impatto del Fanerozoico, a strati di sferule legate ad antichi impatti dell’Archeano (da 3,5 a 3,2 miliardi di anni fa) e a due meteoriti carbonacee. Tutti i campioni dello strato limite K-Pg presentano le stesse variazioni della concentrazione relativa dell’isotopo 100 del Ru, praticamente indistinguibili l’una dall’altra. Le variazioni delle concentrazioni sono diverse dalle rocce terrestri, dalle condriti ordinarie o delle enstatiti, ma sono coerenti con la composizione media delle condriti carbonacee. In base a questo risultato l’impatto di Chicxulub è stato causato da un membro della popolazione degli asteroidi di tipo C che si sono formati nel Sistema Solare esterno. Lo stesso vale per le sferule legate agli antichi impatti dell’Archeano. Al contrario, per cinque delle sei strutture da impatto del Fanerozoico, le composizioni isotopiche del Ru e i rapporti fra i Pge sono molto simili a quelle delle condriti ordinarie, quindi gli impattori erano asteroidi di tipo S formatisi nel Sistema Solare interno. Questi risultati mostrano che negli ultimi 500 milioni di anni la Terra è stata colpita nell’80% dei casi da asteroidi di tipo S e che l’impatto di un asteroide come quello di Chicxulub è un evento unico nella scala del tempo geologico.

Anche se la composizione isotopica del Ru è compatibile con i valori medi delle condriti carbonacee, ci sono degli scostamenti significativi per quanto riguarda il gruppo CI. Le condriti carbonacee CI sono ricche di sostanze volatili: acqua, sostanze organiche e altri elementi leggeri ossia hanno una composizione simile a quella delle comete. Se le condriti CI sono un “proxy” per la materia cometaria, allora le misurazioni degli isotopi del Ru escludono un’origine cometaria per l’impatto di Chicxulub, come lo aveva già escluso il ritrovamento della meteorite fossile trovata nei sedimenti oceanici. Inoltre, i dati sul Ru escludono anche le eruzioni vulcaniche dei Trappi del Deccan come origine delle elevate concentrazioni di Pge all’interno del confine K-Pg, perché se l’anomalia fosse una conseguenza delle eruzioni avrebbe una composizione isotopica del Ru uguale a quella terrestre che è marcatamente diversa rispetto a quella delle condriti carbonacee.

Come si vede l’analisi degli isotopi del rutenio dello strato K-Pg ha confermato che l’asteroide responsabile di Chicxulub era di tipo C, quindi proveniente dal Sistema Solare esterno, che non era una cometa e che i Trappi del Deccan non hanno avuto nessun ruolo nell’estinzione di massa di 66 milioni di anni fa.

Per saperne di più:



L’evoluzione del sistema planetario Trappist-1


Quattro astronomi, di cui due italiani, hanno sviluppato un modello per spiegare le orbite dei pianeti di Trappist-1, un sistema planetario tra i più noti, a soli 40 anni luce dalla Terra. Il sistema di Trappist-1 ospita sette pianeti e le orbite di quell

18388813
18388815
Tutti e sette i pianeti scoperti in orbita attorno alla stella nana rossa Trappist-1 potrebbero facilmente rientrare nell’orbita di Mercurio, il pianeta più interno del Sistema solare. Inoltre, Trappist-1 è solo una frazione delle dimensioni del Sole; non è molto più grande di Giove. Quindi, le proporzioni del sistema Trappist-1 assomigliano più a Giove e alle sue lune che a quelle del nostro sistema solare. Crediti: Nasa/Jpl-Caltech/R. Hurt, T. Pyle (Ipac)

I pianeti sono corpi che orbitano intorno a una stella (vagabondi a parte), con una massa gravitazionale tale da conferire loro una forma approssimativamente sferica e che, a loro volta, esercitano una forza gravitazionale su oggetti più piccoli, come asteroidi e lune. Per la maggior parte della storia dell’umanità, gli unici pianeti che i nostri antenati conoscevano erano quelli che potevano vedere nel cielo notturno. Negli ultimi 30 anni, però, sono stati sviluppati telescopi abbastanza sensibili da poter dedurre la presenza di esopianeti, ossia pianeti al di fuori del Sistema solare.

Gli esopianeti sono, ovviamente, molto più difficili da osservare direttamente rispetto alle stelle e alle galassie. Quasi tutte le scoperte di esopianeti, in particolare a partire dal 2010, si sono basate su misure fotometriche (la quantità di luce ricevuta) delle stelle ospiti, piuttosto che dei pianeti stessi. Si tratta del cosiddetto metodo del transito. Ora, con l’aiuto del telescopio spaziale Spitzer, che ha effettuato il primo rilevamento di esopianeti nel 2005, del telescopio spaziale Kepler/KW, progettato specificamente per la ricerca di esopianeti, e del telescopio spaziale James Webb, lanciato nel 2021, il metodo del transito e altre tecniche hanno confermato l’esistenza di oltre 5mila esopianeti che abitano migliaia di sistemi stellari.

«Quando avevamo solo il nostro sistema solare da analizzare, si poteva semplicemente supporre che i pianeti si fossero formati nei luoghi in cui li troviamo oggi», dice Gabriele Pichierri, ricercatore associato al Caltech. «Tuttavia, quando nel 1995 abbiamo scoperto il primo esopianeta, abbiamo dovuto riconsiderare questa ipotesi. Stiamo sviluppando modelli migliori per capire come si formano i pianeti e come vengono a trovarsi negli orientamenti in cui sono».

La maggior parte degli esopianeti si forma dal disco di gas e polvere attorno a stelle appena formate e si prevede che migri avvicinandosi al confine interno di questo disco. In questo modo si formano sistemi planetari molto più vicini alla stella ospite rispetto al Sistema solare.

In assenza di altri fattori, i pianeti tendono a distanziarsi l’uno dall’altro a distanze caratteristiche che dipendono dalle loro masse e dalle forze gravitazionali tra i pianeti e la loro stella ospite. «Questo è il processo di migrazione standard», spiega Pichierri. «Le posizioni dei pianeti formano risonanze tra i loro periodi orbitali. Se si prende il periodo orbitale di un pianeta e lo si divide per il periodo orbitale del pianeta vicino, si ottiene un rapporto di numeri interi semplici, come 3:2». Quindi, ad esempio, se un pianeta impiega due giorni per orbitare intorno alla sua stella, il pianeta successivo, più lontano, ne impiegherà tre. Se anche il secondo pianeta e un terzo più lontano sono in risonanza 3:2, il periodo orbitale del terzo pianeta sarà di 4,5 giorni.

Il sistema planetario di Trappist-1, che ospita sette pianeti e si trova a circa 40 anni luce dalla Terra, è speciale per diverse ragioni. «I pianeti esterni si comportano correttamente, per così dire, con le risonanze più semplici che ci si aspetta», dice Pichierri. «Ma quelli interni hanno risonanze un po’ più piccanti». Ad esempio, il rapporto tra le orbite dei pianeti b e c è di 8:5, mentre quello tra c e d è di 5:3. «Questa piccola discrepanza nel risultato della formazione di Trappist-1 è sconcertante e rappresenta un’ottima opportunità per capire nel dettaglio quali altri processi sono entrati in gioco nel suo assemblaggio», afferma.

«Inoltre, si pensa che la maggior parte dei sistemi planetari sia nata in questi stati di risonanza, ma abbia incontrato instabilità significative nel corso della propria vita prima di essere osservata oggi», spiega Pichierri. «La maggior parte dei pianeti diventa instabile o si scontra l’uno con l’altro, e tutto viene rimescolato. Il nostro sistema solare, ad esempio, è stato colpito da una simile instabilità. Ma conosciamo alcuni sistemi che sono rimasti stabili, che sono più o meno esemplari immacolati. Essi, in effetti, mostrano un record della loro intera storia dinamica che possiamo poi tentare di ricostruire. Trappist-1 è uno di questi».

La sfida è stata quindi quella di sviluppare un modello che potesse spiegare le orbite dei pianeti di Trappist-1 e come hanno raggiunto la loro configurazione attuale.

Il modello a cui sono giunti i ricercatori suggerisce che i quattro pianeti interni si sono inizialmente evoluti da soli nella catena di risonanza 3:2 prevista. Solo quando il confine interno del disco si è espanso verso l’esterno, le loro orbite si sono rilassate, rompendo il rapporto 3:2 nella configurazione che osserviamo oggi. Il quarto pianeta, che originariamente si trovava sul confine interno del disco, spostandosi più in là insieme a esso, è stato poi spinto verso l’interno quando altri tre pianeti esterni si sono uniti al sistema planetario in una fase successiva.

«Osservando Trappist-1, siamo riusciti a verificare nuove ipotesi sull’evoluzione dei sistemi planetari», conclude Pichierri. «Trappist-1 è molto interessante perché è molto intricato; è una lunga catena planetaria. Ed è un ottimo esempio per testare teorie alternative sulla formazione dei sistemi planetari».

Per saperne di più:

Guarda il video del Caltech sulle orbite del sistema planetario di Trappist-1:

youtube.com/embed/yAkecViyAts?…



All’origine dei meteoriti marziani giunti sulla Terra


La maggior parte dei circa duecento meteoriti marziani giunti sulla Terra proviene da cinque crateri da impatto in due regioni vulcaniche del Pianeta rosso chiamate Tharsis ed Elysium. Una scoperta che permette di raggruppare queste rocce extraterrestri i

18384824
18384826
Crediti: Maria Dirks/U. Alberta

Seguire un meteorite a ritroso fino a trovare il punto esatto sulla superficie marziana dal quale si è staccato. È quello che hanno fatto – in maniera meno romanzata, ovviamente – un gruppo di ricercatori per circa la metà dei duecento meteoriti marziani raccolti sulla Terra, ed espulsi durante circa dieci impatti sulla superficie del Pianeta rosso. Lo studio è stato pubblicato la settimana scorsa su Science Advances.

I meteoriti marziani altro non sono che rocce che si staccano dalla superficie del pianeta in seguito a un impatto. Se, in seguito all’impatto, queste rocce vengono accelerate fino a superare la velocità di fuga del pianeta su cui si trovano (in questo caso Marte), possono uscire dal suo campo gravitazionale e mettersi in orbita attorno al Sole. Da qui, alcuni pezzi finiscono per essere catturati dalla gravità della Terra e cadono sul nostro pianeta come meteoriti. Eventi simili sono accaduti circa dieci volte nella storia recente di Marte.

«Pensiamo di aver trovato i crateri di origine per la metà di tutti i dieci gruppi di meteoriti marziani, e questo cambierà radicalmente il modo in cui li studiamo», commenta Chris Herd, curatore della Collezione di meteoriti dell’Università di Los Angeles e primo autore dell’articolo. L’esplosione che genera i meteoriti, infatti, lascia un cratere da impatto sulla superficie di Marte. Quelli presenti nelle regioni Tharsis ed Elysium, secondo Herd e coautori, sarebbero proprio i luoghi di provenienza di molti dei meteoriti giunti sulla terra.

Ma c’è di più. La promessa pronunciata dallo scienziato si riferisce al fatto che questo studio, combinando osservazioni e modelli, ha messo a punto un metodo per determinare la provenienza dei meteoriti applicabile in futuro ad altri corpi.

«L’idea di prendere un gruppo di meteoriti che sono stati espulsi tutti nello stesso momento e poi fare studi mirati su di essi per determinare dove si trovavano prima di essere espulsi – questo per me è l’emozionante passo successivo».

Lo studio pubblicato ha determinato che i gruppi di meteoriti accoppiati all’espulsione derivano da flussi di lava non più profondi di 26 metri sulla superficie di Marte, permettendo di associare gruppi di meteoriti accoppiati all’espulsione a specifici crateri di origine e unità geologiche, e fornendo così un contesto per inquadrarli nel loro territorio di provenienza, e per vincolare – grazie agli studi microscopici – l’età delle unità geologiche di origine. Nello studio, inoltre, si dimostra che ci sono crateri che potrebbero aver prodotto meteoriti marziane non ancora presenti nelle collezioni mondiali di meteoriti e che devono ancora essere scoperte.

Con queste nuove conoscenze in mano, ora, sembra inevitabile guardare alle meteoriti marziani con occhi diversi. “È la cosa più vicina a quella che possiamo avere andando davvero su Marte e raccogliendo una roccia”, dice Herd.

Per saperne di più:



Juice ha compiuto con successo il flyby Luna-Terra


È una manovra gravitazionale mai tentata prima nella storia dell’esplorazione del Sistema solare, quella completata la notte scorsa dalla sonda Juice dell’Esa: uno “slalom“ fra la Luna e la Terra, sorvolando i due corpi celesti lungo una traiettoria calib

18384255
18384257
Una delle immagini acquisite dalla fotocamera Juice monitoring camera 2 (Jmc2) della sonda Juice dell’Esa la notte del 19 agosto 2024, alle 23:15 ora italiana, nel corso della prima fase del flyby Luna-Terra – una manovra mai tentata prima nella storia, necessaria per instradare correttamente Juice verso la sua destinazione finale: Giove e le sue lune ghiacciate. Guardando attentamente di può intravedere anche la Terra, che appare come un cerchio scuro in alto al centro dell’immagine mentre fa capolino dietro alla struttura della sonda. Crediti: Esa/Juice/Jmc

La missione dell’Esa Juice (Jupiter Icy Moons Explorer) per l’esplorazione delle lune ghiacciate di Giove ha completato con successo il primo sorvolo della Luna e della Terra della storia, sfruttando la gravità della Terra per spingersi verso Venere, prendendo una scorciatoia per Giove attraverso il Sistema solare interno. Il momento di maggior vicinanza alla Luna ha avuto luogo alle 23:15 ora italiana di lunedì 19 agosto. Questa prima manovra ha guidato Juice verso un secondo avvicinamento, questa volta alla Terra, poco più di 24 ore dopo, alle 23:56 ora italiana di martedì 20 agosto. Mentre volava a soli 6807 km sopra il sud-est asiatico e l’Oceano Pacifico, Juice ha scattato una serie di immagini con le sue telecamere di monitoraggio e ha raccolto dati scientifici con otto dei dieci strumenti presenti a bordo.

«Il sorvolo della fionda gravitazionale è stato impeccabile, tutto ha avuto luogo senza complicazioni e siamo stati entusiasti di vedere Juice riavvicinarsi tanto al nostro pianeta», dice Ignacio Tanco, responsabile delle operazioni del veicolo spaziale per la missione.

Lo scopo del sorvolo era quello di deviare il percorso di Juice attraverso lo spazio, sfruttando la gravità rispettivamente della Luna e della Terra per cambiare la velocità e la direzione del veicolo spaziale. Il sorvolo lunare ha aumentato la velocità di Juice di 0,9 km/s relativamente al Sole, dirigendo il veicolo spaziale verso la Terra. Il sorvolo della Terra ha ridotto la velocità di Juice di 4,8 km/s relativamente al Sole, guidando il veicolo spaziale su una nuova traiettoria verso Venere. Nel complesso, la manovra ha deviato Juice di un angolo di 100° rispetto al percorso precedente al sorvolo.

18384259
Immagine acquisita dalla Juice monitoring camera 1 (Jmc1) alle 23:48 ora italiana di martedì del 20 agosto 2024, mentre Juice si dirigeva verso il suo massimo avvicinamento alla Terra. Il flyby di successo con la Terra ha reindirizzato il percorso di Juice nello spazio, in rotta verso un flyby di Venere nell’agosto 2025. Crediti: Esa/Juice/Jmc

Il sorvolo, intrinsecamente rischioso, ha richiesto una navigazione ad altissima precisione in tempo reale. Tale rischio calcolato ha permesso di far risparmiare alla missione circa 100-150 kg di carburante. Nel mese che ha preceduto il sorvolo, gli operatori dei veicoli spaziali hanno dato a Juice lievi impulsi per posizionarlo esattamente sulla giusta traiettoria di avvicinamento. In seguito, hanno monitorato Juice costantemente tra il 17 e il 22 agosto.

Grazie all’impeccabile lancio di Ariane 5 nell’aprile 2023, Juice dispone di una quantità di carburante nei serbatoi leggermente maggiore a quanto originariamente previsto per la manovra di avvicinamento a Ganimede, la luna di Giove. Il successo del sorvolo della Luna e della Terra renderà possibile questo esperimento scientifico accessorio.

«Grazie alla navigazione molto precisa del team di dinamica di volo dell’Esa», aggiunge Tanco, «siamo riusciti a utilizzare solo una piccola frazione del propellente riservato a questo sorvolo. Questo si aggiunge ai margini che manteniamo per ogni evenienza, o per estendere la missione scientifica una volta arrivati su Giove».

Un primo assaggio di scienza nello spazio

L’obiettivo principale era quello di alterare la traiettoria di Juice, ma il sorvolo della Luna e della Terra ha anche fornito l’opportunità di testare gli strumenti scientifici di Juice nello spazio. Infatti, dei dieci strumenti a bordo, dieci erano accesi durante il sorvolo lunare e otto erano accesi durante il sorvolo terrestre. L’Esa prevede di pubblicare immagini e spettri raccolti da alcuni degli strumenti di Juice nelle prossime settimane, non appena saranno scaricati dal veicolo spaziale e valutati dagli scienziati addetti alla strumentazione. Fra queste, ci saranno anche immagini ad alta risoluzione della Luna e della Terra ottenute con fotocamera scientifica di Juice, Janus.

18384261
Gli strumenti scientifici a bordo di Juice, tre dei quali a guida italiana, realizzati dall’Asi in collaborazione con la comunità scientifica e l’industria nazionale: il radar Rime, la camera Janus e lo strumento di radio scienza 3Gm, ai quali si aggiunge un quarto strumento, lo spettrometro Majis, a leadership francese realizzato attraverso un accordo bilaterale tra l’Asi e l’agenzia spaziale francese Cnes. ed è composto da varie unità: la parte digitale è stata realizzata in Italia da Thales Alenia
Space sotto la guida dell’Agenzia spaziale italiana (Asi). Italiani sono anche i Principal Investigator del radar:
Lorenzo Bruzzone dell’Università di Trento, che ha la responsabilità scientifica, e Francesca Bovolo della
Fondazione Bruno Kessler, responsabile della parte strumentale. I dati scientifici che Rime raccoglierà saranno
condivisi anche con il Jet Propulsion Laboratory (Jpl) della Nasa. Crediti: Esa

«La tempistica e la posizione di questo doppio sorvolo ci permettono di studiare a fondo il comportamento degli strumenti di Juice», osserva Claire Vallat, operation scientist di Juice. «Il fatto che questo flyby sia avvenuto abbastanza presto nel corso del viaggio di Juice ci permette di usare i dati per preparare gli strumenti prima dell’arrivo su Giove. E considerato quanto conosciamo bene le proprietà fisiche della Terra, della Luna e dell’ambiente spaziale circostante, è avvenuto anche nel luogo ideale per capire come gli strumenti rispondono a un obiettivo reale».

Il passo successivo: Venere

Questo sorvolo della Luna e della Terra ha di fatto ridotto l’energia di Juice, reindirizzandolo verso l’incontro con Venere previsto tra un anno, ad agosto 2025. Il sorvolo di Venere riporterà Juice a riavvicinarsi alla Terra: la sonda sorvolerà nuovamente il nostro pianeta una prima volta a settembre 2026 e di nuovo a gennaio 2029, beneficiando di altre due spinte prima dell’arrivo su Giove, previsto per luglio 2031.

Fonte: press release Esa



Implicazioni della supertempesta di Gannon


Due articoli usciti su Geophysical Research Letters riportano i cambiamenti atmosferici avvenuti durante la tempesta geomagnetica di maggio, analizzando cosa potrebbero comportare le anomalie di temperatura, composizione atmosferica, posizione e diffusion

18360526
18360528
Foto dell’aurora boreale scattata dalla fotografa professionista Giorgia Hofer il 10 maggio ore 22:34. Luogo: Casera Razzo, Dolomiti, Vigo di Cadore (BL). Crediti: G. Hofer

L’11 maggio scorso una splendida aurora ha tinteggiato i cieli del sud degli Stati Uniti (e, la sera del 10, anche quelli di molte regioni italiane). Nello stesso fine settimana, un trattore a guida autonoma nel Midwest ha dovuto interrompere la semina del raccolto per problemi con il Gps. Le due cose sono in qualche modo collegate?

Secondo due articoli pubblicati recentemente su Geophysical Research Letters, la risposta è sì e il motivo è da ricercarsi in una tempesta geomagnetica eccezionalmente potente. Di fatto, quella avvenuta tra il 10 e l’11 di maggio è stata la tempesta geomagnetica più forte degli ultimi vent’anni, conosciuta come tempesta di Gannon, in memoria di Jennifer Gannon, scienziata del Noaa Space Weather Prediction Center scomparsa una settimana prima dell’evento. Il primo studio, guidato da Deepak Karan dell’Università del Colorado, Boulder, riporta i cambiamenti senza precedenti nella posizione e nella diffusione delle particelle nell’alta atmosfera. Il secondo studio, condotto da Scott Evans del Virginia Tech, documenta i cambiamenti di composizione atmosferica e di temperatura.

«L’aurora boreale è causata da particelle cariche ed energetiche che colpiscono la nostra atmosfera superiore e che sono influenzate da numerosi fattori nello spazio, tra cui il Sole», spiega Scott England del Virginia Tech, professore associato presso il Kevin T. Crofton Department of Aerospace and Ocean Engineering, in una news uscita su Virginia Tech News a firma Florence Gonsalves. «Durante le tempeste geomagnetiche solari, le particelle cariche energetiche sono molto più numerose nello spazio intorno alla Terra, per cui si assiste a una maggiore luminosità dell’aurora boreale e la regione su cui è possibile vederla si allarga fino a includere luoghi come i 48 stati a latitudini più basse che di solito non vedono questo spettacolo».

Tra i dati raccolti, England ha osservato per la prima volta alcuni “pattern vorticosi” e un’importante circolazione d’aria lontano dall’aurora che ha causato la formazione di enormi vortici che hanno spostato l’aria in una spirale più grande di un uragano. In particolare, i ricercatori hanno osservato: un movimento imprevedibile di particelle cariche a bassa energia dall’equatore verso l’aurora; particelle cariche a bassa e ad alta energia; cambiamenti di temperatura e pressione che probabilmente portano ai vortici osservati; cambiamenti nella posizione e nella diffusione delle particelle a bassa energia, che possono avere un impatto negativo su Gps, satelliti e persino sulla rete elettrica.

«Quando l’aurora si intensifica, si vedono più luci, ma nell’atmosfera entra anche più energia che rende l’atmosfera vicino ai poli molto calda, iniziando a spingere l’aria lontano dai poli e verso l’equatore», continua England. «Questi dati pongono molte domande, come ad esempio: durante questa tempesta geomagnetica è successo qualcosa di veramente diverso rispetto a quanto accaduto in precedenza, oppure abbiamo semplicemente strumenti migliori per misurare i cambiamenti?».

Inoltre, cosa potrebbero comportare questi cambiamenti per la tecnologia umana che orbita in quella regione dell’atmosfera?

L’atmosfera superiore della Terra, che si estende da circa un centinaio a 640 chilometri sopra di noi, confina con lo spazio ed è la zona in cui risiedono satelliti e la Stazione spaziale internazionale. L’atmosfera superiore è composta da alcune delle stesse particelle dell’atmosfera inferiore, dove viviamo e respiriamo. Ma ha anche una parte, la ionosfera, che può essere considerata quasi come una “coperta elettrica”, molto carica e in costante fluttuazione. Le particelle cariche nella ionosfera sono una delle caratteristiche che rendono questa regione dello spazio così dinamica. È normale che la temperatura e la composizione dell’atmosfera superiore e della ionosfera cambino. In effetti, il cambiamento è prevedibile durante il giorno e la notte, e cambia anche in base alle stagioni.

18360530
Scott England, coautore di entrambi gli studi pubblicati su Geophysical Research Letters. Crediti: Ben Murphy, Virginia Tech

Poiché i segnali radio e Gps viaggiano attraverso questa “coperta elettrica” in costante oscillazione, i cambiamenti in questo strato dell’atmosfera possono disturbare i segnali e ostacolare i sistemi di navigazione e comunicazione come il Gps. Diversi fattori, sia meteorologici terrestri che spaziali, possono avere un impatto su questo strato, ma c’è ancora molto da imparare sul perché si verifichino cambiamenti nell’atmosfera superiore e inferiore e su come possano avere un impatto sulla vita come la conosciamo.

Le particelle nell’atmosfera terrestre sono influenzate da numerosi fattori nello spazio, tra cui l’attività del Sole. Durante una tempesta geomagnetica solare, un’intensa esplosione di radiazioni solari modifica la composizione e la velocità delle particelle nell’atmosfera terrestre. Allora perché negli ultimi mesi in tutto il mondo l’aurora boreale è stata visibile in luoghi dove non era mai stata vista prima?

«Il numero di macchie solari, brillamenti e tempeste cambia seguendo un ciclo di 11 anni, che chiamiamo ciclo solare», ricorda England. «Il numero di brillamenti che stiamo vedendo è aumentato gradualmente negli ultimi due anni, mentre ci avviciniamo al picco del ciclo solare».

«Queste tempeste possono anche incrementare le correnti elettriche che scorrono intorno alla Terra, il che può avere un impatto sui dispositivi tecnologici che utilizzano cavi molto lunghi. Negli ultimi anni, si sono verificati impatti sulla rete elettrica quando una corrente eccessiva scorreva attraverso i cavi. Durante la più grande tempesta geomagnetica mai registrata, l’evento di Carrington del 1859, queste hanno causato l’incendio dei sistemi telegrafici, tecnologia di punta dell’epoca», racconta England.

Gli scienziati sospettano che una tempesta simile all’evento di Carrington, se si verificasse oggi, potrebbe causare un’apocalisse di Internet, mandando offline un gran numero di persone e aziende. Sebbene la tempesta dell’11 maggio non abbia causato drastiche interruzioni, manca ancora un anno al picco del ciclo solare previsto per luglio 2025.

«Uno dei motivi per cui studiamo le tempeste geomagnetiche è cercare di costruire modelli per prevederne l’impatto», conclude England. «In base al ciclo solare, ci aspettiamo che le condizioni che stiamo vedendo quest’anno saranno presenti per i prossimi due anni».

Per saperne di più:



Terraformare Marte con nanoparticelle ad hoc


Un nuovo metodo che utilizza particelle di polvere ingegnerizzate e rilasciate in atmosfera, messo a punto da ricercatori della Northwestern University e dell’Università di Chicago e riportato su Science Advances, potrebbe consentire di riscaldare il Pian

18358482
18358484
Immagine di Marte prodotta unendo più foto scattate dal Mars Global Surveyor Orbiter della Nasa. Crediti: Nasa/Jpl/Msss

L’ambizione di riuscirci è tale che ha un verbo tutto per sé: terraformare. Vale a dire, rendere abitabile un mondo che non lo è. E il primo candidato alla terraformazione – almeno sin dagli anni Settanta, quando a proporla era niente meno che Carl Sagan – è senza alcun dubbio Marte: visto che sul Pianeta rosso di vita non se n’è mai trovata traccia, perlomeno fino a oggi, perché non passare dall’osservazione all’azione, dando una spintarella alla natura, e vedere che succede?

Per alcuni un incubo. Per altri un sogno. Per il team guidato da Samaneh Ansari (Northwestern University, Usa) ed Edwin Kite (University of Chicago, Usa) una sfida scientifica e tecnologica per la quale i tempi potrebbero essere maturi. Il metodo da loro proposto per riscaldare Marte, illustrato questo mese su Science Advances, promette di avere un’efficienza cinquemila volte superiore – dicono gli autori – ad altri basati sullo stesso approccio: innescare un effetto serra artificiale.

Come? Invece di tentare di sprigionare gas serra o di avvolgere il pianeta con un aerogel, per citare due ipotesi avanzate negli anni passati, a intrappolare il calore sarebbero nanoparticelle ingegnerizzate a partire da materiali presenti in situ e disperse in atmosfera. Nanoparticelle a base di ferro e alluminio, elementi dei quali è ricca – come ha rilevato Curiosity – la polvere marziana. Polvere che presa così com’è non sarebbe adatta allo scopo, anzi, rischierebbe di raffreddare ulteriormente il pianeta. Ma ingegnerizzate in modo opportuno così da far loro assumere una forma ad hoc, non dissimile da quella dei glitter per uso cosmetico, le particelle di polvere riuscirebbero a intrappolare il calore in uscita dal pianeta sotto forma di raggi infrarossi e a disperdere la luce solare verso il suolo, potenziando così il debole effetto serra naturale di Marte.

18358486
Infografica del metodo proposto da S. Ansari et al. (cliccare per ingrandire). Crediti: Aaron M. Geller, Northwestern, Center for Interdisciplinary Exploration and Research in Astrophysics + It-Rcds

«Il modo in cui la luce interagisce con oggetti di dimensioni inferiori alla sua lunghezza d’onda è affascinante», nota a questo proposito Asnari. «L’ingegnerizzazione delle nanoparticelle può portare a effetti ottici che superano di gran lunga ciò che ci si aspetta convenzionalmente da particelle così piccole».

Proprio come la polvere naturale di Marte, anche queste particelle verrebbero sospinte verso l’alto, disperdendosi nell’atmosfera marziana. E stando ai modelli, ipotizzando una durata di vita media delle particelle di dieci anni, un rilascio ininterrotto con un flusso di 30 litri al secondo porterebbe a un innalzamento globale della temperatura del pianeta di circa trenta gradi, da una media di -63 °C a -33 °C, favorendo così lo scioglimento dei ghiacci. I primi effetti, sottolineano gli autori, potrebbero essere percepibili nell’arco di alcuni mesi appena. E il riscaldamento sarebbe in ogni caso reversibile, arrestandosi nel giro di pochi anni se il rilascio venisse interrotto.

Certo non stiamo parlando di condizioni adatte alla sopravvivenza di esseri umani, e in ogni caso il freddo e la mancanza di acqua allo stato liquido non sarebbero gli unici ostacoli alla colonizzazione: rimarrebbe il problema della carenza d’ossigeno, per esempio, per non parlare dei raggi ultravioletti. Ma alcuni microbi potrebbero riuscire a cavarsela, e a seguire alcune specie vegetali – e poi chissà. Non solo: come sottolinea uno dei coautori dello studio, Hooman Mohseni della Northwestern University, la ricerca è appena agli inizi. «Riteniamo che sia possibile progettare nanoparticelle con un’efficienza ancora più elevata», dice, «e in grado persino di cambiare dinamicamente le loro proprietà ottiche».

Le incognite sono però ancora numerose. Per esempio non è affatto chiara la rapidità con la quale la polvere ingegnerizzata lascerebbe l’atmosfera marziana, oppure finirebbe per riprecipitare al suolo – con la pioggia – una volta che il vapor d’acqua si condensasse attorno alle particelle. «Modellare con precisione i feedback climatici è davvero difficile», avverte Kite. «Per implementare qualcosa di simile a quanto proponiamo, avremmo bisogno di più dati sia da Marte che dalla Terra, e dovremmo procedere con lentezza e in modo reversibile, così da garantire che gli esiti siano effettivamente quelli previsti».

Per saperne di più:



Gli avvistamenti UFO stanno aumentando. Quest'uomo ha svelato la verità dietro centinaia di avvistamenti


Gli avvistamenti UFO stanno aumentando. Quest'uomo ha svelato la verità dietro centinaia di avvistamenti


IN UNA GIORNATA LIBERA E SOLEGGIATA DI LUGLIO, Mick West, un ex programmatore di videogiochi, stava volando da casa sua a Sacramento, California, fino a Pasadena. Dall'aereo, ha avvistato un piccolo oggetto bianco e allungato che sembrava passare sopra le montagne. Incuriosito, ha girato un breve video con il suo telefono. Sebbene pensasse che l'anomalia fosse solo un altro aereo, West non ha potuto trattenersi; aveva bisogno di indagare...




La chioma di Berenice legata dalla materia oscura


La Dark Energy Camera cattura l’ammasso della Chioma, un ammasso di galassie che prende il nome dai capelli di un’antica regina e che è stato fonte di ispirazione per la teoria della materia oscura: fu l’astronomo Fritz Zwicky a ipotizzarne per primo l’es

18322635
La Dark Energy Camera ha catturato questa immagine dell’ammasso della Chioma (o Coma cluster, in inglese, conosciuto anche come Abell 1656), un ammasso di galassie che si trova a circa 350 milioni di anni luce, in direzione della costellazione della Chioma di Berenice. L’ammasso prende il nome dai capelli della regina Berenice II d’Egitto, che nel III secolo a.C. sposò Tolomeo III. Pochi giorni dopo le nozze, lo sposo partì per la guerra e Berenice fece voto di tagliarsi i capelli in segno di gratitudine verso gli dèi se il marito fosse tornato vittorioso. Quando Tolomeo tornò sano e salvo, mantenne la promessa e depose i suoi capelli nel tempio. Ma il giorno dopo le sue trecce non c’erano più e la mitologia narra che la chioma di Berenice salì in cielo, vicino alla coda del Leone.

18322637
L’immagine mostra l’enorme ammasso di galassie della Chioma. I dati utilizzati per realizzarla sono stati raccolti dalla Dark Energy Camera (DeCam), montata sul telescopio di 4 metri della National Science Foundation (Nsf) statunitense Víctor M. Blanco presso l’Osservatorio Interamericano di Cerro Tololo, un programma del NoirLab della Nsf. La fotocamera da 570 megapixel è stata costruita per realizzare la Dark Energy Survey (Des), un’incredibile serie di osservazioni di 758 notti tra il 2013 e il 2019, il cui scopo è comprendere la natura dell’energia oscura. Crediti: Ctio/ Noirlab/ Doe/ Nsf/ Aura/ D. de Martin & M. Zamani (Nsf Noirlab)

La chioma di Berenice non è importante solo nella mitologia greca: questo insieme di galassie è stato fondamentale per la scoperta dell’esistenza della materia oscura. Quasi un secolo fa, nel 1937, l’astronomo svizzero Fritz Zwicky osservò diverse galassie all’interno dell’ammasso della Chioma e calcolò un’approssimazione della massa dell’ammasso in base alle strutture luminose osservate. Fu allora che si accorse di qualcosa di strano: le galassie all’interno dell’ammasso si comportavano come se l’ammasso contenesse una massa 400 volte superiore a quella suggerita dalle sue stime. In altre parole, sembrava esserci una massa “invisibile”. Questo lo portò a postulare che l’ammasso doveva essere tenuto insieme da grandi quantità di materia “oscura” non osservabile, ma la sua ipotesi sembrò inverosimile a gran parte della comunità astronomica.

Solo negli anni ’80 la maggioranza degli astronomi si convinse dell’esistenza della materia oscura, quando uscirono diversi studi che riportavano la stessa curiosa incongruenza di massa osservata da Zwicky, ma sulla scala di singole galassie piuttosto che di interi ammassi di galassie. Uno di questi studi è stato condotto nel 1970 dagli astronomi statunitensi Kent Ford e Vera C. Rubin, che hanno trovato prove di materia invisibile nella galassia di Andromeda. Nel 1979, gli astronomi Sandra Faber e John Gallagher hanno effettuato un’analisi approfondita del rapporto massa-luce di oltre cinquanta galassie a spirale ed ellittiche, che li ha portati a concludere che “la tesi della massa invisibile nell’universo è molto forte e si sta rafforzando”.

Oggi, l’esistenza della materia oscura e dell’energia oscura è ormai ampiamente accettata e la comprensione della loro natura è uno degli obiettivi principali dell’astrofisica moderna. Un aiuto in questo senso arriverà certamente dall’imminente Legacy Survey of Space and Time (Lsst), che sarà condotta dall’osservatorio Vera C. Rubin – dal nome dell’astronoma che ha contribuito a dimostrare che l’universo è molto più di quanto sembri. Proprio recentemente, nel maggio di quest’anno, dopo vent’anni di lavoro, la fotocamera di Lsst è stata consegnata in Cile: si tratta della più grande fotocamera per l’astrofisica mai costruita, e contribuirà a svelare i misteri dell’universo fotografando, ininterrottamente per dieci anni, l’intero cielo australe.



Stelle a flare più letali del previsto


Rianalizzando i dati del telescopio ultravioletto Galex della Nasa, si è scoperto che i brillamenti stellari emettono molta più energia nell'ultravioletto lontano di quanto si potesse sospettare. Questa scoperta, la cui causa resta poco chiara, ha consegu

18318231
18318233
Gli estesi gruppi di macchie solari, di cui i due maggiori visibili a occhio nudo, dell’11 agosto 2024 associati ad altrettante regioni attive (cliccare per ingrandire). Crediti: A. Carbognani/Inaf-Oas

I brillamenti stellari consistono in un’intensa emissione localizzata di radiazione elettromagnetica nell’atmosfera di una stella: si tratta di eventi analoghi a quelli che avvengono nel Sole. Nella nostra stella i brillamenti sono causati dal rilascio improvviso dell’energia accumulata nei campi magnetici fotosferici tramite eventi di riconnessione magnetica. Più in dettaglio, sappiamo che la fotosfera solare è attraversata da campi magnetici che si muovono e cambiano di intensità nel tempo. Il plasma solare e i campi magnetici sono accoppiati insieme e uno degli effetti è la presenza delle macchie solari, che sono regioni più fredde della fotosfera circostante.

Nella zona delle macchie, il campo magnetico ostacola i moti convettivi che trasportano il calore dall’interno alla superficie del Sole, e quando il trasferimento di calore è meno efficiente il plasma in superficie si raffredda: è questa la causa alla base della formazione dei gruppi di macchie solari. Un altro effetto di questo accoppiamento fra campi magnetici e plasma può essere un brillamento solare: se il campo magnetico che permea la macchia si riorganizza in una configurazione a energia inferiore, l’energia in eccesso che prima era immagazzinata nel campo magnetico viene trasferita al plasma che si trova all’interno e attorno al campo magnetico. Quando ciò accade, il plasma solare viene rapidamente riscaldato e può essere accelerato a velocità relativistiche. Il plasma surriscaldato emette radiazione ultravioletta (Uv) e persino raggi X, producendo un flare (o brillamento), ossia un’intensa emissione breve e localizzata nel tempo e nello spazio di radiazione elettromagnetica.

Considerato che sono le correnti elettriche presenti nel plasma stellare che generano i campi magnetici, i brillamenti sono osservati più frequentemente in stelle con una massa inferiore a 1,5 volte quella del Sole, perché sono queste le stelle che possiedono estese zone convettive superficiali sedi di correnti elettriche: vale la regola che minore è la massa della stella e maggiore è la zona convettiva, di conseguenza più intensi sono i flare generati dalla dinamo stellare. I brillamenti sulle deboli nane rosse di tipo spettrale M sono di particolare interesse a causa dell’elevata attività magnetica di queste stelle, inoltre sono candidate ideali per la rilevazione di esopianeti nella loro zona di abitabilità. Un esempio di questo tipo di stelle è Proxima Centauri, a soli 4 anni luce da noi. Chiaramente, considerato che la zona di abitabilità di una nana rossa è molto vicino alla stella, l’emissione Uv dei brillamenti influisce sull’abitabilità degli eventuali esopianeti in orbita attorno alla stella. Infatti, le energie dei brillamenti caratterizzano sia le “zone di abiogenesi” attorno alla stella, in cui ci possono essere abbastanza fotoni Uv per guidare la chimica prebiotica, sia le “zone di impoverimento dell’ozono”, in cui si ha la distruzione della colonna di ozono nelle atmosfere degli esopianeti abitabili, con conseguente impossibilità per la vita di propagarsi nelle terre emerse.

18318235
Rappresentazione artistica di un imponente brillamento di una stella a flare. Crediti: Nasa

Solo i brillamenti con emissioni di energia superiori a 1034 erg, i così detti superflare, possono contribuire a entrambi gli effetti quindi, se la frequenza dei brillamenti è sufficientemente elevata, non è chiaro se questi eventi aiutino o ostacolino lo sviluppo delle molecole complesse necessarie per la vita.

Studi recenti hanno trovato poche stelle che mostrano tassi di superflare (⁠E > 1033 erg) sufficienti a influenzare l’abitabilità degli esopianeti. Tuttavia, le osservazioni sui flare stellari sono state condotte principalmente alle lunghezze d’onda ottiche, che possono comprendere solo una piccola frazione dell’emissione totale di un flare. L’emissione nell’Uv vicino di un flare può derivare dalla cromosfera e dalla fotosfera superiore, mentre l’emissione nell’Uv lontano deriva solo dalla cromosfera superiore e può corrispondere alla fase impulsiva di riscaldamento e compressione del plasma. Quindi studiare i flare nell’ottico non è il modo migliore per decidere che influenza possano avere nell’evoluzione della vita sugli esopianeti attorno alle nane rosse.

Un metodo diretto per studiare l’impatto dei flare sull’abitabilità è la fotometria Uv delle stelle durante i flare. Sotto questo punto di vista, i dati raccolti dal telescopio spaziale della Nasa Galex (Galaxy Evolution Explorer) offrono un’opportunità unica per studiare l’emissione Uv dei flare stellari, perché il satellite ha osservato simultaneamente gran parte del cielo nelle bande dell’Uv lontano (⁠135-175 nm) e dell’Uv vicino (⁠175-275 nm) dal 2003 al 2013. Utilizzando il catalogo di Galex e analizzando un campione di 182 flare verificatisi su 158 stelle che si trovano entro 100 parsec dal Sole è stato trovato che, contrariamente alle aspettative, c’è un eccesso di emissione nell’Uv lontano per tutti i tipi di flare, non solo per i superflare. I risultati dell’analisi mettono quindi in discussione i modelli esistenti sui brillamenti stellari e l’abitabilità degli esopianeti, dimostrando che l’emissione nell’Uv lontano è in media tre volte più intensa di quanto si ritenga normalmente e può raggiungere livelli di energia fino a dodici volte superiori a quelli previsti. Per fare un esempio, una variazione di un fattore tre nell’emissione Uv è la stessa che si ha in estate passando da Oslo, in Norvegia, a Porto Sudan, dove la pelle non protetta può scottarsi in meno di dieci minuti.

La causa esatta di questa intensa emissione nell’Uv lontano rimane poco chiara, evidentemente la radiazione emessa dai flare non è uno spettro continuo con temperatura di corpo nero di 9mila-10mila K come viene considerato nei modelli standard di abitabilità, bensì uno spettro a emissione, con la radiazione emessa a lunghezze d’onda specifiche, indicando così la presenza di atomi come carbonio e azoto. Che conseguenze ha questa scoperta per quanto riguarda l’abitabilità degli esopianeti attorno alle stelle a flare? In un campione di 1228 stelle osservate dalla missione Tess della Nasa, che ricerca pianeti extrasolari con il metodo del transito, è stato scoperto – applicando il modello standard del flare – che l’otto per cento delle sorgenti mostra dei tassi di flare con energie sufficienti per rientrare nella zona di impoverimento dell’ozono e solo l’un per cento rientra nella zona di abiogenesi. Se, invece, questi brillamenti fossero rappresentati da un corpo nero con una temperatura di 13500 K, che ha un’emissione nel lontano Uv più intensa rispetto al modello standard a 10mila K, il numero di stelle a flare che rientrerebbero nella zona di esaurimento dell’ozono aumenterebbe del 60 per cento. Chiaramente questo renderebbe più esiguo il numero di esopianeti appartenenti a stelle a flare in grado di ospitare la vita così come la conosciamo.

Per capire come stanno effettivamente le cose saranno necessari ulteriori dati sui flare stellari a diverse lunghezze d’onda che saranno ripresi usando i prossimi telescopi spaziali specializzati nell’Uv.

Per saperne di più:

  • Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “Stellar flares are far-ultraviolet luminous”, di Vera L Berger, Jason T Hinkle, Michael A Tucker, Benjamin J Shappee, Jennifer L van Saders, Daniel Huber, Jeffrey W Reep, Xudong Sun e Kai E Yang


C’è il carbonio 350 milioni di anni dopo il Big Bang


Rivelata la presenza di carbonio in una galassia 350 milioni di anni dopo il Big Bang. È la rivelazione più antica di un elemento chimico diverso dall’idrogeno. Le osservazioni, guidate da Francesco D'Eugenio dell’Università di Cambridge e realizzate con

18234868
18234870
Francesco D’Eugenio del Kavli Institute for Cosmology di Cambridge e primo autore dello studio. Crediti: F. D’Eugenio

All’epopea di un atomo di carbonio è dedicato il racconto che conclude Il sistema periodico di Primo Levi, che ci introduce alle peripezie di questo elemento dall’esistenza tumultuosa che si combina e si scombina in sostanze dalle innumerevoli parvenze, volando come anidride carbonica, incatenato nella cellulosa di un cedro, molecola di glucosio che sguazza in un bicchiere di vino, tanto per dirne qualcuna. Punto di partenza del periglioso viaggio è una roccia calcarea, nella quale l’atomo giace incastonato da milioni di anni: “[…] ha già una lunghissima storia cosmica alle spalle, ma la ignoreremo”, ci tiene a comunicarci l’autore. Là dove Levi tace ci porta questa vicenda, che si svolge in un tempo remoto, agli inizi della storia dell’universo, trecentocinquanta milioni di anni dopo il Big Bang. Per quel che ne sappiamo, questo è il tempo in cui si accendono le prime galassie, il cui flebile segnale ha viaggiato indisturbato per miliardi di anni prima di giungere a noi. Di idrogeno e, in minor quantità, di elio e ossigeno si credevano impastate le nubi gassose di questi antichi sistemi. Fino a che quei fotoni che percorrevano leggiadri lo spazio interstellare non hanno avuto l’accidente di schiantarsi sullo specchio del telescopio spaziale James Webb. E così si è scoperto che non proprio questa era la ricetta delle prime galassie.

Di che pasta erano fatte ce lo raccontano alcuni ricercatori guidati da Francesco D’Eugenio del Kavli Institute for Cosmology di Cambridge, in Inghilterra. L’ingrediente mancante era proprio lui: il carbonio. Elemento cardine per le molecole organiche e dunque per la vita sul nostro pianeta, il carbonio è stato rivelato miriadi di volte nell’universo, in galassie più e meno distanti dalla Via Lattea. E però non era mai stato rivelato così lontano e soprattutto così precocemente nella storia cosmica. Gs-z12 si chiama la galassia nella quale l’elemento è stato rinvenuto e dista oltre tredici miliardi di anni luce dalla Terra. Si tratta di fatto della rivelazione più antica di un elemento chimico che non sia idrogeno. Lo studio che riporta la scoperta è stato accettato per la pubblicazione su Astronomy & Astrophysics ed è disponibile su arXiv.

Ci speravano, di vedere delle righe, solo che non si aspettavano quella lì, racconta D’Eugenio a Media Inaf, alludendo alla riga di carbonio nello spettro di Gs-z12. Agli inizi l’universo era costituito quasi interamente da idrogeno, da piccole quantità di elio e da scarse tracce di litio. All’interno delle stelle vengono “cucinati” molti degli elementi più pesanti, denominati metalli in astrofisica, e che vengono sparpagliati nel mezzo interstellare durante le esplosioni di supernova, arricchendo le successive generazioni stellari. Solo di idrogeno e di elio potevano dunque disporre le primissime stelle che si sono accese nell’universo, il che ha un impatto sui processi chimici che accadono al loro interno, diversi da quelli che caratterizzano le stelle generate più avanti come il nostro Sole.

18234872
Lo spettro NirSpec della galassia Gs-z12 in cui si nota una riga di emissione del carbonio (C III]). Crediti: D’Eugenio et al., A&A, 2024

«Studi precedenti suggerivano che il carbonio iniziasse a formarsi in gran quantità relativamente tardi, all’incirca un miliardo di anni dopo il Big Bang», ricorda Roberto Maiolino, coautore dell’articolo. «Ora abbiamo trovato che il carbonio si forma molto prima. Potrebbe essere addirittura il metallo più antico di tutti». La scoperta è stata realizzata con lo spettrografo NirSpec e fa parte del programma Jades (JWST Advanced Deep Extragalactic Survey). Dello stesso programma è la scoperta della galassia più lontana mai osservata, Jades-Gs-z14-0, risalente al maggio scorso. Gs-z12 presenterebbe però delle caratteristiche spettrali differenti rispetto alla sua “collega” più distante, nella quale il carbonio non era stato rivelato.

Dunque c’è il carbonio trecentocinquanta milioni di anni dopo il Big Bang. Gli astronomi non se l’aspettavano, in quanto si pensava che le prime stelle producessero più ossigeno che carbonio. Il fatto che l’ossigeno sia stato solo scarsamente rivelato in Gs-z12 suggerisce che vadano riviste le modalità di funzionamento delle prime stelle. In particolare, si pensa che a quel tempo le supernove possano essere state meno energetiche del previsto, favorendo la diffusione del carbonio, situato negli strati stellari più esterni e dunque meno avvinto alla gravità della stella, a discapito dell’ossigeno. È naturale chiedersi se Gs-z12 sia un oggetto peculiare o se galassie simili possano essere la norma a quelle epoche cosmiche. «Secondo me a quelle epoche abbiamo ancora troppe poche galassie per trarre delle conclusioni. Forse abbiamo trovato un oggetto simile, anche se a redshift più basso. Non mi sbilancio troppo visto che l’analisi è ancora in corso», dice D’Eugenio. «Avremmo bisogno di più informazioni per fare un’analisi più approfondita, ma purtroppo neanche Webb riuscirebbe a ottenere dati migliori in un tempo ragionevole. Forse, in futuro, dati migliori si potranno avere per sorgenti simili a Gs-z12 amplificate da lenti gravitazionali».

Lontanissima e piccina, centomila volte meno massiccia della Via Lattea, ed eppure nel futuro questo oggetto potrebbe evolvere in una galassia non dissimile dalla nostra. Implicazioni ci sarebbero pure riguardo all’insorgenza della vita nell’universo. Il carbonio infatti funge da catalizzatore per la formazione dei grani di polvere che, aggregandosi tra di loro, genererebbero i primi planetesimi, ovvero gli embrioni dei futuri pianeti. Non a caso “elemento della vita” lo definisce Levi. «Queste osservazioni ci dicono che il carbonio può arricchire facilmente il mezzo interstellare nell’universo primordiale, e poiché il carbonio è fondamentale per la vita come la conosciamo, non è necessariamente vero che essa si sia evoluta più tardi nell’universo. Forse la vita è emersa molto prima – benché se ci fosse vita da qualche parte nell’universo potrebbe essersi evoluta in maniera differente da come è avvenuto sulla Terra», conclude D’Eugenio.

Per saperne di più:

  • Leggi su arXiv il preprint dell’articolo, in attesa di pubblicazione su Astronomy & Astrophysics, “JADES: Carbon enrichment 350 Myr after the Big Bang in a gas-rich galaxy”, di Francesco D’Eugenio, Roberto Maiolino, Stefano Carniani, Emma Curtis-Lake, Joris Witstok, Jacopo Chevallard, Stephane Charlot, William M. Baker, Santiago Arribas, Kristan Boyett, Andrew J. Bunker, Mirko Curti, Daniel J. Eisenstein, Kevin Hainline, Zhiyuan Ji, Benjamin D. Johnson, Tobias J. Looser, Kimihiko Nakajima, Erica Nelson, Marcia Rieke, Brant Robertson, Jan Scholtz, Renske Smit, Giacomo Venturi, Sandro Tacchella, Hannah Ubler, Christopher N. A. Willmer e Chris Willott


Marketing spaziale: il caso del programma Apollo


Inizialmente l’utilità dell’investimento nei programmi spaziali era molto discussa. Alla storica missione dell’Apollo 11 di 55 anni fa è servito un sapiente lavoro di marketing, come descritto in “Marketing the Moon” di David Meerman Scott e Richard Jurek

18232765
18232767
David Meerman Scott e Richard Jurek, “Marketing the Moon. The selling of the Apollo lunar Program”, The Mit Press; Illustrated edition (28 febbraio 2014), 144 pagine, 33,82 €

Ci sono molti modi di festeggiare una ricorrenza importante. Il 20 luglio è caduto il 55esimo anniversario dell’allunaggio di Apollo 11 che ha portato i primi due esseri umani, astronauti del programma Apollo, a camminare sulla Luna. Dal momento che la Nasa ha in corso il programma Artemis per riportare sulla Luna astronauti americani, non solo di sesso maschile e non solo bianchi, sarebbe stato un’ottima occasione per parlare della sorella gemella di Apollo, dea della Luna. Invece la Nasa ha stupito tutti annunciando la cancellazione della sonda Viper, parte del programma di esplorazione e ricerca di ghiaccio lunare, che avrebbe dovuto partire a inizio 2025 a bordo di una missione commerciale di Astrobotic. È difficile capire come mai l’agenzia che ha già investito 450 milioni di dollari nel rover Viper, la cui costruzione è ultimata, e ha un contratto di 323 milioni con Astrobotic per il suo trasporto a destinazione abbia preso una decisione così drastica. In più, visto che il contratto con Astrobotic non può essere cancellato, si rischia di fare partire un modello con la stessa massa del rover, a meno che qualcuno non abbia uno strumento delle giuste dimensioni e del giusto peso, pronto da lanciare. Certo non sembra un bel modo di spegnere le 55 candeline del gigantesco passo per l’umanità, anche considerato che l’industria cinematografica ci ha messo del suo con Fly me to the Moon, una commedia romantica che ripropone, anche se in modo soft, la versione dell’allunaggio ricostruito in un set cinematografico, in caso qualcosa fosse andato male. Mentre questa parte del film, che ovviamente riceverà la maggior parte di attenzione, è pura fiction, molto più interessante è la figura dell’esperta di campagne pubblicitarie che, pur essendo un personaggio inventato, si ispira al sapiente lavoro di marketing che ha portato la Luna nella case degli americani, inizialmente scettici sull’utilità dell’investimento che il governo aveva deciso di fare nel programma spaziale.

Anche se, nel fatidico momento della discesa di Neil Armstrong, il 94 per cento degli apparecchi televisivi americani era sintonizzato sulla telecronaca, il progetto Apollo non aveva sempre goduto di grande popolarità presso il pubblico. Una percentuale tra il 45 ed il 60 per cento degli americani pensava che si stesse spendendo troppo. Dopo tutto la decisione di portare un americano sulla Luna era stata presa da Kennedy per motivi puramente politici volti a dimostrare la superiorità della tecnologia americana su quella sovietica.

Ma un ambizioso e costoso programma, che, nel momento di massimo splendore, ha assorbito oltre il 4 per cento del budget federale Usa, non poteva prescindere dal supporto popolare. Da qui la necessità di fare intervenire esperti di marketing e di pubbliche relazioni per interessare il pubblico.

18232769
Wernher von Braun in un fotogramma tratto da “Man in Space” della serie Disneyland (1955)

Le iniziative di marketing intraprese con successo da Scarlett Johansson corrispondono al vero, come descritto in Marketing the Moon. The selling of the Apollo Lunar Program. È un libro uscito nel 2014 a opera di David Meerman Scott e Richard Jurek, due esperti di marketing, oltre che entusiasti collezionisti di cimeli lunari. La prefazione di Eugene Cernan, l’ultimo uomo sulla Luna, certifica la serietà del libro, che ripercorre la storia degli sforzi per sensibilizzare il pubblico al programma spaziale che avevano avuto in Wernher von Braun un campione assoluto. Convinto che un grande programma spaziale dovesse, prima di tutto, rivolgersi al pubblico, von Braun si inventò divulgatore, arrivando a instaurare una straordinaria collaborazione con Walt Disney culminata nella serie televisiva Disneyland del 1955. I tre episodi – “Man in Space“, “Man and the Moon” e “Mars and Beyond” – della serie, che mescolano interviste a von Braun con degli irresistibili cartoni animati, sono disponibili su YouTube e meritano di essere visti.

Ma quella di von Braun (e Walt Disney) era un’iniziativa culturale. Per vendere la Luna occorreva avere qualcosa da vendere. La Nasa iniziò con l’immagine degli astronauti concessa in esclusiva a Life, rivista che all’epoca andava per la maggiore. Fu un’azione molto ficcante per familiarizzare il pubblico con i nuovi eroi spaziali e con le loro famiglie che divennero protagonisti di una lunga serie di copertine della rivista.

Ma Scott e Jurek raccontano anche storie di prodotti di straordinario successo che continuano a vivere di rendita grazie alla partecipazione al programma Apollo. Come l’orologio Moonwatch, che Omega continua a produrre e a vendere. Dovendo fornire i suoi astronauti di orologi capaci di funzionare nelle condizioni estreme dei voli spaziali, la Nasa fece un bando al quale risposero Rolex, Longines, Omega e Hamilton. Il modello Omega Speedmaster risultò il migliore e venne scelto dalla Nasa. Veniva fornito con due cinturini, uno normale di acciaio e uno a fettuccia con il velcro da indossare sopra la tuta per le passeggiate lunari. Omega commercializzò il primo orologio sulla Luna (Moonwatch) con entrambi i cinturini, permettendo a tutti di immaginarsi vestiti da astronauti come quelli immortalati mentre saltellavano sulla Luna. Le foto erano prodotte dalla Hasselblad 500 EL, la prima voluminosa macchina fotografica sviluppata per lavorare sulla Luna, fissata alla tuta per lasciare le mani libere. Così anche Hasselblad ottenne grande visibilità grazie alla sua partecipazione, tutt’altro che secondaria, al programma Apollo. La stessa cosa avvenne per la Westinghouse Electric’s Aerospace Division che, per poter trasmettere le dirette lunari, mise a punto una telecamera a scansione lenta per non intasare la limitata capacità di trasmissione del modulo lunare verso le antenne terrestri. I fotogrammi arrivarono, riga per riga, all’antenna australiana che li inviò, via satellite, a Houston da dove vennero trasmessi in mondovisione. Uno sforzo immane che la Nasa pianificò per venire incontro ai media che volevano vedere quello che facevano gli astronauti sulla Luna, con buona pace di chi pensa che l’allunaggio sia stato girato in uno studio cinematografico.

Guarda il trailer di Fly Me to the Moon: Le due facce della Luna:

youtube.com/embed/1AMJ_8WpTRE?…



Dopo Città del Capo, la Iau tornerà a Roma nel 2027


Domani il passaggio di consegne dal Sudafrica all'Italia durante la cerimonia di chiusura dell'edizione 2024 dell'Assemblea generale dell'Unione astronomica internazionale. Il più grande meeting astronomico al mondo tornerà nella Capitale dopo oltre un se

18180353
18180355
Incontro stampa presso lo stand Inaf alla Iau Ga di Cape Town. Da sinistra a destra: Roberto Ragazzoni, presidente Inaf; Willy Benz, presidente entrante Iau; Caterina Boccato, responsabile nazionale didattica e divulgazione Inaf e Iau Noc; Angelo Antonelli, chair del Loc Iau Ga 2027. Crediti: Iau

A oltre un secolo dalla prima edizione del 1922, Roma si prepara a tornare al centro della scena astronomica mondiale. Domani, 15 agosto, durante la cerimonia di chiusura della 32ma Assemblea aenerale (Ga) dell’Unione astronomica internazionale (Iau) in corso a Città del Capo (Sudafrica), l’Italia riceverà il testimone per ospitare la 33ma Assemblea generale e sarà quindi confermata la sede già annunciata nel 2022. L’evento, organizzato dall’Istituto nazionale di astrofisica (Inaf), si terrà a Roma dal 9 al 19 agosto 2027 presso l’Auditorium Parco della musica. Sarà un’occasione unica per astronomi, scienziati e appassionati provenienti da tutto il mondo per discutere i più recenti progressi in astronomia, le scoperte più rilevanti e le sfide future che il nostro universo ci riserva. Per l’Inaf sarà soprattutto un’opportunità per mostrare al mondo il nostro contributo alla ricerca e al progresso della società.

«Dalla prima Assemblea generale a Roma nel 1922,», dice Willy Benz, il presidente entrante dell’Unione astronomica internazionale, «la Iau e l’Italia hanno goduto di oltre un secolo di eccellente collaborazione a tutti i livelli. Siamo entusiasti della nostra nuova collaborazione in vista dell’Assemblea generale del 2027 a Roma».

Con 84 paesi membri e oltre 12.000 iscritti, inclusi i membri junior, l’Unione astronomica internazionale è la più grande società di astronomi professionisti al mondo. Fondata nel 1919 in Belgio ma con sede a Parigi, ogni tre anni la Iau riunisce migliaia di astronomi da tutto il mondo in occasione dell’Assemblea generale per due settimane di discussioni sui temi chiave dell’astronomia e dell’astrofisica. Questo incontro, durante il quale uffici, commissioni e divisioni della Iau si riuniscono per formalizzare le loro attività collegiali, è accompagnato da una serie di eventi dedicati al pubblico.

Quest’anno, Città del Capo ha accolto oltre 3500 delegati (in presenza e online) provenienti da 80 paesi per la prima Assemblea generale organizzata nel continente africano nei 105 anni di storia della Iau. Il successo di questo evento è stato reso possibile grazie al contributo collettivo di tutti i partecipanti, promuovendo collaborazione e dialogo tra astronomi e scienziati di tutto il mondo.

Durante la cerimonia di chiusura, il Comitato organizzatore locale e Debra Elmegreen, la presidente uscente della Iau, passeranno ufficialmente il testimone alla delegazione italiana, guidata dal presidente dell’Inaf Roberto Ragazzoni, che salirà sul palco per annunciare la città ospitante della Iau Ga del 2027, aprendo un nuovo capitolo nel panorama dell’astronomia mondiale.

L’Italia è tra i paesi fondatori della Iau e ospita una comunità astronomica di grande rilievo, e ben inserita nel contesto internazionale grazie a numerose collaborazioni. «Sono profondamente grato a tutti i colleghi del Sudafrica per questo passaggio di consegne», commenta Roberto Ragazzoni. «E sono lieto di dare il benvenuto a tutti voi in Italia, la terra di Galileo Galilei, dove ci riuniremo per promuovere e condividere le scoperte rivoluzionarie della ricerca astronomica più recente». L’Assemblea generale del 2027 è un riconoscimento all’eccellenza dell’astrofisica italiana.

La Iau Ga tornerà a Roma dopo 105 anni dalla sua prima edizione, a pochi passi dalle principali attrazioni della capitale italiana. Sarà un’occasione unica per oltre tremila scienziati di discutere e presentare gli ultimi risultati della ricerca astronomica. «La Iau e Roma hanno un rapporto speciale, poiché la prima Assemblea si è tenuta proprio a Roma nel 1922, seguita da una seconda nel 1952», ricorda Angelo Antonelli, presidente del Comitato organizzatore locale della Iau Ga 2027 e ricercatore presso l’Inaf di Roma. «Roma ha una lunga e speciale relazione con l’astronomia, dall’Antica Roma al Medioevo, passando per il Rinascimento fino ai nostri giorni, con i nostri istituti moderni».

Oltre al programma scientifico, saranno organizzati eventi collaterali in collaborazione con il Comune di Roma e la Regione Lazio, per coinvolgere il pubblico locale e i turisti che affolleranno la città ad agosto. Ospitare la prossima Ga a Roma rappresenta un’enorme opportunità per promuovere la cultura attraverso l’astronomia, un campo che ha sempre ispirato e illuminato l’umanità, e per mettere in luce il ruolo di primo piano dell’Inaf sulla scena mondiale.


Astronomia - Gruppo Forum ha ricondiviso questo.


Mercoledì 28 agosto dalle 20:45 saremo al Parco delle Ginestre in Via Salita di Oriolo a #Faenza per la Binocular Classroom: lezioni di #astronomia pratica all'aperto, osservando il cielo col #binocolo. Prenotazione obbligatoria

Dettagli su mobilizon.it/events/96e4edd9-d…

#astrofili #divulgazione #scienza #romagna #stargazing #starparty #corso @astronomia

reshared this



Proposte osservative con ChatGpt: rischio o aiuto?


Valutare il potenziale effetto dirompente di trasformatori generativi come ChatGpt sul processo di assegnazione del tempo ai telescopi, sia nella revisione delle proposte che nella loro valutazione: è l’esperimento messo in piedi da alcuni astronomi dell’

18161588
Scrivere una proposta per ottenere tempo osservativo a un telescopio: uno degli aspetti più competitivi e più complessi del lavoro dell’astronomo. Al contempo, però, fondamentale per avanzare nella ricerca. Per farlo occorrono buone idee, una vasta conoscenza della letteratura scientifica, originalità, capacità di sintesi ed efficacia nella scrittura. Le proposte osservative sono impegnative per chi le scrive e spera di ottenere un , ma anche per chi si trova a valutarle, dovendo scegliere fra molti a chi concedere il tempo prezioso degli strumenti. E se gli astronomi – quelli che scrivono, ma anche quelli che valutano – si facessero aiutare da software di intelligenza artificiale generativa come ChatGpt? Se lo stanno chiedendo allo European Southern Observatory (Eso), l’ente responsabile di un gran numero di telescopi europei in Cile, che si trova periodicamente a ricevere e valutare circa 1800 proposte osservative relative a sette telescopi ogni anno. Per rispondere, hanno messo in piedi una serie di simulazioni confrontando le performance e le risposte dell’intelligenza artificiale (AI) con quelle umane. Media Inaf ha raggiunto uno degli autori dello studio, Ferdinando (Nando) Patat, astronomo all’Eso a capo dell’Ufficio dei programmi di osservazione, che coordina la selezione dei progetti scientifici e l’allocazione del tempo al Very Large Telescope (Vlt), per sapere i dettagli.

18161590
Ferdinando Patat, originario di Udine, ha conseguito la laurea e il dottorato di ricerca in astronomia presso l’Università di Padova. Dal 1999 fa parte dello staff dello European Southern Observatory (Eso) a Garching, in Germania. Dal 2011 dirige l’Ufficio dei programmi di osservazione, che coordina la selezione dei progetti scientifici e l’allocazione del tempo al Very Large Telescope. Alla ricerca affianca un intenso lavoro di divulgazione, tenendo ogni anno numerose conferenze pubbliche e lezioni nelle scuole. Nel tempo libero collabora con musicisti, attori e scrittori per la promozione della scienza, partecipando a importanti manifestazioni come il Festival della Scienza di Genova e il Campus Party Europe a Berlino. Crediti: Ferdinando Patat/Eso

Il vostro articolo si presenta come una sorta di “messa in guardia” alla comunità scientifica che scrive e valuta le proposte osservative. Sottende un po’ di preoccupazione a riguardo?

«L’esperimento alla base del nostro studio è stato pensato come un primo passo verso una maggiore consapevolezza e l’inizio di una discussione seria sull’utilizzo di sistemi di AI nell’ambito della preparazione e della revisione delle proposte per i nostri telescopi. Più che dalla preoccupazione, è stato motivato da una genuina curiosità e dal desiderio di comprendere il fenomeno e i possibili benefici che questo può portare a Eso e alla comunità che questa organizzazione serve. Fra l’altro, credo che l’articolo, più che mettere in guardia, di fatto aumenterà l’utilizzo di questi nuovi strumenti della comunità, specie in quella fascia che ancora non li conosceva o che, se li conosceva, era diffidente. Se non altro desta la curiosità di provarli. Che è l’unico modo per farsi un’opinione di prima mano».

Esiste un modo per capire se le proposte che vi arrivano abbiano fatto uso di ChatGpt In altre parole, quando valutate i proposal riuscite a rendervene conto?

«La risposta breve è: no. I testi prodotti dai sistemi di intelligenza artificiale conversazionale seguono schemi predeterminati basati sui dati con cui sono stati addestrati. Tuttavia, i modelli di linguaggio sono sviluppati in modo tale da rendere le risposte il più simili possibile a quelle umane, rendendone quindi difficile, se non impossibile, il riconoscimento. Ci sono degli studi che mostrano come l’analisi testuale, ad esempio tramite il conteggio di parole raramente usate in un certo contesto, permetta perlomeno di sospettare che il testo sia stato sintetizzato da un sistema AI. Ciononostante, non si può trarre alcuna conclusione certa. A Eso abbiamo in mente di analizzare i testi dei proposal per capire se (e come) il lessico sia cambiato dopo la comparsa di sistemi come ChatGpt. Ma lo scopo non è quello di identificare i casi che hanno fatto uso di sistemi AI, quanto quello di studiare il fenomeno e aumentare la consapevolezza circa il suo utilizzo. La nostra motivazione principale è garantire che il processo sia equo, e vorremmo cercare di comprendere quale sia l’impatto dei sistemi di AI sulla qualità dei proposal e sul modo in cui vengono valutati».

Per quanto riguarda la revisione delle proposte, invece, l’uso di Chat Gpt è già affermato in alcune realtà? Qual è la posizione e la tendenza della comunità scientifica?

«Non che io sappia. Quello delle macchine che giudicano gli umani è un tema molto controverso che apre scenari abbastanza inquietanti, in cui non solo le proposte vengono scritte dai sistemi di AI, ma ne vengono pure giudicate. È chiaro che quella appena descritta è una situazione estrema, da cui siamo ancora lontani, ma certamente prima o poi dovremo farci i conti, e non solo nell’ambito scientifico, dove tutto sommato la posta in gioco è limitata. Anche se non abbiamo dei dati (e immagino sarà difficile ottenerne), sappiamo che ChatGpt viene usato ad esempio per fare riassunti di proposte, in modo da velocizzare il lavoro di valutazione, specialmente quando il numero di progetti da esaminare è alto.

Personalmente non credo che la comunità scientifica abbia ancora preso posizione nei confronti di questa materia e che, anzi, sia stata colta un po’ alla sprovvista dal rapido sviluppo che i sistemi di AI hanno avuto in questi ultimi anni. Nell’ambito dell’astronomia le maggiori organizzazioni hanno appena iniziato a muoversi in questo campo, almeno dal punto di vista della regolamentazione. A Eso abbiamo da poco introdotto una frase nell’accordo di riservatezza che i referees firmano all’atto di accettare l’incarico: caricare una proposta o parte di essa in sistemi di AI non è permesso e costituisce una violazione della proprietà intellettuale degli autori. Altre organizzazioni stanno modificando in modo simile i loro accordi di riservatezza. Resta naturalmente il problema che, almeno al momento, non c’è modo di assicurarsi che i referees si attengano all’accordo.

Un altro aspetto riguarda l’utilizzo che ChatGpt ed altri sistemi simili fanno del materiale che vi viene caricato. I nostri test hanno mostrato che, almeno al momento, ChatGpt non conserva memoria di una proposta caricata nel sistema dopo che la sessione è terminata. Quello che non possiamo sapere è dove finiscano quei dati e come vengano usati. Finché è chi scrive a caricarli, ne accetta implicitamente le conseguenze, ma quando lo fa chi valuta le implicazioni per l’organizzazione sono potenzialmente gravi».

Quali problemi potrebbe risolvere invece l’uso della AI? Lei pensa che si possa trovare un modo per instaurare una collaborazione vantaggiosa con l’AI?

«Nel contesto della peer-review è implicito un certo livello di sistematicità, che presenta delle componenti sia consce che inconsce. Ad esempio, a parità di qualità oggettiva delle idee esposte (ammesso che tale concetto sia univoco o che addirittura esista) è molto probabile che esprimiamo un giudizio positivo per una proposta scritta con uno stile accattivante, scorrevole, chiaro, conciso e allo stesso tempo completo. Al contrario, è quasi certo che una proposta in cui il caso scientifico (magari anche più importante) viene presentato in modo un po’ confuso, con frasi che richiedono più di una lettura e che sono stilisticamente imperfette, porterà ad un giudizio negativo. In altre parole, la forma gioca un ruolo altrettanto importante quanto quello della sostanza. Mentre in ambito musicale, ad esempio, questo è perfettamente legittimo (una grande composizione va eseguita alla perfezione), ciò non è corretto nel caso scientifico, nel senso che l’idea è più importante del modo in cui viene presentata. Tuttavia, specialmente quando chi fa la valutazione della proposta ne ha altre decine da leggere, è naturale che ciò accada».

Nella forma, chiaramente, rientra anche l’uso della lingua inglese…

«Certo. Un altro esempio concreto, infatti, è quello di due proposte, una scritta da una persona madrelingua e l’altra da una persona non madrelingua. La seconda si trova in posizione nettamente svantaggiata rispetto alla prima, indipendentemente dalla qualità intrinseca del caso scientifico che vi viene presentato. Strumenti che utilizzano l’AI per elaborare il linguaggio naturale possono agire come degli equalizzatori di linguaggio, rimuovendo (almeno in parte) questo svantaggio che nulla ha a che vedere con la qualità e l’importanza delle idee che vengono valutate. In effetti, si sta discutendo di questo aspetto e dei suoi risvolti. La questione non è semplice come sembra. Posso immaginarmi la faccia inorridita di molti colleghi di fronte alla possibilità che le loro proposte passino attraverso un sistema AI che equalizzi il loro linguaggio prima di essere valutate. Perché, in effetti, c’è ed è diffusa la convinzione che il modo un cui viene presentato il caso scientifico faccia parte integrante del merito del caso stesso e del team che lo propone. In aggiunta va detto che, almeno allo stato attuale delle cose, se è vero che un testo scritto male migliora dopo l’intervento dell’AI, è anche vero che un testo scritto molto bene normalmente peggiora. Ma questo potrebbe rapidamente cambiare. Un’altra area in cui i sistemi di AI possono intervenire come equalizzatori è quella delle differenze di linguaggio legate al genere di chi scrive. Diversi studi mostrano che, anche se anonimizzato, il testo scritto da un maschio è in media più assertivo e maggiormente convincente».

Può spiegarci meglio che cosa intende?

«Sì, posso riportare qui di seguito una breve conversazione con ChatGpt.

Nando: Se ti passo un testo puoi riscriverlo come se tu fossi una femmina o un maschio? E basandoti su quali assunzioni in termini di stile e forma?

ChatGpt-4o: Sì, posso riscrivere il testo adottando una prospettiva maschile o femminile. Quando cambio la prospettiva del testo, mi baso su alcune assunzioni in termini di stile e forma che possono riflettere differenze culturali e sociali.


Gli esperimenti mostrano che ci sono alcuni stereotipi nei modelli alla base di ChatGpt che dipendono dal modo (limitato) in cui l’AI è stata addestrata. Ma ancora non abbiamo visto niente».

Tornando all’impiego di ChatGpt nella scrittura: se l’idea alla base della proposta è originale e basata sulla conoscenza della letteratura e degli strumenti, che male c’è a usare Chat Gpt per “aiutarsi” nella scrittura?

«Sono convinto che non ci sia nessun male, atteso che lo strumento venga usato con spirito critico. Abbiamo fatto dei test chiedendo a ChatGpt-4o [la versione più recente di ChatGpt, disponibile dal 13 maggio 2024, ndr] di preparare parti del razionale scientifico a diversi livelli di complessità. A volte i risultati erano sconcertanti, ma presentati in modo tale che, a meno di non essere degli esperti, era difficile coglierne l’erroneità. C’è quindi il pericolo che ci sia un incremento di proposte di bassa qualità, semplicemente perché è facile scriverle. E ciò va ad appesantire un sistema, quello della peer-review, che è già sofferente, senza recare con sé la promessa di maggiori progressi scientifici. Condannare nuove vie senza appello è – ed è sempre stato – uno sbaglio. Oltretutto sarebbe anche antiscientifico. Per il momento i sistemi di AI sono in grado di fornire delle risposte alle nostre domande. Quello che ancora non sanno fare è formulare delle domande a cui ancora nessuno ha pensato, le cui risposte, una volta note, ci farebbero fare dei grandi passi avanti. Fino ad allora, siamo ancora noi a doverci porre le domande. E credo non ci sia alcun male nel farsi aiutare».


Per saperne di più:



Coppie di buchi neri in modulazione di frequenza


Utilizzare le onde gravitazionali emesse dalle coppie di buchi neri più piccoli come segnale “portante” per cogliere quelle a frequenza molto più bassa emesse da sistemi binari di buchi neri supermassicci, attualmente precluse agli interferometri. L’idea,

18125974
Pensando all’immensità dello spazio l’idea di trovare qualcosa potrebbe sembrare come dover cercare un ago in un pagliaio. L’esperienza comune suggerirebbe, come anche il modo di dire, che trovare un oggetto piccolo sia molto più difficile che trovarne uno enorme, eppure in astrofisica non è così per tutto, non almeno quando si parla di coppie di buchi neri: con gli interferometri per onde gravitazionali, per esempio, è più facile trovare una coppia di aghi che di mietitrebbie. Un team di ricercatori guidato dal Max-Planck-Institut für Astrophysik (Mpa, in Germania) ha dunque proposto una nuova idea per rilevare le coppie dei buchi neri più grandi – quelli supermassicci – analizzando le onde gravitazionali prodotte dalla fusione di buchi neri piccoli presenti nelle vicinanze: un approccio, illustrato lunedì scorso su Nature Astronomy, che richiederà rilevatori di onde gravitazionali sensibili a frequenze nell’ordine dei decimi di hertz (“deci-Hz”) per studiare coppie di buchi neri che altrimenti rimarrebbero inaccessibili.

18125976
Scenario studiato in cui un piccolo buco nero binario (“binario compatto”) risiede nella stessa galassia di un buco nero binario supermassiccio (“SMBHB”). Rilevare modulazioni nel segnale delle onde gravitazionali provenienti dal piccolo buco nero binario potrebbe rivelare indirettamente la presenza del buco nero binario supermassiccio.
Crediti: Lorenz Zwick

Ci sono ancora dei grandi misteri nell’astronomia, e uno di questi è proprio l’origine dei buchi neri supermassicci che si trovano al centro delle galassie: potrebbero essere sempre stati massicci ed essersi formati quando l’universo era ancora molto giovane; oppure potrebbero essere cresciuti nel tempo accrescendo materia ed altri buchi neri. Quando un buco nero supermassiccio sta per divorarne un altro massiccio, la coppia emette onde gravitazionali, ovvero increspature nello spazio tempo che si propagano attraverso l’universo.

Negli ultimi anni sono state rilevate onde gravitazionali da queste fusioni, ma solo provenienti da piccoli buchi neri, che sono i resti delle stelle. Ad oggi, infatti, rilevare i segnali di singole coppie di buchi neri supermassicci è ancora impossibile, in quanto gli attuali interferometri non sono sensibili alle bassissime frequenze delle onde gravitazionali che emettono. I futuri rilevatori in corso di realizzazione – come la missione spaziale Lisa, guidata dall’Esa – dovrebbero risolvere questo problema, anche se rimarrà estremamente impegnativo rilevare le coppie di buchi neri più massicci.

«La nostra idea funziona fondamentalmente come l’ascolto di una stazione radio. Proponiamo di utilizzare il segnale proveniente da coppie di piccoli buchi neri in modo simile a come le onde radio trasportano il segnale. I buchi neri supermassicci sono la musica codificata nella modulazione di frequenza (Fm) del segnale rilevato», spiega Jakob Stegmann, autore principale dello studio e ricercatore post-dottorato al Mpa «L’aspetto innovativo di questa idea è quello di utilizzare le alte frequenze, che sono facili da rilevare, per sondare le frequenze più basse, alle quali non siamo ancora sensibili».

Risultati recenti ottenuti dai pulsar timing array supportano già l’esistenza della fusione di sistemi binari di buchi neri supermassicci. Questa prova è, tuttavia, indiretta e proviene dal segnale collettivo di molte binarie distanti che creano effettivamente rumore di fondo.

18125978
Simulazione di due buchi neri supermassicci in collisione che emettono onde gravitazionali che potrebbero essere rilevate con questo nuovo metodo. Crediti: Nasa’s Goddard Space Flight Center/Scott Noble; simulation data, d’Ascoli et al. 2018

Il nuovo metodo proposto per rilevare le fusioni di singole coppie di buchi neri supermassicci sfrutta le piccole perturbazioni che le onde gravitazionali a bassa frequenza da esse emessi – la “musica” della stazione Fm, nell’analogia di Stegmann – imprimono sulle onde gravitazionali a frequenza molto più elevata – la “portante”, sempre nell’analogia – emesse dalla fusione di una coppia di piccoli buchi neri di massa stellare presente nelle vicinanze. Il sistema binario dei piccoli buchi neri funzionerebbe quindi come un “faro” in grado di rivelare l’esistenza della coppia di buchi neri massicci. Captando le minuscole modulazioni di frequenza nei segnali provenienti dai sistemi binari di piccoli buchi neri, gli scienziati potrebbero così identificare i sistemi binari di buchi neri supermassicci fino a oggi nascosti, quelli con masse che vanno da 10 milioni a 100 milioni di volte quella del Sole, anche a grandi distanze.

«Mentre il percorso per il Laser Interferometer Space Antenna (Lisa) è ora impostato, dopo l’adozione da parte dell’Esa lo scorso gennaio», dice Lucio Mayer, coautore dello studio e teorico dei buchi neri all’Università di Zurigo, «la comunità deve valutare la migliore strategia per la prossima generazione di rilevatori gravitazionali, soprattutto su quale gamma di frequenze focalizzarsi – studi come questo portano una forte motivazione a dare priorità alla progettazione di un rilevatore deci-Hz».

«L’articolo presenta un’idea molto bella e intelligente, che è ancora fantascienza finché non avremo un rilevatore di deci-Hz», commenta Selma E. de Mink, direttrice del Mpa, non coinvolta nello studio, «ma abbiamo davvero bisogno di creatività e idee fuori dagli schemi come questa se vogliamo avere la possibilità di risolvere i più grandi misteri dell’universo».

Per saperne di più:



50mila dollari per scoprire esoatmosfere con l’AI


La Ariel Data Challenge 2024 chiama a raccolta data scientist, astronomi e appassionati di intelligenza artificiale di tutto il mondo per contribuire a indagare le atmosfere dei pianeti al di fuori del Sistema solare. Il concorso è aperto fino alla fine d

18092261
18092263
Crediti: ariel-datachallenge.space/

Si chiama Ariel Data Challenge 2024 ed è una sfida rivolta a data scientist, astronomi e appassionati di intelligenza artificiale (Ia) di tutto il mondo per contribuire a indagare le atmosfere dei pianeti al di fuori del Sistema solare.

Il concorso, basato sulla missione Ariel dell’Agenzia spaziale europea (Esa) e presentato alla conferenza sull’apprendimento automatico NeurIps 2024, affronterà uno dei problemi di analisi dati più complessi e importanti dell’astronomia: estrarre deboli segnali esoplanetari da osservazioni rumorose effettuate con telescopi spaziali. I partecipanti avranno l’opportunità unica di contribuire alla ricerca d’avanguardia nel campo delle atmosfere degli esopianeti, con un montepremi di ben 50mila dollari.

Questa sfida è stata resa possibile da uno sforzo collaborativo guidato da Ucl Centre for Space Exochemistry Data, che riunisce partner come il Centre National D’études Spatiales (Cnes), l’Università di Cardiff, la Sapienza Università di Roma e l’Institut Astrophysique de Paris. Il concorso è sponsorizzato dal Cnes, in collaborazione con Kaggle Competitions Research Program. Si avvale inoltre del sostegno di un consorzio di agenzie e istituzioni spaziali di primo piano, tra cui l’Agenzia Spaziale del Regno Unito, l’Esa, Stfc Ral Space e Stfc Dirac Hpc Facility.

«Sostenendo questa sfida, puntiamo a trovare nuovi modi di utilizzare l’intelligenza artificiale e l’apprendimento automatico per ampliare la nostra comprensione dell’universo», dice Caroline Harper, responsabile della scienza spaziale dell’Agenzia spaziale britannica. «Nella nostra galassia gli esopianeti probabilmente sono più numerosi delle stelle stesse e le tecniche sviluppate attraverso questo prestigioso concorso potrebbero aiutarci ad aprire nuove finestre per conoscere la composizione delle loro atmosfere e persino il loro clima. Gli investimenti dell’Agenzia spaziale britannica nella ricerca scientifica spaziale d’avanguardia sono essenziali per sostenere missioni innovative come questa, che possono portare benefici a persone, imprese e comunità in tutto il mondo. Non vediamo l’ora di vedere i risultati».

«Ogni segnale rumoroso proveniente dai nostri telescopi spaziali potrebbe nascondere la chiave per comprendere atmosfere remote. Il nostro compito è sbloccare questo potenziale con approcci innovativi di apprendimento automatico. Sarà sorprendente vedere cosa si inventerà la comunità dell’intelligenza artificiale», aggiunge Theresa Rank-Lueftinger, scienziata della missione Ariel.

18092265
Ariel sarà posto in orbita attorno al Punto di Lagrange 2 (L2), un punto di equilibrio gravitazionale a 1,5 milioni di chilometri dall’orbita della Terra attorno al Sole. Crediti: Esa/Stfc Ral Space/Ucl/Ufficio Europlanet-Science

La missione spaziale Ariel, la cui guida scientifica è affidata a Giovanna Tinetti dell’Ucl, sarà lanciata nel 2029 e completerà una delle più grandi indagini mai effettuate sugli esopianeti, osservando le atmosfere di circa un quinto di quelli conosciuti (a oggi sono oltre 5700 gli esopianeti confermati). Tuttavia, osservare queste atmosfere e ricavarne le proprietà è una sfida formidabile. Questi segnali rappresentano solo una minima parte della luce stellare ricevuta dai sistemi planetari e sono “corrotti” dal rumore strumentale.

La Ariel Data Challenge 2024 si concentra sul superamento dei problemi indotti dalle sorgenti di rumore, come il jitter noise causato dalle vibrazioni dei veicoli spaziali. Questo rumore, insieme ad altri disturbi, complica l’analisi dei dati spettroscopici utilizzati per studiare le atmosfere degli esopianeti. Gli scienziati coinvolti nella missione Ariel sono alla ricerca di nuovi metodi per superare i limiti degli attuali approcci all’analisi dei dati: soluzioni innovative che possano sopprimere efficacemente il rumore ed estrarre i segnali dalle atmosfere degli esopianeti.

Il concorso è aperto fino alla fine di ottobre. I vincitori saranno invitati a presentare le loro soluzioni alla conferenza NeurIps, con un premio in denaro per le prime sei soluzioni. Si tratta della quinta edizione dell’Ariel Machine Learning Data Challenge, dopo le quattro gare degli ultimi cinque anni. L’Ariel Data Challenge attira ogni anno circa duecento partecipanti da tutto il mondo, compresi quelli provenienti dai principali istituti accademici e dalle aziende di intelligenza artificiale. La sfida non è stata concepita per risolvere definitivamente i problemi di analisi dei dati che la missione dovrà affrontare, ma fornisce un forum di discussione, incoraggia future collaborazioni e aiuta il team Ariel a prepararsi con i migliori metodi di analisi dei dati possibili al momento del lancio della missione.

Maggiori dettagli sul concorso e sulle modalità di partecipazione sono disponibili sul sito web della Ariel Data Challenge. Potete seguire @ArielTelescope per ulteriori aggiornamenti.

Guarda su MediaInaf Tv l’intervista del 2022 a Giovanna Tinetti, principal investigator di Ariel:

youtube.com/embed/3dF_6PPJ50Y?…



Prospettive cosmiche tra le sfumature di Jwst


Nel quarto e ultimo appuntamento di questo viaggio alla scoperta delle evocative immagini del telescopio spaziale James Webb, cerchiamo di capire perché queste “istantanee” dell'universo ci appaiono così diverse da quelle che hanno reso celebre il loro pr

18026963
18026965
Melanie King, Ancient Light, Grizedale, UK, Silver Gelatin Photograph, 2017

Da Ramsgate, cittadina sulla costa sud-orientale dell’Inghilterra, dove risiede, alle Highland scozzesi, dall’Andalusia al Pakistan fino ad Atina, provincia di Frosinone, Melanie King è alla ricerca della luce. Non la luce diurna, che il Sole ci regala ogni giorno, inondando i nostri paesaggi di fotoni “freschi” di appena otto minuti. King cerca la luce antica, partita centinaia, migliaia di anni fa da astri lontani. Per catturarla, su pellicola analogica, visita luoghi con cieli scuri, vagando nel buio e creando lunghe esposizioni fotografiche, dalla durata variabile tra trenta secondi e cinque minuti.

A caccia di luce antica


Niente computer, lo smartphone spento il più possibile per non compromettere l’adattamento degli occhi al buio e mantenere la vista vigile e acuta. «Così posso guardare il cosmo per tutto il tempo dell’esposizione», racconta a Media Inaf l’artista e docente di fotografia alla Canterbury Christ Church University, nel Regno Unito. «Questi momenti mi danno un’opportunità inestimabile: esaminare il cielo notturno, cercando le mie costellazioni, le mie stelle e i miei pianeti preferiti».

18026967
Melanie King, artista e docente di fotografia alla Canterbury Christ Church University. Crediti: Look Mum No Computer

Alla prima parte contemplativa in esterno, fa seguito il lavoro in camera oscura. Qui King, che con il suo progetto Ancient light ha recentemente conseguito un dottorato di ricerca presso il Royal College of Art di Londra, entra direttamente in contatto con il materiale fotografico toccato dai fotoni provenienti dalle stelle. «La mia esperienza nella camera oscura è molto simile a quella in un paesaggio stellato», prosegue. «Mi affido al tatto e alla memoria per avvolgere una pellicola in completa oscurità, devo stare lontana dalla luce bianca brillante. Sia sul campo sia all’interno della camera oscura, mi concentro esclusivamente sul processo in corso con distrazioni minime». Lo sviluppo della pellicola può richiedere mezz’ora, altrettanto occorre poi per completare le stampe dall’esposizione alla fase di lavaggio. Consapevole della rarità di metalli come l’argento, usato tradizionalmente nei processi di stampa fotografica, nonché dell’impatto ambientale della loro estrazione, King è passata a processi fotografici sostenibili, utilizzando erbe, alghe e caffenolo – una soluzione a base di carbonato di sodio, fenoli e vitamina C. «Poiché sono più lenti delle loro controparti più pericolose, i tempi di sviluppo possono allungarsi ancora di più».

Quella di King è un’esplorazione del cosmo lenta, che mette al centro il corpo, i sensi. «Gran parte della mia ricerca considera come l’esperienza di un cielo pieno di stelle possa alterare la mia percezione», spiega. «Per esempio, sono più consapevole degli odori e dei suoni, pondero i miei movimenti. Sono in grado di consentire alla luce delle stelle di viaggiare direttamente nella mia retina». Questa esperienza “incarnata” dell’oscurità l’ha aiutata a riflettere su come il cosmo sia intimamente e materialmente legato agli ecosistemi presenti sulla Terra. «Questo mi ha motivato a migliorare la sostenibilità in tutti gli ambiti della mia vita, inclusa la pratica artistica. L’inquinamento luminoso negli ambienti urbani può oscurare la nostra visione del cosmo e le nostre menti possono essere distratte da dispositivi molto luminosi, il che può isolarci dal mondo naturale e dalla nostra visione dell’universo».

18026969
Hubble Ultra Deep Field. Crediti: Nasa, Esa, and S. Beckwith (Stsci) and the Hudf Team

Secondo l’artista, se si ha la possibilità di osservare il firmamento da località con cieli scuri, a occhio nudo o attraverso l’oculare di un telescopio, l’esperienza può avere un profondo effetto sul nostro senso di connessione con l’universo. Ma per contemplare la luce più antica, quella che ha viaggiato milioni o addirittura miliardi di anno attraverso la trama del cosmo, la scelta è obbligata. Bisogna volgere lo sguardo allo schermo – del computer, tablet o smartphone – per sfogliare gli archivi dei più potenti osservatori che popolano regioni remote del nostro pianeta fino agli avamposti spaziali, come Hubble space telescope (Hst) e il James Webb Space Telescope (Jwst), i cui scatti immortalano sorgenti così lontane che nessun occhio umano potrà mai vedere.

«Hubble e Jwst ci hanno permesso di scrutare il cosmo più a fondo che mai», constata King. L’Ultra Deep Field, immagine iconica pubblicata nel 2004, è stata realizzata combinando numerose esposizioni di una porzione apparentemente vuota del cielo notturno, per un totale di oltre duecentosettanta ore, pari a undici giorni di osservazioni dell’allora avveniristico Hubble. «Il risultato è una fotografia di circa diecimila galassie mai viste prima, che ha dimostrato la complessità e la vasta portata del cosmo», aggiunge l’artista, che è affascinata dai processi attraverso cui vengono create le immagini astronomiche. «Tali immagini ci consentono anche di concepire quanto sia piccola la frazione di spazio che occupa la Terra. Se comprendiamo quanto sia rara la Terra, questa sensazione può anche aiutarci ad apprezzare le diverse forme di vita e gli ecosistemi che esistono sul nostro pianeta».

Dietro le quinte, da Hubble a Jwst


Melanie King non disdegna le immagini create per il pubblico, anche se le reputa un po’ troppo patinate, nella loro quasi-perfezione, e preferisce ammirare i dati grezzi. «Trovo molto interessante vedere le scie dei raggi cosmici che interagiscono con il sensore», ammette. «È una traccia tangibile e materiale, rende il cosmo e le stelle più vicini». Nel 2017, nell’ambito della sua ricerca, King ha intervistato Zolt Levay, storico esperto di immagini astronomiche che, insieme al suo team allo Space Science Telescope (Stsci) di Baltimora, ha messo a punto la tecnica di elaborazione grafica usata sia per le immagini Hubble sia per quelle di Jwst. L’obiettivo era analizzare la genesi di un altro grande classico: i “Pilastri della Creazione”, tra i primi capolavori sfornati dal telescopio spaziale Hubble (che abbiamo già incontrato nel primo e nel secondo episodio di questa serie).

18026971
L’opera Pillars Of Creation, Lenticular Print (2017) di Melanie King, esposta alla mostra ‘To The Edge Of Time’ presso la KU Leuven Gallery, Belgio, 2021

«Ho chiesto a Zolt Levay di descrivere l’esperienza di produzione dell’immagine», ricorda King. «L’immagine grezza era in bianco e nero e costellata di tracce di raggi cosmici. Levay ha utilizzato tecniche sofisticate di elaborazione delle immagini per rimuovere artefatti, evidenziare il contrasto e aggiungere i colori». A valle dello scambio, l’artista realizza una stampa della leggendaria nebulosa. Non una stampa qualsiasi: per affiancare i dati grezzi all’immagine elaborata per il pubblico da Levay e colleghi, sceglie la tecnica della stampa lenticolare. Quella usata in alcune cartoline dove si alternano due immagini, per intenderci: a seconda dell’inclinazione, ne vediamo una anziché un’altra.

«A livello estetico, le immagini grezze sono bellissime, quindi penso che il pubblico sarebbe interessato a vederle per questo motivo», commenta. Del resto, tutti i dati sono accessibili a chiunque, da qualsiasi parte del mondo, attraverso gli archivi online delle agenzie che gestiscono questi osservatori spaziali, e non mancano i citizen scientist che vi si tuffano per dilettarsi con l’elaborazione di immagini tutte loro (ne abbiamo parlato nel terzo episodio di questa serie). «Penso che alle persone piaccia sapere come vengono fatte le cose, quindi sarebbe affascinante per un astronomo o un esperto di elaborazione delle immagini discutere dei loro processi».

Il metodo che porta alla creazione di immagini divulgative a partire dai dati astronomici, perfezionato a Stsci sulle osservazioni di Hubble, è rimasto sostanzialmente invariato ora che all’ormai trentaquattrenne telescopio spaziale si è aggiunto il tanto atteso successore. «L’aspetto visivo delle immagini Jwst è in gran parte guidato dai dati», sottolinea Joe DePasquale, principal science visuals developer presso l’Office of Public Outreach di Stsci, che insieme ad Alyssa Pagan si occupa di trasformare i dati grezzi dei due grandi telescopi spaziali nelle spettacolari immagini che il pubblico può ammirare in rete. «Utilizziamo quasi lo stesso identico approccio che usiamo con Hst all’elaborazione dei dati di Jwst. Ci sono alcune idiosincrasie tipiche di ciascun osservatorio con cui dobbiamo confrontarci, per lo più legate all’andamento del “rumore” che vediamo sullo sfondo, ma anche al trattamento delle stelle luminose e dei loro picchi di diffrazione. Il trattamento di questi artefatti delle immagini è unico per ogni osservatorio, ma il processo complessivo è molto simile».

18026973
Alyssa Pagan e Joe DePasquale, esperti di visualizzazione dei dati astronomici allo Space Telescope Science Institute di Baltimora

Come abbiamo già raccontato nei precedenti episodi di questa serie, con l’aiuto di Pagan e DePasquale, gli scintillanti colori delle immagini vengono assegnati tramite un metodo chiamato “ordinamento cromatico”, che mette in relazione i colori alle lunghezze d’onda dei dati a disposizione. «Sia che vengano osservati con Hst o Jwst, i dati delle immagini vengono solitamente presi attraverso diversi filtri per isolare diverse lunghezze d’onda della luce: a volte si tratta di fasce ampie di luce, a volte di regioni molto strette dello spettro», chiarisce DePasquale. «Assegniamo il colore in modo che le lunghezze d’onda più lunghe corrispondano al rosso e, man mano che ci spostiamo verso lunghezze d’onda sempre più corte, utilizziamo assegnazioni di colore verde e blu. La piena ricchezza di colore che vediamo in queste immagini si ottiene fondendo insieme diverse immagini che sono state colorate cromaticamente».

Una questione di prospettiva


Per chi ha fatto scorpacciata di immagini firmate Hubble sin dagli anni Novanta del secolo scorso, il cosmo fotografato da Jwst ha un aspetto nettamente diverso. Ma la differenza principale è da ricercarsi nelle lunghezze d’onda della luce che osservano. «Jwst guarda principalmente all’infrarosso e gli oggetti sembrano parecchio diversi nell’infrarosso rispetto all’ottico: questo è il motivo principale per cui le immagini Hst e Jwst sembrano diverse», nota Travis Rector, professore al Dipartimento di fisica e astronomia della University of Alaska Anchorage, esperto di elaborazione di immagini astronomiche e co-autore del libro Coloring the Universe – An Insider’s Look at Making Spectacular Images of Space. «Un malinteso comune è che esista una “tavolozza di Hubble”. Le tecniche di elaborazione utilizzate per creare immagini da questi due telescopi, così come da altri osservatori, sono in gran parte le stesse. Detto questo, è necessaria una competenza straordinaria per creare immagini di livello così alto come quelle di Jwst. A Joe DePasquale e al suo team va il merito di aver creato immagini davvero spettacolari».

18026975
Dettaglio della nebulosa della Carena, osservata con Hubble (a sinistra) e con Jwst (a destra). Crediti: Crediti: Nasa, Esa, and The Hubble Heritage Team; Nasa, Esa, Csa, Stsci

Rector, che si occupa di formazione stellare e di quasar, lavora principalmente con la Dark Energy Camera, una fotocamera a grande campo sul telescopio da quattro metri Víctor M. Blanco presso l’Osservatorio interamericano di Cerro Tololo, in Cile. «Ogni telescopio», precisa, «può essere considerato uno strumento in una cassetta degli attrezzi e tu scegli quello più adatto alla ricerca che stai conducendo». Fa anche parte del team che crea immagini utilizzando i telescopi del centro di ricerca statunitense NoirLab. Se le immagini di Jwst hanno riscosso così tanto successo, sostiene l’astrofisico, è perché «ci hanno mostrato oggetti familiari, come i famosi “Pilastri della creazione”, da una nuova prospettiva. Ricordiamo le immagini originali e questo ci fornisce un punto di vista su ciò che rende diverse le immagini Jwst. È come se le nostre menti dicessero: “L’ho già visto prima, ma mai così».

Concorda anche King, ammaliata da un’immagine che Jwst ha realizzato nel 2022, osservando la stessa porzione di cielo ripresa diciotto anni prima dal suo predecessore nel celebre Ultra Deep Field. Se Hubble aveva impiegato una settimana e mezzo per confezionare questo panorama del cosmo profondo, a Jwst sono bastate appena venti ore. Nemmeno un giorno. «Per me, questa immagine incarna l’importanza di Jwst, in quanto è in grado di sondare più lontano dei precedenti telescopi e su diverse lunghezze d’onda per scoprire i fenomeni cosmici».

In un’epoca di collasso climatico, in cui ogni anno è ormai il più caldo mai registrato e le temperature record, effetto insieme ad altri eventi meteorologici estremi del riscaldamento globale guidato dalle attività umane, non sorprendono più ma non smettono di preoccupare, immagini come quelle degli Ultra Deep Field forniscono una prospettiva più vasta. «La nostra stella è solo una nella nostra galassia, e la nostra galassia è solo una tra miliardi» riconosce l’artista. «Per quanto ne sappiamo, la Terra è l’unico pianeta che ospita forme di vita complesse e siamo a rischio di autoannientamento».

18026977
Travis Rector, professore al Dipartimento di fisica e astronomia della University of Alaska Anchorage

Secondo Rector, che vivendo in uno stato come l’Alaska sperimenta quotidianamente le conseguenze del riscaldamento globale, in quanto l’Artico si sta scaldando a velocità doppia rispetto al resto del mondo, gli astronomi hanno una prospettiva unica e importante sul problema del cambiamento climatico. Per questo è attivo nella divulgazione su questi temi ed è tra i fondatori del gruppo internazionale Astronomers for Planet Earth. «C’è una notevole sovrapposizione nella fisica dell’astronomia e della climatologia, e in questo modo possiamo aiutare le persone a comprendere il problema» osserva. Ma è soprattutto la consapevolezza di quanto piccola e unica sia la Terra, e del fatto che sia davvero l’unico posto in cui l’umanità possa vivere, che mette la comunità astronomica in una posizione d’eccezione. «La frase “Non esiste un Pianeta B”, diventata un grido di battaglia del movimento per il cambiamento climatico, è a tutti gli effetti una dichiarazione astronomica», ribadisce Rector. «Le immagini che facciamo dell’Universo spesso ispirano soggezione e umiltà, il che può aiutare le persone a sviluppare la nostra prospettiva».

Per saperne di più:



Presentate le prime immagini di Ska-Low


Osservazione di 24 ore con una singola stazione Ska-Low, uno dei due telescopi dell'Osservatorio Ska, attualmente in costruzione in Australia occidentale. Nelle immagini ottenute dalle antenne costruite in Italia uno sguardo al futuro dell'astronomia radi

18012732
Sono immagini che anticipano il futuro della radioastronomia a basse frequenze, quelle appena arrivate dall’Osservatorio Ska (Skao): mostrano la prima osservazione “a tutto cielo” (all-sky in inglese) di 24 ore effettuata con una singola stazione Ska-Low, un assaggio che conferma la straordinaria sensibilità di questo interferometro. Nel video condiviso ieri da Skao, che potete vedere qui sotto, la Via Lattea – la nostra galassia – attraversa il cielo notturno, a le più luminose sorgenti radio – come le galassie Centaurus A (Ngc 5128), Virgo A (M87) – sono visibili con estrema chiarezza. Il Sole è rilevabile durante il giorno, evidenziando la capacità del telescopio di catturare dettagli su scale temporali diverse.

media.inaf.it/wp-content/uploa…

Il telescopio Ska-Low sarà l’array a basse frequenze di Skao in Australia occidentale. Il progetto Ska, una volta terminato, sarà il più grande radiotelescopio al mondo, con antenne a bassa frequenza (50 MHz – 350 MHz) in Australia e antenne paraboliche a media frequenza (Ska-Mid) in Sudafrica.

«L’osservazione all-sky di 24 ore a 230 MHz che ha permesso la realizzazione del video sancisce il vero e proprio inizio della prima fase operativa del telescopio Ska-Low (Array Assembly 0.5)», commenta Giulia Macario, ricercatrice all’Inaf di Arcetri e membro del gruppo osservativo Inaf Aavs-Ska-Low. «L’impatto scientifico di queste immagini non ha precedenti, poiché rappresenta un’anteprima delle incredibili capacità di imaging di Ska-Low. La sensibilità della singola stazione già consente di osservare anche radio sorgenti meno brillanti delle famose sorgenti A-Team negli istanti in cui il piano galattico e il Sole sono sotto l’orizzonte. Quando il piano galattico transita (primi 15 secondi del video), la bassa risoluzione raggiungibile dalla stazione (circa 2×2 gradi) permette di apprezzare la spettacolare emissione radio diffusa in tutta la sua estensione, svelando anche dettagli come il North Polar Spur».

18012734
Le prime antenne Ska-Low sono state installate in Australia Occidentale. Credito: Skao

L’osservazione arriva dalle prime 256 di ben 131.072 antenne dalla curiosa forma ad “albero di Natale”, alte due metri, che una volta dispiegate tutte comporrann il radiotelescopio Inyarrimanha Ilgari Bundara, l’Osservatorio radioastronomico Murchison (di Csiro), nel paese della comunità Wajarri. Le antenne sono made in Italy, prodotte utilizzando il prototipo ideato e realizzato da Inaf in collaborazione con il Cnr-Ieiit e l’azienda italiana Sirio Antenne.

«Insieme al gruppo osservativo (che vede coinvolti gli osservatori Inaf di Arcetri e Ira di Bologna)», aggiunge Macario, «abbiamo lavorato dal 2019 alla validazione delle performance di sensibilità e polarizzazione delle stazioni prototipo di Ska-Low denominate Aperture Array Verification Systems (Aavs2 e Aavs3), tramite osservazioni di tutto il cielo del tutto analoghe a queste. Questo risultato si basa anche sulle attività svolte e l’esperienza maturata dal nostro team in collaborazione con Skao e Icrar-Cira a Curtin (Perth), ed è molto esaltante e significativo per me e per il tutto il gruppo».

Dopo anni di attesa, questa osservazione non solo mette in luce il potenziale di Ska-Low, ma offre anche uno sguardo affascinante su cosa potremo scoprire quando tutte le 512 stazioni Ska-Low saranno operative e osserveranno il cielo simultaneamente. Si prevede che questo sistema rivoluzionerà la nostra comprensione dell’universo, permettendo osservazioni senza precedenti sia di oggetti cosmici noti che di fenomeni ancora da scoprire. Un esempio? Ska-Low consentirà agli scienziati di testare le teorie di Einstein e di osservare il cosmo con dettagli senza precedenti.

«È incredibile vedere come con la prima vera e propria stazione di Ska-Low si raggiungano le performance attese: il coronamento degli sforzi di un grande team internazionale», conclude emozionata la ricercatrice.



In ricordo di Guido Chincarini


Lunedì scorso è venuto a mancare Guido Chincarini. Lo ricordano oggi su Media Inaf Roberto Della Ceca, direttore dell’Osservatorio astronomico di Brera, del quale Chincarini era stato a sua volta direttore dal 1985 al 2001, il direttore scientifico dell’I

17989320
media.inaf.it/wp-content/uploa…
Guido Chincarini (24 gennaio 1938 – 5 agosto 2024), in occasione del “Golem Day” avvenuto a Merate (LC) lo scorso novembre

È venuto a mancare lo scorso 5 agosto Guido Chincarini, figura chiave della rinascita dell’Osservatorio astronomico di Brera negli anni Novanta, nonché scienziato di spicco dell’astrofisica internazionale.

Laureatosi nel 1960 presso l’Università degli Studi di Padova, Guido ha passato la parte iniziale della sua carriera tra l’Italia (Università di Padova) e gli Stati Uniti (Lick Observatory, University of California, Wesleyan University, Mc Donald Observatory, University of Oklahoma). Rilevanti a livello internazionale i suoi contributi in ambito scientifico, che hanno principalmente riguardato l’astronomia extragalattica, la cosmologia osservativa (di cui è stato figura chiave negli anni Ottanta del secolo passato) e lo sviluppo di strumentazione di avanguardia in campo astronomico.

Ritornato in Italia nel 1985 come professore ordinario (Università degli Studi di Milano), gli è stata affidata la direzione dell’Osservatorio astronomico di Brera, che ha diretto in maniera continuativa fino al 2001. Moltissime delle attività di ricerca per cui l’Osservatorio di Brera è ora famoso nel mondo sono state fortemente volute, impostate e organizzate da Guido durante la sua direzione. Fondamentale inoltre il suo contributo per la riorganizzazione degli uffici amministrativi, e per la creazione, primo tra gli Osservatori in Italia, di un ufficio predisposto alla comunicazione della scienza (Poe Brera) e per la valorizzazione del patrimonio storico e archivistico dell’Osservatorio di Brera

In stretta collaborazione con Oberto Citterio e Paolo Conconi, ha contribuito allo sviluppo delle tecnologie per la produzione delle ottiche per astronomia X, per cui l’Osservatorio ha acquisito una posizione di primo piano a livello internazionale. Quest’ultima attività di ricerca tecnologica è stata prodroma all’ingresso dell’Osservatorio nella missione Swift, di cui ha guidato la partecipazione nazionale nella prima fase della missione.

Come scrive Filippo Zerbi, direttore scientifico dell’Inaf e collaboratore di Guido alla fine degli anni ‘90: «Con Guido viene a mancare un innovatore. Come tutti gli innovatori ha rotto schemi ed equilibri in una comunità astronomica nazionale che faticava, pur tentando, a emanciparsi e a occupare un ruolo di leadership nel contesto internazionale. Un pensatore ortogonale, una persona spesso “contro” ma anche un coach con schemi nuovi, ogni tanto anche temerari, spesso vincenti. Come con ogni allenatore eccellente, il rapporto con giocatori eccellenti può non essere stato facile ma molti ricercatori della mia generazione, e non solo dell’area milanese, sono stati fortemente ispirati dalle azioni di Guido, altri meno. Nelle oggettive e riconosciute difficoltà questo rapporto, a volte conflittuale, ha portato l’astronomia italiana ai livelli a cui Guido intendeva condurla: una valutazione storica obbiettiva non potrà negare il suo enorme impatto costruttivo».


Un breve ricordo di Guido Chincarini

di Giampaolo Vettolani

Ho iniziato a lavorare con Guido dai primi anni Ottanta sulla distribuzione a grande scala delle galassie e degli ammassi, sulle proprietà dei filamenti e dei vuoti e infine su survey di galassie come la Esp a Eso con lo spettrografo multifibra Octopus o l’analisi all sky della distribuzione degli ammassi di galassie, che ha portato nel 1989 alla (ri)scoperta della Shapley concentration, possibile alternativa al Great Attractor come sorgente del moto misurato dal dipolo del fondo a micro-onde. Sono stati anni con tanti risultati e di grande soddisfazione.

Poi gli interessi di Guido si sono andati spostando verso le alte energie (survey X di ammassi e in seguito gamma ray burst) ma comunque mantenendo un occhio attento ai problemi della struttura a grande scala dell’universo, di cui era stato un pioniere quando con Herbert J. Rood, a metà degli anni Settanta, mostrò che l’ammasso di Coma non era isolato ma immerso in un supercluster di galassie.

Negli anni Novanta era diventata chiara la necessità di un salto qualitativo nella strumentazione spettroscopica, sia in termini di sensibilità che di area di cielo esplorabile in una singola esposizione scientifica (multiplex). Questo al fine di ottenere survey di redshift a magnitudini deboli per affrontare il problema dell’evoluzione delle proprietà di clustering e dell’evoluzione delle popolazioni stellari nelle galassie. Queste considerazioni hanno portato nel 1997 alla proposta di dotare il Vlt di Eso di uno strumento per spettrografia di nuova concezione denominato Vimos (Vlt Imager Multi Object Spectrometer) che Guido ha sostenuto in maniera molto incisiva sia scientificamente che gestionalmente, ad esempio gestendo a Merate i fondi per la costruzione in Italia, presso l’Osservatorio di Brera, che aveva diretto sin dal suo rientro in Italia.

Guido era una persona di carattere forte, ma scientificamente molto generoso e con un forte spirito di leadership. Vorrei darne un esempio di cui sono stato testimone diretto. Qualche anno prima della scomparsa di George Abell nel 1983, la catalogazione degli ammassi di galassie che Abell aveva iniziato per completare, con il catalogo sud, il famoso Catalogo di ammassi a nord era a un punto morto. Guido, che era grande amico di Abell e si trovava allora alla University of Oklahoma a Norman (da cui si assentava per lunghi periodi in cui lavorava in Europa a Eso), prese in mano la situazione e assoldò dapprima Harold Corwin del Mac Donald Observatory a Austin (Texas) e un giovane postdoc, Ron(ald) Olowin, a Norman. Guido predispose il piano di lavoro, dicusse con loro la tecnica di identificazione, come fare i conteggi di galassie in ammasso, la scala delle magnitudini e tutto quanto era necessario per realizzare il catalogo sud, incluso l’acquisto di visori stereo per lastre, apparati fotografici, misuratori di coordinate dal suo grant Nsf personale e presentando lui stesso, in seguito, un grant specifico sulla catalogazione. Quando il catalogo era in uno stato avanzato, durante una mia lunga visita a Norman, decidemmo di iniziare un progetto di fotometria ccd per la misura accurata delle magnitudini delle galassie in ammasso. Tornato in Europa preparai una proposta di osservazione per il 2.2 metri di Eso e inviai la bozza a Guido. Avevo riferito nella proposta il catalogo sud come ‘ACCO catalog’, ovvero come Abell Chincarini Corwin Olowin.

Guido mi intimò di usare il nome che poi è diventato l’acronimo con cui è universalmente conosciuto il catalogo sud di ammassi (vicini nella concezione moderna) ‘ACO’, senza Chincarini cioè: doveva essere un tributo a George Abell che aveva iniziato il tutto e un buon biglietto da visita per la carriera dei due coautori che, a detta di Guido, avevano fatto il lavoro tedioso. Guido aveva curato la parte organizzativa e di “basic astronomy” che poteva fare chiunque, diceva lui. Non so quanti nella stessa posizione si comporterebbero egualmente, soprattutto ora in un periodo un cui parecchi lavori sono firmati da centinaia di persone il cui contributo è perlomeno poco chiaro!

Devo tanta parte della mia carriera scientifica a Guido e lo ricorderò sempre come uno dei due maestri che ho avuto nei miei ormai cinquanta anni di lavoro: Giancarlo Setti e Guido Chincarini – che mi hanno insegnato tantissimo e mi hanno guidato con mano ferma, talvolta un poco troppo…, nel lavoro sia scientifico che gestionale.



Gaia scopre oltre 350 nuovi asteroidi binari


Analizzando le orbite di asteroidi misurati nella terza data release di Gaia sono stati trovati almeno 350 nuovi, e insospettati, sistemi binari. Scoperta, questa, che apre la strada a un modo inedito di utilizzare il satellite più preciso di sempre nelle

17979424
Avrete forse sentito parlare della coppia di asteroidi Didymos e Dimorphos, protagonisti della prima missione di difesa planetaria della Nasa con lo schianto della sonda Dart sul più piccolo dei due, Dimorphos. Insieme formano un sistema binario in cui – secondo recenti studi – il secondario Dimorphos, quello impattato dalla sonda Dart, ha avuto origine anche grazie all’eiezione di massi dal primo. Su Astronomy & Astrophysics è di oggi la notizia che il satellite Gaia dell’Esa è stato in grado di trovare più di 350 piccoli compagni come Dimorphos attorno ad asteroidi già noti, ma ritenuti solitari.

17979426
Infografica che riassume la ricerca di lune attorno ad asteroidi ritenuti singoli, intrapresa dagli autori di un nuovo studio utilizzando i dati della terza Data Release di Gaia. Crediti: ESA/Gaia

Una scoperta tanto preziosa quanto inattesa, questa di Gaia. Tornando a Dart, infatti, sebbene l’obbiettivo principale della missione fosse la deviazione dell’asteroide come test di difesa planetaria, i risultati scientifici ottenuti dall’analisi dei due corpi, e della loro storia come coppia, non sono meno importanti. Gli asteroidi, infatti, sono oggetti utilissimi e unici per studiare la formazione e l’evoluzione del Sistema solare, e quando si trovano in configurazione binaria hanno un valore aggiunto: permettono di studiare come si formano, si scontrano e interagiscono nello spazio corpi diversi.

Secondo la teoria, sistemi simili a Didymos e Dimorphos non dovrebbero essere così rari, o per lo meno, dovrebbero essere più numerosi rispetto a quelli trovati finora. Al di là della difficoltà oggettiva nel trovare minuscoli satelliti in orbita attorno ad asteroidi noti – e già di per sé piccoli – le tecniche osservative a disposizione selezionano solo determinate configurazioni, tralasciando intere classi di oggetti e sistemi.

Fra i vari modi di individuare la presenza di un satellite attorno a un asteroide principale, c’è la cosiddetta ricerca delle anomalie astrometriche periodiche, ovvero di spostamenti nella posizione di un asteroide che risultano anomali rispetto al moto che ci si aspetterebbe se questo fosse solo nello spazio, e periodici, e dunque spiegabili ipotizzando che siano causati dell’influenza gravitazionale di un altro corpo. Isolare questa piccola anomalia nel moto e misurarla è davvero difficile per quasi qualunque telescopio attualmente operativo, sulla Terra e in orbita. Ad eccezione di Gaia, che, come dicevamo, ha azzardato la prima ricerca sistematica di sistemi binari di asteroidi “alla cieca”, ovvero senza alcuna ipotesi di binarietà a priori.

17979428
Questa immagine mostra le orbite degli oltre 150mila asteroidi presenti nella release 3 dei dati di Gaia, dalle parti interne del Sistema aolare agli asteroidi troiani alla distanza di Giove, con diversi codici colore. Il cerchio giallo al centro rappresenta il Sole. Il blu rappresenta la parte interna del Sistema solare, dove si trovano gli asteroidi vicini alla Terra. La Fascia principale, tra Marte e Giove, è verde. I troiani di Giove sono rossi. Crediti: Esa/Gaia/Dpac; Cc By-Sa 3.0 Igo

Finora il telescopio spaziale era stato usato solamente per confermare – o smentire – alcuni candidati sospetti e selezionati mediante altre tecniche. Ma la precisione di misura e la capacità dimostrata in questo esercizio ha spinto gli astronomi a tentare il passo successivo, ovvero quello di cercare, in asteroidi ritenuti singoli, la presenza di piccoli compagni.

Uno sforzo che non si è rivelato azzardato, visto che Gaia ne ha già trovati 352.

«Gli asteroidi binari sono difficili da trovare perché sono per lo più corpi piccoli e lontani da noi», spiega Luana Liberato dell’Observatoire de la Côte d’Azur, in Francia, e prima autrice del nuovo studio. «Nonostante ci aspettassimo che poco meno di un sesto degli asteroidi avesse un compagno, finora abbiamo trovato solo 500 asteroidi in sistemi binari. Ma questa scoperta dimostra che ci sono molte lune attorno ad asteroidi là fuori che aspettano solo di essere trovate».

Gli autori hanno analizzato tutti i dati della terza Data release di Gaia, che contiene misure precisissime delle posizioni e dei moti di oltre 150 mila asteroidi. Non solo, il satellite ha anche raccolto dati sulla chimica degli asteroidi, e compilato così la più grande collezione di “spettri di riflettanza” (curve di luce che rivelano il colore e la composizione di un oggetto). La prossima release di dati è prevista non prima della metà del 2026 ma, stando ai risultati già ottenuti, gli astronomi già sperano di trovarci dentro un numero ancora maggiore di orbite di asteroidi da analizzare in cerca di sistemi binari.

E tornando al sistema binario menzionato in apertura, sarà diretta verso Didymos e Dimorphos anche la prossima missione dell’Agenzia spaziale europea, che si leverà in volo il prossimo autunno: Hera. Farà seguito alla missione Dart della Nasa – che, lo dicevamo, nel 2022 si è scontrata con Dimorphos – per produrre un’indagine post-impatto. Sarà la prima sonda a compiere un rendez-vous con un sistema binario di asteroidi.

Per saperne di più:



Bolle di plasma e il “motore” dei lampi radio veloci


Un nuovo studio internazionale guidato dall’Istituto nazionale di astrofisica, con la partecipazione di diversi atenei italiani, ha scoperto l’origine dell’emissione persistente osservata in alcuni lampi radio veloci: sarebbe una bolla di plasma a generar

17963568
17963570
Illustrazione artistica di una magnetar, circondata dalla bolla di plasma responsabile dell’emissione persistente osservata in alcuni lampi radio veloci. Crediti: Nsf/Aui/Nrao/S. Dagnello

I fast radio burst (Frb), o lampi radio veloci, sono uno dei misteri aperti più recenti dell’astrofisica moderna: in pochi millisecondi rilasciano una quantità di energia tra le più alte osservabili nei fenomeni cosmici. Scoperti poco più di dieci anni fa, questi forti lampi in banda radio provengono da sorgenti per lo più extragalattiche, ma la loro origine è ancora incerta e molti sono gli sforzi della comunità astrofisica di tutto il mondo per cercare di comprendere i processi fisici alla loro origine.

In pochissimi casi, il rapido lampo che caratterizza i fast radio burst coincide con un’emissione persistente, sempre in banda radio. Una nuova ricerca guidata dall’Istituto nazionale di astrofisica (Inaf) ha registrato l’emissione radio persistente più debole mai rilevata finora per un Frb. Si tratta di Frb 20201124A, un lampo radio veloce scoperto nel 2020, la cui sorgente si trova a circa 1,3 miliardi di anni luce da noi. Oltre al lavoro di ricercatori e ricercatrici Inaf, lo studio vede la collaborazione delle Università di Bologna, Trieste e della Calabria, e la partecipazione internazionale di istituti di ricerca e università in Cina, Stati Uniti, Spagna e Germania.

Le osservazioni – rese possibili dal radiotelescopio più sensibile al mondo, il Very Large Array (Vla) negli Stati Uniti – hanno permesso di verificare la predizione teorica che prevede una bolla di plasma all’origine dell’emissione radio persistente dei lampi radio veloci. I risultati sono pubblicati oggi sulla rivista Nature.

«Siamo riusciti a verificare tramite osservazioni che l’emissione persistente che accompagna alcuni fast radio burst si comporta come previsto dal modello di emissione nebulare, ovvero una ‘bolla’ di gas ionizzato che circonda il motore centrale» spiega Gabriele Bruni, ricercatore Inaf a Roma e primo autore dell’articolo. «In particolare, tramite l’osservazione in banda radio di uno dei lampi più vicini, siamo riusciti a misurare la debole emissione persistente proveniente dalla stessa posizione del Frb, estendendo di due ordini di grandezza l’intervallo di flusso radio esplorato finora per questi oggetti».

Il nuovo lavoro aiuta anche a circoscrivere la natura del motore di questi misteriosi lampi. Secondo i nuovi dati, alla base del fenomeno risiederebbe una magnetar (stella di neutroni fortemente magnetizzata) oppure una binaria a raggi X con regime di accrescimento molto alto, ovvero un sistema binario formato da una stella di neutroni o da un buco nero che accresce materiale da una stella compagna a ritmi molto intensi. Sarebbero infatti i venti prodotti dalla magnetar, oppure dal sistema binario X, a “gonfiare” la bolla di plasma che dà origine all’emissione radio persistente. C’è quindi una relazione fisica diretta tra il “motore” del Frb e la bolla, che si trova nelle sue immediate vicinanze.

La campagna osservativa è stata condotta a seguito di un altro lavoro guidato da Luigi Piro dell’Inaf, coautore del nuovo articolo, nel quale era stata individuata l’emissione persistente nella galassia ospite di questo Frb, ma non ancora con una determinazione della posizione sufficientemente precisa da permettere di associare tra loro i due fenomeni. «In questo nuovo lavoro, abbiamo condotto una campagna a risoluzione spaziale più elevata con il Vla, accompagnata anche da osservazioni in diverse bande con l’interferometro Noema e il Gran Telescopio Canarias (GranTeCan), che ci hanno permesso di ricostruire il quadro generale della galassia e scoprire la presenza di una sorgente radio compatta – la bolla di plasma del Frb – immersa nella regione di formazione stellare» aggiunge Piro. «Nel frattempo, è stato pubblicato anche il modello teorico sulla nebulosa, permettendoci di testarne la validità e, infine, di confermare il modello stesso».

Gran parte del lavoro è stato dedicato a escludere che l’emissione radio persistente provenisse proprio da una regione di formazione stellare, e che quindi non fosse legata fisicamente alla sorgente del Frb. A questo scopo, le osservazioni fatte con Noema in banda millimetrica hanno misurato la quantità di polveri, che tracciano le regioni di formazione stellare “oscurate”, e quelle fatte con il GranTeCan in banda ottica hanno misurato l’emissione da idrogeno ionizzato, anch’esso un tracciante del tasso di formazione di stelle.

«Le osservazioni ottiche sono state un elemento importante per studiare la regione del Frb a una risoluzione spaziale simile al radio» nota la coautrice Eliana Palazzi dell’Inaf di Bologna. «Poter mappare l’emissione dell’idrogeno con questo dettaglio ci ha permesso di derivare un tasso di formazione locale di stelle che è risultato essere troppo basso per giustificare l’emissione radio continua».

La maggior parte dei fast radio burst non presenta emissione persistente. Finora, questo tipo di emissione era stata associata soltanto a due Frb, ma a un regime di luminosità che non permetteva di verificare il modello proposto. Nel caso di Frb20201124A, invece, la sua distanza sì grande ma non eccessiva ha permesso di misurare l’emissione persistente nonostante la bassa luminosità. Capire la natura dell’emissione persistente permette di aggiungere una tessera al puzzle sulla natura di queste misteriose sorgenti cosmiche.

Per saperne di più:

  • Leggi su Nature l’articolo “A nebular origin for the persistent radio emission of fast radio bursts”, di Gabriele Bruni, Luigi Piro, Yuan-Pei Yang, Salvatore Quai, Bing Zhang, Eliana Palazzi, Luciano Nicastro, Chiara Feruglio, Roberta Tripodi, Brendan O’Connor, Angela Gardini, Sandra Savaglio, Andrea Rossi, A. M. Nicuesa Guelbenzu, Rosita Paladino


Gli altopiani venusiani di Ishtar Terra


Una nuova ricerca ha rivelato che Venere, spesso considerato il gemello inospitale della Terra, potrebbe condividere una sorprendente storia geologica con il nostro pianeta. Gli scienziati hanno scoperto che i vasti altopiani di Venere potrebbero essersi

17954803
17954805
Vista globale della superficie di Venere, centrata a 180 gradi di longitudine est. I mosaici radar ottenuti con la sonda Magellano sono stati mappati su un globo simulato al computer per creare questa immagine. Le lacune nei dati sono riempite con i dati del Pioneer Venus Orbiter o con un valore medio costante. Il colore simulato viene utilizzato per migliorare la struttura su piccola scala. Le tonalità si basano sulle immagini a colori registrate dalle navicelle sovietiche Venera 13 e 14. Crediti: Nasa/Jet Propulsion Laboratory-Caltech

Una nuova ricerca ha rivelato che Venere, spesso considerato il gemello inospitale della Terra, potrebbe condividere una sorprendente storia geologica con il nostro pianeta. Gli scienziati hanno scoperto che i vasti altopiani di Venere, noti come tessere (perché il terreno è frammentato e ricorda le tessere di un mosaico), potrebbero essersi formati attraverso processi simili a quelli che hanno creato i primi continenti della Terra, miliardi di anni fa.

Lo studio internazionale, guidato da Fabio Capitanio della Monash University School of Earth, Atmosphere and Environment, in collaborazione con la Nasa, è stato pubblicato a inizio agosto sulla rivista Nature Geoscience. «Lo studio mette in discussione la nostra comprensione di come si evolvono i pianeti», spiega Capitanio. «Non ci aspettavamo che Venere, con la sua temperatura superficiale di 460°C e la mancanza di tettonica a placche, possedesse caratteristiche geologiche così complesse».

Utilizzando simulazioni al computer ad alte prestazioni e i dati della sonda Magellano, i ricercatori hanno modellato la formazione di Ishtar Terra, il più grande altopiano di Venere. Situato nei pressi del polo nord, la sua estensione territoriale è approssimativamente pari a quella degli Stati Uniti d’America e si eleva di circa 4 chilometri rispetto al livello medio superficiale. I risultati suggeriscono che Ishtar Terra e altre tessere potrebbero essersi sollevate attraverso un processo simile alla formazione dei cratoni terrestri, gli antichi nuclei dei nostri continenti.

«Questa scoperta fornisce un’affascinante nuova prospettiva su Venere e sui suoi potenziali legami con la Terra primordiale», dice Capitanio. «Le caratteristiche che abbiamo trovato su Venere sono sorprendentemente simili ai primi continenti terrestri, il che suggerisce che le dinamiche del passato di Venere potrebbero essere state più simili a quelle della Terra di quanto si pensasse».

Capire come si sono formati questi “continenti” su Venere potrebbe far luce sull’evoluzione dei pianeti rocciosi, compreso il nostro. I cratoni della Terra contengono indizi cruciali sull’emergere della topografia, dell’atmosfera e persino della vita. «Studiando caratteristiche simili su Venere, speriamo di svelare i segreti della storia iniziale della Terra», conclude Capitanio. «La nostra ricerca ha aperto la strada a future missioni su Venere, come DaVinci, Veritas ed EnVision. Queste missioni forniranno ulteriori approfondimenti sulla storia geologica di Venere e sul suo legame con la Terra».

Per saperne di più:



L’origine della sottile atmosfera lunare


Grazie all’analisi dei campioni di suolo lunare raccolti durante le missioni Apollo, si è scoperto che la vaporizzazione da impatto è il processo principale con cui la Luna ha generato e sostenuto la sua atmosfera estremamente sottile nel corso di miliard

17949319
17949321
Rendering artistico di un astronauta che lavora sulla superficie lunare durante una futura missione. Crediti: Nasa

Pur non avendo aria respirabile, la Luna ha un accenno di atmosfera. Dagli anni Ottanta gli astronomi hanno osservato un sottilissimo strato di atomi che “rimbalzano” sulla superficie lunare. Questa sottile atmosfera – tecnicamente nota come esosfera – è probabilmente il prodotto di un qualche tipo di agente atmosferico spaziale ma è sempre stato difficile stabilire con certezza quale sia il processo coinvolto.

Ora, gli scienziati del Mit e dell’Università di Chicago affermano di aver identificato il processo principale che ha formato l’atmosfera lunare e continua tuttora a sostenerla. In uno studio pubblicato su Science Advances, il team riferisce che l’atmosfera lunare è principalmente il prodotto della vaporizzazione da impatto.

Nel loro studio, i ricercatori hanno analizzato campioni di suolo lunare raccolti dagli astronauti durante le missioni Apollo della Nasa. La loro analisi suggerisce che, nel corso dei 4,5 miliardi di anni di storia della Luna, la sua superficie è stata continuamente bombardata, prima da massicci meteoriti e poi, più recentemente, da micrometeoroidi, grandi come grani di polvere. Questi impatti costanti hanno smosso il suolo lunare, vaporizzando alcuni atomi al contatto e facendo volare in aria le particelle. Alcuni atomi vengono espulsi nello spazio, mentre altri rimangono sospesi sulla Luna, formando una tenue atmosfera che viene costantemente rifornita quando altri meteoriti continuano a colpire la superficie.

Ma vediamo come è avvenuta la scoperta.

Nel 2013 la Nasa inviò un orbiter intorno alla Luna per effettuare una dettagliata ricognizione atmosferica. Il Lunar Atmosphere and Dust Environment Explorer (Ladee, pronunciato laddie) aveva il compito di raccogliere a distanza informazioni sulla sottile atmosfera lunare, sulle condizioni della superficie e su eventuali influenze ambientali sulla polvere lunare. Gli scienziati speravano che le misurazioni della sonda sulla composizione del suolo e dell’atmosfera potessero essere correlate a determinati processi di erosione spaziale che avrebbero potuto spiegare come si è formata l’atmosfera lunare.

Già all’epoca sospettavano che due processi meteorologici spaziali avessero un ruolo nella formazione dell’atmosfera lunare: la vaporizzazione da impatto e lo sputtering ionico, un fenomeno che coinvolge il vento solare, che trasporta particelle cariche energetiche dal Sole attraverso lo spazio. Quando queste particelle colpiscono la superficie lunare, possono trasferire la loro energia agli atomi del suolo e farli schizzare in aria.

«In base ai dati di Ladee, sembra che entrambi i processi svolgano un ruolo importante», spiega Nicole Nie del Department of Earth, Atmospheric and Planetary Sciences del Mit. «Per esempio, è emerso che durante le piogge di meteoriti si vedono più atomi nell’atmosfera, il che significa che gli impatti hanno un effetto. Ma ha anche mostrato che quando la Luna è protetta dai raggi del Sole, come durante un’eclissi, ci sono cambiamenti negli atomi dell’atmosfera, il che significa che anche il Sole ha un impatto».

Per individuare con maggiore precisione le origini dell’atmosfera lunare, Nie ha preso in considerazione i campioni di suolo lunare raccolti dagli astronauti durante le missioni Apollo della Nasa. Insieme ai suoi colleghi dell’Università di Chicago ha acquisito 10 campioni di suolo lunare, ognuno dei quali misurava circa 100 milligrammi, una quantità minima che, secondo le sue stime, potrebbe stare in una singola goccia di pioggia. Da ogni campione ha cercato di isolare due elementi: il potassio e il rubidio. Entrambi gli elementi sono volatili, cioè facilmente vaporizzabili con urti e sputtering ionico.

Ogni elemento esiste sotto forma di diversi isotopi, dove un isotopo è una variazione dello stesso elemento che presenta lo stesso numero di protoni ma un numero leggermente diverso di neutroni. Per esempio, il potassio può esistere in tre isotopi, ognuno dei quali ha un neutrone in più ed è leggermente più pesante del precedente. Allo stesso modo, esistono due isotopi del rubidio.

Il team ha pensato che se l’atmosfera lunare fosse costituita da atomi che sono stati vaporizzati e sospesi nell’aria, gli isotopi più leggeri dovrebbero essere trasportati più facilmente, mentre quelli più pesanti avrebbero maggiori probabilità di depositarsi al suolo. Inoltre, la vaporizzazione da impatto e lo sputtering di ioni dovrebbero determinare proporzioni isotopiche molto diverse nel suolo. In particolare, il rapporto specifico tra isotopi leggeri e pesanti che rimangono nel suolo, sia per il potassio che per il rubidio, dovrebbe rivelare il processo principale che contribuisce alle origini dell’atmosfera lunare.

Tenendo conto di tutto ciò, Nie ha analizzato i campioni Apollo dapprima frantumandoli in polvere fine, poi sciogliendo le polveri in acidi per purificare e isolare le soluzioni contenenti potassio e rubidio. Successivamente, ha fatto passare queste soluzioni attraverso uno spettrometro di massa per misurare i vari isotopi di potassio e rubidio presenti in ogni campione.

Alla fine, il team ha scoperto che i terreni contenevano soprattutto isotopi pesanti di potassio e rubidio. I ricercatori sono stati in grado di quantificare il rapporto tra isotopi pesanti e leggeri sia del potassio che del rubidio e, confrontando i due elementi, hanno scoperto che la vaporizzazione da impatto è molto probabilmente il processo dominante attraverso il quale gli atomi vengono vaporizzati e trasportati a formare l’atmosfera lunare.

17949323
All’origine della sottile atmosfera lunare potrebbe esserci (A) la vaporizzazione da impatto di meteoriti, (B) lo sputtering ionico da vento solare e (C) il desorbimento stimolato dai fotoni. La vaporizzazione da impatto e lo sputtering ionico del vento solare liberano gli atomi dalle rocce, mentre la (C) rilascia solo gli atomi adsorbiti debolmente legati. Una volta che gli atomi sono stati rilasciati da (B) o (A), una frazione di essi viene persa nello spazio attraverso la fuga gravitazionale (D). La (C) non provoca alcuna fuga gravitazionale a causa della sua bassa energia. Gli atomi che non fuggono direttamente nello spazio possono rimbalzare più volte sulla superficie lunare finché non vengono persi nello spazio o reimpiantati sulla superficie lunare tramite (E) fotoionizzazione o (F) essere intrappolati in modo permanente sulla superficie lunare. Crediti: Science Advaces, Nie et al.

«Con la vaporizzazione da impatto, la maggior parte degli atomi rimane nell’atmosfera lunare, mentre con lo sputtering ionico molti atomi vengono espulsi nello spazio», spiega Nie. «Grazie al nostro studio, ora possiamo quantificare il ruolo di entrambi i processi e dire che il contributo relativo della vaporizzazione da impatto rispetto allo sputtering ionico è di circa 70:30 o più». In altre parole, il 70% o più dell’atmosfera lunare è il prodotto dell’impatto di meteoriti, mentre il restante 30% è una conseguenza del vento solare.

«La scoperta di un effetto così sottile è notevole, grazie all’idea innovativa di combinare le misurazioni degli isotopi di potassio e rubidio con un’attenta modellazione quantitativa», afferma Justin Hu, postdoc che studia i suoli lunari all’Università di Cambridge, che non ha partecipato allo studio. «Questa scoperta va oltre la comprensione della storia della Luna, poiché tali processi potrebbero verificarsi ed essere più significativi su altre lune e asteroidi, che sono al centro di molte missioni di ritorno programmate».

«Senza questi campioni Apollo, non saremmo stati in grado di ottenere dati precisi e fare misure quantitative per capire le cose in modo più dettagliato», afferma Nie. «È importante riportare campioni dalla Luna e da altri corpi planetari, in modo da poter tracciare immagini più chiare della formazione e dell’evoluzione del Sistema solare».

Per saperne di più:



Astronomia, fino a Ferragosto è l’ora dell’Africa


Inaugurata oggi a Città del Capo la 32esima Assemblea generale dell’Unione astronomica internazionale, la prima nei 105 anni di storia dell’Unione a svolgersi nel continente africano. Riunirà fino al 15 agosto oltre duemila astronomi professionisti proven

17930237
17930239
Da sinistra: Charles Takalana (capo della segreteria della Società astronomica africana), Debra Elmegreen (presidente Iau), Piero Benvenuti (segretario generale Iau) e Kevin Govender (chair dell’Assemblea generale). Crediti: Iau/Bradley Urion

Da oggi, martedì 6, fino al 15 agosto oltre duemila astronomi professionisti provenienti da 82 paesi – circa 70 gli italiani, una cinquantina dei quali dell’Istituto nazionale di astrofisica – si riuniscono a Città del Capo, in Sudafrica, per l’Assemblea generale della Iau, l’Unione astronomica internazionale. È la prima volta, nei 105 anni di storia della Iau, che l’Assemblea generale si tiene nel continente africano. L’edizione successiva, quella del 2027, si svolgerà invece qui in Italia, a Roma.

Durante i dieci giorni dell’Assemblea i partecipanti potranno condividere il loro lavoro in diversi ambiti, confrontandosi su temi d’attualità come il modo in cui la storia dell’universo sta venendo riscritta grazie alle immagini del telescopio spaziale James Webb, i nuovi metodi per scoprire pianeti al di fuori del Sistema solare, gli sforzi necessari per proteggere i cieli bui dall’inquinamento luminoso e il ruolo dell’astronomia nello sviluppo globale.

«Il mondo intero si riunisce a Città del Capo per le prossime due settimane, di persona o virtualmente, per la 32esima Assemblea generale della Iau, la prima nel continente africano nei nostri 105 anni di storia», ricorda Debra Elmegreen, presidente della Iau. «Siamo entusiasti di celebrare la ricca storia dell’astronomia in Africa presentando le nostre ricerche, avviando nuove collaborazioni, facendo rete, condividendo l’astronomia con il pubblico ed esplorando le bellezze locali».

Oggi il Sudafrica ospita diversi osservatori di livello mondiale, tra cui il Southern African Large Telescope (Salt), che con il suo specchio primario da 10 metri è il più grande telescopio ottico singolo dell’emisfero australe. Inoltre, l’array a media radiofrequenza (Ska-Mid) dello Square Kilometre Array Observatory (Skao), attualmente in costruzione in Sudafrica, diventerà una volta completato il telescopio a media radiofrequenza più potente al mondo.

17930241
Lo stand Inaf in allestimenti alla General Assembly della Iau, a Cape Town. Crediti: C. Badia/Inaf

Il programma scientifico prevede oltre duemila presentazioni suddivise in sei simposi, dodici focus meetings e altre sessioni dedicate organizzate da divisioni, uffici, commissioni e gruppi di lavoro della Iau. Per due settimane la conferenza offrirà ai ricercatori una piattaforma stimolante per lo scambio di conoscenze, la creazione di nuove collaborazioni e il progresso della nostra comprensione dell’universo.

L’incontro metterà anche in evidenza gli obiettivi del piano strategico della Iau e il modo in cui sta realizzando la sua missione di promuovere e salvaguardare l’astronomia in tutti i suoi aspetti. In particolare, la conferenza illustrerà le attività delle divisioni e degli uffici scientifici della Iau per lo sviluppo, la divulgazione, l’istruzione e il sostegno ai giovani astronomi. Un altro punto all’ordine del giorno sarà il Centro Iau per la protezione del cielo buio e silenzioso dalle interferenze delle costellazioni satellitari (Cps).

L’Istituto nazionale di astrofisica (Inaf) è presente con un suo stand, dal quale a partire da oggi arriveranno sui nostri canali social – in particolare su X e su Instagram – aggiornamenti e interviste con gli astronomi presenti sul posto.




Pannelli solari alieni? Non li vedremmo


Se esistessero civiltà extraterrestri avanzate, uno dei motivi per cui sarebbero difficili da individuare con i nostri telescopi è che il loro fabbisogno energetico potrebbe essere relativamente modesto. Servirebbero diverse centinaia di ore di osservazio

17924766
17924768
Impressione artistica di un esopianeta con una civiltà extraterrestre avanzata. Le strutture sulla destra sono pannelli solari orbitanti che raccolgono la luce dalla stella madre e la convertono in elettricità che viene poi trasmessa alla superficie tramite microonde. L’esopianeta a sinistra illustra altre potenziali caratteristiche tecnologiche: luci di città (strutture circolari luminose) sul lato notturno e nuvole multicolori sul lato diurno che rappresentano varie forme di inquinamento, come il biossido di azoto prodotto dalla combustione di combustibili fossili o i clorofluorocarburi usati nella refrigerazione. Crediti: Nasa/Jay Freidlander

Per coloro che si occupano di valutare il potenziale di vita extraterrestre degli esopianeti, una delle sfide ricorrenti è quella di determinare la probabilità dell’esistenza di vita microbica, di vita complessa o di una civiltà così avanzata da poterne individuare le tecnofirme, ossia la prova di alterazioni ambientali provocate dalla tecnologia di quella civiltà.

Un articolo recentemente pubblicato su The Astrophysical Journal analizza una tecnofirma in particolare – quella indotta dalla presenza di pannelli solari – e ipotizza che, se esistessero civiltà extraterrestri avanzate, uno dei motivi per cui potrebbero essere difficili da individuare è che il loro fabbisogno energetico potrebbe essere relativamente modesto. Se la loro cultura, la loro tecnologia e le dimensioni della popolazione non richiedessero grandi quantità di energia, non avrebbero bisogno di costruire enormi strutture di raccolta dell’energia che potrebbero essere rilevate dai nostri telescopi, attuali o futuri. Tali strutture, sulla base della nostra esperienza, potrebbero essere costituite da pannelli solari che coprono una porzione significativa della superficie del loro pianeta o da megastrutture orbitanti che sfruttano la maggior parte dell’energia della loro stella madre, entrambe in grado di essere individuate dal Sistema solare.

I ricercatori hanno utilizzato modelli al computer e dati satellitari per simulare un pianeta simile alla Terra con vari livelli di copertura di pannelli solari in silicio. Le celle fotovoltaiche a base di silicio hanno un’elevata riflettanza nell’ultravioletto-visibile (Uv-Vis) e nel vicino infrarosso, all’interno della gamma di lunghezze d’onda di una missione spaziale come, ad esempio, Habitable Worlds Observatory (Hwo) della Nasa. Lo studio ipotizza che i presunti extraterrestri costruiscano pannelli solari in silicio perché è relativamente abbondante rispetto ad altri elementi utilizzati per l’energia solare, come germanio, gallio o arsenico. Inoltre, il silicio è in grado di convertire in elettricità la luce emessa dalle stelle simili al Sole ed è conveniente estrarlo e produrlo in celle solari.

Assumendo che sia utilizzata solo energia solare per fornire il fabbisogno energetico umano del 2022 con una copertura terrestre del 2,4 per cento circa, e proiettando la futura domanda di energia ipotizzando vari scenari di crescita, valutano la rilevabilità dei pannelli solari con un telescopio da 8 metri simile a quello di Hwo. Con l’orientamento di osservazione più favorevole e concentrandosi sul forte margine di assorbimento nell’Uv-Vis (0,34-0,52 μm), hanno scoperto che sono necessarie diverse centinaia di ore di osservazione per raggiungere un rapporto segnale/rumore pari a 5 per un pianeta simile alla Terra in orbita attorno a una stella simile al Sole a 30 anni luce di distanza, anche con una copertura di pannelli solari pari al ∼23 per cento.

Tuttavia, il fabbisogno di 30 miliardi di esseri umani con uno standard di vita elevato è pari solo all’8,9 per cento di copertura dei pannelli solari. «Abbiamo scoperto che anche se la nostra attuale popolazione di circa 8 miliardi di persone si stabilizzasse a 30 miliardi con un elevato tenore di vita e utilizzassimo solo l’energia solare per l’alimentazione, consumeremmo comunque molta meno energia di quella fornita da tutta la luce solare che illumina il nostro pianeta», dice Ravi Kopparapu del Goddard Space Flight Center, autore principale del lavoro.

Le ipotesi alla base dello studio sono piuttosto forti. I ricercatori assumono che un’ipotetica civiltà extraterrestre si affidi esclusivamente all’energia solare. Se venissero utilizzate altre fonti di energia, come la fusione nucleare, la tecnofirma del silicio si ridurrebbe considerevolmente, rendendo la civiltà ancora più difficile da individuare. Lo studio ipotizza inoltre che la popolazione a un certo punto si stabilizzi. Se questo non dovesse accadere per qualsiasi motivo, forse saranno spinti a espandersi sempre di più nello spazio. Infine, è impossibile sapere se una civiltà avanzata possa utilizzare qualcosa che non abbiamo ancora immaginato e che richiede una quantità di energia molto più elevata.

Nello studio, i ricercatori discutono anche della necessità di concetti come civiltà di Kardeshev di tipo I/II – rispettivamente, una civiltà in grado di utilizzare tutta l’energia disponibile sul pianeta d’origine (4×1016 watt) e una civiltà in grado di raccogliere tutta l’energia della stella del proprio sistema planetario (4×1026 watt) mediante mega strutture, come sfere di Dyson. Anche con una popolazione molto più numerosa di quella attuale, l’uso di energia della civiltà umana sarebbe di ordini di grandezza inferiore alla soglia per provocare un riscaldamento termico diretto o per raggiungere la scala di una civiltà di tipo Kardashev I. Qualsiasi civiltà extraterrestre che raggiunga livelli di popolazione sostenibili potrebbe anche trovare un limite alla sua necessità di espandersi, il che suggerisce che una civiltà che si espande su tutta la galassia, come immaginato nel paradosso di Fermi, potrebbe non esistere.

Per saperne di più:



Partite le toppe per Nicer, ora tocca agli astronauti


A più di un anno dal guasto del telescopio Nicer, appositi cerotti hanno raggiunto la Stazione spaziale internazionale a bordo della 21esima missione commerciale di rifornimento dell’agenzia Northrop Grumman, lanciata domenica scorsa. Verranno utilizzati

17924475
17924477
Immagine che mostra le zone danneggiate dei parasole del telescopio spaziale Nicer, cerchiate in rosso. All’interno del cerchio più in basso, si possono vedere addirittura i cerchi concentrici degli specchi che convogliano la radiazione nel rivelatore. Senza parasole, il rivelatore viene colpito anche dalla radiazione solare e non consente di effettuare le osservazioni in banda X per cui è progettato. Crediti: Nasa/Sultan Alneyadi

Da un anno il telescopio spaziale a raggi X della Nasa Nicer, che vive ancorato alla Stazione spaziale internazionale, funziona a metà: di notte osserva e raccoglie dati di qualità, di giorno non riesce a fare quasi nulla. Da maggio 2023, infatti, il telescopio ha una “perdita di luce” nei suoi frangisole che lascia passare la luce solare, impedendo le osservazioni e rischiando di danneggiare le ottiche del telescopio. In poco più di un anno, la Nasa ha progettato, costruito e spedito sulla Stazione spaziale internazionale dei particolari cerotti che andranno a suturare il danno. Saranno posizionati sulle zone danneggiate direttamente dagli astronauti che per l’occasione faranno un’attività extraveicolare nello spazio.

La zona danneggiata di Nicer (acronimo di Neutron star Interior Composition Explorer), la vedete nell’immagine di apertura (cliccare per ingrandire), cerchiata in rosso. Come tutti i telescopi a raggi X, Nicer osserva attraverso dei concentratori di raggi X a forma di cilindro; ne ha 56, ciascuno dei quali dotato di 24 specchi annidati e progettati per convogliare i raggi X in un rivelatore. Davanti al concentratore si trova un sottile filtro (500 volte più sottile di un capello umano), chiamato scudo termico, che blocca la luce solare e in particolare le lunghezze d’onda infrarosse, ultraviolette e ottiche. Il concentratore è sormontato da un pezzo circolare cavo di carbonio composito, chiamato parasole, con sei segmenti che ricordano una torta a fette. Il danno più grande agli scudi ha le dimensioni di un francobollo, gli altri sono grandi circa quanto la testa di uno spillo. Durante le ore diurne della stazione, le parti danneggiate lasciano entrare la luce solare, che raggiunge i rivelatori saturando i sensori e interferendo con le osservazioni.

Nonostante si trovi attaccato alla Stazione spaziale, comunque, Nicer non è stato progettato per essere sottoposto a manutenzione o riparazione. È stato installato in modo robotizzato e viene gestito a distanza.

17924479
Due parasoli contenenti 12 “toppe” per riparare i danni del telescopio spaziale Nicer. Solamente cinque serviranno durante la servicing mission degli astronauti della Stazione spaziale internazionale. Crediti: Nasa/Sophia Roberts

«La possibilità di una riparazione è stata una sfida entusiasmante», racconta Keith Gendreau, principal investigator di Nicer al Goddard Space Flight Center della Nasa a Greenbelt, nel Maryland. «Abbiamo preso in considerazione soluzioni sia per la passeggiata spaziale che per la robotica, cercando di capire come installare le toppe utilizzando ciò che è già presente sul telescopio e nei kit di strumenti della stazione spaziale».

Dopo molti mesi di riflessione, è stata scelta la passeggiata spaziale, e il kit di riparazione è stato spedito sulla Stazione spaziale domenica scorsa a bordo della 21esima missione commerciale di rifornimento. La soluzione, dicevamo, è abbastanza semplice. Consiste di cinque toppe, ciascuna a forma di “fetta di torta” (ne potete vedere una nell’immagine qui sopra), che devono essere inserite nei parasole direttamente dagli astronauti e copriranno le aree più danneggiate del telescopio. La Nasa ne ha comunque spedite 12, di toppe, in modo da poterne avere di ricambio se necessario.

Nicer sarà il primo telescopio a raggi X in orbita a essere riparato dagli astronauti e il quarto osservatorio scientifico a essere riparato nello spazio in assoluto. Vi daremo aggiornamenti sulla passeggiata spaziale degli astronauti non appena verrà eseguita.

Guarda il video del lancio sul canale YouTube della Nasa:

youtube.com/embed/JhFi-h65kz0?…



Installato al Vera Rubin lo specchio secondario


Il 24 luglio scorso specchio secondario da 3,5 metri dell’Osservatorio Vera C. Rubin – a Cerro Pachón, in Cile – è stato installato sul telescopio. È il primo “pezzo di vetro” a essere collocato e integrato nella sua posizione finale. Anche gli astronomi

17906811
17906813
Il 24 luglio 2024, lo specchio secondario da 3,5 metri dell’Osservatorio Vera C. Rubin è stato installato sul Simonyi Survey Telescope. Lo specchio secondario è il primo “pezzo di vetro” ad essere installato nella sua posizione finale sul telescopio. Crediti: Osservatorio Rubin/Nsf/Aura/S. MacBride

Importante passo avanti nella realizzazione dell’Osservatorio Vera C. Rubin, in Cile: l’ultima settimana di luglio è stata completata l’installazione dello specchio secondario da 3.5 metri di diametro. Si tratta del primo componente permanente del sistema ottico del telescopio, che comprende anche uno specchio primario da 8.4 metri e la fotocamera digitale da 3.2 gigapixel Lsst, la più grande del mondo.

Lo specchio secondario di Rubin è uno fra i più grandi specchi convessi mai realizzati. Prodotto dalla Corning Advanced Optics di Canton, New York, utilizzando il vetro Corning® Ule® (Ultra-Low Expansion Glass), è uno specchio monolitico di dieci centimetri di spessore. Consegnato allo stato grezzo nel 2009, è rimasto parcheggiato per cinque anni alla Harvard University prima di essere lucidato e rifinito alla L3Harris Technologies di Rochester (New York), che ha anche progettato e costruito l’intera cella dello specchio secondario, formata da una piastra di montaggio in acciaio rigido, 72 attuatori assiali e sei tangenti (che sostengono e correggono la forma del sottile specchio per compensare la forza di gravità), elettronica, sensori, sistema di controllo termico e sistema di controllo dello specchio. La superficie riflettente è stata poi rivestita nel 2019 con un sottile strato d’argento, mentre l’integrazione nella cella è avvenuta all’inizio del mese scorso.

«Lavorare di nuovo con lo specchio dopo cinque anni è estremamente emozionante, perché sembra davvero di essere in dirittura d’arrivo», dice Sandrine Thomas, vicedirettrice per la costruzione dell’Osservatorio Rubin. «Ora abbiamo il primo componente in vetro sul telescopio, un importante passo avanti verso la scienza rivoluzionaria del Rubin».

We officially have glass on the telescope!

Last week, Rubin Observatory staff safely installed the 3.5-meter secondary mirror—the first glass to be installed on the telescope!

: t.co/F1EbOu8yPD pic.twitter.com/sl5rTIBH56

— Rubin Observatory (@VRubinObs) August 1, 2024

Nelle prossime settimane il team del telescopio reinstallerà la cosiddetta commissioning camera, una versione ridota della fotocamera Lsst che verrà utilizzata per condurre una serie di campagne di test sul sistema ottico, compresi entrambi gli specchi. Il team si concentrerà inoltre sulla preparazione dell’assemblaggio dello specchio primario per l’integrazione, in agosto, e della fotocamera Lsst, che sarà installata sul telescopio entro fine anno.

Anche gli astronomi e i tecnologi dell’Istituto nazionale di astrofisica (Inaf) hanno avuto un ruolo decisivo nel conseguimento di questo importante risultato: a inizio anno, infatti, un team guidato da Gabriele Rodeghiero – e che comprende Rodolfo Canestrari, Felice Cusano, Enrico Giro e Luca Rosignoli – ha preso parte alla campagna di test, in Cile, verificando che la cella dello specchio secondario del telescopio, conclusa la spedizione dalla ditta costruttrice al sito osservativo, funzionasse ancora come previsto.

Altrettanto importante si preannuncia la partecipazione dell’Inaf alla campagna scientifica del Vera Rubin, la Legacy Survey of Space and Time (Lsst), con inizio previsto all’inizio del 2025. «Oltre duecento ricercatori italiani hanno manifestato interesse a lavorare sui dati della survey», ricorda infatti Claudia M. Raiteri dell’Inaf di Torino, program manager della partecipazione italiana alla survey. «L’Inaf guida la partecipazione italiana a Rubin-Lsst, coordinata da Massimo Brescia dell’Università Federico II di Napoli, finanziando un programma di 23 contributi in-kind, che danno diritto a un centinaio di data right per ricercatori anziani e circa quattrocento data right per giovani ricercatori per tutti i dieci anni della survey».

Guarda il video della missione Inaf a Cerro Pachón dello scorso febbraio:

youtube.com/embed/gQxchSfSLwE?…



Una biobanca sulla Luna


Con numerose specie a rischio di estinzione, un team internazionale di ricercatori ha proposto una soluzione innovativa per proteggere la biodiversità del pianeta: un biorepository lunare. La proposta, presentata in un recente articolo pubblicato sulla ri

17906354
17906356
Base lunare basata sul concetto di stampa 3D. Una volta assemblate, le cupole gonfiate vengono ricoperte da uno strato di regolite lunare stampato in 3D da robot che aiutano a proteggere gli occupanti dalle radiazioni spaziali e dai micrometeoriti. Crediti: Esa/Foster + Partners

Per proteggere la biodiversità del pianeta, una soluzione innovativa potrebbe essere un biorepository lunare. L’idea, illustrata in un recente articolo pubblicato sulla rivista BioScience, si propone di creare un deposito passivo e a lungo termine per campioni crioconservati delle specie animali più a rischio della Terra.

Guidato da Mary Hagedorn del National Zoo and Conservation Biology Institute dello Smithsonian, il team di ricercatori prevede di sfruttare le temperature naturalmente fredde della Luna, in particolare nelle regioni permanentemente in ombra vicino ai poli, che rimangono costantemente al di sotto dei -196 gradi Celsius. Queste condizioni sono ideali per la conservazione a lungo termine di campioni biologici senza la necessità di intervento umano o di alimentazione, due fattori che potrebbero minacciare la resilienza dei depositi sulla Terra. Una simile struttura lunare sarebbe preservata anche dai disastri naturali terrestri, dai cambiamenti climatici e dai conflitti geopolitici.

Un primo obiettivo nello sviluppo di un biorepository lunare sarebbe la crioconservazione di campioni di pelle animale con cellule di fibroblasti. I ricercatori hanno già iniziato a sviluppare protocolli utilizzando il Goby stellato (Asterropteryx semipunctata) – un piccolo pesce appartenente alla famiglia dei Gobiidae, nativo dell’Indo-Pacifico, dall’area del Mar Rosso fino alle isole Hawaii, Line e Tuamoto – come specie esemplare, a cui ne seguiranno altre. Gli autori prevedono di sfruttare il campionamento su scala continentale attualmente in corso presso la National 190 Ecological Observatory Network (Neon) della National Science Foundation come fonte per il futuro sviluppo di cellule di fibroblasti.

17906358
Diagramma di flusso proposto per creare cellule crioconservate e testarle nello spazio. (a) Campionamento delle pinne pelviche del Goby stellato. (b) Le pinne e i campioni di Dna possono essere conservati in un biorepository. (c) Un biorepository terrestre, come lo Smithsonian National Museum of Natural History, dove i campioni crioconservati possono essere tenuti per decenni o potenzialmente più a lungo prima del lancio nello spazio. (d) Fibroblasti di pinne espansi in laboratorio. (e) Cellule di fibroblasti crioconservate. (f) Cellule crioconservate e imballaggi criogenici testati sulla Terra per verificarne la robustezza in condizioni spaziali. (g) I campioni crioconservati pronti per lo spazio vengono inviati alla Stazione Spaziale Internazionale per essere testati e poi riportati sulla Terra per l’analisi della vitalità e delle modifiche al Dna. Crediti: BioScience, Hagedorn et al.

Le sfide da affrontare per realizzare una simile banca sono diverse: sviluppare un imballaggio robusto per il trasporto nello spazio, attenuare gli effetti delle radiazioni e la creazione di un complesso quadro di governance internazionale per il deposito. Gli autori invitano a un’ampia collaborazione tra nazioni, agenzie e parti interessate internazionali per realizzare questo programma decennale. I prossimi passi prevedono l’espansione delle partnership, in particolare con le agenzie di ricerca spaziale, e la conduzione di ulteriori test sulla Terra e a bordo della Stazione spaziale internazionale.

Nonostante le sfide da superare, gli autori sottolineano che la necessità di agire è impellente: «A causa di una miriade di fattori antropici, un’alta percentuale di specie ed ecosistemi si trova ad affrontare minacce di destabilizzazione ed estinzione che stanno accelerando più velocemente della nostra capacità di salvare queste specie nel loro ambiente naturale».

Per saperne di più:



Stage ad Asiago per 13 giovanissimi astronomi


Si è conclusa sabato 3 agosto all’Osservatorio astrofisico di Asiago la settimana di stage dedicata ai tredici partecipanti junior dei Campionati italiani di astronomia che hanno disputato la finale nazionale senza però essere stati ammessi alla fase succ

17899127
17899129
In piedi da sinistra: Riccardo Di Cicco, Mattia Bertocchi, Isabel Manaigo, Andrea Mineo, Lorenzo Contrisciani, Sofia Spiga, Davide Barberi. Davanti: Claudio Nicolai, Francesco Tropenscovino, Marco Rosiello, Asia Lo Presti, Alessandro Di Giovanni, Sebastiano Cristallo, Alessandro Fabi. Crediti: Marco Citossi

Tredici di ragazzi appassionati di astronomia hanno appena terminato uno stage di una settimana all’Osservatorio astrofisico di Asiago (VI), dal 29 luglio al 3 agosto, durante il quale hanno potuto sperimentare in prima persona – con lezioni, laboratori, esercizi e telescopi – la vita degli astronomi. Si tratta dei partecipanti junior dei Campionati italiani di astronomia che hanno disputato la finale nazionale – una competizione agguerritissima che tutti i partecipanti meriterebbero di vincere – ma non sono stati ammessi alla fase successiva. Chi non ce l’ha fatta è stato dunque invitato a uno stage estivo come premio e, soprattutto, come aiuto alla preparazione per la prossima edizione dei Campionati.

Durante lo stage sono stati affrontati diversi argomenti astronomici per esercizio, per approfondimento e anche un po’ per divertimento: la descrizione degli strumenti e dei programmi di ricerca della sede di Asiago, lezioni e laboratori di spettroscopia e fotometria, la storia della longitudine e della misura del tempo, un fantasioso quiz sull’utilizzo dell’astrolabio, esperimenti di ottica geometrica e una chiacchierata sull’aurora dello scorso dieci maggio e sull’inquinamento luminoso. Nel programma anche la caratterizzazione di un reticolo di diffrazione (di cui i ragazzi hanno calcolato il passo, ovvero la distanza tra le fenditure: 50 micron), la visita al telescopio Galileo (122 cm), l’utilizzo dei telescopi della sede del Pennar e di Ekar, la visione con successiva discussione dei film The Martian sulla colonizzazione di Marte e The first man sulla storia delle missioni Apollo.

Mercoledì mattina è arrivato il momento atteso da tutti: la visita ai telescopi Copernico (182 cm) e Schmidt (67/92 cm), dopo un’ora e mezza di salita per raggiungere a piedi la sede di cima Ekar. Entrare nella cupola del telescopio ottico più grande presente sul suolo italiano è sempre emozionante e alcuni ragazzi hanno ammesso che lo vorrebbero sul tetto di casa (meglio non dire ai genitori quanto pesa).

Il meteo è stato abbastanza clemente così, oltre alle serate osservative ai telescopi, un pomeriggio durante uno squarcio tra le nuvole i ragazzi hanno potuto mettere l’occhio all’oculare e osservare macchie solari e protuberanze sulla superficie del Sole. Le attività interessanti (e divertenti) non sono mancate: la classica serata pizza e gelato ad Asiago e poi l’orienteering astronomico a squadre “alla ricerca dello spettro perduto” – novità di quest’anno. Per aggiudicarsi l’ambito premio (prodotti tipici dell’Altopiano e gadget astronomici), i ragazzi hanno dovuto individuare nove indizi indicati sulla mappa, risolvere esercizi e riconoscere alcune costellazioni dell’emisfero australe per scoprire dove era nascosto lo spettro del Sole ripreso da Joseph von Fraunhofer nel 1814.

«La sede di Asiago», dice Lina Tomasella, coordinatrice della sede e responsabile dei telescopi di cima Ekar, «con i suoi tre telescopi operativi, le aule, le foresterie, il museo degli strumenti e il ricchissimo archivio storico delle lastre fotografiche rappresenta un eccezionale polo astronomico dove i ragazzi possono fare lezione e venire a stretto contatto con l’astronomia osservativa in una splendida cornice naturale. La sede ospita frequentemente scuole di astrofisica, Pcto e stage estivi per studenti grazie alla collaborazione tra l’Inaf e l’Università di Padova, che condividono spazi, telescopi e strumenti, offrendo ai ragazzi l’opportunità di stare giorno e notte in osservatorio e utilizzare i telescopi. Prendere dati in cielo ed elaborarli in prima persona non è cosa di tutti i giorni». I ragazzi hanno alloggiato in tre grandi appartamenti presso la foresteria della sede del Pennar dell’Osservatorio, accompagnati da chi scrive e da Marco Citossi, dell’Inaf di Trieste, e aiutati per lo svolgimento delle attività da Daniele Spiga e Andrea Reguitti dell’Inaf di Brera.




Apparizioni e sparizioni in cielo


Il cielo notturno di questo mese è all'insegna delle Perseidi, lo sciame meteorico più conosciuto e comodo da osservare, e di ben due occultazioni planetarie da parte del nostro satellite. Un mese di apparizioni di stelle cadenti e sparizioni di pianeti,

17829074
17829076
Apparizione in cielo di una Perseide

È giunto il momento delle Perseidi, di eredità cometarie in forma di minuscoli frammenti di polveri che, entrando nell’atmosfera terrestre, creano un incredibile spettacolo di scie luminose che a volte sono colorate e solcano il cielo per parecchi gradi. Più conosciute come lacrime di San Lorenzo, le Perseidi sono grani di polveri lasciati lungo la sua orbita dalla cometa Swift-Tuttle. Per osservarle non sono necessari strumenti particolari. L’occhio nudo è lo strumento perfetto. Occorre trovare un posto al buio lontano dalle luci cittadine e una posizione comoda in modo da osservare il cielo il più possibile senza stancarsi. Il picco dello sciame è aspettato per il 12 del mese, dunque le sere migliori per osservarle sono intorno a questa data. E quindi la notte tra l’11 e il 12 di agosto e quella tra il 12 e il 13, ma potrebbero esser viste anche gli altri giorni. La Luna in questo periodo è prossima al primo quarto e tramonterà verso le dieci di sera, perciò non disturberà di molto le osservazioni, che potranno essere compiute per tutta la durata della notte.

17829078
Saturno prossimo all’occultazione da parte della Luna il 21 agosto 2024. Simulazione ottenuta con il software Stellarium

In questo mese la Luna si traveste da maga e farà sparire – prospetticamente, s’intende – il pianeta Saturno. Dall’Italia l’occultazione sarà visibile la mattina del 21, prima del sorgere del Sole tra le 5:29 e le 6:36 ora locale. Gli istanti precisi di inizio e fine dipenderanno dal luogo di osservazione, con la Luna quasi piena e Saturno che sparirà dal lato luminoso e riapparirà nella piccola parte di lembo non illuminato dal Sole. La riapparizione sarà resa complicata dalla Luna prossima al tramonto e con il cielo rischiarato dal sorgere del sole.

La Luna concederà il bis, sempre il 21 ma questa volta di sera, occultando Nettuno, questa volta visibile solo dal sud Italia. L’occultazione piuttosto radente del pianeta blu inizierà alle 23:09 e finirà alle 23:49 ora locale e sarà possibile seguirla attraverso un telescopio, anche se la luminosità del nostro satellite renderà complicata l’osservazione del pianeta.

Una bellissima congiunzione tra Giove e Marte sarà visibile la notte del 14 agosto. I due astri sorgeranno praticamente insieme verso l’una e un quarto del mattino ad est nord-est e la coppia di pianeti sarà visibile fino all’alba verso est sparendo poi nelle luci del Sole ormai sorto.

17829080
Simulazione con il software Stellarium della congiunzione del 14 agosto 2024 tra Giove e Marte in un bellissimo campo stellare con la costellazione del Toro e le Pleiadi

Le notti del 27 e del 28 vedranno verso est una bella situazione con la Luna prossima prima a Giove e poi a Marte. Visibile a notte fonda fino all’alba.

Ad agosto la Via Lattea sarà sempre ben visibile in cieli bui, senza luna, e lontano dalle luci artificiali. La costellazione del Cigno sarà ben alta prossima allo zenith, così pure quella della Lira. Invece lo Scorpione, oramai al tramonto verso sud-ovest, farà spazio ad Andromeda e al quadrato di Pegaso verso est. L’ammasso globulare M15, o grande ammasso di Pegaso, sarà ben posizionato in cielo nelle notti senza luna, nella prima metà del mese, così pure poco più sotto M2. Annunciando l”arrivo dei prossimi mesi inizierà a farsi notare anche a occhio nudo la grande galassia di Andromeda.

Guarda su MediaInaf Tv la videoguida al cielo del mese a cura di Fabrizio Villa:

youtube.com/embed/jEmzdjPtYKs?…



Dove la materia s’impantana, quella oscura avanza


Un team di astronomi, guidato da Emily Silich del Caltech e da Elena Bellomi di Harvard, ha districato le componenti di una collisione tra due enormi ammassi di galassie in cui la materia oscura si è separata dalla materia ordinaria, superandola e attrave

17827446
Quante cose si imparano, dagli scontri. È così nelle relazioni fra noi umani, relazioni che proprio da un conflitto ben gestito possono maturare ed evolvere. È così nel microcosmo della fisica delle particelle, dove per sondare la natura della materia si usano acceleratori con lo scopo di generare collisioni ad altissima energia. Ed è così anche nel macrocosmo dell’astrofisica: l’esempio più recente arriva dalla coppia di ammassi di galassie Macs J0018.5+1626, immense strutture formate da migliaia di galassie a miliardi di anni luce di distanza da noi. Assistendo allo scontro frontale tra i due ammassi della coppia, un team di astronomi guidato da Emily Silich del Caltech e dall’astronoma italiana Elena Bellomi – originaria di Castelletto Stura, in provincia di Cuneo, ma oggi ricercatrice all’Harvard-Smithsonian Center for Astrophysics, negli Stati Uniti – è riuscito in un’imopresa senza precedenti: “osservare” in modo diretto il disaccoppiamento delle velocità della materia oscura e di quella ordinaria. Scoprendo, come riportato in un articolo pubblicato a metà giugno su The Astrophysical Journal, che la materia oscura si lascia alle spalle la materia ordinaria.

17827448
Rappresentazione artistica della collisione tra due enormi ammassi di galassie. Man mano che la collisione procede, la materia oscura negli ammassi di galassie (blu) sopravanza le nubi di gas caldo associate, o materia ordinaria (arancione). Crediti: W.M. Keck Observatory/Adam Makarenko

Ciò che hanno visto, analizzando decenni di dati osservativi raccolti con i telescopi più disparati, è che durante la collisione fra i due ammassi le singole galassie, separate dalle immense distanze dello spazio intergalattico, s’incrociano senza entrare in collisione. Così non è per il grosso della materia normale, vale a dire il gas intergalattico: lo scontro qui avviene eccome, il gas diventa turbolento e si surriscalda. E se vi state chiedendo in tutto questo dove sia la materia oscura, è presto detto: non si è vista direttamente, altrimenti non sarebbe materia oscura, ma l’assunto degli autori dello studio è che durante la collisione si comporti in modo analogo alle galassie, che dunque possono essere considerate un cosiddetto proxy per la materia oscura. Riassumendo: il gas intergalattico è la materia ordinaria, le galassie – pur essendo anch’esse materia ordinaria – qui rappresentano la materia oscura, e quel che si è visto è che durante lo scontro quest’ultima sopravanza la prima.

E perché avviene? Entrambe le forme di materia interagiscono gravitazionalmente, ma solo la materia ordinaria interagisce anche elettromagneticamente, ed è proprio l’interazione elettromagnetica a rallentare il gas intergalattico durante la collisione. Così, mentre la materia ordinaria – il gas, appunto – rimane impantanata, la materia oscura presente abbondanza – ne costituisce l’85 per cento – in ciascuno dei due ammassi supera indenne la zona d’impatto. Provate a immaginare uno scontro frontale fra due camion che trasportano sabbia, suggerisce Silich, prima autrice dello studio. «La materia oscura è come la sabbia, e vola avanti». A differenza dei due camion accartocciati uno sull’altro, che rappresentano invece la materia ordinaria.

La scoperta, come dicevamo, è stata possibile grazie ai dati – alcuni risalenti a decine d’anni fa – di numerosi telescopi: il Caltech Submillimeter Observatory (recentemente rimosso dal suo sito di Maunakea, alle Hawaii, per essere trasferito in Cile), il Keck Observatory sempre di Maunakea, i telescopi spaziali Chandra (raggi X), Hubble (ottico e Uv), Herschel (infrarosso) e Planck (microonde) e, di nuovo da terra, Alma, in Cile.

«Lo studio che abbiamo condotto su Macs J0018.5 vogliamo ripeterlo in futuro su altri cinque o sei ammassi di galassie», dice Bellomi a Media Inaf, «ci stiamo già lavorando, e chissà cosa scopriremo, vista la sorpresa che ci ha regalato questo».

Per saperne di più:

Guarda il servizio video su MediaInaf Tv:

youtube.com/embed/mffznbryaO8?…



Orologi cosmici su Marte


La frequenza degli impatti da meteoriti su Marte è molto superiore a quanto si pensava in precedenza. Poiché il numero di crateri presenti sulla superficie viene utilizzato per datare le superfici dei pianeti, le stime aggiornate degli impatti permetteran

17825535
17825539
Crateri sulla superficie marziana formatisi in seguito al primo impatto di un meteorite rilevato dal lander Mars Insight della Nasa, nel 2021. L’immagine presenta colori modificati per rendere i dettagli più visibili all’occhio umano, ed è stata scattata dal Mars Reconnaissance Orbiter della Nasa. Crediti: Nasa/Jpl-Caltech/University of Arizona.

Nonostante sulla superficie di Marte l’esploratore robotico Insight della Nasa sia inattivo dalla fine del 2022, i suoi dati continuano a produrre nuove scoperte sulla Terra. Insight è infatti dotato di uno strumento chiamato Seis (Seismic Experiment for Interior Structure), un sismografo estremamente sensibile in grado di misurare i minimi movimenti del suolo, utilizzato per registrare eventi sismici probabilmente causati da impatti di meteoriti, i cosiddetti marsquakes (o martemoti). Il lander InSight ha raccolto dati sismici dal momento dell’atterraggio nel 2018 fino a quando i suoi pannelli solari, come previsto, si sono ricoperti di polvere al punto da non poter più generare energia.

Ora, grazie ai dati di Insight, risulta da due studi indipendenti, pubblicati su Nature Astronomy e Science Advances, che la frequenza degli impatti da meteoriti su Marte sia molto superiore a quanto si pensava in precedenza. Il tasso dei marsquakes rilevati da Seis supera infatti le stime precedenti basate sulle immagini satellitari della superficie di Marte.

Secondo i ricercatori, questi dati sismici sono particolarmente significativi perché rappresentano un modo molto più accurato e diretto per misurare i tassi di impatto dei meteoriti e potrebbero permettere una datazione di maggiore precisione delle superfici planetarie del Sistema Solare. In passato, infatti, è stato utilizzato il numero di crateri presenti sulla superficie come “orologio cosmico” basandosi su un semplice assunto: le superfici più vecchie presentano un numero maggiore di crateri rispetto a quelle più giovani. Sembrerebbe invece che i segnali sismici possano fornire una stima molto più accurata del numero degli impatti, rendendo quindi più precisa la regolazione dell’orologio.

Per calcolare l’età planetaria con questo metodo, gli scienziati hanno tradizionalmente utilizzato modelli basati sui crateri della Luna, ma per Marte questi modelli devono essere adattati – oltre che alla dimensione e alla posizione del pianeta – alla presenza dell’atmosfera, che potrebbe impedire agli impattatori più piccoli di colpire la superficie.
Con questo nuovo studio, i ricercatori hanno identificato un nuovo modello di segnali sismici prodotto dall’impatto di meteoriti che si distinguono per una proporzione insolitamente maggiore di onde ad alta frequenza rispetto ai segnali sismici tipici, oltre che per altre caratteristiche, e sono noti come marsquakes ad altissima frequenza. Utilizzando questo nuovo metodo per rilevare gli impatti, i ricercatori hanno contato molti più eventi rispetto a quanto previsto dalle immagini satellitari, in particolare per impatti che producono crateri di soli pochi metri di diametro.

I segnali sismici ottenuti da Insight suggeriscono che Marte viene colpito ogni anno da circa trecento meteoriti delle dimensioni di un pallone da basket, i cui impatti producono crateri di oltre otto metri di diametro sulla superficie del Pianeta rosso. Per i crateri larghi meno di 60 metri, gli scienziati sono stati in grado di stimare la frequenza di formazione di nuovi crateri utilizzando le immagini satellitari, ma il numero di crateri osservati con questo metodo è molto inferiore a quello previsto dai dati sismici.

«Utilizzando i dati sismici per comprendere meglio la frequenza con cui i meteoriti colpiscono Marte e il modo in cui questi impatti modificano la sua superficie, possiamo iniziare a ricostruire una linea temporale della storia geologica e dell’evoluzione del Pianeta rosso», spiega Natalia Wojcicka dell’Imperial College di Londra, coautrice dello studio pubblicato su Nature Astronomy. «Si potrebbe pensare a una sorta di “orologio cosmico” che ci aiuti a datare le superfici marziane e forse, più avanti, altri pianeti del Sistema solare».

«Ascoltare gli impatti sembra essere più efficace che cercarli, se vogliamo capire quanto spesso si verificano» ha dichiarato Gareth Collins dell’Imperial College di Londra, tra gli autori dello stesso studio.

17825541
Il lander della Nasa Mars Insight. Crediti: Nasa/Jpl-Caltech

A rafforzare questi risultati complessivi c’è anche un secondo studio in cui è coinvolto lo stesso gruppo di ricerca, pubblicato su Science Advances. In questo caso, per stimare la frequenza degli impatti su Marte sono state utilizzate le immagini e i segnali atmosferici registrati da InSight, e nonostante l’utilizzo di metodi diversi, entrambi gli studi sono giunti a conclusioni simili. Per la precisione, secondo lo studio pubblicato su Science Advances i tassi di impatto da meteoriti sulla superficie marziana potrebbero essere da due a dieci volte superiori a quelli stimati in precedenza, a seconda delle dimensioni dei meteoroidi. La frequenza di queste collisioni cosmiche mette in discussione le nozioni esistenti sulla frequenza con cui i meteoroidi colpiscono la superficie marziana e suggerisce la necessità di rivedere gli attuali modelli di craterizzazione marziana per incorporare tassi di impatto più elevati, soprattutto da meteoroidi più piccoli.

«I nostri risultati si basano su un piccolo numero di esempi a nostra disposizione, ma la stima dell’attuale tasso di impatto suggerisce che il pianeta viene colpito molto più frequentemente di quanto possiamo vedere usando solo le immagini», dice la prima autrice dello studio Ingrid Daubar, della Brown University (Usa). «Questo ci obbligherà a ripensare alcuni dei modelli che la comunità scientifica utilizza per stimare l’età delle superfici planetarie dell’intero Sistema solare».

Prima dei dati di Seis a bordo di Insight, i nuovi impatti su Marte erano stati individuati con immagini scattate in diversi periodi da telecamere in orbita intorno al pianeta. Senza Seis, molti impatti sarebbero potuti passare altrimenti inosservati, e per individuarli il team di ricerca ha confrontato i dati sismici con le immagini riprese dal Mars Reconnaissance Orbiter della Nasa. Questo duplice approccio, che prevede l’utilizzo di dati sismici e immagini orbitali, ha permesso di confermare che i segnali sismici sono stati causati da impatti e di effettuare un controllo incrociato delle loro scoperte per garantirne l’accuratezza.

Sei degli otto nuovi crateri individuati dai ricercatori in questo modo, si trovano vicini al luogo in cui staziona il lander InSight. I due impatti più distanti identificati dai dati sono ritenuti i due più grandi mai rilevati dagli scienziati, anche dopo decenni di osservazione dall’orbita. Questi ultimi due impatti hanno generato un cratere delle dimensioni di un campo da calcio e sono avvenuti a soli novantasette giorni di distanza l’uno dall’altro, sottolineando la maggiore frequenza di questo tipo di eventi geologici.

«Ci aspetteremmo un impatto di queste dimensioni forse una volta ogni due decenni, ma qui ne abbiamo due a distanza di poco più di novanta giorni l’uno dall’altro», osserva Daubar. «Potrebbe trattarsi di una coincidenza assurda, ma la probabilità che sia solo una coincidenza è davvero molto bassa. È più probabile che i due grandi impatti siano collegati, oppure che il tasso di impatto su Marte sia molto più alto di quanto pensassimo».

Tutte le nuove informazioni acquisite finora risulteranno importanti anche per valutare i potenziali pericoli a cui saranno esposte le future missioni di esplorazione planetaria, sia robotiche che umane.

Per saperne di più: