BlueWalker 3, uno fra gli “astri” più luminosi in cielo
BlueWalker 3. Credit: Michael Tzukran
Un tempo, la sera, se alzavamo gli occhi al cielo e vedevamo per lo più stelle e pianeti. La regola base per distinguerli è che le prime brillano di luce propria e, se le guardiamo attentamente, scintillano, mentre i secondi riflettono la luce del Sole e la loro luminosità appare sempre costante. Negli ultimi anni, hanno affermato la propria presenza sempre di più anche i satelliti artificiali, che brillano anch’essi di luce riflessa dal Sole ma attraversano il cielo molto più velocemente. Servono per lo più alle telecomunicazioni, ne vengono ormai lanciati a costellazioni e stanno diventando un vero e proprio incubo per gli osservatori terrestri. L’ultimo è addirittura protagonista di un articolo pubblicato su Nature, tanto è brillante. Si chiama BlueWalker 3, ed è stato lanciato circa un anno fa.
Lo vedete nel breve video realizzato da uno dei coautori dell’articolo che riportiamo qui sotto. BlueWalker 3 è quell’enorme chiazza luminosa che attraversa l’inquadratura a velocità elevata. Ora, se immaginate di essere un astronomo che sta osservando un oggetto debole, come una galassia lontana, una nebulosa o un sistema planetario, vi renderete presto conto del disturbo che un tale passaggio può arrecare. Non solo, dal video emerge anche un secondo problema. Se affinate l’occhio, infatti, noterete che in altri due momenti (uno verso gli 11 secondi, uno verso i 25 secondi) ci sono altri due puntini luminosi che corrono attraverso il campo di vista. Si tratta di due satelliti della costellazione Starlink, molto meno luminosi ma altrettanto fastidiosi dal punto di vista osservativo, specialmente perché la loro presenza, in cielo, si fa sempre più fitta.
BlueWalker 3 è il più grande prototipo di satellite commerciale per le telecomunicazioni attualmente in orbita, è statunitense ed è stato lanciato nel settembre 2022. Rispetto agli altri satelliti, possiede un’antenna grande 8×8 metri, una caratteristica che ha da subito preoccupato astronomi e astrofili. In un luogo isolato e con il cielo scuro, condizioni ormai rare nella maggior parte dei luoghi abitati della terra, l’occhio nudo non riesce a vedere corpi celesti più deboli della magnitudine apparente 6. Nel centro di una città, invece, dove il cielo è molto meno scuro a causa dell’inquinamento luminoso riesce a vedere oggetti che hanno magnitudine 2, al massimo (ricordiamo che la magnitudine è una scala inversa, pertanto valori più piccoli significano luminosità più grandi). Le costellazioni di satelliti attualmente in orbita, in media, riflettono la luce del Sole acquisendo una luminosità che va da 4 a 6 magnitudini.
Quando BlueWalker 3 ha dispiegato completamente la propria antenna offrendo alla Terra un’area collettrice di 64.3 metri quadrati, invece, la sua luminosità alle lunghezze d’onda del visibile è cresciuta da 6 a 0.4 magnitudini: la stessa luminosità di alcune fra le stelle più luminose del cielo – Procione e Achernar, le due più brillanti della costellazione del Cane Minore nell’emisfero boreale e dell’Eridano nell’emisfero australe. Significa che è più luminoso della stragrande maggioranza degli astri in cielo.
Per valutare l’andamento della luminosità del satellite nel tempo, è stata condotta una vera e propria campagna osservativa che ha chiamato in causa sia astronomi professionisti che amatori in Cile, negli Stati Uniti, in Messico, in Nuova Zelanda, in Olanda e infine in Marocco. La luminosità di BlueWalker 3, come per ogni satellite, varia in base alla sua posizione rispetto al Sole, e lungo l’orbita. Le osservazioni hanno confermato, appunto, che il satellite diventa periodicamente centinaia di volte più luminoso dell’attuale raccomandazione dell’Unione Astronomica Internazionale (Iau), la raccomandazione Dark and Quiet Skies II, che suggerisce una luminosità massima per i satelliti in orbita bassa per mitigare l’effetto delle interferenze artificiali sulla visibilità.
Un tempo, dicevamo, c’erano stelle e pianeti. Ora le stelle che l’inquinamento luminoso ci consente di vedere sono sempre meno, mentre la tendenza è quella di lanciare satelliti sempre più grandi e brillanti. Il rischio, secondo gli autori, è che se non si regolamentano i lanci satellitari, le stelle diventeranno inaccessibili persino per la prossima generazione di grandi telescopi terrestri attualmente in costruzione. Per questo occorre valutare attentamente l’impatto che ogni nuovo lancio ha sull’ambiente spaziale e terrestre, prima di procedere. Dunque, suggeriscono gli autori alla fine dell’articolo, l’autorizzazione a lanciare dovrebbe tenere in considerazione questo aspetto.
Per saperne di più:
- Leggi su Nature l’articolo “The high optical brightness of the BlueWalker 3 satellite“, di Sangeetha Nandakumar, Siegfried Eggl, Jeremy Tregloan-Reed, Christian Adam, Jasmine Anderson-Baldwin, Michele T. Bannister, Adam Battle, Zouhair Benkhaldoun, Tanner Campbell, J. P. Colque, Guillermo Damke, Ilse Plauchu Frayn, Mourad Ghachoui, Pedro F. Guillen, Aziz Ettahar Kaeouach, Harrison R. Krantz, Marco Langbroek, Nicholas Rattenbury, Vishnu Reddy, Ryan Ridden-Harper, Brad Young, Eduardo Unda-Sanzana, Alan M. Watson, Constance E. Walker, John C. Barentine, Piero Benvenuti, Federico Di Vruno, Mike W. Peel, Meredith L. Rawls, Cees Bassa, Catalina Flores-Quintana, Pablo García, Sam Kim, Penélope Longa-Peña, Edgar Ortiz, Ángel Otarola, María Romero-Colmenares, Pedro Sanhueza, Giorgio Siringo e Mario Soto;
- Guarda il video del passaggio di BlueWalker 3, e di altri due satelliti Starlink, girato da uno dei coautori dell’articolo, Marco Langbroek, della Delft Technical University
Il Premio “Gianni Tofani” 2023 va a Valentina Vacca
La ricercatrice Valentina Vacca dell’Inaf di Cagliari, vincitrice della seconda edizione del Premio Tofani. Crediti: Inaf Arcetri
Con la cerimonia di premiazione presso l’Osservatorio astrofisico di Arcetri si conclude oggi la seconda edizione del Premio Gianni Tofani per giovani ricercatori e ricercatrici. Ad aggiudicarselo è Valentina Vacca, ricercatrice all’Inaf di Cagliari dal 2018, con un progetto innovativo dal titolo “Defrost: Detecting Excess in Faraday Rotation thrOugh Sofisticated analysis Techniques”. Il progetto punta a sviluppare un sistema in fibra ottica di nuova generazione per la ricezione di segnali radioastronomici, basandosi sull’interpretazione delle misure prodotte con lo Square Kilometre Array e i suoi precursori, al fine di fare luce su come i campi magnetici cosmologici si siano formati ed evoluti. Il progetto si svolgerà presso il Max Planck for Astrophysics a Garching, vicino a Monaco di Baviera. In palio, oltre al soggiorno all’estero, anche la somma di 25mila euro.
«Sono onorata di aver vinto questo premio, in memoria di una personalità di così alto rilievo per Inaf e per l’astronomia internazionale», commenta soddisfatta la vincitrice. «Questa per me è un’opportunità unica per realizzare un progetto di ricerca che avevo in mente da tempo e particolarmente importante ora alla luce dei nuovi dati via via disponibili con la nuova generazione di strumenti radio».
«Il conferimento del Premio oggi, a poco più di un anno di distanza dalla premiazione della prima edizione, ci permette di ricordare di nuovo Gianni Tofani e la sua eredità scientifica e personale», dice Sofia Randich, direttrice dell’Inaf di Arcetri.
Gianni Tofani, ingegnere scomparso prematuramente nel 2015, è stato una figura di primo piano dell’Osservatorio astrofisico di Arcetri e dell’Inaf, con il suo contributo fondamentale allo sviluppo della radioastronomia italiana. Il Premio a lui dedicato è stato istituito dall’Inaf di Arcetri con l’obiettivo di promuovere lo sviluppo della futura carriera di ricerca di giovani brillanti ricercatrici e ricercatori nel campo della ricerca astrofisica e tecnologie radioastronomiche. In palio, un soggiorno presso enti di ricerca o università estere o organizzazioni internazionali di notevole prestigio, volto a potenziare la propria esperienza nel mondo della ricerca.
Galassie a disco nell’universo bambino
Esempio di galassia irregolare nell’universo locale (Ngc 1427A). Crediti: Eso
Per anni si è creduto che l’universo primordiale pullulasse di galassie irregolari. Questi oggetti dalla forma sgraziata si generano tipicamente durante un merger, ovvero la fusione fra due galassie dovuta alla reciproca attrazione gravitazionale. Eventi di questo tipo si credevano molto frequenti in passato, rendendo l’universo più antico un ambiente inospitale per le ordinate galassie a disco, disintegrate da queste violente collisioni. Nulla a che vedere insomma con il “placido” universo di oggi, popolato in larga parte da armoniose galassie a spirale e – in misura minore – da prominenti galassie ellittiche, e in cui solo uno scampolo di oggetti è costituito da galassie irregolari.
Uno studio pubblicato la scorsa settimana su The Astrophysical Journal smentisce completamente questo scenario. Pare infatti che l’universo nei suoi primi miliardi di anni sia stato un posto meno caotico di quanto si credesse in passato. La ricerca che ha portato a questa conclusione è stata condotta da un gruppo internazionale di astronomi, guidato da Leonardo Ferreira dell’Università di Victoria, in Canada. Avvalendosi di immagini catturate dal telescopio spaziale James Webb, il team di astronomi ha classificato la forma di quasi quattromila galassie. Tale analisi dettagliata ha evidenziato come l’universo fosse ricchissimo di galassie a disco già un miliardo di anni dopo il Big Bang. Queste galassie, caratterizzate da una forma regolare e molto simili alla Via Lattea dal punto di vista morfologico, sarebbero addirittura fino a dieci volte più numerose di quanto precedentemente stimato.
«Per oltre trent’anni si è pensato che le galassie a disco fossero rare nell’universo primordiale a causa delle frequenti e violente interazioni che le coinvolgono», dice Ferreira. «Il fatto che Webb ne trovi così tante è un altro segno delle capacità di questo strumento e del fatto che le strutture nelle galassie si formino molto prima di quanto nessuno avesse previsto».
Questi risultati non sarebbero stati possibili senza l’occhio sopraffino del telescopio Webb. Quelle che infatti erano state classificate come galassie irregolari sulla base delle immagini del telescopio spaziale Hubble, si sono rivelate invece galassie a disco una volta osservate con Webb. Ciò accade per diverse ragioni, prima fra tutte la migliore risoluzione angolare di Webb, che consente di scorgere strutture dettagliate in quelle che per Hubble erano solo regioni indistinte. Inoltre, Hubble è più sensibile alla luce ultravioletta prodotta dalle galassie lontane, che viene però facilmente assorbita dalle polveri, e può dunque conferire un aspetto frammentato alle galassie, complementare alla distribuzione dei grani di polvere. Infine, la luce ultravioletta viene prevalentemente emessa dalle stelle giovani, che spesso sono distribuite in maniera irregolare all’interno delle galassie, favorendo una parvenza disomogenea, al contrario della radiazione infrarossa catturata da Webb.
Quattro galassie osservate con i telescopi Hubble (a sinistra) e James Webb (a destra) a diverse lunghezze d’onda. Il telescopio Webb consente di distinguere molti più dettagli rispetto a Hubble. Crediti: L. Ferreira, C. Conselice
Sembra dunque che la cosiddetta “sequenza di Hubble“, ovvero l’insorgenza dei tipi morfologici che caratterizzano l’universo attuale, sia in piedi già da un bel pezzo, ovvero da quando l’universo aveva solo un miliardo di anni. Le implicazioni sono molte. Secondo Christopher Conselice, secondo autore dell’articolo, gli astronomi devono ripensare i processi di formazione delle prime galassie e la loro evoluzione negli ultimi dieci miliardi di anni. Il nuovo studio stima infatti che la maggior parte delle stelle si formi nelle galassie a disco. Tuttavia, pare che questa scoperta non metta in pericolo gli attuali modelli cosmologici. Gli autori hanno deciso di rendere pubblica la loro classificazione, in modo tale che sia utilizzata dalla comunità astronomica e funga da base per osservazioni di grandi aree di cielo, essenziali per investigare ulteriormente la morfologia delle galassie.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “The JWST Hubble Sequence: The Rest-Frame Optical Evolution of Galaxy Structure at 1.5 < z < 6.5”, di Leonardo Ferreira, Christopher J. Conselice, Elizaveta Sazonova, Fabricio Ferrari, Joseph Caruana, Clár-Bríd Tohill, Geferson Lucatelli, Nathan Adams, Dimitrios Irodotou, Madeline A. Marshall, Will J. Roper, Christopher C. Lovell, Aprajita Verma, Duncan Austin, James Trussler e Stephen M. Wilkins
A Federica Spoto e Diego Turrini il Premio Farinella
Logo del meeting congiunto “Annual Division for Planetary Sciences” ed “Europlanet Science Congress”, in corso a San Antonio, Texas
Assegnato congiuntamente a Federica Spoto, del Minor Planet Centre di Cambridge (Massachusetts, Usa), e a Diego Turrini, dell’Istituto nazionale di astrofisica – Osservatorio astrofisico di Torino il Premio Paolo Farinella 2023 per i loro eccezionali contributi al campo From superbolides to meteorites: physics and dynamics of small planetary impactors. La cerimonia di premiazione si è svolta oggi durante il 55esimo meeting annuale della Division for Planetary Sciences dell’American Astronomical Society, in corso a San Antonio (Texas, Usa) congiuntamente allo Europlanet Science Congress (Epsc).
Il Premio è stato istituito nel 2010 per onorare la memoria dello scienziato italiano Paolo Farinella (1953-2000) e viene assegnato agni anno a un ricercatore di spicco di età non superiore ai 47 anni – l’età dello scienziato al momento della sua scomparsa – che abbia raggiunto risultati importanti in uno degli ambiti di ricerca del professor Farinella, che spaziano dalle scienze planetarie alla geodesia spaziale, alla fisica fondamentale, alla divulgazione scientifica, alla sicurezza nello spazio, al controllo degli armamenti e al disarmo. Ogni edizione del premio – sostenuto dalla Europlanet Society – si concentra su un’area di ricerca diversa. Nel 2023 il tema è stato scelto per evidenziare i recenti progressi nelle conoscenze sulle popolazioni di oggetti near-Earth (Neo) di piccole dimensioni. Il premio è sostenuto dalla Società Europlanet.
«Il lavoro di Diego Turrini ha offerto intuizioni profonde sui processi collisionali che si verificano all’inizio della storia dei sistemi planetari», dice a nome della Commissione del Premio Ettore Perozzi, senior scientist presso la Direzione scientifica dell’Agenzia spaziale italiana (ASI) e presidente del Comitato Paolo Farinella 2023, «mentre Federica Spoto ha aperto la strada per identificare rapidamente e calcolare in modo affidabile l’orbita di impattatori imminenti diretti verso la Terra. L’inizio e la fine, dunque, del lungo viaggio delle meteoriti».
Federica Spoto. Crediti: Jonathan Sullivan
Federica Spoto ha conseguito i suoi titoli accademici in meccanica celeste al Dipartimento di matematica dell’Università di Pisa. Si è poi trasferita in Francia come ricercatrice postdoc all’Observatoire de la Côte d’Azur e all’Institut de Mécanique Céleste et de Calcul des Éphémérides di Parigi. Nel febbraio 2020 è entrata a far parte del Minor Planet Centre dell’Unione astronomica internazionale, dove ricopre oggi il ruolo di project scientist. Diego Turrini ha conseguito la laurea magistrale in fisica all’Università di Milano Bicocca e il dottorato di ricerca in scienze e tecnologie spaziali al Cisas “Giuseppe Colombo” dell’Università di Padova. Si è poi trasferito all’Inaf di Roma come postdoc e attualmente è ricercatore all’Inaf di Torino.
«Sono stata onorata di sapere di aver ricevuto il premio Farinella», dice Federica Spoto, «non solo perché è un grande riconoscimento da un punto di vista professionale, ma anche perché, anche se non ho mai conosciuto Paolo, ho avuto il privilegio e l’onore di lavorare con persone vicine a lui (primo fra tutti Andrea Milani) che ne hanno sempre parlato come di uno scienziato fenomenale e una persona splendida. L’idea che il mio nome sia anche soltanto vicino a quello di Paolo Farinella mi riempie di gioia».
«Ricevere il Premio Farinella ha un significato non solo scientifico ma anche personale», dice Diego Turrini. «Scientificamente, sono onorato dell’importanza riconosciuta ai risultati dei miei studi e del fatto di aver potuto portare avanti la lunga tradizione italiana, di cui Paolo Farinella è stato uno degli esponenti più influenti, nello studio dei corpi minori e del ruolo dei loro impatti nella formazione ed evoluzione del Sistema solare. Tutti i dipartimenti e gli istituti che mi hanno ospitato dal dottorato in poi hanno scritto capitoli importanti della storia di questi campi di studio e vedere il mio lavoro venire considerato allo stesso livello è sicuramente motivo di grande orgoglio professionale».
Diego Turirni. Crediti: Danae Polychroni
«Dal punto di vista personale», continua Turrini, «pur non avendo avuto la possibilità di conoscerlo di persona, Paolo Farinella ha avuto un ruolo determinante nel mio percorso scientifico. Ancora studente universitario a Milano», ricorda Turrini, «in una discussione con compagni di studi espressi la mia curiosità verso il campo delle scienze planetarie, di cui però non si occupava nessuno dei docenti di astrofisica. Per uno dei casi della vita, un ricercatore dell’università che stava passando in corridoio mi sentì e mi disse di avere un libro in ufficio che trattava dell’argomento. Uno dei due autori sulla copertina era proprio Paolo Farinella e già solo l’indice del libro, con la sua interdisciplinarità, mi fece capire che era proprio il campo di studi che volevo seguire. Il che fu una fortuna perché, quando decisi di ordinarne una copia, la libreria non pensò di avvisarmi che il libro era fuori stampa e che la copia sarebbe stata stampata apposta per me, cosa che all’epoca comportava costi elevati. Il Premio Farinella è quindi la chiusura del cerchio iniziato allora nei corridoi dell’università… e la conferma che i soldi spesi allora dai miei genitori per quel libro, che divenne noto in famiglia come “il libro da un milione di dollari”, sono stati un investimento produttivo!».
Per saperne di più:
- Leggi la press releasesul sito della Europlanet Society
- Vai alla pagina dedicata al Premio Paolo Farinella sul sito della Europlanet Society
Ombre nel Sistema solare
Il cielo di questo mese ci delizierà con un’eclissi parziale di Luna, con la Terra che, la sera del 28, proietterà la sua ombra su parte della superficie del nostro satellite. Nonostante la parzialità del fenomeno, sarà interessante seguirla perché un lembo della Luna verrà effettivamente attenuato parecchio in luminosità e si potrà vedere l’ombra della Terra proiettata sulla Luna. A partire dalle 21:36 l’ombra della Terra inizierà a coprire parte della Luna fino a sfiorare il cratere Tycho, per poi terminare verso le 22:53 ora locale.
Simulazione dell’eclissi parziale di Luna del 28 ottobre 2023. L’ombra della Terra sfiorerà il cratere Tycho, mentre Giove, brillante in basso a sinistra, completa la bellezza del cielo
Il massimo dell’eclissi avverrà intorno alle 22:15, quando circa il 12 per cento del disco lunare sarà oscurato dall’ombra del nostro pianeta. Preparatevi già da prima dalle 20 per seguire l’ingresso della Luna nella penombra, per poi aspettare la fase più interessante dell’eclissi.
Facendo un passo indietro nei giorni del mese, il 14 ottobre si segnala un’eclissi anulare di Sole, purtroppo non visibile dall’Italia. Sarà la Luna, questa volta, a proiettare la propria ombra sulla Terra. L’eclissi anulare è una particolare eclissi durante la quale il Sole viene oscurato dalla Luna ma non totalmente, a causa della dimensione più piccola della Luna dovuta al fatto che si trova all’apogeo, ossia nel punto della sua orbita più lontano dalla Terra. In questa particolare situazione la Luna nuova sarà un po’ più piccola in diametro apparente, e quindi non oscurerà completamente il Sole. Perciò il Sole sembrerà un bellissimo anello di fuoco. La fascia di osservabilità, come visibile da questa animazione, è concentrata nel continente americano.
Giove e Venere saranno i due pianeti principali e ben luminosi. Venere ben visibile ancora al mattino prima dell’alba verso est. Il 22 Venere sarà in dicotomia, ossia apparirà illuminato come un quarto di Luna, e il 24 raggiungerà la massima distanza angolare dal Sole, di circa 46 gradi. Giove si sta preparando alla sua opposizione all’inizio del mese prossimo, ed è quindi ben visibile nel cielo notturno. Questo mese quindi è ottimo per la sua osservazione. Già con un piccolo telescopio è possibile – oltre a seguire giorno dopo giorno il movimento dei suoi quattro satelliti principali, Io, Ganimede, Callisto ed Europa – apprezzare lo schiacciamento ai poli, che rende il pianeta piuttosto ellittico a causa della sua forte rotazione su se stesso in 10 ore.
Saturno sarà ancora ben visibile verso est, al calar della sera, per poi tramontare nel cielo ovest, prima del sorgere del Sole. Peggiorerà la sua visibilità con il passare dei giorni, tramontando a fine mese intorno all’una del mattino. Tra il 23 e il 24 ottobre sarà vicino a una bellissima luna crescente appena dopo il primo quarto.
Le ombre dei satelliti Io e Ganimende sulla superficie di Giove, come appaiono il 20 di ottobre 2023 in questa immagine ottenuta con il software Stellarium
Il 20 del mese ci sarà uno spettacolo di ombre cinesi sulla superficie di Giove. Alle 7:38 inizierà a proiettarsi sul pianeta l’ombra di Io, mentre l’ombra di Ganimede inizierà a farsi vedere alle 7:48. Purtroppo Giove sarà basso sull’orizzonte e immerso nelle luci del mattino, rendendo lo spettacolo difficile da osservare, tanto più che servirà un buon telescopio con circa 10 cm di diametro e un buon seeing.
A partire dalla sera del primo di ottobre fino a mattino del 2 ci sarà un incontro tra la Luna e Giove, con i due astri vicini prospetticamente tra di loro. La distanza angolare apparente sarà poco più di 3 gradi ed entrambi saranno visibili dopo il loro sorgere, dopo le 9 di sera, per tutta la durata della notte. Il 3 di ottobre la Luna invece sarà vicino all’ammasso stellare delle Pleiadi, M45. Il massimo avvicinamento sarà al mattino, con il cielo già chiaro, ma potrebbe essere un’occasione per apprezzare il moto della Luna rispetto alle stelle osservando il fenomeno già dalla sera prima. L’evento si ripeterà il 30 del mese dal sorgere della Luna, verso le 18:30 ora locale, e visibile poi per tutta la notte fino al mattino seguente.
Da non perdere lo spettacolo tra la Luna e Venere. Precisamente il 10 di ottobre, con la Luna particolarmente bella perché mostra una sottilissima falce e Venere brillantissimo. Sarà visibile al mattino presto prima dell’alba nel cielo est.
Il 29 ottobre, verso le 2 del mattino, ci sarà un incontro apparente tra la Luna e Giove. Tuttavia, senza fare l’alzataccia, è possibile osservarli leggermente più distanti già dalla sera del 28. Anche in questo caso si può apprezzare il movimento relativo dei due astri osservandoli la sera e poi al mattino seguente, prima del sorgere del Sole.
Abbiamo appena lasciato alle spalle l’estate astronomica e così pure anche la Via Lattea estiva. Traccia del cielo estivo è ancora possibile vederlo appena dopo l’imbrunire, dopo il tramonto del Sole, ma iniziano a dominare le costellazioni tipicamente autunnali. Spicca a sud il quadrato di Pegaso e la costellazione di Andromeda. Così pure la galassia M31, o grande galassia di Andromeda. Se siete lontano dalle luci cittadine non sarà difficile osservarla anche a occhio nudo o con un binocolo.
Dalla parte opposta, ma invisibile a occhio nudo, si potrà trovare la galassia Triangolo, o M33 nel catalogo di Messier. D’altronde, non avendo più il piano galattico estivo che oscura la visuale sull’universo lontano, iniziano a farsi notare altre galassie, ognuna con miliardi di stelle e possibili altri mondi.
Verso il cielo nord, Perseo e Cassiopea saranno sempre più alte all’orizzonte, e così pure il doppio ammasso di Perseo. Anche questo oggetto celeste si può intravedere a occhio nudo, e diventa sicuramente visibile con un binocolo.
Guarda la videoguida di Fabrizio Villa all’osservazione del cielo di ottobre:
Via Lattea, una galassia in declino kepleriano
La curva di rotazione della Via Lattea mostra la velocità di rotazione circolare delle stelle in funzione della distanza dal centro galattico. I punti bianchi e le barre di errore rappresentano le misure ottenute dal catalogo Gaia Dr3. La curva blu rappresenta il miglior adattamento della curva di rotazione con un modello che include materia ordinaria e materia oscura. La parte gialla della curva mostra il “declino kepleriano” – con la velocità V che cala come il raggio R-1/2 – oltre il disco ottico della galassia. Ciò significa che, al di là del disco ottico, l’attrazione gravitazionale è simile a quella di una massa puntiforme. La possibilità che la velocità di rotazione rimanga costante viene invece scartata con una probabilità del 99,7 per cento. Crediti: Jiao, Hammer et al. / Observatoire de Paris – Psl / Cnrs / Esa / Gaia / Eso / S. Brunier
Immaginate di salire sulla bilancia e scoprire che la lancetta segna un valore pari ad appena il 20-25 per cento di quello dell’ultima volta che vi siete pesati… È quello che è accaduto alla Via Lattea, la nostra galassia. La “bilancia”, nel suo caso, si chiama Gaia – il telescopio spaziale dell’Esa per l’astrometria – e all’ultima pesata è risultato che avrebbe una massa pari ad “appena” duecento miliardi di volte quella del Sole: da quattro a cinque volte più bassa rispetto ai circa mille miliardi di masse solari ottenuti da precedenti stime.
La misura – a oggi la più accurata della massa della Via Lattea – è stata assai più complicata che togliersi abiti e scarpe e salire su un piatto: ha richiesto una lunga e paziente analisi della terza release dei dati acquisiti con Gaia – la cosiddetta Gaia Dr3 – da parte di un team di astronomi guidato da Yongjun Jiao dell’Observatoire de Paris e del Cnrs. Il metodo utilizzato è quello della misura della curva di rotazione, ovvero della velocità orbitale delle stelle in funzione della loro distanza dal centro galattico. Il grafico ottenuto – lo vedete nell’immagine di apertura – mostra per le stelle più lontane (quelle oltre i 60mila anni luce) un andamento tipico che gli astronomi chiamano “declino kepleriano”: vale a dire, una velocità che cresce – o meglio, decresce – in modo proporzionale all’inverso della radice quadrata del raggio. E poiché la velocità orbitale dipende anche dalla massa, ecco che da queste misure è possibile risalire al “peso” della nostra galassia.
Ma com’è possibile che la Via Lattea si ritrovi di punto in bianco con una massa che è pari a un quarto, se non a un quinto, di quel che ci si attendeva? Poiché anche per una galassia è improbabile arrivare a perdere il 75-80 per cento del proprio peso solo con sport e dieta, il sospetto che ci fosse qualcosa che non andava nelle stime precedenti è giustificato. In particolare, le conclusioni dello studio francese, di prossima uscita su Astronomy & Astrophysics, sembrano suggerire l‘assenza di quantità significative di materia al di fuori del disco visibile. Considerando che la materia ordinaria – stelle e gas freddo, dunque – della Via Lattea è generalmente stimata in poco più di 60 miliardi di masse solari, essa rappresenterebbe circa un terzo della materia totale misurata con Gaia. Dunque quella oscura risulterebbe essere appena il doppio di quella ordinaria: un risultato sorprendente, scrivono gli autori dello studio, visto che finora si riteneva che la materia oscura dovesse essere almeno sei volte più abbondante della materia ordinaria. Anche se non del tutto inedito, visto che l’ipotesi di una Via Lattea senza – o con poca – materia oscura è già stata formulata in passato, e ne avevamo parlato almeno in un’occasione anche su Media Inaf.
Come spiegarlo? Se quasi tutte le altre grandi galassie a spirale non mostrano una curva di rotazione con declino kepleriano, perché la nostra dovrebbe essere diversa? Le spiegazioni proposte da Jiao e colleghi sono due. Una prima possibilità è legata al fatto che la Via Lattea, nel corso della sua storia, sembra abbia subito poche perturbazioni a seguito di collisioni violente tra galassie: l’ultima risale a circa nove miliardi di anni fa, contro una media di sei miliardi di anni osservata per le altre galassie a spirale. Ciò fra l’altro, sottolineano gli autori dello studio, implica che la curva di rotazione ottenuta per la Via Lattea sia particolarmente accurata, non essendo influenzata dai postumi di una collisione “recente”. La seconda possibilità ha invece a che fare con la differenza metodologica fra le misure della curva di rotazione della Via Lattea a partire dai dati di Gaia – dati “a sei dimensioni”, tanti sono i parametri che caratterizzano ciascuna dei quasi due miliardi di stelle presenti nella sua mappa – e le misure relative alla maggior parte delle altre galassie, basate invece sull’osservazione del gas neutro.
Comunque sia, pare proprio che sulle curve di rotazione delle grandi galassie a spirale – e sulle stime relative alla materia oscura in esse presente – ci sarà parecchio lavoro da fare.
Per saperne di più:
- Leggi su Astronomy and Astrophysics l’articolo “Detection of the Keplerian decline in the Milky Way rotation curve”, di Y.-J. Jiao, F. Hammer, H.-F. Wang, J.-L. Wang, P. Amram, L. Chemin e Y.-B. Yang
Scrutando controluce Trappist-1 b con Jwst
media.inaf.it/wp-content/uploa…
Una rappresentazione artistica del sistema planetario di Trappist-1 visto da un punto vicino al pianeta f visibile a destra. Il pianeta b è il puntino scuro in transito sul disco della stella. Crediti: Nasa/Jpl-Caltech
Fra tutti i sistemi planetari extrasolari noti un posto d’onore va senz’altro riservato a quello della stella Trappist-1, che si trova a circa 40 anni luce da noi. Quando si pensa alle stelle il pensiero va subito al nostro Sole, ma Trappist-1 è molto diversa. Prima di tutto la massa, solo 9/100 di quella solare, al limite inferiore per essere considerata una stella, e poi il diametro, paragonabile a quello del nostro Giove. Si tratta di una piccola stella molto densa, senza un nucleo perché interamente convettiva, che fonde tanto lentamente l’idrogeno in elio da avere un’aspettativa di vita di centinaia di miliardi di anni: una stella praticamente immortale. Tanta parsimonia nell’emissione di energia implica una bassa temperatura in superficie, in effetti arriva a soli 2286 °C e si merita l’appellativo di nana ultrafredda (di tipo spettrale M8V). Di conseguenza la stella emette pochissima luce nel visibile, ma tanta radiazione infrarossa, il contrario di quello che fa il Sole. Nell’infrarosso vicino Trappist-1 emette quasi cento volte più energia che nel visibile, mentre nell’infrarosso lontano questo rapporto sale a ben 2400. Attorno a questa debole nana rossa orbitano almeno sette pianeti, con massa e dimensioni non troppo diverse da quelle della Terra. Per puro caso il piano di questo sistema planetario giace sulla linea di vista, così i pianeti sono stati scoperti, a partire dal 2015, con il metodo del transito. Il calo di luminosità durante un transito permette di determinare le dimensioni del pianeta, inoltre – caso unico fino a ora – le variazioni dei tempi dei transiti dovuti alle interazioni gravitazionali reciproche fra i pianeti hanno permesso di determinarne anche la massa. I pianeti sono stati chiamati Trappist-1 b, c, d, e, f, g, h. Questi corpi si muovono su orbite praticamente circolari con periodi orbitali molto brevi di soli 1,51, 2,42, 4,04, 6,06, 9,21 e 12,35 giorni.
I pianeti sono anche vicinissimi alla nana rossa: i loro raggi orbitali vanno da 1,7 a 9,5 milioni di km. Se usiamo il metro terrestre può sembrare tanto, in realtà il sistema planetario di questa piccola stella rossa può essere comodamente ospitato tutto all’interno dell’orbita di Mercurio, il pianeta più vicino al Sole: quello di Trappist-1 è un sistema planetario in miniatura.
I pianeti e, f, g sono all’interno della zona di abitabilità della nana rossa, quel range di distanze che permette di avere acqua liquida in superficie, però anche le nane ultrafredde presentano un piccolo inconveniente: vivono molto a lungo, ma sono delle stelle a brillamento (flare): sulla loro superficie si verificano delle esplosioni magnetiche con emissioni di plasma e radiazione Uv e X, catalizzate dall’intenso campo magnetico della stella. Eventuali forme di vita presenti sui pianeti e, f, g se la passerebbero piuttosto male nel ricevere in modo improvviso e ripetuto nel tempo un’intensa dose di raggi Uv e X, senza contare che la nube di plasma emessa nel brillamento, allontanandosi nello spazio, potrebbe erodere le loro ipotetiche atmosfere. Nel complesso, l’energia totale ricevuta nell’ultravioletto estremo dai pianeti di Trappist-1 nel corso della loro vita varia da 10 a 1000 volte quella ricevuta dalla Terra.
Nei riquadri a e b sono riportati gli spettri di trasmissione di Trappist-1 b. Nei riquadri c e d gli spettri corretti per le contaminanti stellari. Dal riquadro d risulta che non possono essere escluse atmosfere prive di nubi composte di metano, oppure biossido di carbonio, oppure vapore d’acqua oppure di azoto e metano come Titano. Crediti: Olivia Lim et al., 2023, ApJL 955 L22
Chiaramente ora gli astronomi sono interessati a scoprire se i pianeti di Trappist-1 sono dotati di atmosfera e – in caso affermativo – di quali gas siano composte. In questi ultimi anni il James Webb Space Telescope (Jwst) ha fatto osservazioni nell’infrarosso durante i transiti secondari dei pianeti b e c, ossia quando stanno per passare dietro al disco della stella. In questo modo è stato possibile misurare la temperatura dell’emisfero diurno di b, risultata di 235 °C, un valore compatibile con nessuna redistribuzione del calore nell’emisfero notturno e un albedo di Bond (riflettività), pari a zero. Per verificare se b è effettivamente privo di atmosfera recentemente è stato usato lo strumento Niriss (Near-Infrared Imager and Slitless Spectrograph) del Jwst e sono state fatte – per la prima volta – osservazioni spettroscopiche nell’infrarosso durante il transito principale, quando il pianeta œ passa di fronte al disco della stella, permettendo così alla radiazione stellare di filtrare attraverso l’ipotetica atmosfera planetaria.
In osservazioni di questo tipo è cruciale la separazione fra il contributo dello spettro stellare e quello di assorbimento dovuto all’atmosfera planetaria vista in controluce. Per questo si possono usare vari metodi, ad esempio si può fare un fit dello spettro stellare fuori transito e usare questo per correggere lo spettro preso durante il transito. Questo approccio ha il vantaggio di usare lo spettro della stella, ma – qualsiasi sia il metodo usato – il fit viene fatto utilizzano spettri stellari teorici, che faticano a riprodurre lo spettro realmente osservato di Trappist-1. Per questo motivo la correzione dello spettro di trasmissione non è perfetta e le incertezze dei risultati ottenuti non sono trascurabili. Le osservazioni spettroscopiche del transito ci dicono che Trappist-1 b non ha un’atmosfera densa, sicuramente non una con una massa molecolare bassa, come potrebbe essere un’atmosfera composta di idrogeno. Con i dati attuali non possono essere del tutto escluse atmosfere rarefatte, prive di nubi, composte di metano, oppure biossido di carbonio, oppure vapore d’acqua oppure di azoto e metano come Titano. Questi risultati concordano con le osservazioni del Jwst fatte durante il transito secondario. Che Trappist-1 b non abbia un’atmosfera densa non deve sorprendere: si tratta del pianeta più vicino alla stella, ossia quello maggiormente soggetto alla “erosione” atmosferica da parte degli intensi brillamenti stellari. Questo risultato non coinvolge gli altri pianeti più lontani, che quindi potrebbero avere delle dense atmosfere: non smettiamo di puntare i nostri telescopi verso Trappist-1.
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “Atmospheric Reconnaissance of TRAPPIST-1 b with JWST/NIRISS: Evidence for Strong Stellar Contamination in the Transmission Spectra”, di Olivia Lim, Björn Benneke, René Doyon, Ryan J. MacDonald, Caroline Piaulet, Étienne Artigau, Louis-Philippe Coulombe, Michael Radica, Alexandrine L’Heureux, Loïc Albert, Benjamin V. Rackham, Julien de Wit, Salma Salhi, Pierre-Alexis Roy, Laura Flagg, Marylou Fournier-Tondreau, Jake Taylor, Neil J. Cook, David Lafrenière, Nicolas B. Cowan, Lisa Kaltenegger, Jason F. Rowe, Néstor Espinoza, Lisa Dang e Antoine Darveau-Bernier
Dove cade un’anti-mela? Sempre sulla testa
Ricercatori e tecnici della collaborazione internazionale Alpha del Cern alle prese con l’installazione dei componenti interni della camera Alpha-g nel 2018. Credito: Cern
È ovunque in mezzo a noi, l’antimateria. Dalle apparecchiature diagnostiche per la Pet, – la tomografia a emissione di positroni, che sono appunto antimateria, per la precisione antielettroni – alle banane che acquistiamo al supermercato, che producono in media un positrone ogni 75 minuti ciascuna attraverso il decadimento dei nuclei di potassio. Ovunque in mezzo a noi ma in quantità irrisoria rispetto alla materia – e per fortuna, vien da dire, altrimenti non ci sarebbe nessuna delle due. Già, perché appena entrano in contatto materia e antimateria si distruggono a vicenda in un processo detto annichilazione. Dunque, pur ritrovandocela ovunque e pur sapendo da quasi un secolo della sua esistenza, ci sono ancora molte cose di questa ineffabile sostanza che non conosciamo. Anzitutto: perché nell’universo ce n’è così poca? In teoria, al momento del Big Bang non c’era ragione perché Natura dovesse favorire una forma rispetto all’altra.
Una possibile spiegazione è che – gravitazionalmente parlando – materia e antimateria si respingano, invece di attrarsi. Dunque che non sia sparita, e che magari si sia solo “separata”. Va detto che è un’ipotesi suggestiva quanto altamente improbabile. Ma una cosa è ritenerla implausibile, un’altra è dimostrarlo sperimentalmente: la difficoltà di raccogliere e maneggiare l’antimateria senza farla annichilare rende infatti estremamente complesso qualunque esperimento di questo tipo.
Ora però i ricercatori della collaborazione Alpha, al Cern, ci sono finalmente riusciti. I risultati che hanno ottenuto sono stati pubblicati oggi su Nature e riportano, per la prima volta, l’osservazione diretta di atomi di anti-idrogeno in caduta libera. Osservazioni che mostrano come l’antimateria sia soggetta alla stessa attrazione gravitazionale della materia ordinaria, proprio come previsto da Einstein sin dal 1915.
«La teoria della relatività generale di Einstein», ricorda infatti Jonathan Wurtele, fisico del plasma dell’Università della California a Berkeley e membro della collaborazione Alpha, «afferma che l’antimateria dovrebbe comportarsi esattamente come la materia. E molte misure indirette indicano che la gravità interagisce con l’antimateria come ci si aspetta. Ma fino al risultato di oggi nessuno aveva mai compiuto un’osservazione diretta che potesse escludere, ad esempio, che l’anti-idrogeno si muovesse verso l’alto anziché verso il basso in un campo gravitazionale».
media.inaf.it/wp-content/uploa…
Un rendering concettuale degli atomi di anti-idrogeno che cadono dal fondo della trappola magnetica dell’apparato Alpha-g. Quando gli atomi di anti-idrogeno fuoriescono, toccano le pareti della trappola e si annichiliscono. La maggior parte delle annichilazioni avviene sul lato inferiore della trappola, a dimostrazione del fatto che la gravità attira l’anti-idrogeno verso il basso. Crediti: Keyi “Onyx” Li/U.S. National Science Foundation
Come ci sono dunque riusciti, i ricercatori della collaborazione Alpha, a dimostrare che gli atomi di anti-idrogeno – formati cioè da un antiprotone e dal suo positrone – se lasciati in balìa della sola forza di gravità, tendono a cadere, e non a salire? Lo hanno fatto con una sorta di “torre di Pisa” hi-tech in miniatura, potremmo dire, riferendoci al celebre esperimento attribuito a Galileo. E se quello con sfere di diversa massa era con buona probabilità solo un esperimento mentale, questo realizzato al Cern è quanto di più concreto si possa immaginare: una camera da vuoto cilindrica in grado di confinare gli anti-atomi con una trappola magnetica variabile, chiamata Alpha-g. Gli scienziati hanno poi ridotto l’intensità dei campi magnetici alle estremità superiore e inferiore della trappola, consentendo così agli atomi di anti-idrogeno di uscire nelle due direzioni.
Man mano che gli anti-atomi lasciavano la trappola magnetica, finivano per toccare le pareti superiore e inferiore della camera, annichilando all’istante e lasciando così una traccia visibile ai rivelatori, che hanno provveduto a contarle. Per ridurre al minimo errori e incertezze, l’esperimento è stato ripetuto più volte, variando l’intensità del campo magnetico alle estremità superiore e inferiore della trappola. Risultato: quando i campi magnetici indeboliti erano esattamente bilanciati – dunque uguali in alto e in basso – circa l’80 per cento degli atomi di anti-idrogeno si annichilava nell’estremità inferiore della trappola. Insomma, quattro su cinque tendevano a scendere, più che a salire. Un risultato coerente con il comportamento che avrebbe una nube di comune idrogeno – dunque di normale materia – nelle stesse condizioni.
«Abbiamo così escluso», conclude Wurtele riferendosi all’ipotesi di cui dicevamo poc’anzi, «che l’antimateria venga respinta, invece che attratta, dalla forza gravitazionale». Un risultato che conferma dunque l’opinione prevalente, in accordo con le previsioni della relatività generale, secondo cui l’antimateria dovrebbe risentire degli effetti della gravità come la materia ordinaria. Ciò però ancora non garantisce che non possa esserci una differenza nell’azione della forza gravitazionale sull’antimateria, precisa Wurtele: solo una misura più precisa potrà dirlo.
Per saperne di più:
- Leggi su Nature l’articolo “Observation of the effect of gravity on the motion of antimatter”, di
E. K. Anderson, C. J. Baker, W. Bertsche, N. M. Bhatt, G. Bonomi, A. Capra, I. Carli, C. L. Cesar, M. Charlton, A. Christensen, R. Collister, A. Cridland Mathad, D. Duque Quiceno, S. Eriksson, A. Evans, N. Evetts, S. Fabbri, J. Fajans, A. Ferwerda, T. Friesen, M. C. Fujiwara, D. R. Gill, L. M. Golino, M. B. Gomes Gonçalves, P. Grandemange, P. Granum, J. S. Hangst, M. E. Hayden, D. Hodgkinson, E. D. Hunter, C. A. Isaac, A. J. U. Jimenez, M. A. Johnson, J. M. Jones, S. A. Jones, S. Jonsell, A. Khramov, N. Madsen, L. Martin, N. Massacret, D. Maxwell, J. T. K. McKenna, S. Menary, T. Momose, M. Mostamand, P. S. Mullan, J. Nauta, K. Olchanski, A. N. Oliveira, J. Peszka, A. Powell, C. Ø. Rasmussen, F. Robicheaux, R. L. Sacramento, M. Sameed, E. Sarid, J. Schoonwater, D. M. Silveira, J. Singh, G. Smith, C. So, S. Stracka, G. Stutter, T. D. Tharp, K. A. Thompson, R. I. Thompson, E. Thorpe-Woods, C. Torkzaban, M. Urioni, P. Woosaree e J. S. Wurtele
Guarda il servizio video su MediaInaf Tv:
youtube.com/embed/7iCGV1M7bxo?…
Dalle piramidi alle stelle
Il sensore di fronte d’onda a piramide nei laboratori di ottica adattiva dell’Inaf di Arcetri a Firenze. Crediti: R. Bonuccelli/Ufficio stampa Inaf
Per compensare il deterioramento delle immagini astronomiche causato dalla turbolenza atmosferica, la diffusione dei sistemi di ottica adattiva nella strumentazione astronomica dei grandi telescopi terrestri è ormai imprescindibile. Oltre a questo, i nuovi telescopi di classe 25-40 metri devono rispondere anche a un’altra sfida: le loro grandi superfici riflettenti sono composte da ottiche segmentate, non monolitiche, e per garantire la loro performance bisogna poter controllare la posizione dei segmenti con precisione nanometrica.
Negli ultimi quindici anni, è ormai una soluzione standard utilizzare sistemi di ottica adattiva con il sensore di fronte d’onda a piramide, idea non solo made in Italy ma letteralmente made in Inaf, messa in campo da Roberto Ragazzoni nel 1996. Il sensore a piramide è già utilizzato in alcuni dei più grandi telescopi da terra di tutto il mondo, ed è destinato ai telescopi giganti oggi in costruzione, come l’europeo Extremely Large Telescope e gli americani Giant Magellan Telescope e Thirty Meter Telescope, che richiederanno accorgimenti specifici per preservare l’allineamento dei specchi segmentati.
Una nuova tecnica proposta da Guido Agapito, Enrico Pinna e Simone Esposito dell’Inaf di Arcetri, in collaborazione con lo European Southern Observatory (Eso) e il Laboratoire d’Astrophysique de Marseille (Lam), consentirà di sfruttare un unico sensore a piramide per la correzione della turbolenza atmosferica e contemporaneamente il controllo dei segmenti dello specchio deformabile.
I risultati di questo approccio, ottenuti a seguito di una serie di simulazioni in laboratorio, sono riportati in uno studio pubblicato la settimana scorsa su Astronomy & Astrophysics, e aprono le porte a un nuovo utilizzo del sensore a piramide, sia per la correzione della turbolenza atmosferica che per la compensazione del disallineamento degli specchi segmentati.
Crediti: Agapito et al. 2023
Questo studio si inserisce nel contesto più ampio dello sviluppo dei moduli di ottica adattiva “a stella naturale” per la prossima generazione di telescopi, sistemi utili a correggere il deterioramento delle immagini dovuto alla turbolenza atmosferica ma anche, appunto, a compensare la deformazione associata alla perdita di fase degli specchi segmentati – disturbo chiamato “pistone differenziale”. Generalmente, infatti, il sensore a piramide viene utilizzato modulando l’inclinazione della punta della piramide per aumentare l’intervallo di linearità del sensore, ma il caso non modulato si è rivelato molto promettente, perché ne aumenterebbe a sua volta la sensibilità. Di solito questa opzione viene evitata, a causa della ridotta linearità che ne consegue e che impedisce un funzionamento molto efficiente in presenza di turbolenza atmosferica. Questo lavoro mostra invece che, con un nuovo approccio alla calibrazione del sensore a piramide, è possibile preservare sia la sensibilità che l’affidabilità delle sue misure.
L’alta sensibilità rimane un requisito estremamente interessante per i futuri telescopi giganti con specchi segmentati, dove si vuole correggere la turbolenza atmosferica e, contemporaneamente, mantenere in fase tutti i segmenti. Inoltre alcuni dei telescopi di nuova generazione dovranno raggiungere livelli di contrasto particolarmente alti, cosa possibile solo con sensori molto sensibili.
Banco ottico nel laboratorio di ottica adattiva dell’Inaf di Arcetri. Crediti: R. Bonuccelli/Ufficio stampa Inaf
«Il nostro gruppo sta lavorando al sistema di ottica adattiva a stella guida naturale per il Giant Magellan Telescope (Gmt) da 25 metri e per lo spettrografo Andes per l’Elt da quasi quaranta metri. Entrambi i moduli prevedono il sensore a piramide», spiega Guido Agapito, tecnologo all’Inaf di Arcetri alla guida dello studio pubblicato su A&A, «e devono occuparsi, oltre che della correzione della turbolenza atmosferica, di mantenere in fase gli specchi deformabili segmentati, di cui sia Gmt che Elt sono dotati. Per questo cerchiamo un modo per massimizzare la sensibilità del sensore di fronte d’onda a piramide al pistone differenziale. In questo contesto stiamo approfondendo vecchie idee e studiando nuovi approcci per avere una soluzione affidabile al problema del controllo di sistemi di ottica adattiva in telescopi con specchi segmentati. Un lavoro, il nostro, stimolato dalla collaborazione che portiamo avanti con altri istituti – il Lam e l’ Eso – che si trovano ad affrontare gli stessi problemi, sia per lo strumento Harmoni che per gli altri sistemi di ottica adattiva a piramide per Elt. Recentemente, infatti, un primo test con la piramide senza modulazione è stato fatto dai colleghi del Lam con il sistema Papyrus, e in questi giorni parte di quanto abbiamo presentato nell’articolo viene usato all’interno del lavoro che stiamo facendo per Andes».
«Il nostro gruppo ha maturato una grande esperienza grazie al lavoro e ai risultati che abbiamo ottenuto su Lbt con il sensore di fronte d’onda a piramide dei progetti Flao e Soul. Adesso, con questo studio e con altre attività, ci stiamo preparando alla prossima generazione di strumenti: in particolare, il risultato che abbiamo presentato su A&A permetterà di sfruttare al meglio questa tecnologia applicata alla nuova sfida degli Extremely Large Telescope, oggi in costruzione», aggiunge Enrico Pinna, coautore dell’articolo e responsabile scientifico dello strumento Soul, montato su Lbt. «La tecnica proposta ha il grande pregio di poter essere applicata a qualsiasi sensore a piramide, anche già esistente: richiede semplicemente di arrestare la modulazione e impiegare la nuova strategia di calibrazione. Infine, è importante ricordare che ogni guadagno in sensibilità del sensore di ottica adattiva offre sia contrasti migliori nelle immagini delle stelle brillanti, per analizzare un maggior numero di esopianeti, che una migliore copertura del cielo per lo studio ad alta risoluzione di oggetti extragalattici».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Non-modulated pyramid wavefront sensor: Use in sensing and correcting atmospheric turbulence’, di Guido Agapito, Enrico Pinna, Simone Esposito, Cedric Taïssir Heritier e Sylvain Oberti
- Guarda su Universi la galleria fotografica dedicata alla facility di ottica adattiva di Arcetri
Il getto oscillante di M87
media.inaf.it/wp-content/uploa…
Rappresentazione schematica del modello del disco di accrescimento inclinato. Si presume che l’asse di rotazione del buco nero sia allineato verticalmente. La direzione del getto è quasi perpendicolare al disco. Il disallineamento tra l’asse di rotazione del buco nero e l’asse di rotazione del disco innescherà la precessione del disco e del getto. Crediti: Yuzhu Cui et al. 2023, Intouchable Lab@Openverse e Zhejiang Lab
Un gruppo di ricercatori guidati dallo Zhejiang laboratory (Cina), a cui partecipa anche l’Istituto nazionale di astrofisica (Inaf) e l’Università di Bologna, ha recentemente scoperto che la vicina radiogalassia Messier 87 (M87), situata a 55 milioni di anni luce dalla Terra, presenta un getto oscillante. Questo getto ha origine da un buco nero 6,5 miliardi di volte più massiccio del Sole: esattamente quello la cui immagine è stata ottenuta nel 2019 con l’Event Horizon Telescope (Eht). Dai dati raccolti negli ultimi 23 anni con la tecnica Very Long Baseline Interferometry (Vlbi), gli esperti hanno osservato che il getto oscilla con un’ampiezza di circa 10 gradi (il fenomeno è conosciuto con il nome di precessione). Come si legge nell’articolo pubblicato oggi su Nature, gli esperti hanno svelato un ciclo ricorrente di 11 anni nel movimento di precessione della base del getto, come previsto dalla teoria della relatività generale di Einstein nel caso di un buco nero rotante attorno al suo asse. Questo lavoro ha quindi collegato con successo la dinamica del getto con il buco nero supermassiccio centrale, offrendo la prova dell’esistenza della rotazione del buco nero di M87.
I buchi neri supermassicci al centro delle galassie attive sono gli oggetti celesti più potenti dell’universo, in quanto in grado di accumulare enormi quantità di materia a causa della straordinaria forza gravitazionale e, allo stesso tempo, alimentare getti che si allontanano a velocità vicina a quella della luce. Il meccanismo di trasferimento di energia tra i buchi neri supermassicci, il disco tramite il quale la materia cade sul buco nero e i getti relativistici rimane però un enigma ancora irrisolto. Una teoria prevalente suggerisce che l’energia possa essere estratta da un buco nero in rotazione, che grazie all’energia gravitazionale ottenuta dalla materia in caduta su di esso è in grado di espellere getti di plasma a velocità vicine a quella della luce. Tuttavia, la rotazione dei buchi neri supermassicci non è ancora stata provata con certezza.
«Questa scoperta è molto importante», spiega Marcello Giroletti, ricercatore presso l’Inaf di Bologna e tra gli autori dell’articolo, «perché prova che il buco nero supermassiccio al centro di M87 è in rotazione su sé stesso con grandissima velocità. Questa possibilità era stata ipotizzata proprio sulla base delle immagini ottenute con Eht ma ora ne abbiamo una dimostrazione inequivocabile».
Infatti quale forza nell’universo può alterare la direzione di un getto così potente? La risposta potrebbe nascondersi nel comportamento del disco di accrescimento, la struttura a forma di disco nella quale la materia spiraleggia gradualmente verso l’interno finché non viene fatalmente attratta dal buco nero. E se il buco nero è in rotazione su sé stesso, ne segue un impatto significativo sullo spazio-tempo circostante, causando il trascinamento degli oggetti vicini, ovvero il frame-dragging previsto dalla relatività generale di Einstein.
Pannello superiore: struttura del getto M87 a 43 GHz osservata nel periodo 2013-2018. Le frecce bianche indicano l’angolo di posizione del getto in ciascuna sottotrama. Pannello inferiore: risultati basati sull’immagine impilata annualmente dal 2000 al 2022. I punti verde e blu sono ottenuti da osservazioni rispettivamente a 22 GHz e 43 GHz. La linea rossa rappresenta la soluzione migliore secondo il modello di precessione. Crediti: Yuzhu Cui et al., 2023
«La galassia M87 (Virgo A) non cessa di stupirci», aggiunge Gabriele Giovannini, professore all’Università di Bologna e tra gli autori dell’articolo. «Dopo averci regalato la prima immagine del suo supermassiccio buco nero centrale, ora ci rivela che il potente getto emesso grazie alla trasformazione di massa in energia non è stabile ma fa registrare una regolare oscillazione. Questo risultato mostra un non perfetto allineamento tra la rotazione del buco nero centrale e il disco di materia che lo circonda ed è in caduta su di esso. L’oscillazione del getto influenza notevolmente la materia e lo spazio-tempo circostante in accordo con le leggi relativistiche».
Dall’analisi dei dati si evince che l’asse di rotazione del disco di accrescimento si disallinea con l’asse di rotazione del buco nero, portando alla precessione del getto. Il rilevamento di questa precessione rappresenta un supporto convincente per concludere inequivocabilmente che il buco nero supermassiccio all’interno di M87 sta ruotando, aprendo nuove dimensioni nella nostra comprensione della natura dei buchi neri supermassicci.
«La precessione», dice Giroletti, «è la variazione della direzione del getto emesso dal buco nero al centro di M87. Per l’esattezza, è una variazione regolare e ciclica per cui l’asse del getto nel corso degli anni descrive un cono attorno a un asse immaginario. Guardando questa precessione proiettata nel piano del cielo noi vediamo il getto oscillare in modo regolare».
Questo lavoro ha utilizzato un totale di 170 epoche di osservazioni ottenute dalla rete East Asian Vlbi Network (Eavn), dal Very Long Baseline Array (Vlba), dal Kvn e Vera (KaVA), e dalla rete East Asia to Italy Nearly Global Vlbi (Eating). In totale, più di 20 telescopi in tutto il mondo hanno contribuito a questo studio, tra cui anche il Sardinia Radio Telescope (Srt) e la Stazione radioastronomica di Medicina dell’Inaf.
«Questo importante risultato nasce grazie a un’ampia collaborazione che ha coinvolto 79 ricercatori di 17 diversi osservatori, università ed enti ricerca sparsi in dieci Paesi», ricorda Giovannini. «Di cruciale importanza, in particolare, è stata la sinergia tra studiosi italiani e dell’Asia Orientale (Cina, Giappone, Corea). La collaborazione è in continuo sviluppo, infatti nelle antenne italiane utilizzate per le osservazioni sono stati installati alcuni ricevitori coreani che permetteranno di migliorare la collaborazione nelle osservazioni ad alta frequenza (alta energia) ed elevata risoluzione angolare».
«Inaf ha fornito un contributo fondamentale», aggiunge Giroletti, «tramite la partecipazione dei propri radiotelescopi che si trovano a grandissima distanza (circa 10mila km) da quelli dell’Asia Orientale che costituivano il nucleo della rete osservativa. Poiché i dettagli delle immagini dipendono dall’estensione della rete, l’aggiunta delle antenne Inaf ha migliorato di quasi dieci volte il dettaglio delle immagini. Questo ha facilitato grandemente la rivelazione delle oscillazioni del getto. Inoltre Inaf ha contribuito anche con la partecipazione del proprio personale di ricerca per l’interpretazione dei risultati».
E conclude: «La collaborazione fra Italia ed estremo oriente sta crescendo anno dopo anno, sia in ambito scientifico che tecnologico, e questo risultato ci dà grande fiducia per i lavori che stiamo portando avanti nei due continenti».
Per ulteriori informazioni:
- Leggi su Nature l’articolo “Precessing jet nozzle connecting to a spinning black hole in M87”, di Yuzhu Cui et al.
Due picogrammi di Dna per la vita su Marte
Schema della procedura sperimentale seguita. Crediti: J. B. Raghavendra et al., Scientific Reports, 2023
La ricerca di vita al di fuori della Terra è anche una questione di quantità. Quanta vita ci vuole – all’interno di un campione – per poter trovare la vita? Quanta dev’essercene, affinché gli strumenti e le tecnologie di cui oggi disponiamo siano in grado di accorgersi della sua esistenza? Una risposta, seppur parziale, arriva ora da uno studio – guidato da Jyothi Basapathi Raghavendra, dottoranda in astrobiologia all’Università di Aberdeen (Regno Unito) – i cui risultati sono stati pubblicati la settimana scorsa su Scientific Reports: due picogrammi. Ovvero due millesimi di miliardesimo di grammo. Questa è la massa minima di Dna necessaria per poter dire – con le tecnologie più avanzate oggi disponibili per analisi in situ – che in un campione di terriccio marziano c’è vita.
È tanto? È poco? Per farci un’idea, pensiamo che il genoma umano – dunque il Dna contenuto nel nucleo di una delle nostre cellule – pesa poco più di tre picogrammi, mentre un picogrammo è la massa del Dna di una cellula di colibrì. Insomma, stiamo parlando di singole cellule. Certo, per forme di vita più semplici le masse in gioco sono inferiori, ma una tecnologia sensibile ad appena due picogrammi è comunque eccezionale.
Questa tecnologia – che non richiede amplificazione mediante Pcr – si chiama sequenziamento del Dna tramite nanopori, ed è già disponibile anche su dispositivi commerciali. Quello usato dal team di Aberdeen, in particolare, ha un nome che ricorda i buffi protagonisti gialli di Cattivissimo me: MinIon. E oltre alla sensibilità ha un’altra ghiotta caratteristica per l’impiego su missioni spaziali: è molto piccolo, dunque perfetto per analisi in situ.
«Utilizzando il MinIon, che offre portabilità e tecnologia all’avanguardia», dice infatti il supervisore dello studio, Javier Martin-Torres, «abbiamo condotto gli esperimenti nel nostro laboratorio pulito, in grado di garantire che i test non siano influenzati dalla contaminazione di fondo. In questo modo siamo riusciti a stabilire la soglia minima di rilevamento di Dna del MinIon, che si è dimostrato un potente strumento per la ricerca di vita microbica in campioni prelevati da ambienti planetari».
Il laboratorio pulito nel quale sono stati condotti gli esperimenti è una camera bianca Iso5, i campioni utilizzati sono analoghi di terriccio marziano Mms-2 e, fra le dieci specie di microrganismi sul cui Dna i ricercatori hanno esercitato le capacità del MinIon, le due identificate in modo inequivocabile anche con appena due picogrammi di materiale biologico sono state l’Escherichia coli e il Saccharomyces cerevisiae. Un batterio fecale e il comune lievito di birra, insomma.
Il risultato ottenuto, conclude Martin-Torres, «apre interessanti possibilità per la ricerca marziana, in quanto le dimensioni e la potenza del MinIon lo rendono un candidato ideale per l’impiego in future missioni di esplorazione, facendo ricorso al processo che abbiamo messo a punto. Potrebbe inoltre essere impiegato in ambienti inospitali anche qui sulla Terra, come le regioni desertiche o polari, nonché per applicazioni in medicina, farmacia e chimica, dove occorre evitare la contaminazione biologica».
Per saperne di più:
- Leggi su Scientific Reports l’articolo “DNA sequencing at the picogram level to investigate life on Mars and Earth”, di Jyothi Basapathi Raghavendra, Maria-Paz Zorzano, Deepak Kumaresan e Javier Martin-Torres
Che occhi piccoli che hai!
Le specie analizzate dai ricercatori, su due diversi habitat. Sopra, le due specie di uccelli stanziali, lo scricciolo della Carolina (Thryothorus ludovicianus) e il cardinale settentrionale (Cardinalis cardinalis). Sotto, il passero papa della Luisiana (o zigolo dipinto, Passerina ciris) e il vireo dagli occhi bianchi (Vireo griseus), specie migratorie. urbano e periferico. Crediti: Wikipedia
“C’era una volta, Cappuccetto Rosso con il lupo”, penserete. No, il nostro racconto inizia con “C’era un volta, il cielo notturno e le stelle”. Il buio nelle nostre città è, infatti, sempre più raro e le luci e i rumori urbani costituiscono un fastidio, non solo per noi, ma anche per altre specie viventi. L’urbanizzazione espone oggi ampie porzioni del pianeta a fonti di disturbo antropico, determinando rapidi cambiamenti ambientali ed ecologici. Tutto ciò comporta delle “pressioni selettive” su molte specie, che, nel tempo, iniziano a mostrare differenze esterne, variazioni fenotipiche. Come questo accada, però, è spesso frutto di dinamiche ancora poco chiare. Ad esempio, può capitare che gli uccelli canori comuni che vivono in città abbiano occhi più piccoli di circa il 5 per cento rispetto ai membri della stessa specie che vivono nelle periferie meno luminose.
Nello studio pubblicato la settimana scorsa sulla rivista Global Change Biology, un gruppo di ricerca americano ha analizzato due specie di uccelli stanziali – lo scricciolo della Carolina (Thryothorus ludovicianus) e il cardinale settentrionale (Cardinalis cardinalis) – e due specie di uccelli migratori – il passero papa della Luisiana (o zigolo dipinto, Passerina ciris) e il vireo dagli occhi bianchi (Vireo griseus) – su due diversi habitat, urbano e periferico, nella città di San Antonio in Texas (Usa).
I ricercatori si sono soffermati sull’analisi di alcuni fenotipi morfologici, ad esempio le misure del corpo degli uccelli (massa e dimensioni scheletrica) e le dimensioni degli occhi, per capire come e se l’inquinamento sensoriale legato alla luminosità e al rumore presenti nelle città possa influenzare l’avifauna. Mentre per le due specie di uccelli migratori non sono state riscontrate differenze in base alla propria localizzazione urbana, il cardinale settentrionale e lo scricciolo della Carolina, che vivono tutto l’anno nel centro urbano di San Antonio, hanno occhi più piccoli di circa il 5 per cento rispetto ai propri parenti che vivono nelle periferie meno luminose. Ciò suggerirebbe una relazione inversamente proporzionale tra le dimensioni degli occhi degli uccelli e la luminosità nei vari siti di studio. Connessione però non riscontrata nelle due specie migratorie.
Esempio di siti di studio di tipo (a) urban-edge e (b) urban-core a San Antonio, Texas, Usa. Il cerchio giallo delinea un’area di 3,22 km di raggio posto intorno a ciascun sito, con poligoni (aree bianche ombreggiate) utilizzati in Google Earth Pro per determinare la percentuale di copertura impervia o “costruita” (ad esempio, strade, edifici, aree residenziali e commerciali) nell’area circostante. Crediti: Global Change Biology
«I dati raccolti dimostrano che gli uccelli residenziali possono adattarsi, nel tempo, alle aree urbane», spiega Jennifer Phillips, ecologista della fauna selvatica alla Washington State University che ha guidato lo studio. «Al contrario, gli uccelli migratori sembrano non adattarsi all’inquinamento antropico, probabilmente perché dove trascorrono l’inverno non subiscono le stesse pressioni luminose e acustiche causate dall’uomo. Per queste specie migranti potrebbe quindi essere più difficile adattarsi alla vita in città durante la stagione riproduttiva». Studi precedenti hanno esaminato il modo in cui la luce urbana influisce sui tempi del “canto dell’alba” e dei ritmi circadiani degli uccelli. Adesso, per la prima volta, ci si è soffermati sul collegamento tra inquinamento luminoso e dimensioni degli occhi, esaminando più di 500 uccelli delle zone centrali (urban-core) e periferiche (urban-edge) di San Antonio. I confronti tra le dimensioni del corpo e degli occhi degli uccelli sono stati effettuati in base alle diverse misurazioni di rumore e luce durante il giorno e la notte di ciascuna area.
«Le dimensioni ridotte degli occhi potrebbero consentire agli uccelli di affrontare la luce più intensa e costante degli ambienti urbani», dice Todd Jones, primo autore dello studio nel team di Philips, ora con una borsa di ricerca presso il Migratory Bird Center dello Smithsonian Institute di Washington. «Gli uccelli con occhi più grandi possono essere in qualche modo accecati dal bagliore delle luci cittadine o non riuscire a dormire bene, il che li mette in una posizione di svantaggio nelle aree urbane».
Per quanto riguarda la grandezza corporea degli uccelli, non è stata riscontrata alcuna differenza nelle diverse aree, tranne che per una specie: lo zigolo dipinto. Dopo un’analisi più approfondita, i ricercatori hanno scoperto che questa differenza di dimensioni è dovuta principalmente all’età degli uccelli analizzati. I maschi più giovani e più piccoli, che non possono competere per le partner come i loro anziani più colorati, sono stati trovati più spesso nelle zone centrali più luminose e rumorose. Habitat meno desiderabili e scartati dagli uccelli più “attraenti” o “esperti”.
Confronto di (a) massa corporea, (b) dimensioni dell’ossatura e (c) dimensioni degli occhi laterali tra habitat periferico e habitat centrale per quattro specie nidificanti in nove siti di studio a San Antonio, Texas, Usa, 2022. Gli asterischi indicano le occasioni in cui le morfologie erano significativamente diverse tra i due tipi di habitat. Crediti: Global Change Biology
Con un finanziamento di 2,1 milioni di dollari dalla National Science Foundation, il team continuerà con esperimenti controllati per determinare in che modo la luce e il rumore influiscono sui livelli di stress, sugli ormoni del sonno, sulla struttura del canto e sui livelli di aggressività degli uccelli, nonché se questi tratti sono correlati alla forma fisica complessiva. «Vogliamo sapere se gli schemi su scala molecolare e comportamentale influenzano o meno la forma fisica. In sostanza, stiamo cercando di capire quali sono i benefici e i costi per questi animali che vivono in un mondo inquinato dai sensi», ha aggiunto Philips.
Intanto, questi risultati hanno senza dubbio implicazioni sugli sforzi di conservazione nel rapido declino delle popolazioni di uccelli negli Stati Uniti. Secondo precedenti ricerche, dal 1970 in poi, gli Stati Uniti e il Canada hanno perso il 29 per cento delle loro popolazioni di uccelli, ovvero 3 miliardi di esemplari. Ciò è probabilmente causato dalla frammentazione dell’habitat, ma anche, come suggerito da questa ricerca, dall’inquinamento antropico.
E in Italia? Le mappe sull’oscurità naturale del cielo mostrano che il nostro paese è in una situazione critica: con un inquinamento luminoso paragonabile a quello di Singapore – che detiene il record mondiale – l’Italia è la nazione dei G20 con il territorio più inquinato dalla luce artificiale, e circa tre quarti della popolazione non riesce a vedere la Via Lattea di notte.
«Come astronomi, consideriamo l’inquinamento luminoso una sventura che ci impedisce di osservare la volta celeste», dice Daniele Gardiol dell’Inaf di Torino. «Le nostre tradizioni culturali sono strettamente correlate al cielo stellato e, in generale, le conseguenze sono gravi, perché la luce notturna ha impatto su molte specie animali e vegetali, ne modifica abitudini e comportamenti, talvolta in modo grave e irreversibile».
Un tema di grande interesse e attualità. L’Istituto nazionale di astrofisica è nel progetto scientifico Starlight (Skill for Tourism And Recognition of the importance of dark skies) che, finanziato dal programma Erasmus+ dell’Unione Europea, cerca di prendere atto della situazione e di fare un passo ulteriore. «L’obiettivo è quello di dimostrare che il cielo buio è una risorsa preziosa, anche ad esempio per il turismo», conclude Gardiol, coordinatore del progetto e dei gruppi di ricerca che proprio questa settimana si incontrano a Bansko, in Ungheria, per una summer school. «Il progetto Starlight formerà 60 giovani di tutta Europa per dar loro un’opportunità di lavoro nel turismo sostenibile, lontano dalla luci artificiali».
Per saperne di più:
- Leggi l’articolo su Global Change Biology “Phenotypic signatures of urbanization? Resident, but not migratory, songbird eye size varies with urban-associated light pollution levels” di Todd M. Jones, Alfredo P. Llamas e Jennifer N. Phillips
Nuova meteorite recuperata in Francia
media.inaf.it/2023/09/25/meteo…
Il fireball del 9 settembre 2023 delle 22:13 UT ripreso dalle camere di Fripon (cliccare per ingrandire). Crediti: Fripon/Vigie-Ciel
Su tutta la Terra sono state recuperate circa 70mila meteoriti, ma solo per circa 45 è nota l’orbita del meteoroide progenitore. Per questo motivo sono nate le reti al suolo di camere all-sky: per la triangolazione della traiettoria dei fireball in atmosfera, il recupero delle meteoriti al suolo e la determinazione dell’orbita che il meteoroide, prima di cadere sulla Terra, percorreva attorno al Sole. Anche conoscendo l’orbita eliocentrica originale, non è facile individuare i corpi da cui si sono staccati i grossi meteoroidi che danno luogo alle cadute, principalmente per effetto delle perturbazioni gravitazionali planetarie e della pressione della radiazione solare che alterano le orbite fino a rendere molto difficile determinare il corpo di origine.
In generale, si pensa che i meteoroidi provengano da collisioni fra gli asteroidi avvenute nella main belt, tuttavia ci sono indizi che inducono a pensare che una percentuale pari a circa il 25 per cento delle meteoriti note derivino invece da collisioni che avvengono fra i membri della popolazione degli asteroidi near-Earth. In Europa le reti di sorveglianza del cielo che hanno recuperato meteoriti nel 2023 sono stata la francese Fripon e l’italiana Prisma (coordinata dall’Inaf), fra le quali c’è una stretta collaborazione. Quest’anno Fripon ha recuperato le meteoriti appartenenti all’asteroide 2023 CX1, caduto in Normandia il 13 febbraio 2023, mentre Prisma ha recuperato la meteorite Matera, associata al bolide del 14 febbraio 2023.
Recentemente Fripon ha raddoppiato il numero delle meteoriti recuperate, in seguito alla triangolazione di un brillante fireball di magnitudine assoluta -10 che il 9 settembre 2023 alle 22:13 UT ha attraversato il cielo della Francia centrale – quasi allo zenit della città di Bourges – percorrendo una traiettoria da sud verso nord. Il bolide è stato osservato da 10 camere all-sky della rete Fripon a partire da una quota di circa 80 km fino a circa 23 km d’altezza, per una durata totale di 7 secondi. La traiettoria del fireball proiettata al suolo ha una lunghezza di circa 70 km, da qui si può stimare un’inclinazione di circa 40° della traiettoria rispetto al suolo. La velocità iniziale misurata in atmosfera era di circa 17 km/s, valore che è diminuito sensibilmente a causa del frenamento atmosferico fino ad arrivare a 4 km/s all’inizio della fase di volo buio. Sono i numeri tipici dei fireball che danno luogo a una caduta: bassa quota e velocità finale vicina ai 3 km/s. L’orbita eliocentrica del meteoroide entrato in atmosfera giace praticamente sul piano dell’eclittica, con perielio fra le orbite di Venere e della Terra e afelio nella main belt – la tipica orbita di un oggetto asteroidale di tipo Apollo. Il fireball ha avuto almeno 300 testimoni visuali che hanno segnalato l’evento.
La meteorite Sauldre-Sologne ricostruita mettendo insieme i diversi frammenti in cui si è spezzata colpendo il suolo. Crediti: Fripon/Vigie-Ciel
Il team di ricercatori di Fripon, dopo avere verificato l’alert dato dalla pipeline di riduzione dati automatica, ha iniziato a calcolare il percorso fatto durante il volo buio del meteoroide residuo per delimitare la regione al suolo dove andare alla ricerca delle meteoriti (strewn field). La determinazione del dark flight è la parte più difficile, perché bisogna tenere conto dello stato dell’atmosfera al momento e nella zona della caduta. In particolare, sono molto importanti la direzione e la velocità del vento, che cambiano al variare della quota dal suolo. Infatti è durante il volo buio che la velocità del meteoroide residuo scende da circa 4 km/s fino a 50 m/s: di conseguenza, l’effetto del vento sulla traiettoria terminale non è trascurabile.
La mattina di martedì 12 settembre, prima ancora di terminare i calcoli, il team di Fripon è stato contattato dai membri di una associazione che aderisce al programma Fripon/Vigie-Ciel: il Pôle des Étoiles” di Nançay. I responsabili di questa struttura per la didattica-divulgazione dell’astronomia erano stati a loro volta contattati da un’abitante dei comuni di Sauldre e Sologne che credeva di aver trovato delle meteoriti nella sua proprietà. I membri dell’équipe Fripon/Vigie-Ciel si sono recati rapidamente sul posto per incontrare la fortunata scopritrice (che ha voluto rimanere anonima), spiegare il fenomeno e rispondere alle sue domande. Al termine di questo scambio, un bel frammento della meteorite è stato affidato al Museo nazionale di storia naturale francese per le analisi chimico-fisiche che sono attualmente in corso. La meteorite si è spezzata in cinque pezzi perché, invece di finire su un prato morbido, ha terminato la propria corsa su un tavolino all’aperto. Il suono dell’evento è stato registrato da una telecamera di sorveglianza: si sente un leggero fischio, come quello provocato da un oggetto che si muove rapidamente in aria, e poi il tonfo del meteoroide residuo che colpisce il tavolo. Mettendo insieme i diversi frammenti si ottiene una bella meteorite rocciosa con dimensioni di circa 14 cm. La struttura interna appare compatta e a grana fine, mentre all’esterno è ben visibile la crosta di fusione più scura. Non è stato diffuso il valore della massa, ma considerate le dimensioni e una probabile densità di circa 3000 kg/m³, è stimabile in circa 4-5 kg. Nella curva di luce del fireball non sono visibili picchi di luminosità, quindi è possibile che questa sia l’unica meteorite della caduta e che non ce ne siano altre.
Gas caldo ai raggi X per spiegare la massa mancante
Questa immagine mostra l’ammasso di galassie Abell 1689, con sovrapposta la distribuzione di massa della materia oscura nella lente gravitazionale (in viola).
Crediti: Nasa, Esa, E. Jullo (Jpl/Lam), P. Natarajan (Yale) e J-P. Kneib (Lam).
Un gruppo di ricercatrici e ricercatori guidati dall’Istituto nazionale di astrofisica (Inaf) ha sfruttato gli spettri ad alta risoluzione nei raggi X, ottenuti con il satellite Esa Xmm-Newton e il Chandra X-ray Observatory della Nasa, per rilevare, per la prima volta, la presenza di una grande quantità di gas caldo (un milione di gradi) negli aloni di tre galassie esterne simili alla Via Lattea, a distanze di circa 400mila anni luce dal centro delle galassie stesse. La scoperta è stata pubblicata su The Astrophysical Journal Letters.
«La presenza del gas in questo stato fisico», spiega Fabrizio Nicastro, primo autore dell’articolo e ricercatore all’Inaf di Roma, «è stata predetta dalla teoria ma non era mai stato direttamente osservata se non nella nostra galassia, nella quale però non è possibile distinguere fra gas nel disco della galassia, nel suo alone, o addirittura nel mezzo esterno la galassia e permeante il Gruppo Locale di galassie».
La scoperta è significativa perché la massa totale che si deriva per questo gas caldo, all’interno del raggio viriale delle galassie è tale da risolvere il problema della massa barionica mancante di queste galassie.
«Il nostro risultato», continua Nicastro, «indica anche che il feedback stellare o nucleare delle galassie non è stato sufficiente a espellere la massa al di fuori dell’influenza gravitazionale delle galassie stesse (oltre il raggio del viriale), ma ha contribuito ad arricchire di metalli il mezzo primordiale che accrescendo forma la galassia stessa e costituisce il carburante per la formazione stellare all’interno di queste, fino ad un valore pari circa al 30 per cento della metallicità osservata nel Sole. Questo ha importanti conseguenze per la nostra comprensione del continuo ciclo di barioni da e verso le galassie (quello che comunemente viene detto feedback) e quindi per affinare le predizioni teoriche sulla formazione delle strutture nell’universo».
«Il problema della massa barionica mancante nelle galassie», sottolinea Nicastro «è uno dei problemi astrofisici più importanti, ormai da diversi decenni. La rilevazione di questo gas caldo era stata molto difficile in precedenza, sia a causa di limitazioni strumentali, sia per la difficoltà di mettere in atto strategie osservative adeguate allo scopo. La nostra idea è stata quella di usare degli indicatori della presenza di tale gas caldo negli aloni di galassie esterne, e di utilizzare tutti i dati di archivio esistenti, sia Xmm che Chandra, per “sommarli” opportunamente (una procedura denominata stacking) con la speranza di tirare fuori un segnale, dove aspettato».
E ci sono riusciti. «La strategia ha pagato, e per la prima volta», conclude infatti Nicastro, «abbiamo rilevato un segnale della presenza dello ione altamente ionizzato dell’ossigeno cui sono rimasti solo due elettroni (OVII) a una distanza di circa 120 kiloparsec dal centro di queste galassie».
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “X-Ray Detection of the Galaxy’s Missing Baryons in the Circum-Galactic Medium of L∗ Galaxies”, di Fabrizio Nicastro, Yair Krongold, Taotao Fang, Filippo Fraternali, Smita Mathur, Stefano Bianchi, Alessandra De Rosa, Enrico Piconcelli, Luca Zappacosta, Manuela Bischetti, Chiara Feruglio, Anjali Gupta e Zheng Zhou
La culla dei buchi neri intermedi
media.inaf.it/wp-content/uploa…
Questa illustrazione di un ammasso stellare (cliccare per ingrandire) mostra in arancio e giallo le stelle simili al Sole, mentre in blu e azzurro quelle con una massa tra 20 e 300 volte quella del Sole. La grande palla bianca in alto, invece, rappresenta una stella con una massa di circa 350 masse solari, che di lì a poco collasserà formando un buco nero di massa intermedia. Crediti: Manuel Arca Sedda/Gssi
Uno studio guidato da Manuel Arca Sedda, ricercatore al Gran Sasso Science Institute (Gssi) e associato Inaf, pubblicato oggi su Monthly Notices of the Royal Astronomical Society, getta luce sui meccanismi che portano alla formazione dei misteriosi buchi neri intermedi. Si tratta di oggetti con masse comprese tra qualche centinaio e decine di migliaia di masse solari, che potrebbero rappresentare l’anello di congiunzione tra i loro parenti più piccoli, i buchi neri stellari, e i giganti supermassicci che popolano i centri delle galassie.
Esistono infatti diverse tipologie di buchi neri: sebbene siano accomunati da densità talmente elevate che nemmeno la luce può fuggire alla loro attrazione gravitazional
e, la massa di questi corpi celesti può variare in un intervallo molto ampio e discriminarne il meccanismo di formazione. Se ne possono individuare tre macrocategorie di interesse astronomico: stellari, intermedi, e supermassicci. I primi, come suggerisce il nome, si formano quando una stella di massa sufficientemente grande, cioè almeno venti volte più massiccia del Sole, esaurisce il suo combustibile e soccombe alla forza di gravità collassando su sé stessa: rappresentano la tipologia più leggera di buco nero e sul processo che porta alla loro formazione si ha un quadro teorico decisamente chiaro. All’estremo opposto ci sono gli immensi buchi neri supermassicci, di masse milioni o miliardi di volte maggiori rispetto alla nostra stella. Si ritiene che ogni galassia ne ospiti uno al suo centro e, nel 2017, grazie all’Event Horizon Telescope è stato possibile ottenerne una prima immagine diretta. Nonostante questo formidabile risultato, la formazione e l’accrescimento di questi oggetti rappresenta ancora un affascinante mistero per l’astronomia moderna, soprattutto a causa della mancanza di una prova definitiva a sostegno dell’esistenza stessa dei buchi neri di massa intermedia. Ed è proprio questo il tema dello studio di Arca Sedda, il primo di altri due attualmente in fase di revisione.
«I buchi neri di massa intermedia sono difficili da osservare», dice il ricercatore del Gssi, «basti pensare che i limiti osservativi attuali non ci permettono di dire nulla sulla popolazione di buchi neri intermedi con masse tra mille e diecimila masse solari e rappresentano un grattacapo per gli scienziati anche per quanto riguarda i possibili meccanismi che ne portano alla formazione». Ecco allora che uno degli obiettivi della ricerca è stato proprio cercare di comprendere come questi si formano.
«Abbiamo svolto dei nuovi modelli al computer in grado di simulare la formazione di questi misteriosi oggetti, e abbiamo trovato che tali buchi neri intermedi possono formarsi in ammassi stellari tramite una complessa combinazione di tre fattori: fusioni tra stelle molto più grandi del nostro sole, l’accrescimento di materiale stellare su buchi neri stellari e, infine, la fusione tra buchi neri stellari. Quest’ultimo è un processo che ha come conseguenza la possibilità di “vedere” questi fenomeni tramite la rilevazione di onde gravitazionali», spiega Arca Sedda. Lo studio ipotizza anche cosa accade dopo la nascita di buchi neri intermedi: vengono lanciati via dai loro stessi ammassi tramite complesse interazioni gravitazionali o a causa di un processo noto come rinculo relativistico, e tutto ciò ne impedisce la loro crescita. «I nostri modelli mostrano che, sebbene i semi di buchi neri intermedi si formino naturalmente da interazioni stellari energetiche in ammassi stellari, è improbabile che diventino più pesanti di qualche centinaio di masse solari, a meno che l’ammasso genitore non sia estremamente denso o massiccio».
Resta però da chiarire un quesito scientifico importante, cioè se i buchi neri intermedi sono l’anello di congiunzione tra i buchi neri stellari e i supermassicci. È una domanda aperta, ma lo studio dà spazio per qualche ipotesi. «Per rispondere», chiarisce Arca Sedda, «abbiamo bisogno di due ingredienti: uno o più processi in grado di formare buchi neri decisamente dentro l’intervallo di massa di quelli intermedi, e la possibilità di trattenere tali buchi neri intermedi nell’ambiente ospite. Il nostro studio pone limiti stringenti sul primo ingrediente, fornendoci una chiara panoramica di quali processi possano concorrere alla formazione dei buchi neri intermedi. Considerare in futuro ammassi più massicci e contenenti un maggior numero di binarie (sistemi composti da due stelle in orbita una attorno all’altra) potrebbe essere la chiave per ottenere anche il secondo ingrediente. Ma questo richiederà enormi sforzi da un punto di vista tecnologico/computazionale».
Fonte: comunicato stampa Gssi
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “The Dragon-II simulations — II. Formation mechanisms, mass, and spin of intermediate-mass black holes in star clusters with up to 1 million stars”, di Manuel Arca Sedda, Albrecht W. H. Kamlah, Rainer Spurzem, Francesco Paolo Rizzuto, Mirek Giersz, Thorsten Naab e Peter Berczik
Guarda su MediaInaf Tv l’intervista a Manuel Arca Sedda:
Osiris-Rex, consegna effettuata
È arrivata a Terra la capsula rilasciata dalla sonda Osiris-Rex della Nasa, con il suo prezioso carico di 250 grammi di campioni prelevati dal suolo dell’asteroide Bennu.
TOUCHDOWN! The #OSIRISREx sample capsule landed at the Utah Test and Training Range at 10:52am ET (1452 UTC) after a 3.86-billion mile journey. This marks the US’s first sample return mission of its kind and will open a time capsule to the beginnings of our solar system. pic.twitter.com/N8fun14Plt— NASA (@NASA) September 24, 2023
«È una capsula del tempo», hanno detto gli esperti della Nasa, riferendosi al fatto che i campioni potrebbero raccontare molto sia sull’origine del Sistema solare, sia sugli elementi necessari per assemblare le molecole alla base della vita. La sonda è atterrata nel deserto dello Utah, nell’area della base Uttr (Utah Test and Training Range) del ministero della Difesa degli Stati Uniti.
Appare integra, la capsula rilasciata dalla sonda Osiris-Rex e atterrata con il suo prezioso carico dei campioni dell’asteroide Bennu. Lo indicano le prime immagini ottenute dagli elicotteri che hanno raggiunto il luogo dell’atterraggio per le operazioni di recupero. Queste ultime sono appena iniziate e i tecnici si stanno avvicinando alla capsula. Per sicurezza, hanno le mani protette da guanti e il viso da una maschera, per proteggersi dall’eventuale rilascio di sostanze nocive.
La sonda Osiris-Rex della Nasa aveva rilasciato la capsula circa tre ore prima. Le polveri prelevate dall’asteroide Bennu sono un carico prezioso, perché sono ricche di elementi necessari a costruire i mattoni della vita.
We can confirm that the #OSIRISREx sample return capsule is not breached! pic.twitter.com/y4G48K1KOt— NASA Solar System (@NASASolarSystem) September 24, 2023
A guidare la sonda Osiris-Rex (il cui nome è l’acronimo di Origins, Spectral Interpretation, Resource Identification, Security – Regolith Explorer) è una speciale “bussola” italiana: il sensore di assetto stellare realizzato da Leonardo nello stabilimento di Campi Bisenzio (Fi). Anche i minerali presenti nel suolo dell’asteroide Bennu sono stati analizzati grazie al sensore a infrarosso realizzato dalla stessa azienda italiana nel Regno Unito.
Nel frattempo, la sonda Osiris-Rex è stata fotografata dall’astrofisico Gianluca Masi, responsabile scientifico del Virtual Telescope: l’immagine è stata ottenuta nella notte fra il 23 e il 24 settembre con gli strumenti sono installati a Manciano (Grosseto).
Lanciata nel 2016, la sonda Osiris-Rex ha raccolto i campioni dal suolo dell’asteroide Bennu nell’ottobre 2020 e, subito dopo il rilascio della capsula, si prepara a un altro lungo viaggio. Questa volta il suo obiettivo è l’asteroide Apophis, che dovrebbe raggiungere nell’aprile 2029.
Guarda su MediaInaf Tv il servizio video realizzato prima della consegna:
Tradita dall’ombra nello spettro del quasar
Comunemente, siamo abituati a studiare le galassie attraverso la luce che esse emettono nelle diverse regioni dello spettro elettromagnetico. La radiazione emessa ci consente di caratterizzare nel dettaglio numerose proprietà che riguardano le stelle, i gas e le polveri che costituiscono le galassie, oltre che di scoprirne di nuove. Tuttavia, questo non è l’unico modo per studiare le galassie. Una tecnica impiegata a partire dagli anni ‘80 consiste infatti nell’analizzare questi oggetti grazie alla luce assorbita. Può accadere infatti che, per meri effetti di proiezione, una galassia si trovi davanti a una sorgente molto luminosa – tipicamente un quasar distante, ovvero un nucleo galattico estremamente brillante a causa dell’accrescimento di materiale su un buco nero supermassiccio. Il gas e la polvere della galassia fanno allora “da schermo” alla luce del quasar, assorbendone la radiazione emessa a delle lunghezze d’onda specifiche. E così accadrà che, quando andremo a studiare la luce emessa dal quasar in funzione della lunghezza d’onda, ovvero il suo spettro, ci imbatteremo in dei veri e propri “buchi” nello spettro del quasar, la cui posizione ci fornisce indicazioni importanti sulla galassia responsabile dell’assorbimento.
La freccia viola indica, nello spettro del quasar Q 1218+0832, la porzione assorbita dalla galassia protagonista dello studio pubblicato su A&A (vedi anche ingrandimento nell’inserto in alto a destra). Crediti: S. J. Geier et al., A&A, 2019
Attraverso questa tecnica sono state rivelate numerose galassie, che altrimenti risulterebbero invisibili, sovrastate dalla luce emessa dai quasar più lontani. Una di queste è stata scoperta nel 2019 e si trova ad una distanza di oltre dieci miliardi di anni luce dalla Terra. La particolarità di questa sorgente consiste nel fatto che assorbe molta più luce dei sistemi di stelle tipicamente individuati con questa tecnica, il che suggerisce che si tratti di un oggetto piuttosto ricco di polveri. Inoltre, alcune caratteristiche della polvere sono simili a quelle che si riscontrano nell’universo locale. Tutto questo ci dice che si tratta di un oggetto evoluto, benché al momento dell’assorbimento della radiazione l’universo avesse meno di tre miliardi di anni.
Data la peculiarità della sorgente, alcuni ricercatori guidati da Johan Fynbo, professore di astronomia del Cosmic Dawn Center di Copenaghen, hanno deciso di riosservare il quasar, stavolta con l’obiettivo di rivelare la luce emessa dalla galassia responsabile dell’assorbimento. La luce assorbita ci consegna infatti un’immagine solo parziale di quel che accade all’interno di una galassia. Se vogliamo conoscere nel dettaglio le proprietà del gas e delle popolazioni stellari è fondamentale analizzare anche la radiazione emessa. Per fare questo, il team si è servito di dati raccolti con tre telescopi diversi pur di individuare la sorgente: Hubble, il Nordic Optical Telescope e il GranTeCan.
Tuttavia, nonostante gli sforzi investiti nelle osservazioni e nella successiva analisi dei dati, la galassia sfugge agli occhi degli astronomi. L’ipotesi avanzata nello studio – in uscita su Astronomy & Astrophysics – è che la galassia sia posizionata esattamente davanti al quasar, che dunque ne preclude la visione, come il riflettore di uno stadio che si trovi dietro a una lucciola.
Il campo in cui si trova la galassia a oggi invisibile. La sorgente è collocata davanti al “Quasar A”. Nell’immagine è visibile la galassia compagna (“Neighbor galaxy”) scoperta di recente. Le altre sorgenti presenti nel campo non hanno alcun legame con le due galassie. Crediti: J. P. U. F Fynbo et al., A&A, 2023, Laursen (Dawn)
Le osservazioni però non sono state vane. Esse infatti hanno consentito di studiare non solo la galassia che provoca l’assorbimento, ma anche le regioni attorno a essa. Si è scoperto infatti che nelle sue vicinanze si trova un’altra galassia. I due oggetti potrebbero essere membri di quello che in astronomia viene detto “gruppo”, ovvero un insieme di galassie legate gravitazionalmente.
«Questo rende le galassie molto più interessanti da studiare», dice Fynbo al sito del Niels Bohr Institute. In futuro questi oggetti potrebbero infatti evolvere in una struttura non dissimile dal Gruppo Locale, ovvero il gruppo di galassie di cui fa parte la Via Lattea assieme alla Galassia di Andromeda e ad altre galassie minori.
Non è chiaro se siano presenti altri oggetti che facciano parte della stessa struttura. Gli autori dello studio prevedono nuove e più profonde osservazioni per cercare nuovamente di stanare la galassia e per indagarne l’ambiente.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “The galaxy counterpart and environment of the dusty Damped Lyman-alpha Absorber at z=2.226 towards Q1218+0832”, di J. P. U. Fynbo, L. B. Christensen, S. J. Geier, K. E. Heintz, J.-K. Krogager, C. Ledoux, B. Milvang-Jensen, P. Møeller, S. Vejlgaard, J. Viuho e G. Östlin
Via col vento dalle galassie nane
Illustrazione artistica di getti ad alta velocità emessi da un buco nero supermassiccio al centro di una galassia attiva. Crediti: Esa/Hubble, L. Calçada (Eso), M. Romano
Come funzionino nel dettaglio i meccanismi di crollo del tasso di formazione stellare nelle galassie non è ancora del tutto chiaro e la qustione è da tempo al centro di un ampio dibattito all’interno della comunità scientifica. I potenti venti di gas che fuoriescono ad alta velocità dalla galassia eserciterebbero a un certo punto un’azione retroattiva – detta di feedback – sui processi di formazione stellare nella galassia stessa, smorzando il tasso di produzione di nuove stelle nel suo interno. Esistono una serie di discrepanze tra le previsioni teoriche e le proprietà osservate delle galassie nane o di piccola massa che un nuovo studio pubblicato questo mese su Astronomy & Astrophysics vorrebbe contribuire a chiarire.
Un’analisi sistematica della presenza di venti galattici in un campione di galassie nane locali povere di metalli, maggiormente affette da meccanismi di feedback rispetto a galassie più massicce, ha fatto emergere che l’efficienza di questo effetto indotto dall’attività di formazione stellare in queste galassie è minore rispetto a quanto atteso dai modelli teorici, aprendo la strada a nuove interpretazioni dei processi che portano alla produzione e distruzione di polvere e gas nel mezzo interstellare. Grazie ai dati dell’Osservatorio spaziale Herschel, il gruppo di ricerca ha studiato la luce emessa a una particolare lunghezza d’onda (158 μm, micrometri, milionesimi di metro) dallo ione CII del carbonio. La luce emessa dallo ione CII è in grado di fornire informazioni preziose sul tasso di formazione stellare all’interno delle galassie e il suo profilo spettrale può essere studiato per individuare i flussi di gas in uscita alimentati dall’attività di formazione stellare. Gli atomi di carbonio si presentano per lo più ionizzati proprio a causa della radiazione ultravioletta prodotta da stelle giovani immerse nelle nubi di polvere nel mezzo interstellare delle galassie.
Michael Romano, esperto di formazione delle galassie nell’universo primordiale e della loro evoluzione nel tempo, è assegnista di ricerca presso il Centro nazionale di ricerca nucleare di Varsavia, in Polonia
«Abbiamo analizzato la riga spettrale del CII in 30 galassie nane locali, per cercare un eccesso di carbonio ad alte velocità rispetto all’emissione prodotta dall’attività di formazione stellare. Tale eccesso è infatti indicativo della presenza di venti galattici (tipicamente prodotti da esplosioni di stelle massicce) che esercitano un feedback all’interno del mezzo interstellare, spingendo il gas verso l’esterno della galassia», spiega Michael Romano del Centro nazionale di ricerca nucleare (Ncbj) di Varsavia, in Polonia, primo autore dello studio firmato da un team internazionale di ricercatori. «I nostri risultati mostrano che il tasso con il quale il gas viene rimosso dal mezzo interstellare a causa dei venti galattici è comparabile con quello prodotto dal processo di formazione stellare, in contrasto con i modelli teorici che prevedono un effetto di feedback molto più efficiente. Ciò nonostante, circa il 40 per cento del gas trasportato dai venti è in grado di sottrarsi al potenziale gravitazionale di queste galassie e raggiungere il mezzo intergalattico, dove non potrà più essere utilizzato come carburante per la formazione di nuove stelle». Allo stesso tempo, l’emissione dello ione CII osservata sembra essere quasi due volte più estesa della loro emissione ultravioletta, suggerendo che una quantità significativa di gas atomico può ancora risiedere nel mezzo circumgalattico di queste sorgenti ancora legato al loro potenziale gravitazionale, e potrebbe probabilmente servire come carburante per la formazione di nuove stelle.
I processi di feedback, che siano guidati dall’attività di formazione stellare o da nuclei galattici attivi, possono influire in maniera drastica sull’evoluzione di una galassia, per esempio aumentando la temperatura del gas nel mezzo interstellare oppure generando forti venti in grado di trasportare polvere e metalli nel mezzo intergalattico. In entrambi i casi, questo effetto può portare a uno spegnimento della galassia, rimuovendo il carburante necessario alla formazione di nuove stelle. In galassie di piccola massa come quelle studiate in questo caso, questo effetto è ancora più accentuato a causa del loro minore potenziale gravitazionale, fatto che favorisce la formazione di venti galattici capaci di spazzare via gas e polveri più facilmente. Infatti, venti abbastanza forti possono superare il limite della velocità di fuga della galassia riuscendo a trasportare il materiale nel mezzo intergalattico, dove non potrà essere utilizzato per futuri eventi di formazione stellare. Capire come il feedback generato da esplosioni di stelle massicce, o di nuclei galattici attivi, possa influire sulle proprietà osservative delle galassie contribuisce a combinare osservazioni e modelli teorici per descrivere accuratamente i processi fisici che avvengono al loro interno.
Le simulazioni cosmologiche e i modelli di evoluzione chimica hanno bisogno di venti galattici molto efficienti per poter riprodurre le proprietà osservative di sorgenti a diverse età e distanze. Al tempo stesso, i valori di efficienza predetti da questi modelli possono essere molto diversi tra loro, non permettendo una descrizione accurata dei processi che portano alla formazione o alla distruzione della polvere e all’esaurimento delle scorte di gas nel mezzo interstellare.
«Vincoli osservativi sull’efficienza dei venti galattici, come quelli trovati nel nostro lavoro, ci permetteranno di calibrare gli attuali modelli teorici così da fornire una descrizione accurata dei processi fisici che regolano l’evoluzione delle galassie attraverso il tempo cosmico», aggiunge Ambra Nanni, ricercatrice dell’Ncbj e coautrice dello studio.
Si tratta di un risultato particolarmente interessante se si pensa che le galassie primordiali, formatesi dopo solo un miliardo di anni dal Big Bang, condividono proprietà fisiche paragonabili a quelle delle sorgenti nane locali e sono governate da meccanismi di feedback molto simili.
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “Star-formation-driven outflows in local dwarf galaxies as revealed from[CII] observations by Herschel”, di di M. Romano, A. Nanni, D. Donevski, M. Ginolfi, G. C. Jones, I. Shivaei, Junais, D. Salak e P. Sawant
L’inaspettata voracità dei buchi neri supermassicci
media.inaf.it/wp-content/uploa…
Un nuovo studio mostra che, trascinando lo spazio-tempo, i buchi neri supermassicci possono fare a pezzi il disco di accrescimento che li circonda, dando origine a un sottodisco interno e uno esterno. Crediti: Nick Kaaz/ Northwestern University
I dischi di accrescimento che circondano i buchi neri supermassicci sono oggetti fisicamente complicati ed estremamente difficili da modellare. In particolare, la teoria convenzionale fatica a spiegare il fatto che in alcuni casi brillano molto intensamente e poi improvvisamente si attenuano, a volte fino al punto di scomparire completamente.
In passato, si era ipotizzato che tali dischi fossero relativamente ordinati. In questi modelli, gas e polvere vorticano attorno al buco nero, sullo stesso piano del buco nero e nella sua stessa direzione di rotazione. Su una scala temporale compresa tra centinaia e centinaia di migliaia di anni, gas e polvere spiraleggiano gradualmente attorno al buco nero fino a caderci dentro.
Ora però, secondo una nuova simulazione condotta dalla Northwestern University, sembra che le cose stiano in modo molto diverso. La simulazione dei ricercatori – una delle simulazioni dei dischi di accrescimento a più alta risoluzione condotte fino a oggi – indica che le regioni che circondano il buco nero sono luoghi molto più disordinati e turbolenti di quanto si pensasse in precedenza.
«La teoria classica del disco di accrescimento prevede che il disco si evolva lentamente», spiega Nick Kaaz della Northwestern, che ha guidato lo studio. «Ma alcuni quasar – che risultano da buchi neri che divorano gas dai loro dischi di accrescimento – sembrano cambiare drasticamente nel corso di tempi che vanno da mesi ad anni. Questa variazione è drastica. Sembra che la parte interna del disco, da cui proviene la maggior parte della luce, venga distrutta e poi reintegrata. La teoria classica del disco di accrescimento non riesce a spiegare questa drastica variazione. Ma i fenomeni che vediamo nelle nostre simulazioni potrebbero potenzialmente spiegarla. Il rapido aumento della luminosità e oscuramento sono coerenti con la distruzione delle regioni interne del disco».
Utilizzando Summit, uno dei supercomputer più veloci del mondo, presso l’Oak Ridge National Laboratory, i ricercatori hanno effettuato una simulazione 3D della magnetoidrodinamica relativistica generale di un disco di accrescimento sottile e inclinato. Mentre simulazioni precedenti non erano abbastanza potenti da includere tutta la fisica necessaria per riprodurre un buco nero realistico, il modello ideato dalla Northwestern include la dinamica dei gas, i campi magnetici e la relatività generale per ottenere un quadro più completo.
«I buchi neri sono oggetti relativistici estremi che influenzano lo spaziotempo attorno a loro», spiega Kaaz. «Quindi, quando ruotano, trascinano lo spazio intorno a loro come una gigantesca giostra e costringono anche quest’ultimo a ruotare, un fenomeno chiamato frame-dragging. Questo crea un effetto molto forte vicino al buco nero che diventa sempre più debole man mano che ci si allontana».
Questa immagine simulata mostra come il disco di accrescimento di un buco nero supermassiccio possa dividersi in due sottodischi, che in questa immagine sono disallineati. Crediti: Nick Kaaz/ Northwestern University
Il frame-dragging fa oscillare l’intero disco, in modo simile alla precessione di un giroscopio. Ma il disco interno tende a oscillare molto più rapidamente delle parti esterne. Questa differenza provoca la deformazione del disco e la collisione del gas proveniente dalle sue diverse parti. Le collisioni creano shock luminosi che spingono violentemente la materia sempre più vicino al buco nero. Man mano che la deformazione diventa più grave, la regione più interna del disco di accrescimento continua a oscillare sempre più velocemente finché non si separa dal resto del disco. Quindi, i sottodischi iniziano a evolversi indipendentemente l’uno dall’altro. Invece di muoversi dolcemente insieme come in un disco piatto che circonda il buco nero, i sottodischi oscillano indipendentemente a velocità e angoli diversi, come le ruote di un giroscopio. Finché il disco interno si “strappa”, iniziando a precessare in modo indipendente.
Secondo la nuova simulazione, è nella regione di lacerazione – dove i sottodischi interno ed esterno si disconnettono – che inizia la frenesia alimentare. Mentre l’attrito cerca di tenere insieme il disco, la torsione dello spaziotempo provocata dal buco nero in rotazione vuole farlo a pezzi. Il disco esterno versa il materiale sopra il disco interno. Questa massa extra spinge il disco interno verso il buco nero, dove viene divorato. Quindi, la gravità stessa del buco nero attira il gas dalla regione esterna verso la regione interna, ora vuota, per riempirla.
Kaaz sostiene che sono proprio questi rapidi cicli mangia-riempi-mangia che riescono potenzialmente a spiegare il cambiamento dell’aspetto di certi quasar, che si accendono e spengono nel corso di mesi.
Le nuove simulazioni non solo sono in grado di spiegare il comportamento di questi quasar, ma potrebbero anche rispondere ad alcune domande sulla natura misteriosa dei buchi neri. «Il modo in cui il gas arriva a un buco nero per alimentarlo è la questione centrale nella fisica dei dischi di accrescimento», conclude Kaaz. «Se capiamo come ciò accade, sapremo quanto dura il disco, quanto è luminoso e come dovrebbe apparire la luce quando lo osserviamo con i telescopi».
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Nozzle shocks, disk tearing and streamers drive rapid accretion in 3D GRMHD simulations of warped thin disks” di Nicholas Kaaz, Matthew T. P. Liska, Jonatan Jacquemin-Ide, Zachary L. Andalman, Gibwa Musoke, Alexander Tchekhovskoy e Oliver Porth
Mappa delle onde gravitazionali nella Via Lattea
Qualunque puntino, ombra o chiazza luminosa vediate in questo video, è un’onda gravitazionale. Si tratta infatti di una simulazione della nostra galassia – la Via Lattea – come la vedremmo se potessimo indossare delle speciali lenti che selezionano tutte e sole le sorgenti di onde gravitazionali a bassa frequenza. Se potessimo, in altre parole, vedere con gli “occhi” di un interferometro spaziale per onde gravitazionali come il futuro Laser Interferometer Space Antenna, o Lisa, attualmente in fase di progettazione da parte dell’Esa in collaborazione con la Nasa e il cui lancio è previsto negli anni 2030.
La Via Lattea vista con le onde gravitazionali a bassa frequenza, emesse da sistemi binari ultracompatti. Crediti: Nasa’s Goddard Space Flight Center
A produrre tutte queste emissioni galattiche, coppie di corpi celesti che gli astronomi classificano come “binarie ultra compatte” (Ucb, dall’inglese ultra-compact binaries). Si tratta dello stato finale di molti sistemi stellari binari e comprendono coppie miste di buchi neri, stelle di neutroni, nane bianche e stelle evolute di sequenza principale. Questi sistemi emettono onde gravitazionali “persistenti” a bassa frequenza, ovvero a lunghezze d’onda dei millihertz, non raggiungibili dagli interferometri di terra.
Gli strumenti terrestri come Ligo, Virgo e Kagra sono infatti sensibili alle onde gravitazionali ad alta frequenza, ovvero fra 10 Hz e 1 kHz, e finora hanno rilevato circa cento eventi. Si tratta, però, di segnali transienti (ovvero di durata inferiore a un minuto) prodotti durante le turbolente fasi finali della fusione di sistemi binari di oggetti compatti, come buchi neri e stelle di neutroni. Oltre a essere più energetici di quelli qui rappresentati, inoltre, sono estremamente rari in una singola galassia e sono quindi quasi esclusivamente extra-galattici.
Per mettere in piedi questa simulazione, pubblicata in un articolo su The Astrophysical Journal, è stata utilizzata la distribuzione galattica dei sistemi binari (e dei corrispondenti segnali delle onde gravitazionali) elaborata proprio dal team scientifico dell’interferometro spaziale Lisa. Sono stati poi organizzati all’interno di una visione completa della Via Lattea, dunque una mappa, esattamente come fatto in precedenza per diverse lunghezze d’onda elettromagnetiche come il visibile, l’infrarosso o i raggi X. I punti più luminosi indicano le sorgenti con segnali più forti, mentre i colori più chiari indicano quelle con frequenze più elevate. Le macchie colorate più grandi mostrano le sorgenti la cui posizione è meno conosciuta. L’inserto in alto a destra, infine, mostra la frequenza e la forza del segnale gravitazionale, assieme al limite di sensibilità di Lisa (la curva tratteggiata).
Il fatto che non si riconoscano strutture note, o familiari, è dovuto alla differenza fra le onde elettromagnetiche e le onde gravitazionali, che portano informazioni molto diverse, sebbene i fenomeni fisici che le originano talvolta possano essere visti anche con normali telescopi.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Imaging the Milky Way with Millihertz Gravitational Waves“, di Kaitlyn Szekerczes, Scott Noble, Cecilia Chirenti e James Ira Thorpe
L’autunno su Saturno
media.inaf.it/2023/09/21/autun…
L’estate sta finendo, e un anno se ne va… Su Saturno non ci saranno i Righeira, ma anche lì l’estate dell’emisfero settentrionale, così come sulla Terra, sta volgendo al termine. Saturno ha, infatti, un’inclinazione assiale e vive le stagioni allo stesso modo del nostro pianeta. Ma con una grande differenza: il pianeta con gli anelli impiega trent’anni per orbitare intorno al Sole, quindi le sue stagioni durano 7,5 anni terrestri. Così mentre noi stiano andando verso l’equinozio d’autunno settentrionale a settembre, Saturno sta volgendo verso l’equinozio d’autunno settentrionale nel 2025, e i poli nord di entrambi i pianeti si stanno dirigendo verso lunghi periodi di inverno polare.
Questo “bollettino meteorologico interplanetario” è stato pubblicato la settimana scorsa dagli scienziati planetari dell’Università di Leicester su Jgr Planets, e fornisce nuove informazioni sull’alternarsi delle stagioni saturniane, evidenziando un cambio di stagione in atto e un ultimo “scorcio di estate”. Le nuove osservazioni hanno, infatti, mostrato una parte del polo nord di Saturno, con il suo enorme vortice caldo pieno di gas idrocarburi, prima che inizi a ritirarsi nell’oscurità dell’inverno polare.
Montaggio delle osservazioni di Saturno compiute da Jwst. Per studiare l’emisfero settentrionale e gli anelli di Saturno sono state infatti necessarie quattro distinte osservazioni, qui visibili nei quattro tasselli del mosaico. I colori dei tasselli sono una combinazione di blu (temperatura stratosferica), verde (temperatura della troposfera superiore) e rosso (temperatura della troposfera inferiore) ottenuti utilizzando Miri, strumento sensibile soprattutto alla temperatura. Sullo sfondo è riportata un’osservazione a luce visibile, acquisita nel settembre 2022 da Hubble. Crediti: Nasa, Esa e Amy Simon (Nasa-Gsfc); elaborazione delle immagini: Alyssa Pagan (Stsci)
Il team di Leicester ha utilizzato lo strumento Mid-Infrared Instrument (Miri) del James Webb Space Telescope (Jwst) per studiare l’atmosfera di Saturno nella luce infrarossa: ciò ha permesso di misurare le temperature, le masse gassose e le nubi in movimento, fino alle regioni alte dell’atmosfera, note come stratosfera. Lo strumento Miri divide, infatti, la luce infrarossa nelle diverse lunghezze d’onda che la compongono, consentendo agli scienziati di vedere le “impronte digitali” della ricca varietà di sostanze chimiche presenti nell’atmosfera e negli aerosol di un pianeta.
Nell’immagine qui sopra, creata combinando solo alcune delle varie lunghezze d’onda osservate da Miri, spicca in blu la brillante emissione termica del polo settentrionale, dove è presente il caldo ciclone polare settentrionale (Npc, north polar cyclone), largo 1.500 km e osservato per la prima volta dalla missione Cassini. Il ciclone è circondato da una più ampia regione di gas caldi chiamata vortice stratosferico del polo nord (Npsv, north-polar stratospheric vortex). Formatisi nella primavera saturniana e così rimasti per tutta l’estate settentrionale, questi vortici caldi nella stratosfera sono riscaldati dal calore del Sole durante tutta la lunga stagione estiva di Saturno. Con l’avvicinarsi dell’equinozio d’autunno, nel 2025, il vortice stratosferico del polo nord inizierà a raffreddarsi per poi, successivamente, scomparire quando l’emisfero settentrionale sarà nell’oscurità dell’autunno. Gli scienziati hanno notato che l’Npsvha subito, trascinato da venti occidentali, un surriscaldamento dal 2017 in poi e che presenta, oggi, un aumento localizzato di diversi idrocarburi.
Lo strumento Miri ( Mid InfraRed Instrument) montato sul James Webb Space Telescope. Crediti: Nasa
Saturno ha un modello di circolazione stratosferica su larga scala, con temperature più calde e un eccesso di idrocarburi – come l’etano e l’acetilene – alle medie latitudini settentrionali in inverno: ciò significa che l’aria, ricca di idrocarburi, “affonda” dall’alto verso il basso. Modellando gli spettri a medio infrarosso, gli scienziati hanno notato che le distribuzioni delle temperature stratosferiche e dei gas, in questo particolare momento del ciclo stagionale di Saturno, sono piuttosto diverse da quelle osservate dalla missione Cassini durante l’inverno e la primavera settentrionali. Prima di questo studio, si pensava che l’aria salisse alle medie latitudini estive meridionali, attraversasse l’equatore e sprofondasse nelle medie latitudini invernali settentrionali. I dati mostrano, per la prima volta, le prove di un cambiamento effettivo delle temperature e dei venti nell’oscillazione equatoriale, nei vortici polari e nella circolazione stratosferica su Saturno. I risultati dello spettrometro a media risoluzione Miri, raccolti a novembre del 2022, hanno rivelato, infatti, che la circolazione stratosferica si è invertita, e si osservano temperature stratosferiche fredde e basse quantità di idrocarburi nel polo nord (tra 10 e 40 gradi nord), suggerendo un upwelling – una risalita – di aria povera di idrocarburi in estate, che poi fluirà verso sud durante l’inverno.
«La qualità dei nuovi dati di Jwst è semplicemente mozzafiato», dice entusiasta il professore Leigh Fletcher dell’Università di Leicester (Regno Unito). «È stata sufficiente una breve serie di osservazioni per consentirci di continuare l’impresa ereditata dalla missione Cassini, in una stagione saturniana completamente nuova, osservando come i modelli meteorologici e la circolazione atmosferica rispondono ai cambiamenti della luce solare». Osservazioni iniziate otto anni fa, a cinque anni dal termine della missione Cassini, e culminate nella raccolta dei dati di alta qualità e definizione forniti da Jwst a fine 2022. «Jwst è in grado di vedere lunghezze d’onda della luce inaccessibili a qualsiasi veicolo spaziale precedente, producendo un insieme di dati squisiti, che stuzzicano l’appetito per gli anni a venire», continua Fletcher. «Questo su Saturno è solo il primo step di un programma di osservazioni di tutti e quattro i pianeti giganti, e James Webb sta fornendo capacità che vanno al di là di qualsiasi altro strumento utilizzato in passato».
Immagini composite create combinando le tre “mattonelle” di Saturno per mostrare la variazione da equatore a polo della temperatura di luminosità a diverse lunghezze d’onda. Sono mostrati: l’opacità degli aerosol nella troposfera profonda; il forte assorbimento di NH3; una miscela di emissione termica e luce solare riflessa dagli aerosol della troposfera superiore. Crediti: University of Leicester
In effetti, la serie di dati raccolti da Jwst ha rivelato finora, con ottima definizione, la struttura a bande di Saturno, i vortici polari caldi e la continua evoluzione di un modello oscillatorio di anomalie calde e fredde sull’equatore di Saturno. Con la sua atmosfera variabile a seconda delle stagioni, i suoi delicati anelli e la sua miriade di satelliti, Saturno rappresenta un bersaglio iniziale ideale per testare le capacità del telescopio Jwst. «Questo pianeta è grande, luminoso, in rotazione e in movimento nel cielo, e rappresenta una sfida per il piccolo campo di vista dello strumento Miri», spiega Oliver King, assegnista di ricerca nel gruppo di Fletcher. «Lo strumento a infrarossi può vedere solo un’area ristretta di Saturno per volta, con il rischio di saturare i rivelatori per l’eccessiva luminosità, rispetto agli obiettivi abituali di Jwst. Le osservazioni sono state così condotte in tre tranche, come tre mattonelle di un mosaico: prima dall’equatore al polo nord, e poi verso gli anelli per un “inquadratura” finale».
Lo studio non sarebbe stato possibile, sottolineano i ricercatori inglesi, senza l’ampio gruppo di esperti che ha contribuito al programma di osservazione, in particolare, tutti i collaboratori del James Webb Space Telescope che hanno supportato le sfide di un telescopio nuovo di zecca. «Prima d’ora, nessun veicolo è mai stato presente nello spazio per esplorare la tarda estate e l’autunno settentrionale di Saturno», conclude Fletcher. «Speriamo che questo sia solo il punto di partenza e che il James Webb possa proseguire l’eredità e la scienza di Cassini negli anni a venire. Se possiamo ottenere così tante nuove scoperte da una singola osservazione di un singolo mondo, immaginate quali scoperte ci aspettano nel prossimo futuro».
Per saperne di più:
- Leggi l’articolo su JGR Planets “Saturn’s Atmosphere in Northern Summer Revealed by JWST/MIRI” di Leigh N. Fletcher, Oliver R. T. King, Jake Harkett, Heidi B. Hammel, Michael T. Roman, Henrik Melin, Matthew M. Hedman, Julianne I. Moses, Sandrine Guerlet, Stefanie N. Milam e Matthew S. Tiscareno.
A Roma un congresso su Copernico e l’Italia
Copia di un ritratto perduto di Copernico a Varsavia. Karol Miller (1876). Crediti: Inaf-Oar
La storia di Niccolò Copernico ci riguarda da vicino per molti motivi. In campo astronomico rappresenta il personaggio più noto al mondo, al pari forse di Galileo e di pochi altri, per aver per primo sostenuto in epoca moderna l’eliocentrismo. Approfondire lo studio della genesi dell’idea dell’astronomo polacco, che ha posto le basi per quella che viene definita la rivoluzione copernicana, è dunque fondamentale per comprendere la storia del pensiero umano. Così come merita attenzione la diffusione del copernicanesimo, in Europa e in particolare in Italia, dove Copernico ha soggiornato e compiuto i suoi studi: benché il suo sia un testo molto tecnico, che poteva essere compreso e utilizzato solo da specialisti, le sue idee si diffusero in tutti i settori del sapere.
L’Istituto nazionale di astrofisica, e in particolare l’Osservatorio astronomico di Roma, raccolgono l’eredità di Copernico, ben rappresentata nello specifico dal Museo astronomico e copernicano, nato dalle celebrazioni per i 500 anni dalla nascita tenutesi a Roma nel 1873, e rilanciano questa tradizione organizzando un congresso internazionale, dal 28 al 30 settembre 2023, dal titolo “Copernicus and Italy. Corona Magnorum Virorum et Artificum: a revolutionary astronomer in the cradle of Humanism”, in collaborazione con la Società astronomica italiana, l’Istituto polacco di Roma, l’Accademia polacca delle scienze a Roma, le università di Roma Sapienza, Bologna, Ferrara e Padova – le tappe del percorso italiano di Copernico – e con il patrocinio dell’Accademia dei Lincei. L’incontro, strutturato in tre giornate, ha il fine di richiamare l’attenzione su Copernico e sulle collezioni antiche a esso collegate che l’Osservatorio Inaf di Roma conserva, ma soprattutto di analizzare il complesso rapporto dello scienziato polacco con l’Italia, favorendo nuove indagini sull’influenza dell’ambiente intellettuale e umanistico, e studiando la genesi e la prima ricezione delle idee copernicane nel contesto nazionale.
«Copernico fu a Roma nel 1500 in occasione dell’anno giubilare», ricorda Giangiacomo Gandolfi dell’Inaf di Roma, «e oltre a tenere delle lezioni – non si sa se ufficiali all’università La Sapienza, o informali tra umanisti e astrologi dell’epoca, probabilmente nella cerchia di Alessandro Farnese, più tardi Paolo III – vi effettuò delle osservazioni astronomiche citate nel celebre De Revolutionibus. Alcuni studiosi hanno addirittura proposto che osservasse un’eclissi di luna dall’alto della collina di Monte Mario, proprio dove oggi si erge la sede dell’Inaf. Naturalmente a occhio nudo, solo con un notturlabio e uno strumento per misurare gli angoli, o qualche congegno del genere in legno e ottone, dal momento che il telescopio non era ancora stato inventato».
Strumenti e libri antichi conservati al Museo astronomico e copernicano di Monte Mario. Crediti: Inaf-Oar
Il congresso si svolgerà presso la sede dell’Istituto polacco di Roma a Palazzo Blumensthil (via Vittoria Colonna, 1) e presso la sede centrale dell’Istituto nazionale di astrofisica di Villa Mellini, a Monte Mario, che ospita il Museo astronomico e copernicano, a suggellare le relazioni di amicizia e collaborazione scientifica tra Italia e Polonia. All’evento sono associate anche visite ai luoghi copernicani del centro di Roma (una passeggiata tra il Palazzo della Cancelleria, Piazza Sant’Eustachio e Sant’Ivo alla Sapienza), a monumenti di rilevanza per le scienze astrali del Rinascimento (Villa Farnesina, Palazzo Patrizi-Montoro) e una conferenza aperta al pubblico dedicata allo scienziato torunense presso l’Istituto polacco la sera della giornata d’apertura (giovedì 28 settembre, ore 21:00) nell’ambito delle manifestazioni cittadine che celebrano la Notte europea dei ricercatori. Il relatore sarà il professor Lucio Russo, matematico e storico della scienza dell’Università di Tor Vergata, che ricostruirà “L’eliocentrismo prima e dopo Copernico”, una sintesi della lunga storia dell’eliocentrismo, iniziata molti secoli prima di Copernico e continuata dopo di lui, mostrando valore e limiti di quella straordinaria avventura intellettuale che è stato il copernicanesimo.
Il workshop sarà aperto a studiosi del settore italiani e internazionali. Si prevede la partecipazione in presenza di circa cento congressisti, tra cui nomi di levatura internazionale come Robert Westman (Uc San Diego, Usa), André Goddu (Stonehill College, Easton, Usa), Michael Shank (University of Wisconsin-Madison, usa) e Rivka Feldhay (Cohn Institute – Tel Aviv University, Israele). Per l’occasione sarà allestita nei locali del Museo di Monte Mario una piccola mostra di cimeli copernicani dalla collezione originale di Artur Wolynski: statue, quadri, stampe, medaglie e preziosi libri antichi, tra cui la prima edizione del De Revolutionibus e un prezioso manoscritto – il Notabilia Cancelleriae – su cui Copernico studiò con tutta probabilità diritto canonico mentre era all’Università di Bologna.
Il libro di ricette per la vita sugli esopianeti
La vita richiede la ripetizione di reazioni chimiche. Descrivere i tipi di reazioni e le condizioni necessarie per la ripetizione autosufficiente – chiamata autocatalisi – potrebbe focalizzare la ricerca della vita su altri pianeti. Crediti: Betül Kaçar
Carl Sagan ha detto che se vogliamo preparare una torta da zero, dobbiamo prima inventare l’universo. Secondo gli autori di uno studio pubblicato su Journal of the American Chemical Society, se vogliamo comprendere l’universo, prima dobbiamo preparare un po’ di torte.
La vita su un pianeta lontano potrebbe non assomigliare per niente alla vita sulla Terra. Ma il numero di ingredienti chimici nella dispensa dell’universo è limitato, così come è limitato il numero di modi per mescolarli. Un team guidato da scienziati dell’Università del Wisconsin-Madison ha sfruttato queste limitazioni per scrivere un “libro di ricette” contenente centinaia di ricette chimiche potenzialmente in grado di dare origine alla vita. La loro lista potrebbe indirizzare la ricerca della vita su esopianeti, indicando le condizioni più probabili affinché tali ricette riescano a funzionare.
Il processo di progressione dagli ingredienti chimici di base ai complessi cicli del metabolismo cellulare e della riproduzione che definiscono la vita, dicono i ricercatori, richiede non solo un semplice inizio ma anche la capacità di ripetersi. «L’origine della vita è davvero un processo che nasce dal nulla», afferma Betül Kaçar, astrobiologa alla Uw-Madison. «Ma quel qualcosa non può accadere una volta sola. La vita dipende dalla chimica e dalle condizioni che possono generare un modello di reazioni autoriproduttive».
Le reazioni chimiche che producono molecole che favoriscono il ripetersi della reazione stessa sono chiamate reazioni autocatalitiche, ossia reazioni in cui il catalizzatore è rappresentato da uno dei prodotti di reazione. Nel nuovo studio, Zhen Peng e collaboratori hanno stilato un elenco di 270 combinazioni di molecole – coinvolgendo atomi di tutti i gruppi e serie della tavola periodica – con il potenziale per un’autocatalisi prolungata. «Si pensava che questo tipo di reazioni fossero molto rare», dice Kaçar. «Stiamo dimostrando che in realtà sono tutt’altro che rare. Basta guardare nel posto giusto».
I ricercatori hanno concentrato la loro ricerca su quelle che vengono chiamate reazioni di comproporzionamento. In queste reazioni, due specie contenenti lo stesso elemento con diverso stato di ossidazione, formano un prodotto dove l’elemento in questione è in uno stato di ossidazione intermedio rispetto a quelli iniziali.
Per essere autocatalitico, il risultato della reazione deve anche fornire i materiali di partenza affinché la reazione possa ripetersi, quindi l’output diventa un nuovo input, spiega Zach Adam, coautore dello studio e geoscienziato dell’Uw-Madison, che studia le origini della vita sulla Terra. Le reazioni di proporzionamento danno luogo a copie multiple di alcune delle molecole coinvolte, fornendo materiali per le fasi successive dell’autocatalisi.
Volendo fare un’analogia spicciola, l’autocatalisi è come una popolazione di conigli: coppie di conigli si uniscono, producono cucciolate di nuovi conigli, e poi i nuovi conigli crescono per accoppiarsi e creare ancora più conigli. Insomma, non ci vogliono molti conigli per avere presto molti altri conigli.
Betül Kaçar, astrobiologa alla Uw-Madison
Kaçar guida un consorzio supportato dalla Nasa chiamato Muse, acronimo di Metal Utilization & Selection Across Eons, e il suo laboratorio si concentrerà sulle reazioni che includono gli elementi molibdeno e ferro.
L’auspicio di Kaçar è che i chimici traggano spunti dall’elenco di “ricette” fornite nel nuovo studio e le provino nelle loro “pentole” simulando cucine extraterrestri. «Non sapremo mai con certezza cosa sia successo esattamente su questo pianeta per generare la vita. Non abbiamo una macchina del tempo», conclude Kaçar. «Ma, in una provetta, possiamo creare molteplici condizioni planetarie per capire in primo luogo come possono evolversi le dinamiche necessarie a sostenere la vita».
Per saperne di più:
- Leggi su Journal of the American Chemical Society l’articolo “Assessment of Stoichiometric Autocatalysis across Element Groups” di Zhen Peng, Zachary R. Adam, Albert C. Fahrenbach, and Betül Kaçar
Propulsori ad acqua sulle dita d’una mano
media.inaf.it/wp-content/uploa…
Un Ice-Cube Thuster. Nell’estremità a destra si distinguono l’ugello e la camera di combustione. Crediti: Ura Thrusters
Un pieno d’acqua e via. I propulsori dei nanosatelliti del prossimo futuro potrebbero funzionare proprio così, ad acqua. Molecole d’acqua scisse in idrogeno e ossigeno attraverso l’elettrolisi, così da ottenere un propellente a chilometro zero, direttamente nello spazio. A stupire sono le dimensioni dei nuovi “razzi” in grado di usare questa miscela: fra ugello e camera di combustione, meno d’un millimetro.
Ne vedete un esemplare nell’immagine qui a fianco. È un Ice-Cube Thruster (dalle iniziali di Iridium Catalysed Electrolysis CubeSat Thruster): un microrazzo sviluppato all’Imperial College di Londra nell’ambito del General Support Technology Program (Gstp) dell’Esa. Talmente miniaturizzato che per realizzarlo si ricorre allo stesso approccio adottato per i Mems (sistemi microelettromeccanici), l’equivalente meccanico dei microchip.
Negli ultimi test condotti in laboratorio ha consentito di ottenere una spinta di 1,25 millinewton (e generare un impulso specifico di 185 secondi). Non tantissimo, certo: per fare un confronto, l’Rs-25 – il motore principale dello Space Shuttle – sprigiona una spinta oltre un miliardo di volte superiore. D’altronde questi propulsori non sono pensati per manovrare grosse sonde spaziali: il loro campo d’applicazione è quello dei satelliti piccoli e piccolissimi, i cubesat e i nanosat. Oggetti la cui presenza in orbita è in crescita esponenziale. E i vantaggi che un microrazzo come questo può offrire sono enormi.
Anzitutto, la facilità di stoccaggio di un “carburante” non pericoloso qual è l’acqua. E le prestazioni molto favorevoli dell’accoppiata idrogeno e ossigeno rispetto, per esempio, ai propulsori elettrici. L’elettrolisi dell’acqua comporta infatti consumi assai modesti rispetto ai dispositivi di propulsione elettrica confrontabili: per il test condotto con l’Ice-Cube Thruster è stato sufficiente un dispositivo da 20 watt – la potenza erogata da un normale alimentatore Usb-C per smartphone.
Nulla comunque impedisce di impiegarne un numero elevato. Il metodo di costruzione, sottolineano infatti i progettisti dell’Imperial College, è intrinsecamente scalabile e consente di produrre propulsori in grandi lotti a un costo unitario eccezionalmente basso.
L’influenza dei buchi neri sulla chimica galattica
La galassia a spirale Messier 77 (Ngc 1068), osservata da Alma e dal telescopio spaziale Hubble. Gli isotopi del cianuro di idrogeno (H13CN), mostrati in giallo, si trovano solo attorno al buco nero al centro. I radicali di cianuro (CN), mostrati in rosso, appaiono non solo al centro e in una struttura gassosa a forma di anello su larga scala, ma anche lungo i getti bipolari che si estendono dal centro verso nord-est (in alto a sinistra) e sud-ovest (in basso a destra). Gli isotopi del monossido di carbonio (13CO), mostrati in blu, sembrano non essere presenti nella regione centrale. Crediti: Alma (Eso/Naoj/Nrao), Nasa/Esa Telescopio spaziale Hubble, T. Nakajima et al.)
È noto che i buchi neri supermassicci attivi possono produrre grandi cambiamenti nelle galassie che li ospitano, riscaldando e rimuovendo il gas interstellare. Ma le dimensioni compatte di questi buchi neri, le enormi distanze a cui si trovano e l’oscuramento dovuto alla polvere presente nelle galassie, rendono difficile misurare la distribuzione della composizione chimica del gas attorno ai buchi neri stessi.
In uno studio pubblicato su The Astrophysical Journal, un team internazionale di ricercatori guidati da Toshiki Saito dell’Osservatorio astronomico nazionale del Giappone e Taku Nakajima dell’Università di Nagoya hanno utilizzato Alma (Atacama Large Millimeter/ submillimeter Array) per osservare la regione centrale della galassia Messier 77 – o Ngc 1068, uno dei nuclei galattici attivi più vicini alla Terra – situata a 51,4 milioni di anni luce in direzione della costellazione della Balena.
Grazie all’elevata risoluzione spaziale di Alma e a una nuova tecnica di analisi basata sull’apprendimento automatico, il team è riuscito a mappare la distribuzione di 23 molecole. I risultati mostrano che lungo il percorso dei getti bipolari emessi in prossimità del buco nero, le molecole comunemente presenti nelle galassie come il monossido di carbonio (CO) sembrano rompersi, mentre le concentrazioni di molecole distintive come un isomero di HCN e il radicale cianuro (CN) aumentano. Questa è una prova diretta che i buchi neri supermassicci influenzano non solo la struttura su larga scala, ma anche la composizione chimica delle galassie che li ospitano.
Per saperne di più:
- Leggi su The Astrophysical Journal l’articolo “Molecular Abundance of the Circumnuclear Region Surrounding an Active Galactic Nucleus in NGC 1068 based on Imaging Line Survey in the 3-mm Band with ALMA” di Taku Nakajima, Shuro Takano, Tomoka Tosaki, Akio Taniguchi, Nanase Harada, Toshiki Saito, Masatoshi Imanishi, Yuri Nishimura, Takuma Izumi, Yoichi Tamura, Kotaro Kohno, and Eric Herbst
- Per studenti e docenti, è disponibile sul sito Play.Inaf una scheda didattica dedicata a M77 vista da Alma
Sulla Luna, meno acqua del previsto
media.inaf.it/wp-content/uploa…
Ai poli della Luna e con il Sole radente, la luce solare non raggiunge mai il fondo di alcuni crateri profondi. Questi Psr sono alcuni dei punti più freddi del Sistema solare, intrappolando sostanze chimiche volatili tra cui il ghiaccio d’acqua. Una nuova ricerca indica che queste regioni non sono così antiche come si pensava inizialmente, quindi le stime attuali del ghiaccio d’acqua sulla Luna potrebbero essere troppo alte. Crediti: NASA’s Scientific Visualization Studio
Sulla superficie della Luna esistono luoghi in cui non batte mai il sole. Si chiamano regioni permanentemente in ombra – o Psr, dall’inglese permanently shadowed regions. Si tratta del fondo dei crateri in prossimità dei poli lunari, che non ricevono luce solare per via del fatto che l’asse di rotazione del nostro satellite è inclinato di un solo grado e mezzo rispetto al piano dell’eclittica. Sono alcuni dei punti più freddi del Sistema solare e riescono a intrappolare sostanze chimiche volatili, incluso il ghiaccio d’acqua, che sublimerebbero immediatamente alla luce del Sole nella maggior parte degli altri luoghi sulla Luna.
Secondo due ricercatori americani, la maggior parte di queste regioni ha al massimo circa 3,4 miliardi di anni e può contenere depositi relativamente giovani di ghiaccio d’acqua. Le risorse idriche sono considerate fondamentali per l’esplorazione sostenibile della Luna, ma i loro risultati suggeriscono che le stime attuali per i ghiacci intrappolati in quelle regioni fredde sono troppo alte.
«Pensiamo che il sistema Terra-Luna si sia formato in seguito a un gigantesco impatto tra la Terra primordiale e un altro protopianeta», spiega Raluca Rufu del Southwest Research Institute, secondo autore dell’articolo pubblicato Science Advances. «La Luna si è formata dal disco di detriti generato dall’impatto, migrando nel tempo lontano dalla Terra. Circa 4,1 miliardi di anni fa la Luna subì un ri-orientamento significativo dell’asse di rotazione, quando la sua inclinazione raggiunse angoli elevati prima di smorzarsi fino alla configurazione che vediamo oggi. Man mano che l’inclinazione assiale diminuiva, apparivano ai poli i Psr, e crescevano nel tempo».
Il team ha utilizzato AstroGeo22, un nuovo strumento di simulazione dell’evoluzione Terra-Luna, per calcolare l’inclinazione dell’asse della Luna nel tempo. Insieme alle misurazioni dell’altezza della superficie provenienti dai dati del Lunar Orbital Laser Altimeter (Lola), il team ha stimato l’evoluzione temporale delle aree in ombra. «L’evoluzione temporale della distanza Luna-Terra è rimasta un problema irrisolto per mezzo secolo», aggiunge Rufu. «Tuttavia, questi nuovi proxy geologici per la storia del sistema Terra-Luna ci consentono di calcolare l’inclinazione assiale della Luna e l’estensione delle Psr nel tempo».
Gli scienziati hanno utilizzato le misurazioni di altezza di AstroGeo22 e Lola per calcolare l’età delle regioni permanentemente in ombra della Luna vicino ai suoi poli. Le macchie colorate mostrano l’estensione delle Psr 3,3 miliardi di anni fa (rosso), 2,1 miliardi di anni fa (verde) e vicine ai giorni nostri (blu) con la topografia attuale. Questi risultati suggeriscono che le stime attuali per i ghiacci intrappolati a freddo sono troppo alte. Crediti: Schörghofer/Rufu (2023)
Nel 2009, la Nasa fece schiantare Centaur, lo stadio superiore del razzo Atlas, e parte del Lunar Crater Observation and Sensing Satellite (Lcross), vicino al polo sud della Luna. La velocità con il quale il razzo, dal peso di oltre due tonnellate, ha toccato la Luna era di 9mila chilometri all’ora. Colpì il fondo del cratere Cabeus, creando un pennacchio di detriti. Prima di colpire a sua volta la superficie circa 4 minuti dopo, Lcross ha attraversato il pennacchio e ne ha potuto analizzare la composizione per controllare l’eventuale presenza d’acqua. Anche diversi satelliti in orbita attorno alla Terra, incluso il telescopio spaziale Hubble, hanno monitorato l’impatto.
«Il nostro lavoro suggerisce che il cratere Cabeus sia diventato un Psr meno di un miliardo di anni fa. Le varie sostanze volatili rilevate nel pennacchio creato da Lcross indicano che l’intrappolamento del ghiaccio è continuato in tempi relativamente recenti», afferma Norbert Schörghofer del Planetary Science Institute, primo autore della pubblicazione. «Gli impatti e il degassamento sono potenziali fonti di acqua, ma hanno raggiunto il picco all’inizio della storia lunare, quando gli attuali Psr non esistevano ancora. L’età dei Psr determina in gran parte la quantità di ghiaccio d’acqua che potrebbe essere intrappolata nelle regioni polari lunari. Le informazioni sull’abbondanza di ghiaccio d’acqua nei Psr sono particolarmente importanti nella pianificazione delle prossime missioni con e senza equipaggio sulla Luna alla ricerca di acqua».
Per saperne di più:
- Leggi su Science Advances l’articolo “Past extent of lunar permanently shadowed areas”, di Norbert Schörghofer e Raluca Rufu
La Gaia scienza di Srt
Pierluigi Ortu, ingegnere elettronico responsabile del laboratoro di optoelettronica dell’Inaf – Osservatorio astronomico di Cagliari e del progetto Gaia, sistema alcune schede Gaia in un rack che andrà installato in un ricevitore del Sardinia Radio Telescope. Crediti P. Soletta/Inaf
I radio telescopi sono grandi parabole che ricevono e processano debolissime onde elettromagnetiche provenienti da varie sorgenti nell’universo, come stelle e galassie. In questi complessi sistemi tecnologici tutto ruota intorno alla figura del “ricevitore”, alla sua sensibilità e alle minacce al suo regolare funzionamento, che sono principalmente le interferenze radio (in inglese, radio frequency interferencies, o Rfi). Interferenze radio che provengono da altre antenne emittenti – come telefonia, radio, televisione – ma anche da impianti eolici, cavidotti, sottostazioni elettriche, elettrodomestici non funzionanti, allarmi, motori di cancelli elettrici e così via. Non solo: le interferenze elettromagnetiche sono prodotte, anche e soprattutto, dagli stessi sistemi di ricezione dei radiotelescopi, perché necessitano di energia elettrica per funzionare. Per questo vengono studiate continuamente nuove soluzioni e nuove idee.
Una tra le più avanzate e pionieristiche a livello internazionale è stata ora trovata da una collaborazione tra l’Istituto nazionale di astrofisica (Inaf), l’Agenzia spaziale italiana (Asi) e il Dipartimento di ingegneria elettrica ed elettronica (Diee) dell’Università di Cagliari. Come si può leggere in uno studio pubblicato a maggio di quest’anno sulla rivista americana Ieee Access, un team capitanato dall’ingegnere elettronico dell’Inaf di Cagliari Pierluigi Ortu ha infatti messo a punto una scheda elettronica che promette di cambiare radicalmente le regole del gioco in quanto a gestione dei ricevitori, limitazione delle interferenze radio, ottimizzazione del tempo e, non ultima, sicurezza lavorativa durante le osservazioni radioastronomiche di Srt, il Sardinia Radio Telescope (per ora).
Tra l’ideazione, lo sviluppo e la messa a punto di Gaia – questo è il nome della scheda, che non è un acronimo e non ha niente a che vedere con l’omonima missione spaziale dell’Esa – sono passati ben sette anni, nonché una quantità incalcolabile di ore lavorative di un gruppo di lavoro di nove persone delle tre istituzioni coinvolte. Oggi, nel 2023, Gaia è diventata realtà ed è già in implementazione su alcuni dei nuovi ricevitori in dotazione al Sardinia Radio Telescope, costruiti ex novo grazie al progetto Pon-Innovazione appena concluso. Ma come funziona in concreto questa scheda? Partiamo dai ricevitori criogenici per poi passare alla loro alimentazione.
I ricevitori criogenici
I ricevitori criogenici (letteralmente “produttori di freddo”) richiedono molta energia elettrica per essere mantenuti alle temperature di lavoro previste – costanti e bassissime, molto vicine allo zero assoluto, raggiunte attraverso sistemi progressivi che potremmo definire “matrioske del freddo” che utilizzano il gas elio. Il freddo serve a rallentare gli atomi delle superfici riceventi fin quasi a farli fermare, garantendo così la ricezione di un segnale esterno in un ambiente il più possibile immobile, e dunque silenzioso.
Oltre alla mera ricezione del segnale, i ricevitori hanno anche il compito di amplificarlo il più possibile con appositi apparati detti Low Noise Amplifiers (Lna), ovvero amplificatori a basso rumore. Attraversata questa prima interfaccia di accoglimento esterno – il front end – il segnale può essere digitalizzato e processato nel successivo ambiente – il back end – per poter poi essere reso disponibile come dato utilizzabile dai radioastronomi. In pratica il ricevitore è l’interfaccia tra il segnale reale proveniente dal cielo e quello amplificato e digitalizzato a valle del sistema.
L’alimentazione dei ricevitori e il concetto di bias
Analogamente al concetto meccanico di “coppia” – che in un motore endotermico rappresenta il massimo rendimento tra numero di giri motore e potenza erogata – anche nell’alimentazione dei ricevitori vi è un range ottimale di funzionamento, chiamato “bias”: ovvero, un punto di equilibrio tra vari tipi di corrente e di tensione (tensione di gate, tensione di drain e corrente di drain) in cui il flusso elettrico raggiunge la massima efficienza e produce il minimo di emissioni elettromagnetiche indesiderate. Per assicurarsi che il bias di un ricevitore fosse costantemente in stato ottimale, i tecnologi e gli ingegneri dell’Inaf e dell’Asi avevano sviluppato, già da tempo, un sistema di monitoraggio in grado di inviare in remoto – ovvero tramite una rete Lan via cavo, dal ricevitore a un computer situato nella zona della control room, all’esterno del telescopio – informazioni puntuali sullo stato del ricevitore e su quantità e qualità del flusso elettrico in entrata. Non vi era, però, alcuna capacità di controllo e di intervento.
La scheda Gaia promette di rivoluzionare la gestione dei ricevitori del Sardinia Radio Telescope e, in prospettiva, anche di altri radiotelescopi, sia italiani che esteri, grazie alla possibilità di controllare in remoto i flussi di corrente ottimali per il loro funzionamento. Crediti: P. Soletta/Inaf
Una volta riscontrato un eventuale dato anomalo o un malfunzionamento, infatti, è sempre stato necessario intervenire fisicamente sul ricevitore montato sul telescopio per regolare questo flusso elettrico armati, letteralmente, di cacciavite per “dare un mezzo giro” e ristabilire il corretto flusso di corrente. Non è difficile immaginare le implicazioni pratiche: fermata e messa in sicurezza del telescopio in posizione di parcheggio, organizzazione di una missione dei tecnici al suo interno (con relative comunicazioni, calendarizzazioni e burocrazia), rischi connessi al lavoro in altezza. Interventi che richiedevano dunque molto “tempo antenna” e andavano inevitabilmente a intaccare le tempistiche delle osservazioni già programmate, facendole accavallare, ritardare o annullare.
Tutto questo a breve potrebbe essere solo un ricordo, se non per tutti, almeno per una buona parte dei ricevitori attualmente attivi su Srt, perché il sistema Gaia prevede – oltre al monitoraggio in remoto dei parametri dei ricevitori, già disponibile – soprattutto la possibilità di intervenire sui flussi elettrici direttamente da remoto, ottimizzandoli al massimo ed evitando così di mobilitare fisicamente tecnici e ingegneri a caccia del guasto. Dei circa dieci ricevitori attualmente costruiti per Srt, più della metà è già pronta a montare e utilizzare questo nuovo sistema, che rappresenta una novità da un certo punto di vista rivoluzionaria e pionieristica a livello mondiale.
Pierluigi Ortu (Inaf) non nasconde l’entusiasmo per questo risultato. «Sono stati anni di lavoro serrato, gomito a gomito con i colleghi di Asi e Diee per limare fino all’estremo ogni dettaglio di questa scheda che, a oggi, rappresenta il non plus ultra in fatto di tecnologia ed efficienza nella scienza radioastronomica, un vero e proprio benchmark che sta già facendo parlare di sé grazie alla pubblicazione nella rivista americana di riferimento. Per poter ottenere un ambiente di lavoro così proficuo è stato fondamentale il progetto Sarda Sensors, condotto da Tonino Pisanu e finanziato dalla Regione Sardegna per aprire il nostro sviluppo tecnologico verso la società e le imprese locali. Da questo contesto è partita la genesi di Gaia. Terrei inoltre a sottolineare il fatto che la maggior parte delle persone coinvolte nel progetto è partita in una condizione di precariato. Ancorché precarie, molte risorse umane sono fondamentali per portare avanti progetti importanti, e andrebbero valorizzate e tutelate dagli istituti di provenienza con le dovute attenzioni».
Per saperne di più:
- Leggi su Ieee Access l’articolo “A New Monitor and Control Power Supply PCB for Biasing LNAs of Large Radio Telescopes Receivers”, di Pierluigi Ortu, Andrea Saba, Giuseppe Valente, Giacomo Muntoni, Alessandro Navarrini, Tonino Pisanu, Riccardo Ghiani, Enrico Urru e Giorgio Montisci
Webb, alta tensione sulla costante di Hubble
media.inaf.it/2023/09/18/cefei…
Confronto tra le correlazioni periodo-luminosità delle cefeidi utilizzate per misurare le distanze. I punti rossi sono i dati acquisiti con Webb, quelli grigi con Hubble. Il pannello superiore è relativo alla galassia Ngc 5584, quello inferiore a Ngc 4258. I due telescopi risultano in ottimo accordo. Crediti: Nasa, Esa, A. Riess (Stsci), G. Anand (Stsci)
Doveva essere la macchina perfetta per sciogliere la tensione sulla costante di Hubble. E perfetto, o quasi, il telescopio spaziale James Webb sta davvero dimostrando di esserlo. Ma quanto alla tensione sul valore di H0, più che allentarla rischia di aggravarla. Le recenti misure compiute sulle stelle cefeidi delle galassie Ngc 4258 ed Ngc 5584 sembrano infatti confermare quelle ottenute in passato con il telescopio spaziale Hubble, escludendo così l’eventualità – o la speranza – che a produrre la tensione possano essere errori sistematici sulle stime fotometriche delle cefeidi stesse.
Va detto che si tratta di un risultato pubblicato per ora solo come preprint, dunque ancora in attesa di superare una peer review. Solido comunque al punto da essere già stato rilanciato sul sito della Nasa. Altro dettaglio non irrilevante, alla guida del team che l’ha ottenuto c’è niente meno che Adam Riess, uno dei tre astrofisici premiati nel 2011 con il Nobel proprio per “la scoperta dell’espansione accelerata dell’universo a partire dall’osservazione di supernove lontane” – scoperta intimamente legata alla stima della distanza delle cefeidi.
Per capire perché questa misura sulle cefeidi sia così cruciale per la stima della costante di Hubble, conviene fare un passo indietro e ripercorrere brevemente i due metodi comunemente adottati per stimarla. Il primo è quello che per brevità possiamo chiamare cosmologico, e deriva la costante di Hubble in modo indiretto dall’integrazione nel modello Lambda-Cdm – del quale H0 è uno dei parametri derivabili, appunto – delle misure dell’anisotropia del fondo cosmico a microonde, prime fra tutte quelle ottenute dalle missioni Wmap e Planck. Il valore della costante di Hubble ottenuto con questo metodo è di 67 km/s/Mpc. Il secondo metodo – che per distinguerlo dal precedente chiameremo astrofisico – restituisce un valore irrimediabilmente più elevato: 74 km/s/Mpc. E per stimare quanto aumenti la velocità d’espansione dell’universo all’aumentare delle distanze – perché è esattamente questo che misura H0 – si affida alle osservazioni di sorgenti più o meno lontane. In particolare, ne misura la velocità d’allontanamento attraverso il redshift e la distanza attraverso la luminosità.
Quest’ultimo passaggio è ovviamente critico. Per stimare la distanza di una sorgente in base all’intensità della luce che osserviamo (ciò che gli astronomi chiamano magnitudine apparente), dobbiamo conoscere l’intensità della luce che emette, ovvero la sua magnitudine assoluta. Ecco perché gli astronomi, per misurare H0, si avvalgono di sorgenti molto particolari, dall’emissione luminosa in qualche modo nota, e dette per questo “candele standard”: prime fra tutte le variabili cefeidi, ottime candele standard per le distanze minori, e le supernove di tipo Ia, che consentono il salto alle lunghe distanze, salendo un ulteriore gradino lungo la scala delle distanze cosmiche.
Questo schema illustra la potenza combinata dei telescopi spaziali Hubble e Webb della Nasa nel definire le distanze precise di una speciale classe di stelle variabili, le cefeidi, utilizzate per calibrare il tasso di espansione dell’universo. Essendo osservate in campi stellari affollati, la contaminazione della luce delle stelle circostanti può rendere meno precisa la misurazione della luminosità di una cefeide. La visione infrarossa più nitida di Webb consente di isolare più chiaramente una cefeide dalle stelle circostanti, come si vede nella parte destra dello schema. I dati di Webb confermano l’accuratezza di 30 anni di osservazioni Hubble delle cefeidi, fondamentali per stabilire il gradino più basso della scala delle distanze cosmiche per misurare il tasso di espansione dell’universo. A sinistra, la galassia Ngc 5584 in un’immagine composita della NirCam (Near-Infrared Camera) di Webb e della Wide Field Camera 3 di Hubble. Crediti: Nasa, Esa, A. Riess (Stsci), W. Yuan (Stsci)
Le cefeidi rappresentano dunque il primo gradino di questa scala, facendo da trait d’union fra il caro vecchio metodo della parallasse – perfetto per sorgenti molto vicine, come le cefeidi all’interno della nostra galassia – a sorgenti man mano più distanti, in particolare cefeidi di galassie più lontane che ospitino anche supernove di tipo Ia, com’è il caso di Ngc 5584. Così da porre le basi per il salto successivo, quello a supernove di tipo Ia di galassie molto più lontane. A rendere le cefeidi ottime candele standard è un fenomeno curioso che le caratterizza: oltre a essere eccezionalmente luminose, si espandono e si contraggono – come un cuore che pulsa – con una frequenza correlata alla loro luminosità assoluta. Detto altrimenti, misurandone il periodo possiamo in qualche misura risalire all’intensità della luce che emettono – proprio quel che occorre per usarle come “metro”.
Ed è esattamente ciò che è stato fatto nei decenni passati. Con qualche margine d’incertezza. Le cefeidi non risplendono in beata solitudine, ma sono spesso circondate da altre stelle, alcune molto vicine, al punto da rendere non sempre agevole distinguere con sicurezza tra la luce emessa dalla cefeide che ci interessa e quella delle altre stelle presenti nei paraggi. Il telescopio spaziale Hubble, grazie alla sua eccezionale risoluzione, ha consentito da questo punto di vista progressi eccezionali, ma non uniformi lungo tutto lo spettro: se la cava benissimo sul versante “blu”, dunque alle frequenze più elevate, ma man mano che vogliamo misurare l’emissione a onde più lunghe, scendendo dunque verso l’infrarosso, ecco che anche la vista di Hubble inizia a perdere colpi e non riesce più a distinguere agevolmente i vari contributi, costringendo gli astronomi ad affidarsi sempre più alla statistica, con quel che ne consegue.
«Possiamo tenere statisticamente conto della quantità media di mescolamento, nello stesso modo in cui un medico calcola il peso d’una persona sottraendo dalla lettura della bilancia il peso medio dei vestiti, ma questo aggiunge rumore alle misure: i vestiti di alcune persone sono più pesanti di quelli di altre», osserva infatti Riess. «Ma proprio la visione nitida nell’infrarosso è uno dei “superpoteri” del James Webb Space Telescope. Grazie al suo grande specchio e alle sue ottiche sensibili, è in grado di separare senza difficoltà la luce delle cefeidi da quella delle stelle vicine».
Le misure della distanza delle cefeidi di Ngc 5584 a confronto. Crediti: A. Riess et al., 2023
Ecco dunque che Riess e colleghi hanno chiesto – e ottenuto – di poter misurare con Webb la luce di oltre 320 cefeidi, già osservate con Hubble, ospitate in una galassia relativamente vicina, Ngc 4258, e in una più lontana contenente anche supernove recenti, Ngc 5584. Risultato: il peso del paziente “nudo”, misurato con Webb, è risultato essere pressoché identico a quello calcolato da Hubble pesando il paziente “vestito” e sottraendo il peso stimato degli “abiti”.
«Confermando le misure di Hubble, le misure di Webb forniscono la prova più forte del fatto che gli errori sistematici nella fotometria delle cefeidi misurata con Hubble non giocano un ruolo significativo nell’attuale tensione sulla costante di Hubble», conclude Riess. «Di conseguenza, le possibilità più interessanti rimangono sul tavolo e il mistero della tensione si infittisce».
Per saperne di più:
- Leggi il preprint dell’articolo “Crowded No More: The Accuracy of the Hubble Constant Tested with High Resolution Observations of Cepheids by JWST”, di Adam G. Riess, Gagandeep S. Anand, Wenlong Yuan, Stefano Casertano, Andrew Dolphin, Lucas M. Macri, Louise Breuval, Dan Scolnic, Marshall Perrin e Richard I. Anderson
Lap1, la regione più incontaminata dell’universo
Negli otto pannelli in alto, osservazioni fotometrichje e spettroscopiche di Lap1 ottenute con Hubble e con Jwst. In basso, le righe spettrali rilevate grazie allo strumento NirSpec: quelle più rilevanti sono indicate ed etichettate in rosso. Crediti: E. Vanzella et al., A&A, 2023
Stelle di popolazione III, le chiamano gli astronomi. Sono oggetti pressoché mitologici, gli Adamo ed Eva degli astri: stelle primigenie, che non hanno mai avuto esperienza della morte, dunque incontaminate. Tutte le stelle di generazioni successive sono infatti nate, almeno in parte, dalle “ceneri” di quelle delle generazioni precedenti. Ceneri fatte di elementi sintetizzati durante la loro vita attraverso sequenze di processi di fusione nucleare, avanzando man mano, come in un gioco dell’oca, lungo le caselle della tavola periodica: le caselle dei “metalli”, etichetta che gli astrofisici appiccicano senza andar troppo per il sottile a qualunque elemento più pesante di idrogeno ed elio. Le stelle di popolazione III invece no: non avendo progenitrici, non essendosi sporcate con le vestigia degli avi, non sono fatte d’altro che idrogeno ed elio, appunto – e al massimo una spolverata di litio. Trovarle è il sogno, finora irrealizzato, di generazioni di astronomi. Ora un team guidato da Eros Vanzella e Federica Loiacono dell’Istituto nazionale di astrofisica ritiene di aver individuato un gruppo di stelle che forse potrebbe ospitarne qualcuno, di questi astri illibati.
Il nome del promettente gruppo di stelle è Lap1, acronimo per Lensed and pristine 1. Uno perché è il primo del genere mai individuato. Pristine perché, come abbiamo detto, pare incontaminato, o quantomeno è la regione di formazione stellare più povera di metalli a oggi conosciuta nell’era della reionizzazione. E lensed perché è stato possibile studiarlo in dettaglio solo attraverso una lente gravitazionale. Lente gentilmente fornita da un ammasso di galassie, di nome Macs J0416, posizionato esattamente fra quelle lontane stelle e noi, così da amplificarne l’immagine attraverso una provvidenziale distorsione – come previsto dalla teoria della relatività generale – del percorso della luce sul tessuto dello spaziotempo.
media.inaf.it/wp-content/uploa…
Eros Vanzella indica la regione in cui si trova il gruppo di stelle Lap1. Nello schermo a sinistra sono riportati i dati della stessa regione acquisiti con NirSpec
Se la lente l’ha fornita la natura, il resto questa volta ce l’ha messo il James Webb Space Telescope. Quella remota regione d’universo era infatti già stata studiata in precedenza, anche da un team guidato dallo stesso Vanzella, con il Very Large Telescope e con Hubble. Ma solo le eccezionali capacità di Jwst hanno consentito di apprezzarne appieno la “purezza”.
«Quando il comitato di valutazione della nostra proposta osservativa con Jwst l’aveva valutata fra i programmi short, ritenendola high-risk-high-gain, onestamente pensavo che non avremmo visto nulla», ricorda ora Vanzella. «Invece sono rimasto sbalordito: lo spettrografo NirSpec di Jwst ha consentito una copertura dello spettro elettromagnetico maggiore rispetto alle osservazioni precedenti, permettendoci di monitorare tutte le righe atomiche più rilevanti. E con nostra sorpresa abbiamo osservato un deficit pazzesco di metalli: vediamo solo righe di Balmer e un po’ di ossigeno ionizzato. Certo, va detto che al momento non esiste un’immagine di Lap1: è troppo debole anche per i dati dell’imager NirCam di Jwst attualmente disponibili. Nonostante ciò, vediamo almeno cinque righe atomiche».
«Ora sappiamo che esistono sistemi a bassissimo contenuto di elementi più pesanti di quelli primordiali», conclude Vanzella, «e questo significa che la scoperta delle prime stelle potrebbe giungere in un tempo non molto lontano. Lap1 potenzialmente potrebbe già contenerle. E non è finita: già sono state allocate nuove osservazioni sempre con Jwst».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “An extremely metal poor star complex in the reionization era: Approaching Population III stars with JWST”, di E. Vanzella, F. Loiacono, P. Bergamini, U. Mestric, M. Castellano, P. Rosati, M. Meneghetti, C. Grillo, F. Calura, M. Mignoli, M. Bradac, A. Adamo, G. Rihtarsic, M. Dickinson, M. Gronke, A. Zanella, F. Annibali, C. Willott, M. Messa, E. Sani, A. Acebron, A. Bolamperti, A. Comastri, R. Gilli, K. I. Caputi, M. Ricotti, C. Gruppioni, S. Ravindranath, A. Mercurio, V. Strait, N. Martis, R. Pascale, G. B. Caminha e M. Annunziatella
Le sfide di Marte
Paolo Ferri, “Le sfide di Marte. Storie di esplorazione di un pianeta difficile”, Raffaello Cortina Editore, 2023, 280 pagine, 22 euro
Provate a pensare a quali notizie avete letto o visto in televisione circa le missioni spaziali. Quelle degne di nota, solitamente, si riassumono in poche righe: gli ultimi (o i più importanti) test, il lancio (o l’eventuale rinvio), il primo contatto, la prima luce, l’arrivo a destinazione, gli obiettivi raggiunti o le aspettative disattese. E non manca mai qualche bella immagine. Anche quando leggiamo un approfondimento o guardiamo un documentario, spesso le cose che vengono presentate rientrano in una di queste categorie. Riguardano le fasi cruciali perché, giustamente, sono questi gli aggiornamenti notiziabili o verso cui si nutre il maggior interesse.
Ma cosa c’è dietro tutto questo? Come mai la preparazione di una missione dura anni e vi sono periodi in cui il veicolo non può essere abbandonato nemmeno per un secondo, e vengono istituiti gruppi di lavoro che si alternano giorno e notte? O ancora, come è possibile che un veicolo viaggi nello spazio profondo per moltissimi anni senza mai esaurire le proprie energie? E soprattutto, da cosa nascono i ritardi di anni, o gli errori di valutazione e di esecuzione che portano al fallimento di una missione? Quanto hanno dovuto sbagliare scienziati e ingegneri prima di capire come esplorare lo spazio fuori dall’atmosfera terrestre? Domande, queste, a cui potreste avere risposta solo se aveste l’occasione di parlare direttamente con qualcuno che lavora in un’agenzia spaziale, in prima linea in almeno una di queste missioni.
Qualcuno come Paolo Ferri, che ha lavorato per quasi quarant’anni all’Agenzia spaziale europea ed è stato a capo del dipartimento di operazioni spaziali e responsabile di diverse missioni fra cui le marziane Mars Express ed ExoMars. E che, fortunatamente per voi, su tutto questo ha scritto un libro: Le sfide di Marte. Storie di esplorazione di un pianeta difficile.
Già nel titolo, il primo imprevisto: Marte è un pianeta difficile. Io stessa (che pure ho studiato astrofisica) non avrei mai pensato di usare una simile definizione nel titolo. Eppure, l’autore lo mette in chiaro sin dalle prime righe, “più della metà delle missioni su Marte è fallito”. Più della metà. Non solo Schiaparelli. Non solo i primi tentativi americani o russi. Non solo il lander inglese Beagle 2 lanciato insieme alla missione europea Mars Express.
Questo libro è un lungo dietro le quinte su molte missioni spaziali destinate al Pianeta rosso, alcune riuscite altre un po’ meno riuscite, altre ancora clamorosamente fallite. A tratti sarà come riguardare un film già visto, ma dal punto di vista della regia, guardando come è stato girato, quali difficoltà tecniche, imprevisti e storie di vita hanno determinato la versione che ci è stata raccontata, così come ci è stata raccontata. Per altri versi, invece, sarà un susseguirsi di eventi inediti. Nulla di segreto, per carità, ma una bella (e forse rara) occasione per capire come funziona una missione spaziale anche dal punto di vista fisico, ingegneristico e talvolta politico. Le spiegazioni tecniche non mancano, e nonostante il dettaglio raggiunto sono rese davvero accessibili a tutti.
Il libro comincia dal suo protagonista, Marte, un pianeta che da sempre ha suscitato interesse, curiosità e alimentato falsi miti. Prosegue poi in maniera molto didattica, gettando le basi per comprendere tutte le fasi di volo, crociera, messa in orbita o atterraggio di una missione. Un passaggio necessario per entrare nel mondo delle missioni spaziali e acquisire quel minimo di competenze che consente di leggere e comprendere quanto segue, senza sentirsi esclusi.
Questi due capitoli iniziali, infatti, aprono le porte d’ingresso dell’Agenzia spaziale europea, dei suoi uffici e delle sue sale di controllo. Sarà questo il teatro in cui si svolgerà la restante parte del libro. Dal terzo capitolo in poi, in alcuni momenti vi sembrerà proprio di viverci dentro, di respirare l’odore della moquette nei locali dell’istituto (o almeno così li immagino io, ma lascio ad ognuno la fantasia di immaginarli come vuole) o del caffè nelle sale comuni, vi sembrerà di seguire l’autore mentre cammina nel silenzio dei corridoi, dove il ticchettio delle tastiere si interrompe solo in prossimità di luoghi in cui si tengono riunioni, di porte di uffici aperti o laboratori dove si eseguono prove e test, o ancora delle sale di controllo in cui si segue a distanza qualunque cosa si muova nello spazio verso un obiettivo.
Il susseguirsi dei capitoli segue la linea della vita di Ferri, che racconta quanto accade senza tralasciare gli eventi che l’hanno riguardato privatamente, e che talvolta hanno generato conflitti interiori difficili da gestire. Si percepiscono ansie, paure, dispiaceri, ma anche orgoglio e soddisfazione. E arriviamo a oggi, con le missioni attualmente in orbita o a zonzo su Marte, con l’ambizione di riportare sulla Terra campioni prelevati dal pianeta grazie al rover Perseverance, con la missione Mars Sample Return, e il sogno di posarvi anche un piede umano, un giorno. Il tutto per trovare risposta, ancora una volta, a questa innata e insaziabile curiosità verso il nostro vicino Pianeta rosso.
L’Arco di Orione ai bordi della Bolla di Eridano
A sinistra, l’Orion-Taurus ridge: l’arco (in bianco) è stato identificato grazie ai dati sincrotrone del Long Wavelength Array. A destra, le due circonferenze in giallo denotano i confini delle strutture chiamate “Bolla di Eridano” e “Bolla di Orione” (cliccare pe ringrandire). Crediti: Bracco et al., 2023
Individuato un tipo di radiazione molto particolare – la radiazione di sincrotrone – proveniente da un arco di gas neutro e molecolare nella regione intorno alla Bolla di Eridano, in direzione della costellazione di Orione. Nonostante questi fenomeni siano già riconosciuti come la principale fonte di radiazione emessa in modo continuo in banda radio nella nostra galassia, la loro origine rimane ancora da spiegare. I risultati dello studio, guidato da Andrea Bracco dell’École normale supérieure di Parigi, sono stati pubblicati questa settimana su Astronomy & Astrophysics. Per la prima volta, utilizzando una combinazione di dati multi-frequenza, è stato possibile associare una struttura di emissione radio nota come Orion-Taurus ridge con – appunto – la superbolla di Eridano, ovvero una delle regioni di feedback stellare più vicine al Sole.
Il sincrotrone è una radiazione elettromagnetica non termica che si genera dall’interazione dei raggi cosmici (particelle cariche relativistiche) con campi magnetici, osservabile in dettaglio solo dai telescopi più moderni e sensibili come LoFar nel cielo boreale e prossimamente e Ska nel cielo australe. Proprio per la sua natura fisica, individuare la radiazione da sincrotrone costituisce una delle tecniche più utilizzate per tracciare campi magnetici in diversi contesti astrofisici, dai dischi di accrescimento intorno ai buchi neri al mezzo interstellare della Via Lattea. Ricordiamo che il mezzo interstellare è composto prevalentemente da gas dinamici sottoposti all’azione congiunta di moti turbolenti, gravità e campi magnetici. Tanto interesse da parte degli astrofisici è dovuto al fatto che capire il ruolo del campo magnetico nella dinamica del mezzo interstellare permette di conoscere meglio le fasi iniziali del processo di formazione stellare. Il processo combinato di assorbimento e diffusione della radiazione elettromagnetica nella banda visibile emessa da stelle di fondo a causa della presenza di polvere interstellare lungo la linea di vista, è un parametro chiamato “estinzione”.
Andrea Bracco, ricercatore al Laboratoire de Physique dell’École normale supérieure di Parigi, dal prossimo ottobre all’Inaf di Arcetri. Fonte: bracand.wixsite.com/cosmicogits
Il tracciamento preciso dell’estinzione nell’Arco di Orione ottenuto grazie ai dati del satellite Gaia ha permesso di localizzare la struttura a una distanza di circa 1300 anni luce dal Sistema solare. Inoltre, combinando le osservazioni radio a bassa frequenza del Long Wavelength Array (Lwa) e quelle ad alta frequenza del satellite Planck, è stato possibile studiare le proprietà del sincrotrone e stabilire alcuni parametri sia sulla distribuzione in energia dei raggi cosmici sia sull’intensità del campo magnetico.
«L’arco studiato nel nostro lavoro è probabilmente il risultato di una compressione nel mezzo interstellare dovuto ad almeno un resto di supernova nel corso dell’ultimo milione di anni. Questo scenario potrà essere verificato e perfezionato con l’aggiunta di misure di raggi cosmici ad alta energia nella banda dei raggi gamma», spiega Bracco. «La nostra analisi dati determina la presenza di campi magnetici con intensità maggiori di almeno 5-6 volte i valori medi nel mezzo interstellare diffuso nella Via Lattea e una popolazione elettronica di raggi cosmici a bassa energia di almeno due ordini di grandezza meno efficace rispetto alle misure nel mezzo interstellare delle sonde Voyager».
Questo studio mette in evidenza la possibilità di studiare nel dettaglio il mezzo interstellare nella sua complessità, grazie alla combinazione di osservazioni multi-frequenza in grado di svelare la relazione tra campo magnetico, gas interstellare e raggi cosmici nella nostra Galassia.
Marco Padovani, ricercatore dell’Inaf di Arcetri
«La scoperta di radiazione da sincrotrone emessa da regioni di gas denso e molecolare», aggiunge Marco Padovani, ricercatore dell’Inaf di Arcetri e coautore dello studio, «apre la via a una nuova esplorazione del cielo nella banda radio che sarà presto al centro dell’attenzione grazie all’arrivo di radiotelescopi di nuova generazione, con lo scopo di migliorare la nostra comprensione del cielo nella banda radio e il fenomeno del magnetismo galattico» .
«Questo sarà proprio il tema centrale del mio progetto Megaskat (Mastering Galactic Synchrotron in the Ska Time)» conclude Bracco.«In collaborazione con Marco Padovani da ottobre inizierò la mia attività ricerca all’Inaf di Arcetri dove svilupperò modelli sintetici di sincrotrone galattico che ci aiuteranno a preparare, e successivamente a interpretare, osservazioni sincrotrone senza precedenti negli anni a venire con strumenti osservativi di nuova generazione».
Per saperne di più:
- Leggi su Astronomy & Astrophysics l’articolo “The Orion-Taurus ridge: A synchrotron radio loop at the edge of the Orion-Eridanus superbubble” di A. Bracco, M. Padovani e J. D. Soler
Euclid 2.0, l’aggiornamento software è in arrivo
Rappresentazione artistica di Euclid. Crediti: Esa
Come sta procedendo la missione Euclid? A fine agosto avevamo lasciato il telescopio dell’Agenzia spaziale europea (Esa) per lo studio dell’universo oscuro – già da un mese in orbita attorno a L2, a un milione e mezzo di km dalla Terra – in attesa di ricevere un aggiornamento al software di bordo: una patch che gli permettesse di superare un problema emerso con il sensore di guida fine (Fgs, dall’inglese fine guidance sensor) e di riprendere così la cosiddetta Performance verification, fase di collaudo finale prima dell’avvio della campagna scientifica vera e propria. La settimana scorsa l’Esa ha pubblicato al riguardo un aggiornamento sul proprio sito, confermando che gli esperti dell’industria stanno lavorando al nuovo software, che dovrà essere sottoposto a severi test qui a terra prima di poter essere inviato e installato sulla sonda. I test proseguiranno poi per una settimana anche dopo il caricamento, fino ad avere la certezza che la patch abbia l’effetto desiderato e che il telescopio possa essere nuovamente puntato con l’affidabilità richiesta dalla missione. Dopodiché si potrà riprendere la Performance verification, che nel frattempo è comunque andata avanti per le attività che non dipendono dall’affidabilità del puntamento.
I lavori sono dunque ancora in corso, e noi ne approfittiamo per cercare di capire meglio cos’è accaduto e qual è la funzione esatta del sensore di guida fine. Lo facciamo insieme alla coordinatrice delle attività italiane per Euclid, Anna Di Giorgio, dell’Istituto nazionale di astrofisica.
A cosa serve l’Fgs, il sensore di guida fine di Euclid, e cosa lo distingue da un comune star tracker?
«In ogni missione spaziale il sistema Aocs (Attitude and orbit control system) è necessario per controllare sia l’orbita che l’assetto. Dato che la missione Euclid è stata progettata per operare in un’orbita ampia e stabile intorno a L2 e perpendicolare al piano dell’eclittica, il controllo orbitale non richiede grossi aggiustamenti: durante la fase operativa della missione, quella dedicata alla survey, è necessario quasi esclusivamente un continuo e preciso controllo di assetto. A questo scopo, come in molte altre missioni scientifiche, il sistema Aocs di Euclid contiene sia uno star tracker che, appunto, un sensore di guida fine: il famoso Fgs, fine guidance sensor. Lo star tracker da solo, infatti, non sarebbe sufficiente a mantenere l’assetto entro i limiti stringenti imposti dai requisiti scientifici della missione: essendo montato sul modulo di servizio del satellite, la sua struttura è soggetta a deformazioni termoelastiche, soprattutto durante gli ampi cambi di puntamento – in gergo, gli slews – tra un’osservazione e l’altra, che non permettono il suo utilizzo esclusivo. Per questo motivo lo star tracker viene utilizzato per un primo puntamento “approssimativo” del satellite, basato sull’uso di un esteso catalogo di stelle di riferimento presente a bordo (derivato dal catalogo della missione Gaia). I dati acquisiti dal tracker permettono all’Aocs di puntare il telescopio in modo da avere la sorgente da misurare all’interno del campo di vista degli strumenti. Il sensore di guida fine, che è montato sulla stessa struttura meccanica dello strumento Vis, viene poi usato per compensare gli effetti della deformazione termoelastica tra lo star tracker e gli strumenti scientifici».
Come ci riesce? E con quale precisione?
«Una volta “agganciato” un campo di riferimento attraverso lo star tracker, il sensore di guida controlla che l’assetto misurato sia entro i limiti e, in caso negativo, può eventualmente richiedere un aggiustamento fine del puntamento. In questo modo permette al telescopio di mantenere l’accuratezza del puntamento entro i limiti richiesti. La necessità di poter fare slews sia ampi che accurati, di avere sia puntamenti precisi che jitters molto piccoli all’interno di ciascun puntamento, si traduce in un requisito di 25 mas (milliarcosecondi) come errore di puntamento relativo su un periodo di 700 secondi: una precisione assolutamente non raggiungibile con il solo star tracker, soprattutto se si considera il lungo periodo di tempo nel quale tale precisione deve essere mantenuta».
Ed è proprio qui che sono emersi i problemi. Si è capito qual è la loro esatta natura? Può darci qualche dettaglio?
«L’industria che ha sviluppato il sistema di controllo dell’assetto e il software alla base di tutte le correzioni di puntamento richieste dal sensore di guida fine ha lavorato intensamente per analizzare i problemi osservati. Ricordo che sono problemi sporadici, non continuativi, e che quindi sono difficili da riprodurre anche con simulazioni adeguate. L’Esa, in un post dell’inizio di settembre, ha confermato che l’industria ha compreso l’origine del problema e sta lavorando alle necessarie modifiche del software, ma a tutt’oggi non sono stati forniti dettagli sulla natura specifica del problema».
Abbiamo letto post di membri della missione che accennavano a un eccesso di raggi cosmici, tale forse da confondere il software. È possibile?
«Riguardo alla possibilità che siano i raggi cosmici una delle possibile cause, posso dire che sarebbe la prima volta che effetti del genere pongono dei problemi agli algoritmi alla base del software in un sensore di guida fine, che lavora eseguendo delle integrazioni molto brevi. Posso però confermare che da quando Euclid è stato lanciato ci sono stati diversi picchi nell’attività solare che spiegano in parte il grande numero di tracce dovute ai raggi cosmici, rilevate anche nelle prime immagini che sono state pubblicate alla fine di luglio».
I detector del sensore di guida fine sono identici, come hardware, a quelli dello strumento Vis. Il problema riscontrato con l’Fgs potrebbe dunque riguardare in qualche modo anche Vis?
«Il problema riscontrato nell’Fgs non è un problema legato all’hardware, ossia alle Ccd usate anche nel piano focale di Vis, ma – come detto prima e ribadito da Esa – è un problema legato all’algoritmo software usato per calcolare le correzioni di puntamento. Quindi si può dire tranquillamente che non riguarda lo strumento Vis, che funziona molto bene, come si può anche dedurre dalla qualità delle prime immagini di test divulgate alla fine di luglio».
L’Esa accennava anche a un secondo problema, questa volta con l’eccesso di quel segnale non voluto che gli astronomi chiamano straylight: quale accorgimento avete deciso di adottare?
«Per prevenire effetti indesiderati dovuti a un eccesso di straylight sul piano focale dei rivelatori dello strumento Vis, è stato individuato un intervallo di angoli di orientamento del satellite rispetto alla linea di vista del Sole che massimizza la zona di ombra proiettata dal sun shield su tutte le parti dello spacecraft. Euclid dovrà operare in questo intervallo per tutta la durata della survey».
Tornando al problema con il sensore di guida fine, l’impatto della patch software sulla scienza sarà nullo o si dovrà scendere a qualche compromesso?
«Se tutto andrà per il meglio, non ci saranno impatti sulla scienza dovuti alle modifiche sul software dell’Fgs. Il ritardo di alcune settimane sull’inizio della Performance verification phase è stato già in parte assorbito dall’esecuzione di tutte quelle calibrazioni che non richiedevano un puntamento continuativo del satellite, e anche se implicherà un minimo ritardo nell’inizio della fase operativa non avrà alcun effetto sulla durata e sull’area della survey. Ovviamente, una volta ripristinata la capacità di puntamento e controllo di assetto entro i limiti previsti, anche la precisione aspettata sul calcolo della posizione delle galassie potrà essere confermata».
La sfida di El Gordo al modello Lambda-Cdm
Immagine composita dell’ammasso di galassie interagenti El Gordo, che mostra in blu la luce a raggi X ripresa da Chandra della Nasa, i dati ottici del Very Large Telescope in rosso, verde e blu e l’emissione infrarossa del telescopio spaziale Spitzer della Nasa in rosso e arancione. Crediti: X-ray: Nasa/ Cxc/ Rutgers/ J. Hughes et al; Optical: Eso/ Vlt & Soar/ Rutgers/F. Menanteau; IR: Nasa/ Jpl/ Rutgers/ F. Menanteau
Secondo il Modello cosmologico standard – conosciuto come Lambda-Cdm, dall’inglese cold dark matter – prima si formano le galassie e solo successivamente esse si combinano in ammassi di galassie più grandi. Pertanto, gli ammassi di galassie dovrebbero impiegare molto tempo per apparire sulla scena cosmica. Un nuovo studio pubblicato su Astrophysical Journal mette in discussione questa ipotesi, mostrando che due ammassi di galassie estremamente grandi si sono scontrati ad altissima velocità quando l’universo aveva solo circa la metà della sua età attuale.
La coppia di ammassi in questione è conosciuta come El Gordo – che in spagnolo significa Il Grasso, un nome decisamente appropriato visto che la sua massa è circa due milioni di miliardi di volte quella del Sole (un ‘2’ seguito da quindici zeri). Il nuovo studio utilizza una stima aggiornata di tale massa, molto più precisa, e di conseguenza rimuove una delle principali fonti di incertezza presenti in uno studio precedente degli stessi autori, sempre dedicato alla problematicità di El Gordo per il modello Lambda-Cdm.
La massa è stata stimata utilizzando la deflessione della luce proveniente dalle galassie sullo sfondo, la cui forma appare distorta a causa dell’attrazione gravitazionale di El Gordo stesso. Tale massa è stata ottenuta utilizzando il telescopio spaziale Hubble, e concorda con i risultati più recenti del telescopio spaziale James Webb e di altri studi che utilizzano altri metodi.
La ricerca, guidata da Elena Asencio, dottoranda presso l’Università di Bonn, ha utilizzato simulazioni dettagliate dell’interazione tra gli ammassi precedentemente pubblicate per stimare la velocità alla quale gli ammassi si presume si siano scontrati. Gli autori hanno poi cercato, attraverso una simulazione cosmologica Lambda-Cdm meno dettagliata che copre un volume molto grande, l’evidenza di coppie di ammassi simulati. Lo scopo era quello di contare quanti di questi ammassi sono sostanzialmente analoghi a come era El Gordo poco prima della collisione. La ricerca è stata fatta con un metodo innovativo di “tomografia a cono di luce” che considera il fatto che oggetti più distanti vengono visualizzati più indietro nel tempo, quando si erano formate meno strutture. I risultati hanno rivelato che la tensione con il modello Lambda-Cdm è molto severa per qualsiasi velocità di collisione plausibile. Inoltre, l’incertezza rimanente sulla massa di El Gordo – a oggi pari al 10 per cento – non gioca un ruolo significativo.
«I risultati del nostro studio precedente sono stati messi in discussione da alcuni scienziati una volta pubblicata una stima di massa aggiornata per El Gordo, risultata leggermente inferiore», afferma Asencio. «Ciò riduce la tensione con il modello Lambda-Cdm ma è comunque altamente significativa per qualsiasi velocità di collisione plausibile. Centinaia di simulazioni dettagliate mostrano che El Gordo non può assomigliare alle immagini se la velocità di collisione è molto più lenta, come si verificherebbe plausibilmente nel modello Lambda-Cdm».
Sebbene sia possibile ottenere una simulazione che assomigli a El Gordo con una collisione più rapida, un evento del genere sarebbe troppo raro per la teoria Lambda-Cdm. Questo perché risulterebbe molto insolito trovare due ammassi così massicci a una distanza ravvicinata, in una fase così precoce della storia cosmica.
El Gordo non è l’unico esempio di collisione di ammassi in contrasto con il modello Lambda-Cdm. Indranil Banik dell’Università di St Andrews (Regno Unito), che ha sviluppato l’analisi statistica utilizzata in questo progetto, ricorda che anche il Bullet Cluster è un altro esempio di collisione altamente energetica tra due ammassi di galassie, anche se in un’epoca successiva. «Considerata insieme a El Gordo, la situazione per il modello Lambda-Cdm peggiora ulteriormente. E molti altri esempi sono conosciuti e menzionati nel nostro studio», dice Banik.
Esistono anche diversi studi che dimostrano, in gran parte grazie ai recentissimi dati di Jwst, che le singole galassie sembrano formarsi molto più rapidamente di quanto previsto nella teoria Lambda-Cdm. «Ora ci sono molte prove che la formazione delle strutture nell’universo sia avvenuta più velocemente del previsto dal modello Lambda-Cdm. Attualmente stiamo esplorando altre evidenze a riguardo», conclude Pavel Kroupa, professore all’Università di Bonn e alla Charles University di Praga, co-autore dello studio, già intervistato da Media Inaf sulla Mond, o Dinamica newtoniana modificata.
Per saperne di più:
- Leggi su Astrophysical Journal l’articolo “The El Gordo Galaxy Cluster Challenges ΛCDM for Any Plausible Collision Velocity” di Elena Asencio, Indranil Banik e Pavel Kroupa
In due alla scoperta dei segreti della corona solare
Grazie all’intuizione del team di missione della sonda Esa/Nasa Solar Orbiter e a un’accurata sequenza di manovre in volo per sfruttare il concomitante supporto osservativo di Parker Solar Probe, un altro veicolo spaziale destinato allo studio del Sole, sono state realizzate per la prima volta in assoluto misure simultanee della struttura a grande scala della corona solare e delle sue proprietà cinetiche e microfisiche. I risultati dello studio, pubblicati oggi in un articolo sulla rivista The Astrophysical Journal Letters e ottenuti da un team internazionale a guida Inaf a cui partecipano anche ricercatori dell’Università di Firenze, dell’Agenzia spaziale italiana e del Consiglio nazionale delle ricerche, indicano che i fenomeni di turbolenza siano i principali responsabili del riscaldamento della corona solare alle temperature osservate, gettando così nuova luce su un enigma cosmico che dura ormai da parecchi decenni.
Infografica (in inglese) della “misura a due” compiuta congiuntamente da Solar Orbiter e Parker Solar Probe. Crediti: Esa/Atg, Esa & Nasa/Solar Orbiter/Metis Team and D. Telloni et al. 2023
L’atmosfera del Sole è chiamata corona. È costituita da un gas elettricamente carico – il cosiddetto plasma – e ha una temperatura di circa un milione di gradi Celsius. La sua temperatura è un mistero per gli scienziati perché la superficie del Sole è di “appena” 6000 gradi. La corona dovrebbe essere più fredda della superficie perché l’energia del Sole proviene dalle reazioni di fusione nucleare che avvengono nelle sue regioni centrali e la temperatura diminuisce progressivamente via via che ci si allontana da esse. Eppure la corona è più di 150 volte più calda della superficie. Deve esserci un altro metodo per trasferire l’energia nel plasma, ma quale?
Da tempo si sospetta che la turbolenza nell’atmosfera solare possa provocare un riscaldamento significativo del plasma nella corona. Ma quando si tratta di studiare questo fenomeno, i fisici solari si scontrano con un problema pratico: è impossibile raccogliere tutti i dati necessari con un solo veicolo spaziale. Per avere un quadro completo, sono intanto necessari almeno due veicoli spaziali. Oggi, questa prima richiesta è soddisfatta grazie a Solar Orbiter e alla sonda Parker Solar Probe della Nasa. Solar Orbiter è stato progettato per avvicinarsi il più possibile al Sole ed eseguire operazioni di telerilevamento e misurazioni in situ. Parker Solar Probe rinuncia in gran parte al telerilevamento per avvicinarsi ancora di più alla nostra stella, realizzando misurazioni in situ.
Ma per sfruttare appieno le loro caratteristiche complementari, i due veicoli spaziali devono utilizzare i loro strumenti simultaneamente e Parker Solar Probe deve trovarsi nel campo visivo di uno degli strumenti di Solar Orbiter. In questa configurazione, Solar Orbiter può registrare le conseguenze su larga scala di ciò che Parker Solar Probe sta misurando in loco.
Daniele Telloni, ricercatore dell’Istituto nazionale di astrofisica (Inaf) a Torino, fa parte del team scientifico dello strumento Metis a bordo di Solar Orbiter. Metis è un coronografo progettato dall’Inaf, Università di Firenze, Università di Padova, Cnr-Ifn, e realizzato dall’Agenzia spaziale italiana con la collaborazione dell’industria italiana, che riesce a bloccare la luce proveniente dalla superficie del Sole e fotografa con elevato contrasto e livello di dettaglio la corona. Metis insomma è lo strumento perfetto da utilizzare per le misurazioni su larga scala delle regioni più esterne dell’atmosfera solare. Così, Telloni e il suo team hanno iniziato a cercare date e orari in cui Parker Solar Probe si sarebbe trovato nella giusta posizione per realizzare osservazioni congiunte con Solar Orbiter, scoprendo che questo sarebbe avvenuto il 1 giugno 2022. Rimaneva però ancora un problema da superare: pur trovandosi nella giusta posizione reciproca la sonda Parker Solar Probe sarebbe comunque rimasta appena fuori del campo di vista di Metis, vanificando così la fortunata configurazione orbitale.
Da ulteriori analisi, Telloni si è reso conto che per risolvere il problema era necessario impartire delle correzioni nell’assetto di Solar Orbiter, ovvero una rotazione di 45 gradi e poi un puntamento leggermente disassato rispetto al Sole. Manovre queste, seppur apparentemente semplici, che hanno allertato il team operativo del veicolo spaziale, per il rischio di un possibile danneggiamento causato da una diversa esposizione alle radiazioni solari della strumentazione del veicolo spaziale. Tuttavia, una volta chiarito il potenziale ritorno scientifico della manovra, il via libera è arrivato con grande convinzione.
Tutte le procedure sono state quindi eseguite alla perfezione, le due sonde si sono trovate nella configurazione prevista ed è stato così possibile effettuare le prime misurazioni simultanee della configurazione su larga scala della corona solare e delle proprietà microfisiche del plasma che lo compone.
«Questo lavoro è il risultato del contributo di moltissime persone e per coordinarlo servivano competenze sia sull’ambiente coronale che eliosferico», ricorda Telloni. «Io ho avuto la fortuna e il privilegio di avere come mentori due giganti della fisica coronale e dello spazio interplanetario, Ester Antonucci e Roberto Bruno, rispettivamente, entrambi dell’Inaf».
Confrontando i dati misurati con le previsioni teoriche sviluppate nel corso degli anni, il team ha dimostrato che i fisici solari avevano quasi certamente ragione nell’identificare la turbolenza come un modo efficiente per trasferire energia dalla superficie del Sole agli strati più esterni della sua atmosfera.
«Questo è solo l’ultimo di una serie di importanti risultati ottenuti grazie ai dati acquisiti da Metis e dimostra quanto sia utile poter combinare dati simultanei di remote sensing e misure in situ del vento solare, consentendo di studiare processi fisici come quelli legati al riscaldamento coronale su tutte le scale spaziali di interesse», dice Marco Stangalini, ricercatore e responsabile di programma Asi della missione Solar Orbiter.
Il modo specifico in cui la turbolenza agisce è non dissimile da quello che accade quando si mescola il caffè in una tazza. Stimolando i movimenti casuali di un fluido, sia esso un gas o un liquido, l’energia viene trasferita su scale sempre più piccole, arrivando a trasformarsi in calore. Nel caso della corona solare, il fluido che la compone è anche magnetizzato e quindi l’energia magnetica immagazzinata è disponibile per essere convertita in calore. Questo trasferimento di energia magnetica e cinetica da scale più grandi a scale più piccole è l’essenza stessa della turbolenza. Alle scale più piccole, permette alle fluttuazioni di interagire con le particelle elementari, soprattutto protoni, e di riscaldarle. Saranno ancora necessarie ulteriori indagini prima di poter affermare che l’enigma del riscaldamento solare è risolto, ma ora, grazie al lavoro del team di Telloni, i fisici solari hanno a disposizione la prima misura di questo processo.
Per saperne di più:
- Leggi su The Astrophysical Journal Letters l’articolo “Coronal Heating Rate in the Slow Solar Wind”, di Daniele Telloni, Marco Romoli, Marco Velli, Gary P. Zank, Laxman Adhikari, Cooper Downs, Aleksandr Burtovoi, Roberto Susino, Daniele Spadaro, Lingling Zhao, Alessandro Liberatore, Chen Shi, Yara De Leo, Lucia Abbo, Federica Frassati, Giovanna Jerse, Federico Landini, Gianalfredo Nicolini, Maurizio Pancrazzi, Giuliana Russano, Clementina Sasso, Vincenzo Andretta, Vania Da Deppo, Silvano Fineschi, Catia Grimani, Petr Heinzel, John D. Moses, Giampiero Naletto, Marco Stangalini, Luca Teriaca, Michela Uslenghi, Arkadiusz Berlicki, Roberto Bruno, Gerardo Capobianco, Giuseppe E. Capuano, Chiara Casini, Marta Casti, Paolo Chioetto, Alain J. Corso, Raffaella D’Amicis, Michele Fabi, Fabio Frassetto, Marina Giarrusso, Silvio Giordano, Salvo L. Guglielmino, Enrico Magli, Giuseppe Massone, Mauro Messerotti, Giuseppe Nisticò, Maria G. Pelizzo, Fabio Reale, Paolo Romano, Udo Schühle, Sami K. Solanki, Thomas Straus, Rita Ventura, Cosimo A. Volpicelli, Luca Zangrilli, Gaetano Zimbardo, Paola Zuppella, Stuart D. Bale e Justin C. Kasper
Cent’anni fa, la tragica fine di Giovanni Zappa
Ritratto di Giovanni Zappa disegnato dalla moglie Elisa Millosevich. Crediti: Inaf Oa Abruzzo
L’uomo adatto al posto adatto. Così Azeglio Bemporad definisce l’astronomo Giovanni Zappa quando, a 35 anni, viene nominato direttore della Specola teramana di Vincenzo Cerulli. Ma facciamo un passo indietro. Milanese di origine, Zappa nasce il 14 febbraio 1884. Rimasto orfano di padre, si trasferisce a Roma, dove consegue successivamente la laurea in fisica nel 1906 con una tesi sull’orbita della cometa Schaer. Il suo tutor e mentore al tempo è Elia Millosevich, di cui presto diventerà assistente presso l’Osservatorio del Collegio Romano. Zappa si dimostra fin da subito uno scienziato promettente nel campo dell’astronomia, di “una maturità di pensiero, rara fra principianti”, e la sua carriera procede rapida: diventa “astronomo aggiunto” a Catania nel 1910; si trasferisce all’Osservatorio di Capodimonte (Napoli) sotto la direzione di Bemporad nel 1913, dove prende la “libera docenza”; inizia a collaborare nel 1915 anche con la Specola di Teramo, di cui diventa direttore effettivo nel 1917; ottiene, in contemporanea, anche l’incarico di dirigenza all’Osservatorio del Collegio Romano nel 1922. Diranno della sua ricerca che “con dieci soli anni di studio, e non ancora quarantenne, aveva accumulata tanta dottrina quanta molti astronomi sarebbero lieti di poter arrivare a possedere a 60 anni!”.
Una delle memorie scientifiche di Giovanni Zappa. Questa sulla “Cometa periodica 1906 IV Kopff”, nella sua prima apparizione, è del 1913. Crediti: Inaf Oa Abruzzo
Nel corso della sua attività scientifica, Zappa esplora diversi ambiti dell’astronomia: dall’influenza delle maree sul circolo meridiano di Padova, all’astrografia e ai cataloghi stellari, dallo studio delle orbite delle comete di Schaer e Kopf alla variazione delle latitudini per effetto del “termine di Kimura”, fino ad arrivare a interessarsi, affascinato, alle nuove tematiche e ai nuovi scritti proposti da Einstein sulle controprove astronomiche della relatività. Secondo gli scienziati del tempo, “la sua originalità si palesava nella concezione naturalistica che aveva dell’Astronomia, e nella importanza grande che attribuiva allo sviluppo sperimentale della teoria degli errori”.
Con i suoi studi, Zappa ha scovato e risolto molti errori sistematici, nelle osservazioni astronomiche legate alla meccanica e alla calibrazione degli strumenti osservativi – cerchi meridiani, telescopi, micromanometri, fotometri e non solo – di cui era un appassionato e talentuoso conoscitore. Zappa li chiama nei suoi appunti “l’onda degli errori”. E sa che, forse, anche in lui qualche “errore” di calibrazione deve pur esserci. Nel corso degli anni, infatti, Zappa è colpito da gravi attacchi di psicosi che minano la sua salute, con conseguenze pesanti sulla sua vita personale e sull’attività scientifica. Forse proprio con la speranza di maggiore stabilità e tranquillità, o forse spinto dal senso del dovere, seguì il consiglio del suo maestro Millosevich – al tempo rinomato e indiscusso luminare e accademico dei Lincei – e, nel 1910, Zappa ne sposa la figlia, Elisa Millosevich. Avranno due figli, Guido, nato durante la permanenza a Capodimonte e autore di una lettera di memorie familiari, e Francesco, nato a Teramo.
Cartolina d’epoca raffigurante la collina di Collurania con la specola immersa nella campagne verde in provincia di Teramo
Un legame forte, quello con la città e l’osservatorio abruzzesi.
Nel 1915 Zappa incontra Vincenzo Cerulli, nobile teramano, costruttore e fondatore dell’Osservatorio astronomico a Collurania, con cui intraprende una serie di campagne osservative e stringe un solido rapporto di scambio intellettuale e confronto scientifico. Proprio lo stesso Cerulli nel 1917, non avendo figli, nell’atto di donazione del suo osservatorio privato allo Stato, allora Regno d’Italia, indica Giovanni Zappa quale suo successore alla direzione della Specola. Il decreto regio del 1919 prevedeva anche “un posto da subalterno di prima classe” con compenso di 1200 lire. Suggerimento ben accolto dal ministro del tempo e da Bemporad, all’epoca direttore di Zappa, che scrive: “Egli sarà a Collurania ciò che dicesi l’uomo adatto al posto adatto e quindi sono assai lieto di questa scelta”.
A Collurania, la famiglia Zappa conduce “una vita primitiva, senza luce elettrica, né mezzi di locomozione, solo una corriera postale che passava una o due volte al giorno. Ma in compenso con una grande libertà”, come racconta il figlio Guido. Qui, “sotto un cielo così stellato come non lo aveva visto altrove”, Giovanni Zappa lavora su lastre fotografiche e cataloghi stellari e “passa a vagheggiare altri problemi, poiché il suo spirito è insaziabile e nessun campo vorrebbe lasciar inesplorato”, studiando l’ordine di condensazione galattica analizzato da Edward Pickering e tanto altro, com’è riportato nelle sue Memorie di Collurania. Sotto la cupola di Collurania, Zappa inizia a “curare” anche il telescopio Cooke, che lui stesso definisce “affetto da una malattia curiosa”: eseguendo alcuni movimenti lo strumento sembrava, infatti, squilibrarsi sistematicamente con qualsiasi tipo di contrappeso, e né il costruttore né diversi tecnici di professione sapevano spiegarne la ragione. Ma Zappa risolve il problema individuando l’errore di calcolo nella distribuzione delle masse mobili e aggiungendo un piccolo contrappeso di dieci chili nel tubo del telescopio. Come scrive Cerulli nella sua “Necrologia di Giovanni Zappa” l’astronomo “grandemente si rallegrava di aver in tal modo perfezionato il bello istrumento di Cooke”.
Alto circa sette metri, il telescopio di Collurania fu costruito dalla ditta Cooke & Sons in Inghilterra nel 1885. L’obiettivo doppio ha una apertura libera di 39,4 cm ed una distanza focale di 591 cm. Il moto orario a velocità costante avveniva per mezzo di un sistema a caduta di pesi, collegato a un regolatore a masse centrifughe. Lo strumento è risultato perfettamente riuscito dal punto di vista ottico per la limpidezza del suo obiettivo e per il notevole potere risolutivo. Crediti: M. Canzari/Inaf Oa Abruzzo
Nel 1922, Zappa vince il concorso da direttore per il Collegio Romano e, dividendosi tra Roma e Teramo, continua a dirigere entrambi gli osservatori, su forte richiesta di Cerulli che, in questo modo, cerca di poter riunire le due istituzioni in un’unica sede a Teramo. Mira ambiziosa, questa, che Cerulli porterà poi avanti anche dopo la morte di Zappa, scrivendo a Gabriele D’Annunzio e ai vertici dei ministeri. Ma questa è un’altra storia.
Nel frattempo, forse per stress e pressioni esterne, dopo la prima forte crisi nevrotica del 1911, anche la sua “malattia curiosa” torna a colpire nel 1922, in modo ancora più pesante, e lo costringe a una lunga permanenza in una casa di salute. Racconta Cerulli: “Ma pure, uscitone nel febbraio del 1923, Zappa sembrava guarito. Io lo rividi nel luglio, e mi rallegrai di ritrovarlo sempre in possesso dell’antico acume scientifico, e non più soverchiamente malinconico quantunque la mole dei suoi pensieri fosse cresciuta (…). Finalmente egli aveva trovata una ricreazione, nel dirigere talune opere murarie che si eseguivano a Collurania”.
Un legame forte, quello con Teramo, dicevamo. Si potrebbe definire indissolubile, dato che ha segnato di fatto la vita e il destino di Giovanni Zappa fino all’ultima fatidica notte del 14 settembre 1923. Qualche mese dopo la permanenza estiva a Teramo, infatti, Zappa purtroppo si suicida nel suo laboratorio, proprio accanto al caro telescopio Cooke.
Tra gli ultimi ad avergli parlato, proprio Cerulli ricorda che “la mattina del 10 settembre scese da Collurania a Teramo, e venne a trovarmi in casa, com’era solito. Mi parlò dei suoi disegni sulla trasformazione della specola, e degli strumenti nuovi che aveva ordinati in Germania. Avendo visto sul mio tavolo le bozze dell’articolo di La Rosa sul postulato di Ritz, lo lesse attentamente, e mi disse che avrebbe voluto seguitarci a pensare (…). La sera del venerdì appresso, 14 settembre, dopo una giornata tranquilla, in cui aveva fatto dei calcoli che si ritrovarono sul suo tavolo, ed aveva, al solito, sorvegliato l’opera dei muratori, ai quali, licenziandoli, raccomandò maggior sollecitudine per l’indomani, egli si uccideva, inghiottendo tutto il mercurio dell’orizzonte artificiale di Troughton. Erano le 19:39, l’agonia durò 2 ore».
«Con il mercurio del barometro, si uccise Zappa, non con il sestante di Troughton!», esclama Agostino Di Paolantonio, tecnico e “colonna portante” presso l’Osservatorio astronomico d’Abruzzo dal 1961 al 1997, dove ha raccolto la testimonianza diretta di Pasquale Ciceroni, in servizio a Collurania dal 1919 al 1961, durante la direzione di Zappa. E continua: «Zappa fu ritrovato disteso nella stanza accanto al Cooke e fu trasportato agonizzante all’ospedale di Teramo percorrendo il vialetto esterno su un carretto di legno trainato a mano».
L’edificio dell’osservatorio di Collurania che, assieme alla stazione osservativa di Campo Imperatore, costituisce l’Osservatorio astronomico d’Abruzzo dell’Inaf. Crediti: Inaf Oa Abruzzo
A seguito del tragico evento, per provvedere al sostentamento e agli studi dei figli, la moglie di Zappa, di formazione artistica, inizia a dare lezioni private di pittura alle “signorine benestanti di Teramo”, città dove vive fino al 1939. Il primogenito Guido, che diventerà un importante matematico, nella sua lettera descrive il padre come un uomo di grande ingegno, di elevati sentimenti e profonda gentilezza d’animo, i cui lavori scientifici sono stati fin da subito apprezzati da tutta la comunità scientifica. Se, infatti, a Zappa toccò una fine tragica, a noi rimane l’importante eredità degli studi di questo “profondo e geniale teorico, fosse anche un abilissimo osservatore, (…) di dottrina straordinaria e cultura magnifica!”.
Per saperne di più:
- Leggi la “Necrologia di Giovanni Zappa” di V. Cerulli, in Memorie della Società Astronomica Italiana, Vol. 2, p. 566
- Leggi l’approfondimento su Giovanni Zappa su Polvere di Stelle
- Leggi il libro L’Osservatorio Astronomico d’Abruzzo, di R. Buonanno, Edizione Ricerche e Redazioni, 2018
Eravamo Io e Giove
A sinistra una luna, a destra un pianeta. A sinistra Io, a destra Giove. Immersi in un’oscurità senza riferimenti e illuminati solo lateralmente dal (lontano) Sole, nulla sembra poterli smuovere. A guardarli, da vicino, da lontano, girandoci intorno e finendoci quasi dentro, la missione Juno. Orbita laggiù dal 2016, e ha scattato questa foto il 30 luglio 2023. Quel giorno la sonda ha sfiorato la luna vulcanica del pianeta, Io appunto, per poi completare (il giorno seguente) il suo 53esimo flyby ravvicinato di Giove. Al momento dello scatto, Juno si trovava a circa 51.770 chilometri da Io e a circa 395 mila chilometri sopra le cime delle nuvole di Giove.
media.inaf.it/wp-content/uploa…
Immagine del satellite gioviano Io (sinistra) assieme al pianeta gigante, scattata da Juno il 30 luglio 2023.
Crediti immagine: NASA/JPL-Caltech/SwRI/MSSS; processing di Alain Mirón Velázquez
La superficie di Io, il corpo più vulcanicamente attivo del Sistema solare, è segnata da centinaia di vulcani che eruttano regolarmente lava fusa e gas sulfurei. Juno la osserva più da vicino di chiunque altro, e ne raccoglierà ulteriori immagini e dati durante i passaggi ravvicinati programmati per la fine del 2023 e l’inizio del 2024.
Nato per vedere sotto la densa coltre di nubi atmosferiche di Giove, Juno è oggi un esploratore dell’intero sistema gioviano, e come tale volge il proprio sguardo anche ai satelliti. La missione era stata infatti lanciata nel 2011, ed è arrivata su Giove nel 2016 per una missione della durata nominale di circa 5 anni. Dal 2021 si trova nella cosiddetta fase “estesa”, che durerà fino al 2025 o fino a quando il satellite riuscirà a rimanere in vita.
Ma torniamo all’immagine: il citizen scientist Alain Mirón Velázquez l’ha elaborata a partire dai dati grezzi dello strumento JunoCam, migliorandone il contrasto, il colore e la nitidezza. I dati che Juno invia alla Terra sono infatti disponibili sia agli scienziati di tutto il mondo che al pubblico, e possono essere visualizzati e processati grazie a una piattaforma messa in piedi dalla Nasa. Si possono scaricare, modificare, elaborare e poi ricaricare sul sito in modo che siano visibili a tutti e, chissà, diventino protagoniste di altre uscite come questa.
K2-18b, un sub-nettuniano che profuma di mare
media.inaf.it/wp-content/uploa…
Rappresentazione artistica di K2-18b. Crediti: Nasa, Csa, Esa, J. Olmsted (Stsci), N. Madhusudhan (Cambridge University)
Fra le tante specialità in cui eccelle quel campione di decathlon astrofisico che è Webb, una è senza dubbio la capacità di analizzare le atmosfere degli esopianeti. Ce ne aveva dato un assaggio sin dagli esordi con lo spettro dell’atmosfera del pianeta extrasolare Wasp-96b, una fra le cinque prime immagini scientifiche con le quali si è presentato al mondo nell’estate del 2022. E non ha più smesso. L’ultima arrivata, per dirlo con le parole di uno degli autori dello studio in uscita su ApJ Letters, Savvas Constantinou dell’Università di Cambridge, mostra nientemeno che «lo spettro più dettagliato mai ottenuto fino a oggi di un sub-nettuniano in orbita nella zona abitabile, spettro che ci ha permesso di identificare le molecole presenti nella sua atmosfera». Molecole fra le quali due gas serra a noi terrestri ben noti: CO2 e CH4, ovvero anidride carbonica e metano.
Il mondo da esse avvolto si chiama K2-18b, e già ne avevamo parlato anche qui su Media Inaf. In orbita, come detto, nella zona abitabile attorno a una nana fredda a 120 anni luce da noi, in direzione della costellazione del Leone, K2-18b ha una massa e un raggio pari, rispettivamente, a 8.6 e 2.6 volte quelli della Terra. Da queste stime gli autori dello studio deducono che l’interno del pianeta sia formato, probabilmente, da uno spesso mantello di ghiaccio ad alta pressione, come su Nettuno. Mentre l’abbondanza di metano e anidride carbonica e la carenza di ammoniaca suggeriscono che in superficie – al di sotto d’una sottile atmosfera ricca d’idrogeno – possa esserci un oceano. È quello che il team di planetologi Cambridge definisce un pianeta hycean – dalla contrazione delle parole inglesi hydrogen (idrogeno) e ocean (oceano), appunto.
Spettri di K2-18 b ottenuti con gli strumenti NirIss (Near-Infrared Imager and Slitless Spectrograph) e NirSpec (Near-Infrared Spectrograph) di Webb. Crediti: Nasa, Csa, Esa, R. Crawford (Stsci), J. Olmsted (Stsci), N. Madhusudhan (Cambridge University)
Oceano d’acqua, prevedono gli astronomi. Ma non facciamoci troppe illusioni: pur trovandosi in fascia abitabile, mettono le mani avanti gli autori dello studio, potrebbe essere un oceano comunque troppo caldo per essere compatibile con la vita. A solleticare l’immaginazione – nonché l’olfatto, visto che è uno fra i principali responsabili dell’odore di mare – c’è però un altro elemento, anzi un composto, nello spettro ottenuto dagli strumenti NirIss e NirSpec di Webb. Lo vedete nella porzione più a destra, identificato dalle lettere DMS: è il solfuro di dimetile, una molecola che sulla Terra è prodotta perlopiù dalla vita, in particolare dal fitoplancton. La sua presenza nell’atmosfera di K2-18b va però verificata: saranno necessarie ulteriori osservazioni con lo stesso Webb per confermarla, e in ogni caso va sottolineato che non è necessaria la presenza di forme di vita, per produrlo. Certo, sarebbe una conferma interessante, considerando che, come osserva un altro autore dello studio, Subhajit Sarkar dell’Università di Cardiff, «sebbene mondi di questo tipo non esistano nel Sistema solare, i sub-nettuniani sono i pianeti più comuni a oggi conosciuto nella nostra galassia».
«I nostri risultati sottolineano l’importanza di considerare – quando si cerca la vita altrove – una varietà di ambienti abitabili», conclude a questo proposito il primo autore dell’articolo, Nikku Madhusudhan dell’Università di Cambridge. «Tradizionalmente, la ricerca di vita sugli esopianeti si è concentrata perlopiù su quelli rocciosi più piccoli, ma i più grandi pianeti Hycean sono molto più favorevoli per le osservazioni atmosferiche».
Per saperne di più:
- Leggi il preprint dell’articolo in uscita su The Astrophysical Journal Letters “Carbon-bearing Molecules in a Possible Hycean Atmosphere”, di Nikku Madhusudhan, Subhajit Sarkar, Savvas Constantinou, Måns Holmberg, Anjali Piette e Julianne I. Moses
Materia oscura in hi-res, con un quasar e una lente
media.inaf.it/2023/09/12/mater…
L’Atacama Large Millimeter/submillimeter Array (Alma) nel deserto cileno, qui fotografato per la prima volta dall’alto. Crediti: Eso
Circa il novanta per cento del nostro universo è composto da materia oscura, invisibile, enigmatica, di cui abbiamo notizia solo attraverso “esperimenti naturali” indiretti. Esperimenti con lenti gravitazionali, ad esempio. E non stiamo parlando di occhiali spaziali. A volte, per caso, due oggetti a distanze diverse nell’universo si trovano lungo la stessa linea di osservazione, guardando dalla Terra. Quando ciò accade, la curvatura spaziale causata dalla materia intorno all’oggetto in primo piano agisce come una lente, piegando il percorso della luce proveniente dall’oggetto in secondo piano e creando un’immagine lenticolare. Tuttavia, anche in questo modo, è molto difficile raggiungere l’alta risoluzione necessaria per rilevare ammassi di materia oscura più piccoli delle galassie.
Poiché la materia oscura non è uniforme nello spazio, ma è raggruppata in ammassi e “grumi” (clumps), la sua gravità può modificare leggermente il percorso della luce e delle onde radio provenienti da sorgenti luminose distanti. Le osservazioni di questo effetto di lensing gravitazionale hanno dimostrato che la materia oscura è associata a galassie e ammassi di galassie, ma non si sa come sia distribuita su scale più piccole. Questi aspetti rendono la materia oscura, che ha giocato un ruolo importante nella formazione di stelle e galassie, un’entità ancora più misteriosa e impenetrabile.
Fluttuazioni della materia oscura. Il colore arancione più chiaro indica le regioni con alta densità di materia oscura e il colore arancione più scuro indica le regioni con bassa densità di materia oscura. I colori bianco e azzurro rappresentano gli oggetti prodotti dalle lenti gravitazionali osservati da Alma. Crediti: Alma (Eso/Naoj/Nrao), K.T. Inoue et al.
Un team di ricercatori giapponesi guidati da Kaiki Taro Inoue dell’Università Kindai di Osaka ha utilizzato l’Atacama Large Millimeter/submillimeter Array (Alma), in Cile, per studiare il sistema di lenti gravitazionali noto come Mg J0414+0534, in direzione della costellazione del Toro. L’oggetto “sotto la lente”, a una distanza di 11 miliardi di anni luce dalla Terra, è un quasar e costituisce la regione centrale compatta di una galassia con una luce estremamente brillante e con una grande quantità di polvere che emette onde radio.
Osservato con Alma, uno dei più grandi interferometri di onde radio al mondo, a causa dell’effetto di lente gravitazionale della galassia massiccia in primo piano – che, con la sua forza gravitazionale, agisce sulla luce – questo quasar sembra “farsi in quattro”: l’emissione radio del quasar forma infatti non una ma quattro immagini, visibili qui sopra con i colori blu e azzurro. Le posizioni e le forme delle immagini apparenti fornite da Alma si discostano da quelle calcolate unicamente in base all’effetto di lensing gravitazionale della galassia in primo piano, indicando che è in gioco anche l’effetto di lensing dovuto alla distribuzione della materia oscura su scale più piccole – i “grumi”, appunto. Con l’aiuto dell’effetto di curvatura e di un nuovo metodo di analisi dei dati, il team giapponese è stato così in grado di rilevare le fluttuazioni nella distribuzione della materia oscura lungo la linea di osservazione con una risoluzione più elevata che mai, arrivando fino a una scala di “appena” 30mila anni luce.
Gli effetti di lente gravitazionale dovuti ai grumi di materia oscura trovati in questo studio sono così piccoli che sarebbe estremamente difficile coglierli, spiegano gli autori della ricerca. Tuttavia, grazie all’azione della lente gravitazionale prodotta dalla galassia in primo piano e all’alta risoluzione di Alma, è stato possibile rilevarli per la prima volta.
Schema concettuale del sistema di lenti gravitazionali Mg J0414+0534. L’oggetto al centro dell’immagine indica la galassia che fa da lente. Il colore arancione indica la materia oscura nello spazio intergalattico, mentre il colore giallo pallido indica la materia oscura nella galassia che fa da lente. Crediti: Naoj, K.T. Inoue
Le fluttuazioni osservate forniscono nuovi e più dettagliati vincoli sulla natura della materia oscura e sono coerenti con i modelli di particelle di materia oscura “fredde”, che si muovono lentamente. Questo risultato, pubblicato sulla rivista The Astrophysical Journal, si ricollega, dunque, ai modelli di materia oscura fredda, stando ai quali i grumi di materia oscura risiedono non solo all’interno delle galassie (colore giallo pallido, nello schema qui sopra), ma anche nello spazio intergalattico (colore arancione). Inoltre, lo studio dimostra che la materia oscura fredda è favorita anche su scale più piccole delle galassie massicce e rappresenta, per questo, un significativo passo avanti verso la comprensione della vera natura della materia oscura.
Per saperne di più:
- Leggi l’articolo su The Astrophysical Journal “ALMA Measurement of 10 kpc-scale Lensing Power Spectra towards the Lensed Quasar MG J0414+0534” di K. T. Inoue, Takeo Minezaki, Satoki Matsushita e Kouichiro Nakanishi
To the Stars: storie di donne andate nello spazio
Sally Ride nel 1978, quando fu selezionata per diventare astronauta. Crediti: Nasa
In attesa che la prima donna cammini sulla Luna, è interessante riflettere su come il problema del genere abbia influenzato l’esplorazione umana dello spazio. In effetti, nell’arco di tempo relativamente breve trascorso dall’inizio dell’era spaziale, la percezione pubblica delle donne astronaute si è evoluta notevolmente. Se in un primo momento il desiderio di diventare astronauta era considerato semplicemente stravagante per una ragazza, ora le agenzie spaziali incoraggiano le candidature femminili.
Si tratta di un importante cambiamento di atteggiamento che, tuttavia, ci ricorda che diventare astronauta non è mai stato un compito facile. Questo vale sia per gli uomini che per le donne, con una differenza significativa: per molto tempo, almeno in occidente, questa carriera è stata semplicemente preclusa alle donne.
Il rapporto tra le donne e lo spazio è iniziato nel 1963 in Unione Sovietica con il volo di Valentina Tereskowa, un’operaia di salda fede politica con la passione per il paracadutismo, ma senza nessuna preparazione specifica. Il messaggio della propaganda sovietica era chiaro: nella patria del socialismo, tutti potevano sognare di andare nello spazio. La decisione di fare volare una donna era stata tenuta segretissima, tanto che all’aspirante cosmonauta era stato proibito di dare la notizia persino alla mamma, che lo scoprì a cose fatte. A bordo della Vostok 6, Valentina descrisse 69 orbite durante le quali soffrì terribilmente di mal di spazio, stette così male che non riuscì a portare a termine i compiti che le erano stati affidati. Ritornò a terra in condizioni pietose. La foto ricordo venne fatta dopo un passaggio in ospedale e una pulizia generale. Ovviamente, questi problemi, che avrebbero offuscato l’immagine della scienza sovietica, vennero taciuti al pubblico, ma il nume tutelare della cosmonautica russa, Sergei Korelev, disse che con le donne aveva chiuso. Una preclusione che pesa ancora e si riflette nel bassissimo numero delle cosmonaute.
Non che alla Nasa le cose andassero meglio, diciamo che non si ponevano nemmeno il problema: negli anni ‘60 l’idea di scegliere gli astronauti tra i piloti collaudatori delle varie armi dell’esercito americano era un modo semplice ed efficace per eliminare le candidature femminili. La situazione cambiò nel 1976 con il bando per selezionare l’ottavo gruppo di astronauti, che introdusse la possibilità di candidarsi per le posizioni di mission specialist. In questo modo, per la prima volta, la Nasa aprì il corpo degli astronauti alle donne e alle minoranze. Infatti, a differenza di tutti i bandi precedenti, in cui era obbligatoria un’esperienza da pilota collaudatore, uno specialista di missione doveva avere una formazione scientifica, un requisito che anche le donne potevano soddisfare. Finalmente anche loro potevano avere un’opportunità. Tra gli 8370 candidati al bando del 1976, 1000 erano donne, e Sally Ride era una di loro.
Umberto Cavallaro, “To the Stars. Women Spacefarers’ Legacy”, Springer, 2023, 494 pagine, 41,59 euro
È stata la seconda delle 75 viaggiatrici spaziali le cui storie, spesso sorprendenti, a volte divertenti, sono raccontate da Umberto Cavallaro nel libro To the Stars. Scorrendo le loro biografie, è possibile apprezzare sia le loro diversità, sia i loro punti di contatto. Le donne astronaute si possono dividere in due gruppi: quelle che hanno sempre sognato di andare nello spazio e quelle che hanno scoperto questa possibilità per caso, leggendo un annuncio su un giornale o ascoltando la radio.
Sally Ride era una dottoranda a Stanford quando ha letto sullo Stanford Daily che la Nasa stava selezionando scienziati come specialisti di missione. Ascoltando la radio, Helen Sharman apprese che un consorzio privato di industrie inglesi stava cercando un volontario per volare verso la stazione Mir, dove lei fu il primo ospite inglese, anzi il primo astronauta inglese, anche se “privato”. Peccato che la sua storia sia stata dimenticata. Dopo tutto è stata la prima donna europea in orbita e ci si chiede come mai non le sia stato riservato un posticino nella storia “ufficiale”. La prima donna giapponese nello spazio è stata Chiaki Mukai, chirurga cardiovascolare, che, rilassandosi dopo una notte di lavoro in terapia intensiva, vide un annuncio che le cambiò la vita. Qualcosa di simile è accaduto nel 2021 quando, durante il SuperBown, uno spot pubblicitario ha annunciato che Jared Isaacman accettava candidature per l’equipaggio che avrebbe volato con lui nella prima missione spaziale interamente privata. Sian Proctor non aveva visto l’annuncio, ma si è incuriosita leggendo i commenti su Twitter e ha deciso di inviare la sua proposta per sviluppare un’attività legata allo spazio. Dopo essersi candidata due volte, senza successo, per diventare astronauta della Nasa, ha avuto il privilegio (vogliamo dire la soddisfazione?) di volare prima di chi aveva superato la selezione. Insieme a Sian, ha volato nello spazio anche Hayley Arceneaux, una sopravvissuta al cancro con un arto prostatico. Hayley ha stabilito due record: oltre a essere la più giovane astronauta americana, è stata anche la prima persona disabile a volare, dimostrando che lo spazio è alla portata di tutti. Nello stesso anno abbiamo assistito alla realizzazione del sogno di Wally Funk. Sessant’anni dopo il suo tentativo fallito di essere presa in considerazione dalla Nasa, finalmente ha potuto fluttuare nello spazio per pochi preziosi minuti offerti da Jeff Bezos per inaugurare i voli suborbitali della sua compagnia Blue Origin. Nell’ottobre 2021 abbiamo anche visto la Iss trasformarsi in un set cinematografico con l’attrice russa Yulia Peresild che ha impersonato una chirurga mandata nello spazio per salvare un cosmonauta. Sebbene Yulia abbia battuto Tom Cruise, che aveva già annunciato l’intenzione di girare scene di un suo film d’azione sulla Iss, la parità nello spazio è ancora lontana. Tuttavia, siamo testimoni di importanti miglioramenti: il 25 per cento dei candidati che hanno risposto al recente bando per diventare astronauti dell’Agenzia spaziale europea sono donne.
Buchi neri, potremmo averne di molto vicini a noi
L’ammasso delle Iadi. Crediti: Jose Mtanous
Quanta strada occorre fare, per incontrare un buco nero? Fino alla primavera scorsa la risposta sarebbe stata: 1600 anni luce. Tanto infatti dista dalla Terra Gaia BH1, il buco nero più vicino al Sistema solare. Ora, però, uno studio guidato da un ricercatore postdoc dell’Università di Padova, Stefano Torniamenti, e pubblicato a fine giugno su Monthly Notices of the Royal Astronomical Society, potrebbe portare a una riduzione drastica di questa distanza: i primi buchi neri che s’incontrano sarebbero oltre dieci volte più vicini, ad “appena” 150 anni luce da noi, in direzione della costellazione del Toro.
L’indirizzo esatto è: ammasso delle Iadi. Un ammasso aperto, vale a dire un gruppo di centinaia di stelle gravitazionalmente legate tra loro – per quanto in modo blando – che, avendo avuto origine dalla stessa nube molecolare, condividono alcune proprietà, come l’età e le caratteristiche chimiche. Certo, sarebbe prematuro mettersi in viaggio: ancora non c’è certezza della presenza di questi buchi neri. Ci sono però forti indizi, emersi da una serie di simulazioni condotte da Tornamienti mentre si trovava all’Istituto di scienze del cosmo dell’Università di Barcellona (Iccub).
Tornamienti e il suo gruppo hanno anzitutto messo a punto una serie di cosiddette simulazioni N-body per tracciare il moto e l’evoluzione di tutte le stelle delle Iadi. Poi hanno provato a variarne i parametri per cercare la corrispondenza migliore con le osservazioni disponibili, in particolare quelle ottenute dal satellite Gaia dell’Agenzia spaziale europea. Ed è emersa la sorpresa. «Affinché ci sia corrispondenza fra i risultati delle nostre simulazioni e le misure di massa e dimensioni dell’ammasso delle Iadi», spiega Torniamenti, «è necessario che al centro dell’ammasso ci siano – o ci siano stati fino a poco tempo fa – alcuni buchi neri»
media.inaf.it/wp-content/uploa…
Stefano Torniamenti, ricercatore postdoc all’Università di Padova, primo autore dello studio pubblicato su Monthly Notices of the Royal Astronomical Society. Crediti: Marco Dall’Amico
Più precisamente, le proprietà delle Iadi osservate da Gaia sono riprodotte da simulazioni che prevedono la presenza nell’ammasso di due o tre buchi neri. Si ottiene una buona corrispondenza, va detto, anche se questi buchi neri fossero stati tutti espulsi dall’ammasso in tempi “recenti”, astronomicamente parlando: meno di 150 milioni di anni fa, dunque all’incirca nel corso dell’ultimo quarto di vita dell’ammasso stesso. In ogni caso, parliamo di buchi neri che hanno avuto origine nelle Iadi, dunque che si trovano ancora all’interno dell’ammasso o a esso molto vicini. Di conseguenza, i più vicini a noi fra tutti quelli conosciuti.
Potremo mai vederli, così da avere la certezza della loro presenza? «Attualmente risulta difficile dire se potremo “vedere” questi buchi neri», dice Tornamienti a Media Inaf. «Le interazioni gravitazionali nell’ammasso possono portare alla formazione di sistemi binari in cui una stella orbita intorno al buco nero, rendendolo quindi osservabile dal moto della stella compagna. Tuttavia, la ricerca di oggetti di questo tipo non ha finora portato a risultati nelle Iadi, probabilmente a causa dei periodi orbitali troppo lunghi. Nuove osservazioni e nuove idee su come sfruttarle saranno probabilmente necessarie per confermare in modo ancora più diretto l’esistenza di questi buchi neri».
Per saperne di più:
- Leggi su Monthly Notices of the Royal Astronomical Society l’articolo “Stellar-mass black holes in the Hyades star cluster?”, di Stefano Torniamenti, Mark Gieles, Zephyr Penoyre, Tereza Jerabkova, Long Wang e Friedrich Andersa