Vaticano blindato: il conclave 2025 si prepara alla guerra digitale per eleggere il nuovo Papa
Dopo la morte di Papa Francesco, il Vaticano si sta preparando per uno degli eventi religiosi più importanti e segreti: un conclave durante il quale i cardinali di diversi Paesi eleggeranno il nuovo pontefice. Secondo il canone ecclesiastico, la procedura deve iniziare entro e non oltre venti giorni dalla morte del capo della Chiesa cattolica. Ma nel 2025, organizzare un antico rituale si trova ad affrontare sfide mai viste nei secoli precedenti.
Le minacce alla privacy di oggi non hanno precedenti: droni dotati di microtelecamere, intelligenza artificiale in grado di leggere i movimenti delle labbra, satelliti ad alta risoluzione, dispositivi di registrazione miniaturizzati e una rete globale di piattaforme social in cui qualsiasi fuga di notizie diventa di dominio pubblico in pochi secondi. In tali condizioni, il compito del Vaticano non è solo quello di garantire il silenzio e la privacy, ma di creare una capsula tecnologicamente impenetrabile in cui il voto avverrà in completo isolamento dal mondo esterno.
L’esperienza dei conclavi precedenti, in particolare l’elezione di Papa Francesco nel 2013, dimostra che il Vaticano si sta preparando in anticipo a un simile scenario. Da allora le misure di sicurezza sono state notevolmente rafforzate. L’area dove i cardinali vivono e lavorano durante il conclave, si trasforma in in un bunker digitale. Vengono installati jammer che bloccano i segnali radio di tutti i tipi, dalle comunicazioni mobili al Wi-Fi. Anche se in qualche modo un dispositivo proibito dovesse entrare, resterebbe comunque inutile.
L’ispezione tecnica dei locali inizia diversi giorni prima dell’arrivo dei partecipanti. Il personale addetto alla sicurezza controlla pareti e mobili alla ricerca di microfoni nascosti, microcamere laser e altri potenziali dispositivi di sorveglianza. Ogni persona ammessa viene sottoposta a un controllo approfondito: borse, vestiti e scarpe vengono scansionati e, se necessario, sottoposti a radiografia. La probabilità che qualcuno possa introdurre un dispositivo per registrare o trasmettere informazioni è minima.
Un’ulteriore misura consiste nel coprire le finestre con una speciale pellicola opaca. Ciò avviene non solo nella sala riunioni, ma anche negli alloggi dei cardinali. Il motivo è che i satelliti moderni sono in grado di riconoscere i volti in orbita e gli algoritmi di intelligenza artificiale sono in grado di leggere il parlato dai movimenti delle labbra. Le finestre vengono sigillate prima dell’arrivo dei partecipanti per impedire qualsiasi tentativo di osservazione visiva. Inoltre, durante l’intera procedura è loro vietato anche solo avvicinarsi alle finestre o aprirle.
Nel 2018, il sistema di videosorveglianza del Vaticano comprendeva 650 telecamere controllate da un centro di controllo sotterraneo. Da allora, la rete non ha fatto altro che espandersi e modernizzarsi. Inoltre, la sicurezza è monitorata da due strutture: la Gendarmeria vaticana (di fatto la polizia locale) e la Guardia Svizzera Pontificia. Nonostante l’uniforme storica con maniche a sbuffo e alabarde, le guardie sono addestrate secondo gli standard delle forze speciali e hanno a disposizione armi moderne, dalle mitragliatrici ai lanciagranate.
La superficie dello Stato stesso è di soli 0,44 chilometri quadrati. Tuttavia, il giorno dell’annuncio del nuovo Papa, qui accorreranno decine di migliaia di pellegrini, giornalisti, diplomatici e fedeli. Si stima che il numero di visitatori raggiungerà i 200.000.
Poiché ogni smartphone è una potenziale macchina fotografica e fonte di perdite, il Vaticano è costretto ad agire come una fortezza high-tech a protezione della segretezza del momento che deciderà il futuro di 1,5 miliardi di cattolici in tutto il mondo.
L'articolo Vaticano blindato: il conclave 2025 si prepara alla guerra digitale per eleggere il nuovo Papa proviene da il blog della sicurezza informatica.
La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA
In un precedente articolo abbiamo esplorato il calcolo parallelo nel mondo dell’informatica. Ora ci concentreremo su come le più recenti innovazioni tecnologiche nelle architetture hardware per il calcolo ad alte prestazioni costituiscano la base delle moderne rivoluzioni tecnologiche. La diffusione di tecnologie come l’intelligenza artificiale, cybersicurezza e la crittografia avanzata possono risultare disorientante per chi non le conosce. Con questo breve articolo, ci proponiamo di offrire una “lampada di Diogene”, per illuminare un tratto della complessa strada verso la comprensione di queste nuove tecniche, aiutandoci ad affrontarle con spirito critico e consapevole, anziché accettarle passivamente come dei moderni oracoli di Delfi.
Analizzeremo il percorso storico del calcolo parallelo, dalla macchina Colossus di Bletchley Park degli anni ’40 fino all’attuale evoluzione tecnologica. Approfondiremo i meccanismi che hanno guidato questo sviluppo e sveleremo qualche dettaglio dei meccanismi fondamentali del calcolo parallelo.
La storia dei supercomputer inizia con la macchina Colossus, che affrontava enormi problemi con una potenza che ricordava quella di Golia. Oggi, invece, servono strategie più sofisticate. Con l’aumento della complessità e dei limiti fisici, spingere la velocità dei processori (il clock) e seguire la Legge di Moore è diventato sempre più impegnativo. Per questo motivo, il parallelismo si è rivelato una soluzione cruciale per migliorare le prestazioni. I moderni processori sono dotati di più core. Utilizzano tecniche come l’hyperthreading, che consente l’elaborazione contemporanea di più thread su un unico processore, e impiegano unità vettoriali per eseguire più istruzioni simultaneamente. Grazie a questi sviluppi, persino dispositivi come notebook, workstation o smartphone possono competere con le capacità dei supercomputer di vent’anni fa, che occupavano intere stanze.
Proprio come nella celebre sfida tra Davide e Golia, i supercomputer sono progettati per eseguire calcoli e risolvere problemi estremamente complessi – dalle previsioni meteorologiche alle simulazioni per la creazione di nuovi farmaci e modelli per l’esplorazione dell’universo – mentre i personal computer, agili e accessibili, rispondono alle esigenze quotidiane.
La classificaTop 500 di Jack Dongarra, aggiornata due volte all’anno, testimonia questa incessante competizione tecnologica. Tra i protagonisti del 2024, spicca il supercomputer El Capitan, che ha raggiunto la vetta con una capacità di calcolo di 1.742 exaflop.
Sviluppato presso il Lawrence Livermore National Laboratory negli Stati Uniti, questo sistema utilizza processori AMD di quarta generazione e acceleratori MI300A, garantendo prestazioni straordinarie grazie a un’architettura avanzata basata sul Symmetric Multiprocessing (SMP). L’approccio, paragonabile a un’orchestra in cui i processori collaborano armonicamente condividendo la stessa memoria, rappresenta il culmine della potenza del calcolo parallelo..
Cos’è un Supercalcolatore?
Un supercalcolatore è un sistema informatico progettato per garantire prestazioni di calcolo straordinarie, nettamente superiori a quelle dei computer tradizionali. La sua definizione non è cristallizzata nel tempo, ma si evolve costantemente con i progressi tecnologici. Un sistema considerato all’avanguardia nel 2000 potrebbe oggi essere del tutto obsoleto, a causa dei rapidi avanzamenti dell’informatica.
Queste macchine rivestono un ruolo fondamentale nell’affrontare problemi complessi, tra cui simulazioni scientifiche, analisi di enormi volumi di dati e applicazioni avanzate di intelligenza artificiale. Inoltre, sono strumenti chiave anche nel campo della cybersicurezza, dove la capacità di elaborare dati in tempi rapidi può fare la differenza.
Classificare i Supercalcolatori
I supercalcolatori vengono valutati in base a differenti parametri, tra cui il concetto di application-dependent, ossia il tempo necessario per risolvere un problema specifico. Un sistema può eccellere in un compito ma risultare meno efficiente in un altro, a seconda della natura dell’applicazione.
Dal 1993, la lista Top500 classifica i 500 supercalcolatori più potenti al mondo e viene aggiornata due volte l’anno (giugno e novembre). La classifica si basa sul benchmark LINPACK, che misura la capacità di risolvere sistemi di equazioni lineari, impiegando il parametro chiave Rmax (prestazione massima ottenuta).
Nell’edizione di novembre 2024, El Capitan domina al primo posto, essendo il terzo sistema a superare la soglia dell’exascale computing (10^18 FLOPS), seguito da Frontier e Aurora. Il supercomputer europeo Leonardo, ospitato dal Cineca di Bologna, si posiziona al nono posto, con 1,8 milioni di core, un Rmax di 241,20 PFlop/s (milioni di miliardi di operazioni al secondo) e una prestazione teorica di picco di 306,31 PFlop/s.
Viaggio nei Benchmark del Calcolo
Fin dagli albori dell’era informatica, il benchmarking ha rappresentato uno strumento fondamentale per valutare le prestazioni dei computer. Il primo esempio risale al 1946, quando l’ENIAC utilizzò il calcolo di una traiettoria balistica per confrontare l’efficienza tra uomo e macchina, prefigurando un lungo percorso evolutivo nel campo della misurazione computazionale.
Negli anni ‘70, il benchmarking assunse una forma più sistematica. Nel 1972 nacque Whetstone, uno dei primi benchmark sintetici, ideato per misurare le istruzioni per secondo -una metrica chiave per comprendere come una macchina gestisse operazioni di base – e successivamente aggiornato per includere le operazioni in virgola mobile. Nel 1984 arrivò Dhrystone, concepito per valutare le prestazioni nei calcoli interi; questo benchmark fu adottato come standard industriale fino all’introduzione della suite SPECint, che offrì una misurazione più aderente ai carichi di lavoro reali.
Parallelamente, nel 1979, Jack Dongarra introdusse Linpack, un benchmark dedicato alla risoluzione di sistemi di equazioni lineari e divenuto un riferimento nel calcolo scientifico. Questo strumento non solo ispirò lo sviluppo di software come MATLAB, ma pose anche le basi per l’evoluzione dei benchmark destinati ai supercomputer. Con l’evolversi delle esigenze computazionali, Linpack si trasformò nell’HPL (High Performance Linpack), attualmente utilizzato per stilare la prestigiosa classifica Top500, che evidenzia il continuo progresso nella misurazione della potenza di calcolo.
Il panorama dei benchmark si è ulteriormente arricchito con l’introduzione di strumenti come HPC Challenge e i NAS Parallel Benchmarks. L’era del machine learning ha, infine, visto la nascita di benchmark specifici per il training e l’inferenza, capaci di valutare le prestazioni sia di dispositivi a risorse limitate sia di potenti data center. Questi strumenti sono nati in risposta a precise esigenze operative e di mercato, dimostrando come ciascuna innovazione nel campo del benchmarking risponda a uno stadio evolutivo ben definito della tecnologia.
Avendo tracciato in modo cronologico l’evoluzione dei benchmark, appare naturale approfondire anche i modelli teorici che hanno permesso lo sviluppo di tali tecnologie. In questo contesto, la tassonomia di Flynn è essenziale, in quanto ha gettato le basi per l’architettura parallela moderna e continua a guidare la progettazione dei sistemi informatici odierni.
Data Center
Tassonomia di Flynn e l’Ascesa del SIMT
Per comprendere meglio il funzionamento di CUDA, è utile considerare la Tassonomia di Flynn, un sistema di classificazione delle architetture dei calcolatori proposto da Flynn nel 1966. Questo schema classifica i sistemi di calcolo in base alla molteplicità dei flussi di istruzioni (instruction stream) e dei flussi di dati (data stream) che possono gestire, risultando in quattro categorie principali:
- SISD (Single Instruction, Single Data): Un computer sequenziale in cui l’unità di elaborazione esegue un’unica istruzione su un singolo flusso di dati in ogni ciclo di clock. Questa architettura, molto datata, era tipica dei vecchi sistemi a CPU singola.
- SIMD (Single Instruction, Multiple Data): Un tipo di computer parallelo nel quale le unità di elaborazione possono eseguire la stessa istruzione su diversi flussi di dati in ogni ciclo di clock. Architettura impiegata in array di processori e pipeline vettoriali, è utilizzata anche nelle GPU moderne.
- MISD (Multiple Instruction, Single Data): Diversi processori eseguono istruzioni differenti sullo stesso dato. Questa configurazione è estremamente rara e principalmente teorica.
- MIMD (Multiple Instruction, Multiple Data): Diverse unità di elaborazione eseguono istruzioni differenti su dati distinti. Questa architettura è utilizzata nei supercomputer più avanzati e nei computer multicore moderni.
Le GPU NVIDIA adottano un modello denominato SIMT (Single Instruction, Multiple Thread), nel quale una singola istruzione viene eseguita da numerosi thread in parallelo. Ciascun thread, però, può seguire un percorso leggermente diverso a seconda dei dati e delle condizioni locali. Questo approccio combina l’efficienza del SIMD con la flessibilità del MIMD, risultando estremamente efficace per risolvere problemi complessi in tempi ridotti.
L’evoluzione degli HPC: Ibridismo ed Eterogeneità
Dalle prime architetture MIMD – con memoria condivisa o distribuita – il calcolo ad alte prestazioni (HPC) ha subito una trasformazione profonda. Oggi, i supercomputer non si basano più su un’unica tipologia architetturale, ma su sistemi sempre più complessi e flessibili. Spesso composti da componenti molto diversi tra loro. Questo approccio, detto eterogeneo, permette di unire più paradigmi di elaborazione in un unico sistema, sfruttando al massimo i punti di forza di ciascun componente.
Un esempio evidente è l’uso combinato di CPU e GPU, che rappresentano due filosofie di calcolo diverse ma complementari. Non a caso, le unità grafiche -un tempo riservate esclusivamente al rendering grafico – oggi sono il fulcro dell’HPC e si trovano persino nei laptop di fascia media, rendendo queste tecnologie accessibili a un pubblico molto più ampio.
Se la tassonomia di Flynn continua a offrire un utile punto di partenza per classificare i modelli di parallelismo (SISD, SIMD, MISD, MIMD), la realtà attuale va oltre: oggi si parla di sistemi ibridi, dove coesistono differenti stili di parallelismo all’interno dello stesso sistema, e di sistemi eterogenei, in cui unità di calcolo con architetture diverse collaborano sinergicamente.
Questa evoluzione ha aperto nuove frontiere in termini di prestazioni, ma ha anche aumentato la complessità nella valutazione e nel benchmarking dei sistemi, rendendo le misurazioni più difficili e meno lineari.
CUDA
Verso la fine degli anni 2000, NVIDIA ha rivoluzionato il calcolo parallelo introducendo CUDA (Compute Unified Device Architecture). Secondo la letteratura scientifica, CUDA è stata lanciata ufficialmente nel 2006, in concomitanza con l’architettura G80, la prima a supportare pienamente questo modello di programmazione general-purpose su GPU.
CUDA ha reso possibile l’impiego delle GPU per compiti di calcolo generale (GPGPU), superando il loro utilizzo tradizionale nel solo rendering grafico. Grazie al supporto per linguaggi ad alto livello come C, C++ e Fortran, ha semplificato significativamente la programmazione parallela per ricercatori e sviluppatori.
Il paradigma CUDA consente di suddividere problemi complessi in migliaia di task paralleli, eseguiti simultaneamente sulle numerose unità di elaborazione delle GPU. Questo approccio ha avuto un impatto profondo in molteplici ambiti, dalle simulazioni scientifiche all’intelligenza artificiale, fino all’analisi massiva dei dati. L’introduzione della serie G80 ha segnato un punto di svolta, consolidando il modello di calcolo unificato su GPU e aprendo la strada a nuove soluzioni hardware e software.
Il successo di CUDA ha in seguito stimolato la nascita di standard aperti come OpenCL, sviluppato dal Khronos Group e rilasciato nel 2008. OpenCL rappresenta un’alternativa cross-platform e cross-vendor per il calcolo parallelo su hardware eterogeneo, inclusi GPU, CPU e FPGA.
Dal punto di vista architetturale, CUDA si basa sul modello di programmazione SIMT (Single Instruction, Multiple Threads), che consente l’esecuzione di una stessa istruzione su migliaia di thread paralleli, ciascuno con dati e percorsi di esecuzione distinti. Un programma CUDA è composto da due sezioni: una che gira sulla CPU (host) e una che viene eseguita sulla GPU (device). La parte parallelizzabile del codice viene lanciata sulla GPU come kernel, una funzione che viene eseguita da un elevato numero di thread secondo il modello SPMD (Single Program, Multiple Data).
GPU CUDA
Le GPU CUDA sono organizzate in array di Streaming Multiprocessors (SM), unità operative che integrano CUDA Core, una memoria condivisa veloce e uno scheduler per gestire e distribuire i task. Questi SM permettono di ottenere elevate prestazioni nel calcolo parallelo, grazie anche a una memoria globale ad alta velocità (GDDR) con ampia banda passante.
CUDA C/C++, estensione dei linguaggi C e C++ realizzata da NVIDIA, consente agli sviluppatori di accedere direttamente alle risorse parallele delle GPU, abbattendo le barriere che tradizionalmente ostacolavano l’adozione della programmazione parallela. Questo ha favorito la crescita delle applicazioni GPGPU ad alte prestazioni in ambito scientifico, industriale e accademico.
In sintesi, CUDA ha segnato un vero cambio di paradigma nel calcolo parallelo, rendendo accessibile a un pubblico più ampio la possibilità di sfruttare la potenza delle GPU per applicazioni general-purpose e aprendo la strada a innovazioni nei settori più avanzati dell’informatica.
Da GPU a GPGPU: Il Potere del Calcolo Parallelo
L’evoluzione delle GPU ha portato alla nascita delle GPGPU (General-Purpose GPU), trasformandole da unità dedicate al rendering grafico in acceleratori di calcolo parallelo complementari alle CPU.
Grazie alla loro architettura con molti core semplici, le GPGPU eccellono nell’elaborazione simultanea di grandi volumi di dati, offrendo vantaggi significativi:
- Scalabilità: Permettono l’integrazione di un numero elevato di core.
- Efficienza: Bilanciano il carico di lavoro tra i core in maniera uniforme.
- Velocità: Accelerano i calcoli ripetitivi e paralleli.
A differenza delle CPU, ottimizzate per gestire compiti complessi con pochi core potenti e una cache veloce, le GPGPU brillano in operazioni ripetitive. La loro struttura, paragonabile a una squadra di numerosi operai che lavorano simultaneamente su un mosaico di dati, consente di completare attività in tempi significativamente ridotti.
Tuttavia, le GPGPU non sostituiscono le CPU, ma le supportano, gestendo compiti paralleli e migliorando l’efficienza complessiva in campi come l’intelligenza artificiale e l’analisi dei dati.
Streaming Multiprocessors: La Fucina del Parallelismo
Gli Streaming Multiprocessors (SM) rappresentano le unità operative fondamentali all’interno di un acceleratore grafico. Ogni SM include i CUDA Core, una sezione di memoria condivisa e uno scheduler dedicato, incaricato di organizzare e distribuire il lavoro tra i core.
A differenza delle CPU, che adottano un’architettura MIMD per gestire compiti eterogenei, le GPU sfruttano gli SM per eseguire in parallelo operazioni ripetitive su grandi insiemi di dati, facendo affidamento su una memoria globale ad alta velocità. Questa organizzazione consente di ottenere un’elevata efficacia computazionale nelle applicazioni di calcolo parallelo, come evidenziato da studi pubblicati su riviste scientifiche certificate, tra cui IEEE e ACM.
Breve Storia dell’Evoluzione della GPU
Dai controller VGA ai processori grafici programmabili
All’inizio dell’era informatica, il concetto stesso di GPU non esisteva. La grafica sui PC era gestita da un semplice controller VGA (Video Graphics Array), un gestore di memoria e generatore di segnale video collegato a una memoria DRAM.
Negli anni ’90, grazie ai progressi nella tecnologia dei semiconduttori, questi controller iniziarono a integrare capacità di accelerazione grafica tridimensionale: hardware dedicato per la preparazione dei triangoli, la rasterizzazione (scomposizione dei triangoli in pixel), il mapping delle texture e lo shading, ovvero l’applicazione di pattern o sfumature di colore.
Con l’inizio degli anni 2000, il processore grafico divenne un chip singolo capace di gestire ogni fase della pipeline grafica, una prerogativa fino ad allora esclusiva delle workstation di fascia alta. A quel punto il dispositivo assunse il nome di GPU, per sottolineare la sua natura di vero e proprio processore specializzato.
Nel tempo, le GPU si sono evolute in acceleratori programmabili massivamente paralleli, dotati di centinaia di core e migliaia di thread, capaci di elaborare non solo grafica ma anche compiti computazionali generici (GPGPU). Sono state inoltre introdotte istruzioni specifiche e hardware dedicato alla gestione della memoria, insieme a strumenti di sviluppo che permettono di programmare queste unità con linguaggi come C e C++, rendendo le GPU veri e propri processori multicore altamente parallelizzati.
In sintesi, l’evoluzione dal Colossus fino alle moderne unità grafiche e architetture ibride racconta un percorso tecnologico dinamico e in continua trasformazione. Queste innovazioni non solo hanno rivoluzionato il modo di elaborare dati, ma stanno anche ridefinendo le possibilità in settori strategici come l’intelligenza artificiale e la cybersicurezza e la crittografia.
Guardando al futuro, è evidente che l’integrazione di paradigmi eterogenei continuerà a guidare lo sviluppo di sistemi sempre più potenti ed efficienti, ponendo sfide avvincenti per ricercatori, ingegneri e sviluppatori di tutto il mondo.
Riferimenti bibliografici:
Lezioni di Calcolo Parallelo, Almerico Murli
CUDA C++ Best Practices Guide
CUDA C Programming, John Cheng
L'articolo La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA proviene da il blog della sicurezza informatica.
Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza
Un gruppo di aggressori informatici ha iniziato a sfruttare la piattaforma Gamma, uno strumento per la creazione di presentazioni basato sull’intelligenza artificiale, in un nuovo attacco di phishing in più fasi. Durante l’attacco, le vittime vengono reindirizzate a una falsa pagina di accesso a Microsoft SharePoint, dove vengono rubate le loro credenziali.
I ricercatori di Abnormal Security segnalato che il file PDF allegato all’e-mail è in realtà un collegamento a una presentazione Gamma camuffata da visualizzatore di documenti protetto. Cliccando sul collegamento, la vittima viene indirizzata a una pagina intermedia che imita un servizio Microsoft ed è protetta dal CAPTCHA di Cloudflare Turnstile. Ciò crea un’apparenza di legittimità e riduce la probabilità di un’analisi di sicurezza automatizzata.
Il passaggio successivo consiste nel reindirizzamento a una pagina di accesso falsa di Microsoft SharePoint, dove gli aggressori utilizzano il meccanismo Adversary-in-the-Middle (AitM) per verificare le credenziali in tempo reale, visualizzando un messaggio di errore se viene inserita una password errata.
Tali attacchi sono noti come Living-off-Trusted-Sites (LoTS) e sfruttano servizi online legittimi per ospitare contenuti dannosi, aggirando così i controlli SPF, DKIM e DMARC. Utilizzando strumenti meno noti come Gamma, gli aggressori eludono i sistemi di rilevamento automatico e ingannano gli utenti. La piattaforma di presentazione diventa non solo un mezzo di mascheramento, ma anche parte di un’intera catena di reindirizzamenti che nascondono il vero scopo dell’attacco.
Gli attacchi di phishing stanno diventando sempre più sofisticati e sfruttano abilmente strumenti legittimi e servizi affidabili per mascherare schemi dannosi. L’incidente di Gamma dimostra che anche tecnologie apparentemente innocue possono essere trasformate in parte di una catena di hacking attentamente progettata.
I meccanismi di difesa concepiti per affrontare minacce semplici sono impotenti contro gli attacchi che si basano sulla fiducia in marchi noti e su percorsi di reindirizzamento complessi. Ciò evidenzia la necessità di una revisione continua degli approcci alla sicurezza informatica e di un maggiore controllo sull’uso non standard dei servizi familiari.
L'articolo Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza proviene da il blog della sicurezza informatica.
Intelligenza Integrata: La Magia dell’AI che Svela il Genio della Biologia
Con il rapido evolversi delle minacce informatiche, la cybersecurity deve sviluppare soluzioni sempre più avanzate e resilienti. Un approccio innovativo consiste nella trasformazione e nell’evoluzione dell’intelligenza artificiale verso un’intelligenza ispirata a quella biologica, un modello che applica i principi e i processi della biologia alla sicurezza informatica.
Questo approccio si ispira a meccanismi naturali, come l’adattamento degli organismi viventi, il sistema immunitario e le reti neurali biologiche. Queste ultime, costituite da interconnessioni interneuronali nel cervello e nel sistema nervoso periferico, sono in grado elaborare informazioni, anche sofisticate, attraverso segnali elettrici e neurochimici supportando funzioni fondamentali come apprendimento, memoria ed adattamento.
Negli ultimi anni, grazie all’impiego di modelli neuromorfici come i chip Loihi di Intel si stanno sviluppando architetture hardware che replicano fedelmente il comportamento del cervello umano, potenziando i sistemi di difesa attiva.
L’intelligenza biologica
Questo tipo di intelligenza utilizza l’osservazione e l’imitazione di questi processi per progettare sistemi di difesa informatica più robusti ed efficaci. Grazie alla capacità di adattamento, resilienza e risposta rapida dei meccanismi biologici, è possibile integrare queste dinamiche con le tecnologie avanzate per creare soluzioni capaci di identificare, prevenire e contrastare le minacce emergenti nel cyberspazio, garantendo flessibilità ed efficienza in un contesto in costante evoluzione.
L’intelligenza biologica è la capacità degli organismi viventi di adattarsi, apprendere e rispondere agli stimoli esterni in modo efficace e resiliente.
Applicata alla cybersecurity, questa idea ispira la creazione di sistemi informatici avanzati, in grado di:
Adattamento Dinamico
Proprio come gli organismi viventi si adattano ai cambiamenti ambientali, I sistemi di sicurezza informatica necessitano di una evoluzione continua per fronteggiare costantemente le nuove minacce in modo fattivo.
Oggi, grazie all’uso di modelli di AI generativa, come GPT-4 e Claude, integrati in strumenti SIEM (Security Information and Event Management), si riescono a generare automaticamente piani di risposta agli incidenti adattivi.
Apprendimento Continuo
Così come il cervello umano impiega i sistemi corticali, sottocorticali e limbici per affrontare e gestire le esperienze emotive quotidiane, allo stesso modo la cybersecurity elabora, a velocità straordinarie, dati ed esperienze, sia positive che negative, per adattare ed evolvere costantemente le proprie difese.
Le piattaforme XDR (Extended Detection and Response) ora integrano modelli di reinforcement learning per migliorare la precisione nel rilevamento delle minacce
microsoft.com/it-it/security/b…
Resilienza alle Minacce
Seguendo l’esempio dei sistemi biologici, noti per la loro capacità di resistere, aggiornando la produzione di nuovi anticorpi e rirendersi rapidamente pi efficaci di prima, così le infrastrutture informatiche devono essere progettate per garantire continuità operativa anche in caso di attacchi o malfunzionamenti.
Applicazioni dell’Intelligenza Biologica nella Cybersecurity
Sistemi Immunitari Artificiali (AIS)
Sono modelli ispirati al sistema immunitario umano, creati per rilevare e fermare le minacce informatiche. Un esempio importante è l’algoritmo delle cellule dendritiche (DCA), rilevando e reagendo agli agenti patogeni attivano la risposta immunitaria contro le infezioni. Analogamente il DCA nella cybersecurity offre una protezione attiva e dinamica, individuando e analizzando le anomalie in tempo reale per contrastare intrusioni e attacchi.
Gli Algoritmi Evolutivi
Ispirati alla selezione naturale ed all’evoluzione, sono utilizzati per risolvere problemi complessi attraverso un processo di ottimizzazione. In cybersecurity, questi algoritmi vengono impiegati per creare chiavi crittografiche sicure e firewall adattivi che evolvendosi autonomamente rispondono alle nuove minacce ed agli attacchi.
Recenti studi hanno dimostrato che l’algoritmo “NEAT” (NeuroEvolution of Augmenting Topologies) può ottimizzare dinamicamente la struttura di reti neurali difensive contro ransomware polimorfici.
Biometria Comportamentale
Attraverso l’analisi dei comportamenti distintivi degli utenti, come la velocità di digitazione e i movimenti del mouse, è possibile sviluppare sistemi di autenticazione continua in grado di rilevare accessi non autorizzati. Questi sistemi identificano anomalie confrontando i comportamenti rilevati con i modelli abituali degli utenti, garantendo in tempo reale un avanzato livello di sicurezza.
Vantaggi dell’Approccio Biologico
- Adattabilità: I sistemi ispirati alla biologia possono modificare le proprie difese in tempo reale, affrontando efficacemente minacce sconosciute o inaspettate.
- Scalabilità: Come gli ecosistemi naturali, queste soluzioni possono essere implementate su larga scala senza perdere efficacia, adattandosi a infrastrutture di diverse dimensioni e complessità.
- Resilienza: Ispirandosi alla capacità degli organismi viventi di sopravvivere e prosperare in ambienti ostili, i sistemi di cybersecurity biologicamente ispirati sono progettati per resistere a guasti e attacchi, garantendo una continuità operativa anche in condizioni avverse.
Sfide e Considerazioni
Nonostante i notevoli vantaggi, l’integrazione dell’intelligenza biologica nella cybersecurity solleva alcune problematiche significative che meritano attenzione:
- Complessità: La strutturazione dei processi biologici richiede una competenza avanzata in molteplici discipline, tra cui biologia, informatica e ingegneria. L’approccio interdisciplinare necessario può risultare difficile da implementare e, talvolta, difficile da coordinare.
- Risorse Computazionali: Alcuni algoritmi ispirati ai processi biologici possono essere estremamente esigenti in termini di risorse, necessitando di hardware avanzato e comportando tempi di elaborazione lunghi, il che può limitare la loro applicabilità pratica in scenari ad alta richiesta.
L’emergere di hardware quantistico e neuromorfico mira a ridurre questi limiti nel prossimo decennio.
Privacy e Sicurezza dei Dati: L’uso di dati biometrici e comportamentali solleva legittime preoccupazioni in merito alla protezione delle informazioni personali. La gestione di tali dati impone sfide relative alla conformità con le normative sulla privacy e alla garanzia che le informazioni sensibili siano adeguatamente protette contro l’accesso non autorizzato.
Prospettive Future
L’integrazione dell’intelligenza biologica nella cybersecurity sembra destinata a crescere, con sviluppi che potrebbero aprire nuove frontiere, sebbene non senza sollevare alcune perplessità.
- Sistemi di Auto-Guarigione: Si prevede la creazione di reti informatiche in grado di identificare e correggere autonomamente le proprie vulnerabilità, ispirandosi ai processi di rigenerazione biologica. Resta da valutare se questi sistemi possano davvero gestire in modo efficace e sicuro le complessità e le variabili delle minacce in continua evoluzione.
- Ecosistemi Digitali Resilienti: La costruzione di infrastrutture che imitano la biodiversità degli ecosistemi naturali per migliorare la resistenza alle minacce cibernetiche potrebbe rappresentare una soluzione interessante. Tuttavia, la realizzazione di tali ecosistemi digitali comporta rischi legati alla loro complessità e alla difficoltà di prevedere tutte le possibili interazioni tra i diversi elementi.
- Interfacce Uomo-Macchina Evolute: Lo sviluppo di interazioni più naturali ed efficienti tra esseri umani e sistemi informatici, basate sulla comprensione dei processi cognitivi e comportamentali, offre indubbi vantaggi. Tuttavia, la sfida risiede nell’assicurarsi che queste interfacce siano veramente sicure e in grado di rispondere in modo adeguato alla varietà dei comportamenti umani, senza compromettere la privacy o la sicurezza.
L’impiego di BCI (Brain-Computer Interfaces) è già in fase avanzata nei laboratori di Neuralink e Blackrock Neurotech https://neuralink.com
Conclusione
L’approccio biologico alla cybersecurity rappresenta un’interessante prospettiva innovativa per rispondere alle sfide delle minacce informatiche moderne. Ispirandosi ai processi naturali, offre il potenziale per sviluppare sistemi più adattivi, resilienti ed efficaci, capaci di rispondere in modo dinamico alle nuove vulnerabilità.
L’adozione concreta di queste soluzioni dipenderà fortemente dalla collaborazione tra settore pubblico, accademico e industriale, in particolare per bilanciare progresso, etica e sostenibilità. Pertanto, vista la complessità delle interazioni tra biologia ed informatica, emergono numerosi interrogativi su come tradurre i principi biologici in soluzioni tecnologiche applicabili.
Non possiamo sottovalutare le enormi difficoltà nel creare modelli che davvero emulino la complessità dei sistemi biologici, né le sfide etiche e pratiche che tale integrazione impone. Per questo, è fondamentale un impegno costante e multidisciplinare, che unisca esperti di etica, biologia, informatica e sicurezza, per affrontare questi ostacoli e affinare le soluzioni del futuro, garantendo il loro impatto duraturo e positivo.
L'articolo Intelligenza Integrata: La Magia dell’AI che Svela il Genio della Biologia proviene da il blog della sicurezza informatica.
Ti piace giocare da solo? Ubisoft ti tiene ancora d'occhio! Ubisoft obbliga le persone a connettersi a Internet prima di poter giocare in single player mickey24 April 2025
Ciao @Marco e benvenuto tra noi.
Ti lascio il link a un decalogo su Friendica e sulla nostra istanza
⁂ I dieci comandamenti di Friendica ⁂
Ti lascio anche il link di una guida a Friendica che potrai leggerti con calma 😅
Lorenzo Vujade likes this.
Improved and Open Source: Non-Planar Infill for FDM
Strenghtening FDM prints has been discussed in detail over the last years. Solutions and results vary as each one’s desires differ. Now [TenTech] shares his latest improvements on his post-processing script that he first created around January. This script literally bends your G-code to its will – using non-planar, interlocking sine wave deformations in both infill and walls. It’s now open-source, and plugs right into your slicer of choice: PrusaSlicer, OrcaSlicer, or Bambu Studio. If you’re into pushing your print strength past the limits of layer adhesion, but his former solution wasn’t quite the fit for your printer, try this improvement.
Traditional Fused Deposition Modeling (FDM) prints break along layer lines. What makes this script exciting is that it lets you introduce alternating sine wave paths between wall loops, removing clean break points and encouraging interlayer grip. Think of it as organic layer interlocking – without switching to resin or fiber reinforcement. You can tweak amplitude, frequency, and direction per feature. In fact, the deformation even fades between solid layers, allowing smoother transitions. Structural tinkering at its finest, not just a cosmetic gimmick.
This thing comes without needing a custom slicer. No firmware mods. Just Python, a little G-code, and a lot of curious minds. [TenTech] is still looking for real-world strength tests, so if you’ve got a test rig and some engineering curiosity, this is your call to arms.
The script can be found in his Github. View his full video here , get the script and let us know your mileage!
youtube.com/embed/r9YdJhN6jWQ?…
Il progetto ricicla 50.000 libbre di HDD in materiali riutilizzabili ad alta purezza
- Il riciclaggio senza sostanze chimiche supporta le catene di approvvigionamento statunitensi e riduce i rifiuti in discarica
- I materiali recuperati supportano le auto elettriche, l'energia eolica e la produzione di elettronica avanzata
- Un piano di fine vita sostenibile ridefinisce il futuro dello storage nei data center statunitensi
Informatica (Italy e non Italy 😁) reshared this.
Il giudice limita le prove sui clienti e sulle vittime del gruppo NSO nel processo per danni
Secondo un osservatore, la sentenza colpisce la strategia fondamentale di NSO Group nel caso in questione.
La scorsa settimana un giudice federale ha imposto limiti rigorosi al tipo di prove che NSO Group può presentare durante un processo per danni nella causa intentata da WhatsApp contro il fornitore di spyware per le accuse di aver hackerato 1.400 utenti della piattaforma di messaggistica.
In base all'ordinanza , a NSO Group è vietato presentare prove sull'identità dei propri clienti, insinuando che gli utenti WhatsApp presi di mira siano presunti o veri criminali, o sostenendo che WhatsApp non disponesse di sufficienti misure di sicurezza
informapirata ⁂ reshared this.
freezonemagazine.com/rubriche/…
Avanzava, scalciando la neve profonda. Era un uomo disgustato. Si chiamava Svevo Bandini e abitava in quella strada, tre isolati più avanti. Aveva freddo, e le scarpe sfondate. Quella mattina le aveva rattoppate con dei pezzi di cartone di una scatola di pasta. Pasta che non era stata pagata. Ci aveva pensato proprio mentre infilava […]
L'articolo John Fante – Aspetta primavera,
La censura governativa arriva su Bluesky, ma non sulle sue app di terze parti... per ora
All'inizio di questo mese, Bluesky ha limitato l'accesso a 72 account in Turchia su richiesta delle autorità governative turche, secondo un recente rapporto della Freedom of Expression Association . Di conseguenza, gli utenti in Turchia non possono più visualizzare questi account e la loro portata è limitata.
reshared this
Abusing DuckDB-WASM To Create Doom In SQL
These days you can run Doom anywhere on just about anything, with things like porting Doom to JavaScript these days about as interesting as writing Snake in BASIC on one’s graphical calculator. In a twist, [Patrick Trainer] had the idea to use SQL instead of JS to do the heavy lifting of the Doom game loop. Backed by the Web ASM version of the analytical DuckDB database software, a Doom-lite clone was coded that demonstrates the principle that anything in life can be captured in a spreadsheet or database application.
Rather than having the game world state implemented in JavaScript objects, or pixels drawn to a Canvas/WebGL surface, this implementation models the entire world state in the database. To render the player’s view, the SQL VIEW
feature is used to perform raytracing (in SQL, of course). Any events are defined as SQL statements, including movement. Bullets hitting a wall or impacting an enemy result in the bullet and possibly the enemy getting DELETE
-ed.
The role of JavaScript in this Doom clone is reduced to gluing the chunks of SQL together and handling sprite Z-buffer checks as well as keyboard input. The result is a glorious ASCII-based game of Doom which you can experience yourself with the DuckDB-Doom project on GitHub. While not very practical, it was absolutely educational, showing that not only is it fun to make domain specific languages do things they were never designed for, but you also get to learn a lot about it along the way.
Thanks to [Particlem] for the tip.
The Evertop: a Low-Power, Off-Grid Solar Gem
When was the last time you saw a computer actually outlast your weekend trip – and then some? Enter the Evertop, a portable IBM XT emulator powered by an ESP32 that doesn’t just flirt with low power; it basically lives off the grid. Designed by [ericjenott], hacker with a love for old-school computing and survivalist flair, this machine emulates 1980s PCs, runs DOS, Windows 3.0, and even MINIX, and stays powered for hundreds of hours. It has a built-in solar panel and 20,000mAh of battery, basically making it an old-school dream in a new-school shell.
What makes this build truly outstanding – besides the specs – is how it survives with no access to external power. It sports a 5.83-inch e-ink display that consumes zilch when static, hardware switches to cut off unused peripherals (because why waste power on a serial port you’re not using?), and a solar panel that pulls 700mA in full sun. And you guessed it – yes, it can hibernate to disk and resume where you left off. The Evertop is a tribute to 1980s computing, and a serious tool to gain some traction at remote hacker camps.
For the full breakdown, the original post has everything from firmware details to hibernation circuitry. Whether you’re a retro purist or an off-grid prepper, the Evertop deserves a place on your bench. Check out [ericjenott]’s project on Github here.
#Ucraina, diplomazia nella tempesta
Ucraina, diplomazia nella tempesta
Segnali contraddittori continuano ad arrivare dal fronte diplomatico russo-ucraino, con l’amministrazione Trump che evidenzia sempre più segnali di impazienza di fronte alla fermezza di Mosca e alle resistenze di Kiev ad accettare un accordo per mett…www.altrenotizie.org
lindipendente.online/2025/04/2…
FLOSS Weekly Episode 830: Vibes
This week, Jonathan Bennett and Randal Schwartz chat with Allen Firstenberg about Google’s AI plans, Vibe Coding, and Open AI! What’s the deal with agentic AI, how close are we to Star Trek, and where does Open Source fit in? Watch to find out!
youtube.com/embed/ZxPVFOD-GeA?…
Did you know you can watch the live recording of the show right on our YouTube Channel? Have someone you’d like us to interview? Let us know, or contact the guest and have them contact us! Take a look at the schedule here.
play.libsyn.com/embed/episode/…
Direct Download in DRM-free MP3.
If you’d rather read along, here’s the transcript for this week’s episode.
Places to follow the FLOSS Weekly Podcast:
Theme music: “Newer Wave” Kevin MacLeod (incompetech.com)
Licensed under Creative Commons: By Attribution 4.0 License
hackaday.com/2025/04/23/floss-…
Dalla newsletter di Haaretz:
The foreign ministers of Germany, France and Britain called Israel's blocking of aid into Gaza as "intolerable."
Chissà com'è vivere in un paese dove chi governa considera intollerabile bloccare gli aiuti umanitari e far morire di fame, stenti e malattie una popolazione intera.
Mi piacerebbe provarlo un giorno.
like this
L’Academy degli Oscar stende il red carpet all’intelligenza artificiale
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Quasi due anni fa a Hollywood iniziava uno dei più lunghi scioperi a parte di attori e sceneggiatori che, tra le altre cose, chiedevano tutele rispetto alla comparsa dell'intelligenza
Informatica (Italy e non Italy 😁) reshared this.
Informa Pirata likes this.
Google fa felici i pubblicitari e fa marameo alla privacy sui cookie di terze parti
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Gli utenti continueranno a lasciare dietro di sé le briciole dei cookie di terze parti durante le navigazioni sul browser Chrome: il dietrofront di Google (che aveva promesso tutt'altro) fa felice chi lavora nella
Informatica (Italy e non Italy 😁) reshared this.
Esercitazioni anti-drone nell’Indo-Pacifico. I Marines testano il Madis
@Notizie dall'Italia e dal mondo
Durante l’edizione di quest’anno dell’esercitazione militare Balikatan, eseguita congiuntamente dalle forze armate di Washington e di Manila nella regione indo-pacifica, il Corpo dei Marines degli Stati Uniti testerà il Marine Air Defense Integrated System (Madis), uno dei più
Notizie dall'Italia e dal mondo reshared this.
Open Source Commercial Synthesisers You Will Love
Drumboy and Synthgirl from Randomwaves are a a pair of compact electronic instruments, a drum machine and a synthesiser. They are commercial products which were launched on Kickstarter, and if you’re in the market for such a thing you can buy one for yourself. What’s made them of interest to us here at Hackaday though is not their musical capabilities though, instead it’s that they’ve honoured their commitment to release them as open source in the entirety.
So for your download, you get everything you need to build a pair of rather good 24-bit synthesisers based upon the STM32 family of microcontrollers. We’re guessing that few of you will build your own when it’s an easier job to just buy one from Randomwaves, and we’re guessing that this open-sourcing will lead to interesting new features and extensions from the community of owners.
It will be interesting to watch how this progresses, because of course with the files out there, now anyone can produce and market a clone. Will AliExpress now be full of knock-off Drumboys and Synthgirls? It’s a problem we’ve looked at in the past with respect to closed-source projects, and doubtless there will be enterprising electronics shops eyeing this one up. By our observation though it seems to be those projects with cheaper bills of materials which suffer the most from clones, so perhaps that higher-end choice of parts will work in their favour.
Either way we look forward to more open-source from Randomwaves in the future, and if you’d like to buy either instrument you can go to their website.
Thanks [Eilís] for the tip.
reshared this
Il dollaro si svaluta da solo, senza un nuovo "accordo del Plaza". Ed è la peggior notizia per Trump
Sembrerebbe quindi che Il dollaro stia perdendo il proprio ruolo di valuta di riferimento globale. L’effetto geopolitico non è affatto banale. Non…Redazione (HuffPost Italia)
Perché l’Antitrust Ue ha multato Apple e Meta
L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Apple ha ricevuto una multa di 500 milioni di euro e Meta di 200 milioni di euro dall'autorità antitrust dell'Ue che ha imposto le prime sanzioni ai sensi del startmag.it/innovazione/perche…
Informatica (Italy e non Italy 😁) reshared this.
To See Within: Detecting X-Rays
It’s amazing how quickly medical science made radiography one of its main diagnostic tools. Medicine had barely emerged from its Dark Age of bloodletting and the four humours when X-rays were discovered, and the realization that the internal structure of our bodies could cast shadows of this mysterious “X-Light” opened up diagnostic possibilities that went far beyond the educated guesswork and exploratory surgery doctors had relied on for centuries.
The problem is, X-rays are one of those things that you can’t see, feel, or smell, at least mostly; X-rays cause visible artifacts in some people’s eyes, and the pencil-thin beam of a CT scanner can create a distinct smell of ozone when it passes through the nasal cavity — ask me how I know. But to be diagnostically useful, the varying intensities created by X-rays passing through living tissue need to be translated into an image. We’ve already looked at how X-rays are produced, so now it’s time to take a look at how X-rays are detected and turned into medical miracles.
Taking Pictures
For over a century, photographic film was the dominant way to detect medical X-rays. In fact, years before Wilhelm Conrad Röntgen’s first systematic study of X-rays in 1895, fogged photographic plates during experiments with a Crooke’s tube were among the first indications of their existence. But it wasn’t until Röntgen convinced his wife to hold her hand between one of his tubes and a photographic plate to create the first intentional medical X-ray that the full potential of radiography could be realized.“Hand mit Ringen” by W. Röntgen, December 1895. Public domain.
The chemical mechanism that makes photographic film sensitive to X-rays is essentially the same as the process that makes light photography possible. X-ray film is made by depositing a thin layer of photographic emulsion on a transparent substrate, originally celluloid but later polyester. The emulsion is a mixture of high-grade gelatin, a natural polymer derived from animal connective tissue, and silver halide crystals. Incident X-ray photons ionize the halogens, creating an excess of electrons within the crystals to reduce the silver halide to atomic silver. This creates a latent image on the film that is developed by chemically converting sensitized silver halide crystals to metallic silver grains and removing all the unsensitized crystals.
Other than in the earliest days of medical radiography, direct X-ray imaging onto photographic emulsions was rare. While photographic emulsions can be exposed by X-rays, it takes a lot of energy to get a good image with proper contrast, especially on soft tissues. This became a problem as more was learned about the dangers of exposure to ionizing radiation, leading to the development of screen-film radiography.
In screen-film radiography, X-rays passing through the patient’s tissues are converted to light by one or more intensifying screens. These screens are made from plastic sheets coated with a phosphorescent material that glows when exposed to X-rays. Calcium tungstate was common back in the day, but rare earth phosphors like gadolinium oxysulfate became more popular over time. Intensifying screens were attached to the front and back covers of light-proof cassettes, with double-emulsion film sandwiched between them; when exposed to X-rays, the screens would glow briefly and expose the film.
By turning one incident X-ray photon into thousands or millions of visible light photons, intensifying screens greatly reduce the dose of radiation needed to create diagnostically useful images. That’s not without its costs, though, as the phosphors tend to spread out each X-ray photon across a physically larger area. This results in a loss of resolution in the image, which in most cases is an acceptable trade-off. When more resolution is needed, single-screen cassettes can be used with one-sided emulsion films, at the cost of increasing the X-ray dose.
Wiggle Those Toes
Intensifying screens aren’t the only place where phosphors are used to detect X-rays. Early on in the history of radiography, doctors realized that while static images were useful, continuous images of body structures in action would be a fantastic diagnostic tool. Originally, fluoroscopy was performed directly, with the radiologist viewing images created by X-rays passing through the patient onto a phosphor-covered glass screen. This required an X-ray tube engineered to operate with a higher duty cycle than radiographic tubes and had the dual disadvantages of much higher doses for the patient and the need for the doctor to be directly in the line of fire of the X-rays. Cataracts were enough of an occupational hazard for radiologists that safety glasses using leaded glass lenses were a common accessory.How not to test your portable fluoroscope. The X-ray tube is located in the upper housing, while the image intensifier and camera are below. The machine is generally referred to as a “C-arm” and is used in the surgery suite and for bedside pacemaker placements. Source: Nightryder84, CC BY-SA 3.0.
One ill-advised spin-off of medical fluoroscopy was the shoe-fitting fluoroscopes that started popping up in shoe stores in the 1920s. Customers would stick their feet inside the machine and peer at a fluorescent screen to see how well their new shoes fit. It was probably not terribly dangerous for the once-a-year shoe shopper, but pity the shoe salesman who had to peer directly into a poorly regulated X-ray beam eight hours a day to show every Little Johnny’s mother how well his new Buster Browns fit.
As technology improved, image intensifiers replaced direct screens in fluoroscopy suites. Image intensifiers were vacuum tubes with a large input window coated with a fluorescent material such as zinc-cadmium sulfide or sodium-cesium iodide. The phosphors convert X-rays passing through the patient to visible light photons, which are immediately converted to photoelectrons by a photocathode made of cesium and antimony. The electrons are focused by coils and accelerated across the image intensifier tube by a high-voltage field on a cylindrical anode. The electrons pass through the anode and strike a phosphor-covered output screen, which is much smaller in diameter than the input screen. Incident X-ray photons are greatly amplified by the image intensifier, making a brighter image with a lower dose of radiation.
Originally, the radiologist viewed the output screen using a microscope, which at least put a little more hardware between his or her eyeball and the X-ray source. Later, mirrors and lenses were added to project the image onto a screen, moving the doctor’s head out of the direct line of fire. Later still, analog TV cameras were added to the optical path so the images could be displayed on high-resolution CRT monitors in the fluoroscopy suite. Eventually, digital cameras and advanced digital signal processing were introduced, greatly streamlining the workflow for the radiologist and technologists alike.
Get To The Point
So far, all the detection methods we’ve discussed fall under the general category of planar detectors, in that they capture an entire 2D shadow of the X-ray beam after having passed through the patient. While that’s certainly useful, there are cases where the dose from a single, well-defined volume of tissue is needed. This is where point detectors come into play.Nuclear medicine image, or scintigraph, of metastatic cancer. 99Tc accumulates in lesions in the ribs and elbows (A), which are mostly resolved after chemotherapy (B). Note the normal accumulation of isotope in the kidneys and bladder. Kazunari Mado, Yukimoto Ishii, Takero Mazaki, Masaya Ushio, Hideki Masuda and Tadatoshi Takayama, CC BY-SA 2.0.
In medical X-ray equipment, point detectors often rely on some of the same gas-discharge technology that DIYers use to build radiation detectors at home. Geiger tubes and ionization chambers measure the current created when X-rays ionize a low-pressure gas inside an electric field. Geiger tubes generally use a much higher voltage than ionization chambers, and tend to be used more for radiological safety, especially in nuclear medicine applications, where radioisotopes are used to diagnose and treat diseases. Ionization chambers, on the other hand, were often used as a sort of autoexposure control for conventional radiography. Tubes were placed behind the film cassette holders in the exam tables of X-ray suites and wired into the control panels of the X-ray generators. When enough radiation had passed through the patient, the film, and the cassette into the ion chamber to yield a correct exposure, the generator would shut off the X-ray beam.
Another kind of point detector for X-rays and other kinds of radiation is the scintillation counter. These use a crystal, often cesium iodide or sodium iodide doped with thallium, that releases a few visible light photons when it absorbs ionizing radiation. The faint pulse of light is greatly amplified by one or more photomultiplier tubes, creating a pulse of current proportional to the amount of radiation. Nuclear medicine studies use a device called a gamma camera, which has a hexagonal array of PM tubes positioned behind a single large crystal. A patient is injected with a radioisotope such as the gamma-emitting technetium-99, which accumulates mainly in the bones. Gamma rays emitted are collected by the gamma camera, which derives positional information from the differing times of arrival and relative intensity of the light pulse at the PM tubes, slowly building a ghostly skeletal map of the patient by measuring where the 99Tc accumulated.
Going Digital
Despite dominating the industry for so long, the days of traditional film-based radiography were clearly numbered once solid-state image sensors began appearing in the 1980s. While it was reliable and gave excellent results, film development required a lot of infrastructure and expense, and resulted in bulky films that required a lot of space to store. The savings from doing away with all the trappings of film-based radiography, including the darkrooms, automatic film processors, chemicals, silver recycling, and often hundreds of expensive film cassettes, is largely what drove the move to digital radiography.
After briefly flirting with phosphor plate radiography, where a sensitized phosphor-coated plate was exposed to X-rays and then “developed” by a special scanner before being recharged for the next use, radiology departments embraced solid-state sensors and fully digital image capture and storage. Solid-state sensors come in two flavors: indirect and direct. Indirect sensor systems use a large matrix of photodiodes on amorphous silicon to measure the light given off by a scintillation layer directly above it. It’s basically the same thing as a film cassette with intensifying screens, but without the film.
Direct sensors, on the other hand, don’t rely on converting the X-ray into light. Rather, a large flat selenium photoconductor is used; X-rays absorbed by the selenium cause electron-hole pairs to form, which migrate to a matrix of fine electrodes on the underside of the sensor. The current across each pixel is proportional to the amount measured to the amount of radiation received, and can be read pixel-by-pixel to build up a digital image.
Un bug vecchio 8 anni in Microsoft Word viene sfruttato per installare l’infostealer FormBook
Una recente analisi condotta dai FortiGuard Labs di Fortinet ha rivelato una sofisticata campagna di phishing volta a diffondere una nuova variante del malware FormBook, un infostealer noto per la sua capacità di sottrarre dati sensibili dai dispositivi compromessi. La campagna sfrutta la vulnerabilità CVE-2017-11882 presente nei documenti Microsoft Word per infettare i sistemi degli utenti
Il vettore iniziale dell’attacco è un’email di phishing che simula un ordine di vendita, contenente un documento Word denominato “order0087.docx”. Questo file, salvato in formato Office Open XML (OOXML), include un riferimento a un file esterno “Algeria.rtf” attraverso il nodo “” nel file document.xml.
Quando l’utente apre il documento, Word carica automaticamente il file RTF esterno, avviando il processo di infezione.
Il file RTF “Algeria.rtf” è offuscato con dati inutili per eludere le analisi statiche. Una volta de-offuscato, rivela due oggetti binari incorporati. Il primo è un file DLL a 64 bit denominato “AdobeID.pdf”, che viene estratto nella cartella temporanea del sistema. Il secondo è un oggetto OLE che contiene dati appositamente creati per sfruttare la vulnerabilità CVE-2017-11882 nel Microsoft Equation Editor 3.0.
Questa vulnerabilità consente l’esecuzione di codice arbitrario quando Word elabora il file RTF, portando all’esecuzione del file DLL malevolo.
Il file DLL “AdobeID.pdf” funge da downloader e installatore per il malware FormBook. Una volta eseguito, stabilisce la persistenza nel sistema aggiungendo una chiave nel registro di Windows sotto “HKCU\SOFTWARE\Microsoft\Windows\CurrentVersion\Run“, assicurando l’esecuzione automatica del malware ad ogni avvio del sistema.
Successivamente, il malware si inietta in processi legittimi di Windows, come “explorer.exe”, per eseguire le sue attività dannose senza destare sospetti.
FormBook è progettato per sottrarre informazioni sensibili, tra cui credenziali memorizzate, sequenze di tasti, screenshot e dati dagli appunti. Inoltre, può ricevere comandi da un server di controllo (C2) per eseguire ulteriori azioni dannose sul dispositivo infetto.
La sua capacità di iniettarsi in processi legittimi e di comunicare con server remoti lo rende particolarmente insidioso e difficile da rilevare
Per proteggersi da minacce come FormBook, è fondamentale mantenere aggiornati tutti i software, in particolare le suite di produttività come Microsoft Office.
Inoltre, è consigliabile implementare soluzioni di sicurezza avanzate che possano rilevare comportamenti anomali e bloccare attività sospette. La formazione degli utenti sull’identificazione di email di phishing e l’adozione di pratiche di navigazione sicura sono altrettanto cruciali per prevenire infezioni da malware.
L'articolo Un bug vecchio 8 anni in Microsoft Word viene sfruttato per installare l’infostealer FormBook proviene da il blog della sicurezza informatica.
Ora il governo chiede di evitare «balli e canti scatenati» per il 25 aprile
Io al corteo del 25 aprile partecipo da anni, è anche un'occasione per vedere gente che non vedo quasi mai. Pranziamo insieme nella solita pizzeria, sfiliamo chiacchierando, poi ci salutiamo e ci diamo appuntamento all'anno prossimo.
Oh... con tutti questi appelli alla sobrietà mi stanno facendo venire voglia di mettermi a ballare nudo per strada!
reshared this
Realizzazione siti web Ferrara
Econgiunzione lancia il nuovo sito
react-based
specifico per la città di Ferrara realizzazionesitiwebferrara.it
Ecco-il-nostro-nuovo-logo hosted at ImgBB
Siamo felici di presentarvi la nostra nuova identità visiva e il nuovo sito web, pensati per raccontare meglio chi siamo, cosa facciamo e soprattutto comeImgBB
giorovv
in reply to Informa Pirata • • •Informa Pirata likes this.
Informa Pirata
in reply to giorovv • •@giorovv alla tua domanda, naturalmente, posso rispondere solo positivamente.
Ma qui il problema è ancora diverso, perché non è "Bluesky" come piattaforma a censurare, ma è l'app ufficiale che censura.
È come se tutti gli utenti Lemmy che usano Jerboa venissero limitati nel vedere i contenuti censurati, ma se usi un'altra app puoi aggirare la censura
Che succede nel Fediverso? reshared this.