Salta al contenuto principale



La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA


In un precedente articolo abbiamo esplorato il calcolo parallelo nel mondo dell’informatica. Ora ci concentreremo su come le più recenti innovazioni tecnologiche nelle architetture hardware per il calcolo ad alte prestazioni costituiscano la base delle moderne rivoluzioni tecnologiche. La diffusione di tecnologie come l’intelligenza artificiale, cybersicurezza e la crittografia avanzata possono risultare disorientante per chi non le conosce. Con questo breve articolo, ci proponiamo di offrire una “lampada di Diogene”, per illuminare un tratto della complessa strada verso la comprensione di queste nuove tecniche, aiutandoci ad affrontarle con spirito critico e consapevole, anziché accettarle passivamente come dei moderni oracoli di Delfi.

Analizzeremo il percorso storico del calcolo parallelo, dalla macchina Colossus di Bletchley Park degli anni ’40 fino all’attuale evoluzione tecnologica. Approfondiremo i meccanismi che hanno guidato questo sviluppo e sveleremo qualche dettaglio dei meccanismi fondamentali del calcolo parallelo.

La storia dei supercomputer inizia con la macchina Colossus, che affrontava enormi problemi con una potenza che ricordava quella di Golia. Oggi, invece, servono strategie più sofisticate. Con l’aumento della complessità e dei limiti fisici, spingere la velocità dei processori (il clock) e seguire la Legge di Moore è diventato sempre più impegnativo. Per questo motivo, il parallelismo si è rivelato una soluzione cruciale per migliorare le prestazioni. I moderni processori sono dotati di più core. Utilizzano tecniche come l’hyperthreading, che consente l’elaborazione contemporanea di più thread su un unico processore, e impiegano unità vettoriali per eseguire più istruzioni simultaneamente. Grazie a questi sviluppi, persino dispositivi come notebook, workstation o smartphone possono competere con le capacità dei supercomputer di vent’anni fa, che occupavano intere stanze.

Proprio come nella celebre sfida tra Davide e Golia, i supercomputer sono progettati per eseguire calcoli e risolvere problemi estremamente complessi – dalle previsioni meteorologiche alle simulazioni per la creazione di nuovi farmaci e modelli per l’esplorazione dell’universo – mentre i personal computer, agili e accessibili, rispondono alle esigenze quotidiane.

La classificaTop 500 di Jack Dongarra, aggiornata due volte all’anno, testimonia questa incessante competizione tecnologica. Tra i protagonisti del 2024, spicca il supercomputer El Capitan, che ha raggiunto la vetta con una capacità di calcolo di 1.742 exaflop.

Sviluppato presso il Lawrence Livermore National Laboratory negli Stati Uniti, questo sistema utilizza processori AMD di quarta generazione e acceleratori MI300A, garantendo prestazioni straordinarie grazie a un’architettura avanzata basata sul Symmetric Multiprocessing (SMP). L’approccio, paragonabile a un’orchestra in cui i processori collaborano armonicamente condividendo la stessa memoria, rappresenta il culmine della potenza del calcolo parallelo..

Cos’è un Supercalcolatore?


Un supercalcolatore è un sistema informatico progettato per garantire prestazioni di calcolo straordinarie, nettamente superiori a quelle dei computer tradizionali. La sua definizione non è cristallizzata nel tempo, ma si evolve costantemente con i progressi tecnologici. Un sistema considerato all’avanguardia nel 2000 potrebbe oggi essere del tutto obsoleto, a causa dei rapidi avanzamenti dell’informatica.

Queste macchine rivestono un ruolo fondamentale nell’affrontare problemi complessi, tra cui simulazioni scientifiche, analisi di enormi volumi di dati e applicazioni avanzate di intelligenza artificiale. Inoltre, sono strumenti chiave anche nel campo della cybersicurezza, dove la capacità di elaborare dati in tempi rapidi può fare la differenza.

Classificare i Supercalcolatori


I supercalcolatori vengono valutati in base a differenti parametri, tra cui il concetto di application-dependent, ossia il tempo necessario per risolvere un problema specifico. Un sistema può eccellere in un compito ma risultare meno efficiente in un altro, a seconda della natura dell’applicazione.

Dal 1993, la lista Top500 classifica i 500 supercalcolatori più potenti al mondo e viene aggiornata due volte l’anno (giugno e novembre). La classifica si basa sul benchmark LINPACK, che misura la capacità di risolvere sistemi di equazioni lineari, impiegando il parametro chiave Rmax (prestazione massima ottenuta).

Nell’edizione di novembre 2024, El Capitan domina al primo posto, essendo il terzo sistema a superare la soglia dell’exascale computing (10^18 FLOPS), seguito da Frontier e Aurora. Il supercomputer europeo Leonardo, ospitato dal Cineca di Bologna, si posiziona al nono posto, con 1,8 milioni di core, un Rmax di 241,20 PFlop/s (milioni di miliardi di operazioni al secondo) e una prestazione teorica di picco di 306,31 PFlop/s.

Viaggio nei Benchmark del Calcolo


Fin dagli albori dell’era informatica, il benchmarking ha rappresentato uno strumento fondamentale per valutare le prestazioni dei computer. Il primo esempio risale al 1946, quando l’ENIAC utilizzò il calcolo di una traiettoria balistica per confrontare l’efficienza tra uomo e macchina, prefigurando un lungo percorso evolutivo nel campo della misurazione computazionale.

Negli anni 70, il benchmarking assunse una forma più sistematica. Nel 1972 nacque Whetstone, uno dei primi benchmark sintetici, ideato per misurare le istruzioni per secondo -una metrica chiave per comprendere come una macchina gestisse operazioni di base – e successivamente aggiornato per includere le operazioni in virgola mobile. Nel 1984 arrivò Dhrystone, concepito per valutare le prestazioni nei calcoli interi; questo benchmark fu adottato come standard industriale fino all’introduzione della suite SPECint, che offrì una misurazione più aderente ai carichi di lavoro reali.

Parallelamente, nel 1979, Jack Dongarra introdusse Linpack, un benchmark dedicato alla risoluzione di sistemi di equazioni lineari e divenuto un riferimento nel calcolo scientifico. Questo strumento non solo ispirò lo sviluppo di software come MATLAB, ma pose anche le basi per l’evoluzione dei benchmark destinati ai supercomputer. Con l’evolversi delle esigenze computazionali, Linpack si trasformò nell’HPL (High Performance Linpack), attualmente utilizzato per stilare la prestigiosa classifica Top500, che evidenzia il continuo progresso nella misurazione della potenza di calcolo.

Il panorama dei benchmark si è ulteriormente arricchito con l’introduzione di strumenti come HPC Challenge e i NAS Parallel Benchmarks. L’era del machine learning ha, infine, visto la nascita di benchmark specifici per il training e l’inferenza, capaci di valutare le prestazioni sia di dispositivi a risorse limitate sia di potenti data center. Questi strumenti sono nati in risposta a precise esigenze operative e di mercato, dimostrando come ciascuna innovazione nel campo del benchmarking risponda a uno stadio evolutivo ben definito della tecnologia.

Avendo tracciato in modo cronologico l’evoluzione dei benchmark, appare naturale approfondire anche i modelli teorici che hanno permesso lo sviluppo di tali tecnologie. In questo contesto, la tassonomia di Flynn è essenziale, in quanto ha gettato le basi per l’architettura parallela moderna e continua a guidare la progettazione dei sistemi informatici odierni.
Data Center

Tassonomia di Flynn e l’Ascesa del SIMT


Per comprendere meglio il funzionamento di CUDA, è utile considerare la Tassonomia di Flynn, un sistema di classificazione delle architetture dei calcolatori proposto da Flynn nel 1966. Questo schema classifica i sistemi di calcolo in base alla molteplicità dei flussi di istruzioni (instruction stream) e dei flussi di dati (data stream) che possono gestire, risultando in quattro categorie principali:

  • SISD (Single Instruction, Single Data): Un computer sequenziale in cui l’unità di elaborazione esegue un’unica istruzione su un singolo flusso di dati in ogni ciclo di clock. Questa architettura, molto datata, era tipica dei vecchi sistemi a CPU singola.
  • SIMD (Single Instruction, Multiple Data): Un tipo di computer parallelo nel quale le unità di elaborazione possono eseguire la stessa istruzione su diversi flussi di dati in ogni ciclo di clock. Architettura impiegata in array di processori e pipeline vettoriali, è utilizzata anche nelle GPU moderne.
  • MISD (Multiple Instruction, Single Data): Diversi processori eseguono istruzioni differenti sullo stesso dato. Questa configurazione è estremamente rara e principalmente teorica.
  • MIMD (Multiple Instruction, Multiple Data): Diverse unità di elaborazione eseguono istruzioni differenti su dati distinti. Questa architettura è utilizzata nei supercomputer più avanzati e nei computer multicore moderni.

Le GPU NVIDIA adottano un modello denominato SIMT (Single Instruction, Multiple Thread), nel quale una singola istruzione viene eseguita da numerosi thread in parallelo. Ciascun thread, però, può seguire un percorso leggermente diverso a seconda dei dati e delle condizioni locali. Questo approccio combina l’efficienza del SIMD con la flessibilità del MIMD, risultando estremamente efficace per risolvere problemi complessi in tempi ridotti.

L’evoluzione degli HPC: Ibridismo ed Eterogeneità


Dalle prime architetture MIMD – con memoria condivisa o distribuita – il calcolo ad alte prestazioni (HPC) ha subito una trasformazione profonda. Oggi, i supercomputer non si basano più su un’unica tipologia architetturale, ma su sistemi sempre più complessi e flessibili. Spesso composti da componenti molto diversi tra loro. Questo approccio, detto eterogeneo, permette di unire più paradigmi di elaborazione in un unico sistema, sfruttando al massimo i punti di forza di ciascun componente.

Un esempio evidente è l’uso combinato di CPU e GPU, che rappresentano due filosofie di calcolo diverse ma complementari. Non a caso, le unità grafiche -un tempo riservate esclusivamente al rendering grafico – oggi sono il fulcro dell’HPC e si trovano persino nei laptop di fascia media, rendendo queste tecnologie accessibili a un pubblico molto più ampio.

Se la tassonomia di Flynn continua a offrire un utile punto di partenza per classificare i modelli di parallelismo (SISD, SIMD, MISD, MIMD), la realtà attuale va oltre: oggi si parla di sistemi ibridi, dove coesistono differenti stili di parallelismo all’interno dello stesso sistema, e di sistemi eterogenei, in cui unità di calcolo con architetture diverse collaborano sinergicamente.

Questa evoluzione ha aperto nuove frontiere in termini di prestazioni, ma ha anche aumentato la complessità nella valutazione e nel benchmarking dei sistemi, rendendo le misurazioni più difficili e meno lineari.

CUDA


Verso la fine degli anni 2000, NVIDIA ha rivoluzionato il calcolo parallelo introducendo CUDA (Compute Unified Device Architecture). Secondo la letteratura scientifica, CUDA è stata lanciata ufficialmente nel 2006, in concomitanza con l’architettura G80, la prima a supportare pienamente questo modello di programmazione general-purpose su GPU.

CUDA ha reso possibile l’impiego delle GPU per compiti di calcolo generale (GPGPU), superando il loro utilizzo tradizionale nel solo rendering grafico. Grazie al supporto per linguaggi ad alto livello come C, C++ e Fortran, ha semplificato significativamente la programmazione parallela per ricercatori e sviluppatori.

Il paradigma CUDA consente di suddividere problemi complessi in migliaia di task paralleli, eseguiti simultaneamente sulle numerose unità di elaborazione delle GPU. Questo approccio ha avuto un impatto profondo in molteplici ambiti, dalle simulazioni scientifiche all’intelligenza artificiale, fino all’analisi massiva dei dati. L’introduzione della serie G80 ha segnato un punto di svolta, consolidando il modello di calcolo unificato su GPU e aprendo la strada a nuove soluzioni hardware e software.

Il successo di CUDA ha in seguito stimolato la nascita di standard aperti come OpenCL, sviluppato dal Khronos Group e rilasciato nel 2008. OpenCL rappresenta un’alternativa cross-platform e cross-vendor per il calcolo parallelo su hardware eterogeneo, inclusi GPU, CPU e FPGA.

Dal punto di vista architetturale, CUDA si basa sul modello di programmazione SIMT (Single Instruction, Multiple Threads), che consente l’esecuzione di una stessa istruzione su migliaia di thread paralleli, ciascuno con dati e percorsi di esecuzione distinti. Un programma CUDA è composto da due sezioni: una che gira sulla CPU (host) e una che viene eseguita sulla GPU (device). La parte parallelizzabile del codice viene lanciata sulla GPU come kernel, una funzione che viene eseguita da un elevato numero di thread secondo il modello SPMD (Single Program, Multiple Data).

GPU CUDA


Le GPU CUDA sono organizzate in array di Streaming Multiprocessors (SM), unità operative che integrano CUDA Core, una memoria condivisa veloce e uno scheduler per gestire e distribuire i task. Questi SM permettono di ottenere elevate prestazioni nel calcolo parallelo, grazie anche a una memoria globale ad alta velocità (GDDR) con ampia banda passante.

CUDA C/C++, estensione dei linguaggi C e C++ realizzata da NVIDIA, consente agli sviluppatori di accedere direttamente alle risorse parallele delle GPU, abbattendo le barriere che tradizionalmente ostacolavano l’adozione della programmazione parallela. Questo ha favorito la crescita delle applicazioni GPGPU ad alte prestazioni in ambito scientifico, industriale e accademico.

In sintesi, CUDA ha segnato un vero cambio di paradigma nel calcolo parallelo, rendendo accessibile a un pubblico più ampio la possibilità di sfruttare la potenza delle GPU per applicazioni general-purpose e aprendo la strada a innovazioni nei settori più avanzati dell’informatica.

Da GPU a GPGPU: Il Potere del Calcolo Parallelo


L’evoluzione delle GPU ha portato alla nascita delle GPGPU (General-Purpose GPU), trasformandole da unità dedicate al rendering grafico in acceleratori di calcolo parallelo complementari alle CPU.

Grazie alla loro architettura con molti core semplici, le GPGPU eccellono nell’elaborazione simultanea di grandi volumi di dati, offrendo vantaggi significativi:

  • Scalabilità: Permettono l’integrazione di un numero elevato di core.
  • Efficienza: Bilanciano il carico di lavoro tra i core in maniera uniforme.
  • Velocità: Accelerano i calcoli ripetitivi e paralleli.

A differenza delle CPU, ottimizzate per gestire compiti complessi con pochi core potenti e una cache veloce, le GPGPU brillano in operazioni ripetitive. La loro struttura, paragonabile a una squadra di numerosi operai che lavorano simultaneamente su un mosaico di dati, consente di completare attività in tempi significativamente ridotti.

Tuttavia, le GPGPU non sostituiscono le CPU, ma le supportano, gestendo compiti paralleli e migliorando l’efficienza complessiva in campi come l’intelligenza artificiale e l’analisi dei dati.

Streaming Multiprocessors: La Fucina del Parallelismo


Gli Streaming Multiprocessors (SM) rappresentano le unità operative fondamentali all’interno di un acceleratore grafico. Ogni SM include i CUDA Core, una sezione di memoria condivisa e uno scheduler dedicato, incaricato di organizzare e distribuire il lavoro tra i core.

A differenza delle CPU, che adottano un’architettura MIMD per gestire compiti eterogenei, le GPU sfruttano gli SM per eseguire in parallelo operazioni ripetitive su grandi insiemi di dati, facendo affidamento su una memoria globale ad alta velocità. Questa organizzazione consente di ottenere un’elevata efficacia computazionale nelle applicazioni di calcolo parallelo, come evidenziato da studi pubblicati su riviste scientifiche certificate, tra cui IEEE e ACM.

Breve Storia dell’Evoluzione della GPU

Dai controller VGA ai processori grafici programmabili


All’inizio dell’era informatica, il concetto stesso di GPU non esisteva. La grafica sui PC era gestita da un semplice controller VGA (Video Graphics Array), un gestore di memoria e generatore di segnale video collegato a una memoria DRAM.

Negli anni ’90, grazie ai progressi nella tecnologia dei semiconduttori, questi controller iniziarono a integrare capacità di accelerazione grafica tridimensionale: hardware dedicato per la preparazione dei triangoli, la rasterizzazione (scomposizione dei triangoli in pixel), il mapping delle texture e lo shading, ovvero l’applicazione di pattern o sfumature di colore.

Con l’inizio degli anni 2000, il processore grafico divenne un chip singolo capace di gestire ogni fase della pipeline grafica, una prerogativa fino ad allora esclusiva delle workstation di fascia alta. A quel punto il dispositivo assunse il nome di GPU, per sottolineare la sua natura di vero e proprio processore specializzato.

Nel tempo, le GPU si sono evolute in acceleratori programmabili massivamente paralleli, dotati di centinaia di core e migliaia di thread, capaci di elaborare non solo grafica ma anche compiti computazionali generici (GPGPU). Sono state inoltre introdotte istruzioni specifiche e hardware dedicato alla gestione della memoria, insieme a strumenti di sviluppo che permettono di programmare queste unità con linguaggi come C e C++, rendendo le GPU veri e propri processori multicore altamente parallelizzati.

In sintesi, l’evoluzione dal Colossus fino alle moderne unità grafiche e architetture ibride racconta un percorso tecnologico dinamico e in continua trasformazione. Queste innovazioni non solo hanno rivoluzionato il modo di elaborare dati, ma stanno anche ridefinendo le possibilità in settori strategici come l’intelligenza artificiale e la cybersicurezza e la crittografia.

Guardando al futuro, è evidente che l’integrazione di paradigmi eterogenei continuerà a guidare lo sviluppo di sistemi sempre più potenti ed efficienti, ponendo sfide avvincenti per ricercatori, ingegneri e sviluppatori di tutto il mondo.

Riferimenti bibliografici:

Lezioni di Calcolo Parallelo, Almerico Murli

CUDA C++ Best Practices Guide

CUDA C Programming, John Cheng

L'articolo La Rivoluzione Parallela: come GPGPU e CUDA spingono i Supercomputer e l’IA proviene da il blog della sicurezza informatica.



Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza


Un gruppo di aggressori informatici ha iniziato a sfruttare la piattaforma Gamma, uno strumento per la creazione di presentazioni basato sull’intelligenza artificiale, in un nuovo attacco di phishing in più fasi. Durante l’attacco, le vittime vengono reindirizzate a una falsa pagina di accesso a Microsoft SharePoint, dove vengono rubate le loro credenziali.

I ricercatori di Abnormal Security segnalato che il file PDF allegato all’e-mail è in realtà un collegamento a una presentazione Gamma camuffata da visualizzatore di documenti protetto. Cliccando sul collegamento, la vittima viene indirizzata a una pagina intermedia che imita un servizio Microsoft ed è protetta dal CAPTCHA di Cloudflare Turnstile. Ciò crea un’apparenza di legittimità e riduce la probabilità di un’analisi di sicurezza automatizzata.

Il passaggio successivo consiste nel reindirizzamento a una pagina di accesso falsa di Microsoft SharePoint, dove gli aggressori utilizzano il meccanismo Adversary-in-the-Middle (AitM) per verificare le credenziali in tempo reale, visualizzando un messaggio di errore se viene inserita una password errata.

Tali attacchi sono noti come Living-off-Trusted-Sites (LoTS) e sfruttano servizi online legittimi per ospitare contenuti dannosi, aggirando così i controlli SPF, DKIM e DMARC. Utilizzando strumenti meno noti come Gamma, gli aggressori eludono i sistemi di rilevamento automatico e ingannano gli utenti. La piattaforma di presentazione diventa non solo un mezzo di mascheramento, ma anche parte di un’intera catena di reindirizzamenti che nascondono il vero scopo dell’attacco.

Gli attacchi di phishing stanno diventando sempre più sofisticati e sfruttano abilmente strumenti legittimi e servizi affidabili per mascherare schemi dannosi. L’incidente di Gamma dimostra che anche tecnologie apparentemente innocue possono essere trasformate in parte di una catena di hacking attentamente progettata.

I meccanismi di difesa concepiti per affrontare minacce semplici sono impotenti contro gli attacchi che si basano sulla fiducia in marchi noti e su percorsi di reindirizzamento complessi. Ciò evidenzia la necessità di una revisione continua degli approcci alla sicurezza informatica e di un maggiore controllo sull’uso non standard dei servizi familiari.

L'articolo Gamma, SharePoint e un PDF camuffato: la truffa è servita con eleganza proviene da il blog della sicurezza informatica.



Intelligenza Integrata: La Magia dell’AI che Svela il Genio della Biologia


Con il rapido evolversi delle minacce informatiche, la cybersecurity deve sviluppare soluzioni sempre più avanzate e resilienti. Un approccio innovativo consiste nella trasformazione e nell’evoluzione dell’intelligenza artificiale verso un’intelligenza ispirata a quella biologica, un modello che applica i principi e i processi della biologia alla sicurezza informatica.

Questo approccio si ispira a meccanismi naturali, come l’adattamento degli organismi viventi, il sistema immunitario e le reti neurali biologiche. Queste ultime, costituite da interconnessioni interneuronali nel cervello e nel sistema nervoso periferico, sono in grado elaborare informazioni, anche sofisticate, attraverso segnali elettrici e neurochimici supportando funzioni fondamentali come apprendimento, memoria ed adattamento.

Negli ultimi anni, grazie all’impiego di modelli neuromorfici come i chip Loihi di Intel si stanno sviluppando architetture hardware che replicano fedelmente il comportamento del cervello umano, potenziando i sistemi di difesa attiva.

L’intelligenza biologica


Questo tipo di intelligenza utilizza l’osservazione e l’imitazione di questi processi per progettare sistemi di difesa informatica più robusti ed efficaci. Grazie alla capacità di adattamento, resilienza e risposta rapida dei meccanismi biologici, è possibile integrare queste dinamiche con le tecnologie avanzate per creare soluzioni capaci di identificare, prevenire e contrastare le minacce emergenti nel cyberspazio, garantendo flessibilità ed efficienza in un contesto in costante evoluzione.

L’intelligenza biologica è la capacità degli organismi viventi di adattarsi, apprendere e rispondere agli stimoli esterni in modo efficace e resiliente.

Applicata alla cybersecurity, questa idea ispira la creazione di sistemi informatici avanzati, in grado di:

Adattamento Dinamico


Proprio come gli organismi viventi si adattano ai cambiamenti ambientali, I sistemi di sicurezza informatica necessitano di una evoluzione continua per fronteggiare costantemente le nuove minacce in modo fattivo.

Oggi, grazie all’uso di modelli di AI generativa, come GPT-4 e Claude, integrati in strumenti SIEM (Security Information and Event Management), si riescono a generare automaticamente piani di risposta agli incidenti adattivi.

Apprendimento Continuo


Così come il cervello umano impiega i sistemi corticali, sottocorticali e limbici per affrontare e gestire le esperienze emotive quotidiane, allo stesso modo la cybersecurity elabora, a velocità straordinarie, dati ed esperienze, sia positive che negative, per adattare ed evolvere costantemente le proprie difese.

Le piattaforme XDR (Extended Detection and Response) ora integrano modelli di reinforcement learning per migliorare la precisione nel rilevamento delle minacce

microsoft.com/it-it/security/b…

Resilienza alle Minacce


Seguendo l’esempio dei sistemi biologici, noti per la loro capacità di resistere, aggiornando la produzione di nuovi anticorpi e rirendersi rapidamente pi efficaci di prima, così le infrastrutture informatiche devono essere progettate per garantire continuità operativa anche in caso di attacchi o malfunzionamenti.

Applicazioni dell’Intelligenza Biologica nella Cybersecurity

Sistemi Immunitari Artificiali (AIS)


Sono modelli ispirati al sistema immunitario umano, creati per rilevare e fermare le minacce informatiche. Un esempio importante è l’algoritmo delle cellule dendritiche (DCA), rilevando e reagendo agli agenti patogeni attivano la risposta immunitaria contro le infezioni. Analogamente il DCA nella cybersecurity offre una protezione attiva e dinamica, individuando e analizzando le anomalie in tempo reale per contrastare intrusioni e attacchi.

Gli Algoritmi Evolutivi


Ispirati alla selezione naturale ed all’evoluzione, sono utilizzati per risolvere problemi complessi attraverso un processo di ottimizzazione. In cybersecurity, questi algoritmi vengono impiegati per creare chiavi crittografiche sicure e firewall adattivi che evolvendosi autonomamente rispondono alle nuove minacce ed agli attacchi.

Recenti studi hanno dimostrato che l’algoritmo “NEAT” (NeuroEvolution of Augmenting Topologies) può ottimizzare dinamicamente la struttura di reti neurali difensive contro ransomware polimorfici.

Biometria Comportamentale


Attraverso l’analisi dei comportamenti distintivi degli utenti, come la velocità di digitazione e i movimenti del mouse, è possibile sviluppare sistemi di autenticazione continua in grado di rilevare accessi non autorizzati. Questi sistemi identificano anomalie confrontando i comportamenti rilevati con i modelli abituali degli utenti, garantendo in tempo reale un avanzato livello di sicurezza.

Uno studio sull’autenticazione continua utilizzando una combinazione di pressione di tasti e biometria del mouse | Neuroinformatica

Vantaggi dell’Approccio Biologico


  • Adattabilità: I sistemi ispirati alla biologia possono modificare le proprie difese in tempo reale, affrontando efficacemente minacce sconosciute o inaspettate.
  • Scalabilità: Come gli ecosistemi naturali, queste soluzioni possono essere implementate su larga scala senza perdere efficacia, adattandosi a infrastrutture di diverse dimensioni e complessità.
  • Resilienza: Ispirandosi alla capacità degli organismi viventi di sopravvivere e prosperare in ambienti ostili, i sistemi di cybersecurity biologicamente ispirati sono progettati per resistere a guasti e attacchi, garantendo una continuità operativa anche in condizioni avverse.


Sfide e Considerazioni


Nonostante i notevoli vantaggi, l’integrazione dell’intelligenza biologica nella cybersecurity solleva alcune problematiche significative che meritano attenzione:

  • Complessità: La strutturazione dei processi biologici richiede una competenza avanzata in molteplici discipline, tra cui biologia, informatica e ingegneria. L’approccio interdisciplinare necessario può risultare difficile da implementare e, talvolta, difficile da coordinare.
  • Risorse Computazionali: Alcuni algoritmi ispirati ai processi biologici possono essere estremamente esigenti in termini di risorse, necessitando di hardware avanzato e comportando tempi di elaborazione lunghi, il che può limitare la loro applicabilità pratica in scenari ad alta richiesta.

L’emergere di hardware quantistico e neuromorfico mira a ridurre questi limiti nel prossimo decennio.

Privacy e Sicurezza dei Dati: L’uso di dati biometrici e comportamentali solleva legittime preoccupazioni in merito alla protezione delle informazioni personali. La gestione di tali dati impone sfide relative alla conformità con le normative sulla privacy e alla garanzia che le informazioni sensibili siano adeguatamente protette contro l’accesso non autorizzato.

Prospettive Future


L’integrazione dell’intelligenza biologica nella cybersecurity sembra destinata a crescere, con sviluppi che potrebbero aprire nuove frontiere, sebbene non senza sollevare alcune perplessità.

  • Sistemi di Auto-Guarigione: Si prevede la creazione di reti informatiche in grado di identificare e correggere autonomamente le proprie vulnerabilità, ispirandosi ai processi di rigenerazione biologica. Resta da valutare se questi sistemi possano davvero gestire in modo efficace e sicuro le complessità e le variabili delle minacce in continua evoluzione.
  • Ecosistemi Digitali Resilienti: La costruzione di infrastrutture che imitano la biodiversità degli ecosistemi naturali per migliorare la resistenza alle minacce cibernetiche potrebbe rappresentare una soluzione interessante. Tuttavia, la realizzazione di tali ecosistemi digitali comporta rischi legati alla loro complessità e alla difficoltà di prevedere tutte le possibili interazioni tra i diversi elementi.
  • Interfacce Uomo-Macchina Evolute: Lo sviluppo di interazioni più naturali ed efficienti tra esseri umani e sistemi informatici, basate sulla comprensione dei processi cognitivi e comportamentali, offre indubbi vantaggi. Tuttavia, la sfida risiede nell’assicurarsi che queste interfacce siano veramente sicure e in grado di rispondere in modo adeguato alla varietà dei comportamenti umani, senza compromettere la privacy o la sicurezza.

L’impiego di BCI (Brain-Computer Interfaces) è già in fase avanzata nei laboratori di Neuralink e Blackrock Neurotech https://neuralink.com

Conclusione


L’approccio biologico alla cybersecurity rappresenta un’interessante prospettiva innovativa per rispondere alle sfide delle minacce informatiche moderne. Ispirandosi ai processi naturali, offre il potenziale per sviluppare sistemi più adattivi, resilienti ed efficaci, capaci di rispondere in modo dinamico alle nuove vulnerabilità.

L’adozione concreta di queste soluzioni dipenderà fortemente dalla collaborazione tra settore pubblico, accademico e industriale, in particolare per bilanciare progresso, etica e sostenibilità. Pertanto, vista la complessità delle interazioni tra biologia ed informatica, emergono numerosi interrogativi su come tradurre i principi biologici in soluzioni tecnologiche applicabili.

Non possiamo sottovalutare le enormi difficoltà nel creare modelli che davvero emulino la complessità dei sistemi biologici, né le sfide etiche e pratiche che tale integrazione impone. Per questo, è fondamentale un impegno costante e multidisciplinare, che unisca esperti di etica, biologia, informatica e sicurezza, per affrontare questi ostacoli e affinare le soluzioni del futuro, garantendo il loro impatto duraturo e positivo.

L'articolo Intelligenza Integrata: La Magia dell’AI che Svela il Genio della Biologia proviene da il blog della sicurezza informatica.



Ti piace giocare da solo? Ubisoft ti tiene ancora d'occhio! Ubisoft obbliga le persone a connettersi a Internet prima di poter giocare in single player mickey24 April 2025


noyb.eu/it/play-alone-ubisoft-…



Ciao @Marco e benvenuto tra noi.
Ti lascio il link a un decalogo su Friendica e sulla nostra istanza

⁂ I dieci comandamenti di Friendica ⁂

Ti lascio anche il link di una guida a Friendica che potrai leggerti con calma 😅

informapirata.it/2024/07/25/w-…


I dieci comandamenti di Friendica. Cosa fare con l’account che abbiamo aperto su Poliverso?

Ecco una sorta di decalogo su Friendica. Ci sono molti link che possono appesantire la lettura, ma speriamo che vi piaccia e soprattutto ci auguriamo che lo troviate utile!

informapirata.it/2025/02/02/i-…

#Fediverse #Fediverso #Friendica

[ap_content




Improved and Open Source: Non-Planar Infill for FDM


Non-planar 3d-print on bed

Strenghtening FDM prints has been discussed in detail over the last years. Solutions and results vary as each one’s desires differ. Now [TenTech] shares his latest improvements on his post-processing script that he first created around January. This script literally bends your G-code to its will – using non-planar, interlocking sine wave deformations in both infill and walls. It’s now open-source, and plugs right into your slicer of choice: PrusaSlicer, OrcaSlicer, or Bambu Studio. If you’re into pushing your print strength past the limits of layer adhesion, but his former solution wasn’t quite the fit for your printer, try this improvement.

Traditional Fused Deposition Modeling (FDM) prints break along layer lines. What makes this script exciting is that it lets you introduce alternating sine wave paths between wall loops, removing clean break points and encouraging interlayer grip. Think of it as organic layer interlocking – without switching to resin or fiber reinforcement. You can tweak amplitude, frequency, and direction per feature. In fact, the deformation even fades between solid layers, allowing smoother transitions. Structural tinkering at its finest, not just a cosmetic gimmick.

This thing comes without needing a custom slicer. No firmware mods. Just Python, a little G-code, and a lot of curious minds. [TenTech] is still looking for real-world strength tests, so if you’ve got a test rig and some engineering curiosity, this is your call to arms.

The script can be found in his Github. View his full video here , get the script and let us know your mileage!

youtube.com/embed/r9YdJhN6jWQ?…


hackaday.com/2025/04/23/improv…



Microsoft collabora con Western Digital per estrarre gli ossidi di terre rare dai dischi rigidi dei data center dismessi

Il progetto ricicla 50.000 libbre di HDD in materiali riutilizzabili ad alta purezza

  • Il riciclaggio senza sostanze chimiche supporta le catene di approvvigionamento statunitensi e riduce i rifiuti in discarica
  • I materiali recuperati supportano le auto elettriche, l'energia eolica e la produzione di elettronica avanzata
  • Un piano di fine vita sostenibile ridefinisce il futuro dello storage nei data center statunitensi

techradar.com/pro/microsoft-te…

@Informatica (Italy e non Italy 😁)



Il giudice limita le prove sui clienti e sulle vittime del gruppo NSO nel processo per danni

Secondo un osservatore, la sentenza colpisce la strategia fondamentale di NSO Group nel caso in questione.

La scorsa settimana un giudice federale ha imposto limiti rigorosi al tipo di prove che NSO Group può presentare durante un processo per danni nella causa intentata da WhatsApp contro il fornitore di spyware per le accuse di aver hackerato 1.400 utenti della piattaforma di messaggistica.

In base all'ordinanza , a NSO Group è vietato presentare prove sull'identità dei propri clienti, insinuando che gli utenti WhatsApp presi di mira siano presunti o veri criminali, o sostenendo che WhatsApp non disponesse di sufficienti misure di sicurezza

cyberscoop.com/whatsapp-nso-gr…

informapirata ⁂ reshared this.



John Fante – Aspetta primavera, Bandini
freezonemagazine.com/rubriche/…
Avanzava, scalciando la neve profonda. Era un uomo disgustato. Si chiamava Svevo Bandini e abitava in quella strada, tre isolati più avanti. Aveva freddo, e le scarpe sfondate. Quella mattina le aveva rattoppate con dei pezzi di cartone di una scatola di pasta. Pasta che non era stata pagata. Ci aveva pensato proprio mentre infilava […]
L'articolo John Fante – Aspetta primavera,


La censura governativa arriva su Bluesky, ma non sulle sue app di terze parti... per ora

All'inizio di questo mese, Bluesky ha limitato l'accesso a 72 account in Turchia su richiesta delle autorità governative turche, secondo un recente rapporto della Freedom of Expression Association . Di conseguenza, gli utenti in Turchia non possono più visualizzare questi account e la loro portata è limitata.

techcrunch.com/2025/04/23/gove…

@Che succede nel Fediverso?

reshared this

in reply to Informa Pirata

Se una tale cosa accadesse nel Poliverso cosa seguirebbe? Se ad esempio Feddit fosse censurato? Dovremmo spostarci su un'altra istanza per continuare a usare Lemmy?
in reply to giorovv

@giorovv alla tua domanda, naturalmente, posso rispondere solo positivamente.
Ma qui il problema è ancora diverso, perché non è "Bluesky" come piattaforma a censurare, ma è l'app ufficiale che censura.

È come se tutti gli utenti Lemmy che usano Jerboa venissero limitati nel vedere i contenuti censurati, ma se usi un'altra app puoi aggirare la censura



#Ucraina, diplomazia nella tempesta


altrenotizie.org/primo-piano/1…


La bomber leyen non molla l'osso. Deve dare i soldi ai suoi amici armaioli e fomentare la guerra.
lindipendente.online/2025/04/2…


Dalla newsletter di Haaretz:

The foreign ministers of Germany, France and Britain called Israel's blocking of aid into Gaza as "intolerable."

Chissà com'è vivere in un paese dove chi governa considera intollerabile bloccare gli aiuti umanitari e far morire di fame, stenti e malattie una popolazione intera.

Mi piacerebbe provarlo un giorno.



L’Academy degli Oscar stende il red carpet all’intelligenza artificiale

L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Quasi due anni fa a Hollywood iniziava uno dei più lunghi scioperi a parte di attori e sceneggiatori che, tra le altre cose, chiedevano tutele rispetto alla comparsa dell'intelligenza

in reply to Informa Pirata

nel giro di una decina d'anni IA avrà sostituito 70% del lavoratori con multinazionali che fattureranno 5 volte più di adesso, a quel punto si dovrà dare per forza un reddito di cittadinanza sostanzioso


Google fa felici i pubblicitari e fa marameo alla privacy sui cookie di terze parti

L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Gli utenti continueranno a lasciare dietro di sé le briciole dei cookie di terze parti durante le navigazioni sul browser Chrome: il dietrofront di Google (che aveva promesso tutt'altro) fa felice chi lavora nella



Esercitazioni anti-drone nell’Indo-Pacifico. I Marines testano il Madis

@Notizie dall'Italia e dal mondo

Durante l’edizione di quest’anno dell’esercitazione militare Balikatan, eseguita congiuntamente dalle forze armate di Washington e di Manila nella regione indo-pacifica, il Corpo dei Marines degli Stati Uniti testerà il Marine Air Defense Integrated System (Madis), uno dei più



non sono così sicura che trump controlli il gioco. ci saranno trombati?


Perché l’Antitrust Ue ha multato Apple e Meta

L'articolo proviene da #StartMag e viene ricondiviso sulla comunità Lemmy @Informatica (Italy e non Italy 😁)
Apple ha ricevuto una multa di 500 milioni di euro e Meta di 200 milioni di euro dall'autorità antitrust dell'Ue che ha imposto le prime sanzioni ai sensi del startmag.it/innovazione/perche…



a volte definire "vecchio dentro" qualcuno è un eufemismo...


Roy Lee used AI to beat challenging technical interviews, now he wants people to do the same thing with every human interaction. We tested the tool and it kinda sucks.#News
#News






Ora il governo chiede di evitare «balli e canti scatenati» per il 25 aprile


Io al corteo del 25 aprile partecipo da anni, è anche un'occasione per vedere gente che non vedo quasi mai. Pranziamo insieme nella solita pizzeria, sfiliamo chiacchierando, poi ci salutiamo e ci diamo appuntamento all'anno prossimo.

Oh... con tutti questi appelli alla sobrietà mi stanno facendo venire voglia di mettermi a ballare nudo per strada!

ilpost.it/2025/04/23/governo-2…



Realizzazione siti web Ferrara


Econgiunzione lancia il nuovo sito

react-based


specifico per la città di Ferrara realizzazionesitiwebferrara.it



📚 Il #23aprile è la Giornata mondiale del libro e del diritto d'autore, evento organizzato dall’UNESCO per promuovere il valore della lettura e l’importanza della protezione della proprietà intellettuale.


NUCLEARE. Ombre sulla trattativa tra Usa e Iran (parte 1)


@Notizie dall'Italia e dal mondo
Teheran cerca un accordo con gli Stati Uniti. Ma le variabili sono molteplici, a cominciare dalle vere intenzioni di Trump che nessuno realmente conosce. Tel Aviv pronta a giocare le sue carte
L'articolo NUCLEARE. Ombre sulla trattativa tra Usa e Iran (parte 1) proviene da Pagine Esteri.



Novecento di Bertolucci batte Salò di Pasolini cinque a due
freezonemagazine.com/rubriche/…
Mesopotamia Padana: quante sono le zone della Bassa comprese fra il letto del Po e un suo affluente? Tante. E tante quelle comprese fra il Po e due affluenti, come quella parte di pianura Padana racchiusa dall‘Adda a Ovest, dall‘Oglio a Est e dal Po a Sud. L‘area dell‘epopea laica in due tempi di “Novecento“ […]
L'articolo Novecento di


GAZA. Oggi altri uccisi e feriti. Raid israeliani su scuola e abitazioni


@Notizie dall'Italia e dal mondo
Secondo le autorità locali e diverse agenzie internazionali, le offensive militari israeliane stanno distruggendo ogni possibilità per la popolazione civile della Striscia
L'articolo GAZA. Oggi altri uccisi e feriti. Raid israeliani su scuola e abitazioni



L’America latina piange Francisco, il papa degli ultimi fra tradizione e innovazione


@Notizie dall'Italia e dal mondo
L’America latina, ora gli rende omaggio: in forme sobrie e autentiche, come hanno fatto i dirigenti cubani, o addolorate, come Lula in Brasile e Maduroin Venezuela, che ha decretato tre giorni di lutto nazionale, celebrando “l’amico dei



L’America latina piange Francisco, il papa degli ultimi fra tradizione e innovazione


@Notizie dall'Italia e dal mondo
L’America latina, ora gli rende omaggio: in forme sobrie e autentiche, come hanno fatto i dirigenti cubani, o addolorate, come Lula in Brasile e Maduroin Venezuela, che ha decretato tre giorni di lutto nazionale, celebrando “l’amico dei



Utilizzo dell'intelligence open source per indagare sulla tratta di esseri umani e il contrabbando di migranti


I trafficanti di esseri umani e contrabbandieri migranti stanno sempre più sfruttando le tecnologie digitali per eseguire i loro crimini con maggiore efficienza e portata. Ma queste stesse tecnologie hanno anche aperto nuove strade per il settore della giustizia penale.
Ogni interazione online lascia infatti una "impronta digitale", e attraverso una sofisticata raccolta e analisi dei dati , gli investigatori possono tracciare meglio l'attività illegale e raccogliere prove digitali critiche.

In che modo i trafficanti e i contrabbandieri usano Internet e i social media?
I criminali sfruttano i social media e le piattaforme online per pubblicizzare i servizi illeciti, le vittime di attrazione, condurre transazioni finanziarie, comunicare con complici, coordinare le operazioni illegali e persino facilitare lo sfruttamento.
Ad esempio, i trafficanti creano annunci di lavoro falsi online per indurre le persone a manodopera forzata, sessuale o di altro tipo di sfruttamento. Hanno creato account falsi e promuovono opportunità di lavoro interessanti rivolte a persone vulnerabili. Alcuni trafficanti contattano in modo proattivo potenziali vittime, offrendo loro posti di lavoro in vari settori. Una volta che la vittima prende l'esca, gli autori usano coercizione, ricatto, manipolazione emotiva.

La tecnologia digitale viene anche utilizzata per perpetrare lo sfruttamento stesso. Sono documentati casi in cui le vittime sono state costrette a commettere crimini online. I contrabbandieri di migranti utilizzano anche gruppi di social media e app di messaggistica per pubblicizzare i loro servizi. Spesso pubblicano foto e video di migranti che raggiungono le loro destinazioni con successo, interpretando la migrazione irregolare come un'opzione praticabile. Tali "campagne di marketing" incoraggiano più persone a intraprendere viaggi pericolosi, molte delle quali si concludono tragicamente nella perdita di vite umane, violenza o sfruttamento.

Cos'è l'analisi dell'intelligence open source?
L'analisi di intelligence open source (#OSINT) prevede la raccolta e l'analisi dei dati accessibili al pubblico da varie fonti per aiutare le indagini. Queste fonti includono siti Web, social media, giornali, database online, siti di e-commerce, blog, forum, piattaforme di messaggistica, portali del governo pubblico e persino il Web profondo e oscuro. I dati raccolti possono includere nomi dell'utente, dettagli del profilo, indirizzi e-mail, immagini e post- dettagli che possono essere raccolti in un modo non invasivo.
Gli analisti di Osint devono garantire che tali dati "grezzi" siano trasformati in intelligence utile e attuabile. Ciò richiede forti competenze per trovare, valutare, verificare e sintetizzare grandi volumi di diverse informazioni, che vengono quindi analizzate per scoprire tendenze, eventi e indizi cruciali relativi a un'indagine, e quindi sostenere il processo decisionale informato nella lotta contro le organizzazioni criminali.
In che modo gli investigatori possono usare Osint per interrompere la tratta e il contrabbando? Anche con solo alcuni frammenti di informazioni, gli investigatori possono ricostruire i modelli di criminalità e identificare le persone coinvolte. Osint consente loro di rilevare siti di reclutamento, scoprire false offerte di lavoro, mappa dei percorsi di contrabbando, tracciare flussi finanziari illeciti e altro ancora.

Ecco alcuni esempi di come Osint viene utilizzato nelle indagini anti-traffico e anti-contrabbando:
Rilevare segni di assunzione del traffico e di contrabbando di pubblicità
Gli investigatori possono monitorare il Web per parole chiave e frasi associate alle attività di traffico e contrabbando. Possono analizzare profili sospetti per post, immagini e altri indicatori che possono suggerire il reclutamento delle vittime o il contrabbando di servizi.
Identificazione degli autori
Sebbene i trafficanti e i contrabbandieri usino spesso profili falsi, Inevitabilmente lasciano tracce reali. I dettagli di contatto come numeri di telefono e indirizzi e -mail - spesso condivisi per le potenziali vittime per contattarsi - possono aiutare a identificare coloro che sono dietro le operazioni illegali.
Costruire il profilo del sospetto
L'esame dell' "impronta online" del sospettato su diverse piattaforme può fornire un quadro più completo delle attività. Collegando più account, gli investigatori possono sviluppare un profilo dettagliato dei criminali e delle loro operazioni.
Ricercando reti criminali più grandi
I trafficanti e i contrabbandieri lavorano raramente da soli. Spesso operano all'interno di vaste organizzazioni criminali che abbracciano più paesi. Esaminando le connessioni online, come elenchi di amici e interazioni digitali, gli investigatori possono comprendere legami con altri criminali e vittime.
Monitoraggio dei flussi finanziari illeciti
Sia la tratta che il contrabbando si impegnano a generare profitti. I fondi acquisiti illegalmente sono spesso riciclati - presentati come legittimi - per nascondere la loro origine. Analizzando i siti Web delle società, i registri pubblici, i dettagli di contatto e gli indirizzi, gli investigatori possono individuare strutture aziendali sospette e rilevare attività di riciclaggio di denaro.

@Attualità




#USA, la giungla del Pentagono


altrenotizie.org/primo-piano/1…


Dopo la morte di Papa #Francesco , lunedì 21 aprile, le #ambasciate israeliane in tutto il mondo avevano postato su X un messaggio di #cordoglio per la morte di Papa Francesco. Il messaggio ufficiale era il seguente: "Riposa in pace, papa Francesco. Che la sua memoria sia una benedizione".

A poche ora dalla pubblicazione, il Ministero degli Esteri di #israele ha dato ordine a tutte le ambasciate di cancellare il post. Il ministero ha infatti emesso una direttiva che ordinava a tutte le missioni diplomatiche israeliane di cancellare qualsiasi post relativo alla morte del #Papa , senza fornire alcuna spiegazione. Agli ambasciatori è stato successivamente intimato di non firmare libri di #condoglianze presso le ambasciate vaticane in tutto il mondo.

facebook.com/share/16FwBVBMks/

art. completo:
it.insideover.com/nazionalismi…

#vaticano #genocidio #gaza #lutto #papafrancesco #bergoglio



Sono peggio dei nazisti.


Dopo la morte di Papa Francesco, lunedì 21 aprile, le ambasciate israeliane in tutto il mondo avevano postato su X un messaggio di cordoglio per la morte di Papa Francesco. Il messaggio ufficiale era il seguente: "Riposa in pace, papa Francesco. Che la sua memoria sia una benedizione".

A poche ora dalla pubblicazione, il Ministero degli Esteri di Israele ha dato ordine a tutte le ambasciate di cancellare il post. Il ministero ha infatti emesso una direttiva che ordinava a tutte le missioni diplomatiche israeliane di cancellare qualsiasi post relativo alla morte del Papa, senza fornire alcuna spiegazione. Agli ambasciatori è stato successivamente intimato di non firmare libri di condoglianze presso le ambasciate vaticane in tutto il mondo.

it.insideover.com/nazionalismi…

🔴 Per ricevere tutti gli aggiornamenti segui Giorgio Bianchi Photojournalist



A slow news week in the fediverse, with some new research papers on Mastodon and more.


Fediverse Report – #113

When FediForum got cancelled a few weeks ago, I heard from multiple participants that they were planning to showcasing some new features or products that they’ve been working on. The sudden last-minute cancellation has caused uncertainty on how to proceed, and there has not been a new date set for FediForum (nor is it clear in what format it will continue, if any). However, by and large participants have decided not to showcase or present their work outside of FediForum. This shows the influential role that FediForum plays in the fediverse development ecosystem. It is important avenue for developers to showcase their work to the rest of the developer community, with no clear replacement for it. As such, the news for the fediverse is especially slow this week.

The News


Two papers on the fediverse came out recently: Labour pains: Content moderation challenges in Mastodon growth talks about the challenges that moderators face on fediverse instances. Leading the Mastodon Herd: Analysing the Traits of Influential Leaders on a Decentralised Social Media Platform finds a relation between negative sentiment and influence on the network.

That’s all for this week, thanks for reading! You can subscribe to my newsletter to get all my weekly updates via email, which gets you some interesting extra analysis as a bonus, that is not posted here on the website. You can subscribe below:

#fediverse

fediversereport.com/fediverse-…