Salta al contenuto principale


Lancelot: il sistema di apprendimento AI federato e sicuro


Un team di ricercatori di Hong Kong ha reso pubblico un sistema denominato Lancelot, che rappresenta la prima realizzazione pratica di apprendimento federato, risultando al contempo protetto da attacchi di manomissione dei dati e da violazioni della riservatezza.

L’apprendimento federato consente a più partecipanti (client) di addestrare congiuntamente un modello senza rivelare i dati di origine. Questo approccio è particolarmente importante in medicina e finanza, dove le informazioni personali sono strettamente regolamentate.

Tuttavia, questi sistemi sono vulnerabili al data poisoning : un aggressore può caricare aggiornamenti falsi e distorcere i risultati. I metodi di apprendimento federato hanno parzialmente risolto questo problema scartando gli aggiornamenti sospetti, ma non hanno protetto dal possibile recupero di dati crittografati dalla memoria della rete neurale.

Il team ha deciso di combinare sicurezza crittografica e resistenza agli attacchi. Lancelot utilizza la crittografia completamente omomorfica per garantire che tutti gli aggiornamenti del modello locale rimangano crittografati end-to-end.

Il sistema seleziona inoltre gli aggiornamenti client attendibili senza rivelare chi è attendibile. Ciò è possibile grazie a uno speciale meccanismo di “ordinamento mascherato”: un centro chiavi attendibile riceve i dati crittografati, ordina i client in base al livello di attendibilità e restituisce al server solo un elenco crittografato, oscurando i partecipanti alla formazione. In questo modo, il server aggrega solo i dati verificati senza rivelarne l’origine.

Per velocizzare i calcoli, gli sviluppatori hanno implementato due tecniche di ottimizzazione. La “rilinearizzazione lazy” posticipa i costosi passaggi crittografici alla fase finale, riducendo il carico sulla CPU. Il metodo “Dynamic hoisting” raggruppa le operazioni ripetitive e le esegue in parallelo, anche sulle GPU, riducendo significativamente i tempi di addestramento complessivi.

Il risultato è una soluzione che affronta due vulnerabilità dell’apprendimento federato: è resiliente agli attacchi di malintenzionati e al contempo garantisce la completa riservatezza dei dati. I test hanno dimostrato che Lancelot non solo previene fughe di dati e sabotaggi, ma riduce anche significativamente i tempi di addestramento dei modelli ottimizzando le operazioni crittografiche e sfruttando le GPU.

I ricercatori intendono espandere l’architettura Lancelot, rendendola adatta a scenari su larga scala. Le potenziali applicazioni includono l’addestramento di sistemi di intelligenza artificiale in ospedali, banche e altre organizzazioni che gestiscono dati sensibili. Il team sta attualmente testando nuove versioni con supporto per chiavi distribuite (CKKS a soglia e multi-chiave), integrazione di metodi di privacy differenziale e aggregazione asincrona, che consentiranno al sistema di funzionare in modo affidabile anche con connessioni di rete instabili e un’ampia varietà di dispositivi client.

L'articolo Lancelot: il sistema di apprendimento AI federato e sicuro proviene da Red Hot Cyber.