Salta al contenuto principale


RisingAttacK: Quando con un exploit l’intelligenza artificiale diventa cieca


I ricercatori dell’Università della Carolina del Nord hanno sviluppato un nuovo metodo per ingannare i sistemi di intelligenza artificiale che analizzano le immagini. Il metodo, chiamato RisingAttacK, può indurre l’IA a “non vedere” oggetti chiaramente presenti in una fotografia. L’essenza della tecnologia risiede in cambiamenti nell’immagine impercettibili all’occhio umano. Due immagini possono sembrare perfettamente identiche, ma l’IA vedrà l’auto solo in una delle due e non nella seconda. Allo stesso tempo, una persona vedrà facilmente l’auto in entrambe le foto.

Tali attacchi potrebbero rappresentare gravi rischi per la sicurezza nelle aree in cui vengono utilizzati sistemi di visione artificiale . Ad esempio, gli aggressori potrebbero impedire a un’auto a guida autonoma di riconoscere semafori, pedoni o altre auto sulla strada. Tali influenze in campo medico non sono meno pericolose. Gli hacker possono iniettare codice in un apparecchio a raggi X , il che porterebbe a diagnosi imprecise da parte di un sistema di intelligenza artificiale. Anche le tecnologie di sicurezza basate sul riconoscimento automatico di pattern sono a rischio.

RisingAttacK funziona in diverse fasi. Innanzitutto, il programma identifica tutte le caratteristiche visive dell’immagine, quindi determina quali di esse sono più importanti per raggiungere l’obiettivo dell’attacco. Questo richiede potenza di calcolo, ma consente modifiche molto precise e minime. “Volevamo trovare un modo efficace per hackerare i sistemi di visione artificiale perché vengono spesso utilizzati in contesti che possono avere un impatto sulla salute e la sicurezza umana”, spiega Tianfu Wu, uno degli autori dello studio.

Gli sviluppatori hanno testato il loro metodo con quattro dei programmi di visione artificiale più comuni: ResNet-50, DenseNet-121, ViTB e DEiT-B. La tecnologia si è dimostrata efficace su tutti i sistemi, senza eccezioni. I ricercatori sottolineano l’importanza di identificare tali vulnerabilità. Solo conoscendo l’esistenza di una minaccia è possibile sviluppare una protezione affidabile contro di essa. Pertanto, il team sta già lavorando alla creazione di metodi per contrastare tali attacchi .

I ricercatori stanno ora esplorando la possibilità di utilizzare RisingAttacK contro altri tipi di sistemi di intelligenza artificiale, compresi i grandi modelli linguistici, per comprendere la portata completa delle potenziali minacce .

L'articolo RisingAttacK: Quando con un exploit l’intelligenza artificiale diventa cieca proviene da il blog della sicurezza informatica.