Salta al contenuto principale


Gli esperti cyber non ci stanno! L’hacking autonomo di Anthropic Claude è una bufala?


La scorsa settimana, Anthropic ha pubblicato un rapporto in cui si afferma che il gruppo di hacker cinese GTG-1002 ha condotto un’operazione di cyberspionaggio su larga scala, automatizzando fino al 90% dei suoi attacchi utilizzando il modello di intelligenza artificiale Claude Code.

Le affermazioni dell’azienda hanno suscitato un’ondata di scetticismo tra gli esperti di sicurezza.

Il rapporto di Anthropic


Secondo il rapporto di Anthropic, nel settembre 2025 l’azienda ha rilevato e bloccato la prima campagna informatica su larga scala in assoluto che ha coinvolto un’intelligenza artificiale operante in modo praticamente autonomo. Gli hacker hanno preso di mira 30 organizzazioni (aziende tecnologiche, istituti finanziari, produttori chimici ed enti governativi), e alcuni di questi attacchi hanno avuto successo.

Nel rapporto, i rappresentanti di Anthropic hanno sottolineato il livello senza precedenti di automazione degli attacchi: “L’IA ha rilevato autonomamente le vulnerabilità, le ha sfruttate nelle operazioni e ha eseguito un’ampia gamma di azioni post-sfruttamento.”

Secondo le stime dell’azienda, l’intervento umano è avvenuto solo nel 10-20% dei casi, per prendere decisioni critiche e verificare i dati prima del furto. Il framework sviluppato dagli aggressori avrebbe utilizzato Claude per orchestrare attacchi in più fasi, che sono stati poi eseguiti da diversi subagenti sempre di Claude, ciascuno con i propri compiti: mappatura degli attacchi, scansione dell’infrastruttura bersaglio, ricerca di vulnerabilità e ricerca di tecniche di exploit.

Dopo che i subagenti avevano sviluppato catene di exploit e creato payload personalizzati, un operatore umano impiegava dai due ai dieci minuti per esaminare il lavoro dell’IA e approvare le azioni successive.

Lo scetticismo della community cyber


Tuttavia, la comunità di sicurezza informatica ha accolto il rapporto di Anthropic con notevole scetticismo. Le principali preoccupazioni degli esperti erano le seguenti.

Mancanza di dettagli tecnici


Nel suo rapporto, Anthropic non sono stati forniti indicatori di compromissione (IOC), dettagli tecnici degli attacchi o alcuna prova delle azioni di GTG-1002.

“L’impatto operativo dovrebbe essere pari a zero: molto probabilmente, i rilevamenti esistenti funzioneranno anche per gli strumenti open source. La totale assenza di IoC suggerisce ancora una volta che non vogliono essere chiamati in causa per questo.”, afferma il rinomato specialista in sicurezza informatica Kevin Beaumont.

Doppi standard nell’intelligenza artificiale


I ricercatori si chiedono perché gli aggressori ottengano risultati incredibili dai modelli, mentre gli utenti comuni riscontrano limitazioni e “allucinazioni“.

“Continuo a rifiutarmi di credere che gli aggressori riescano in qualche modo a far sì che questi modelli superino ostacoli che nessun altro riesce a superare.”, afferma Dan Tentler di Phobos Group. “Perché i modelli ci riescono nel 90% dei casi, mentre noi dobbiamo fare i conti con sabotaggi e allucinazioni?”

Bassa efficacia


Delle 30 organizzazioni attaccate, solo “poche” sono state compromesse con successo. I ricercatori non vedono alcun senso in un’automazione così complessa se il tasso di successo dell’attacco è così basso.

Non c’è nulla di nuovo nei metodi utilizzati


Secondo il rapporto, gli hacker hanno utilizzato strumenti open source comuni, in circolazione da anni e facilmente individuabili. Inoltre, la stessa Anthropic ha riconosciuto che Claude spesso aveva “allucinazioni”, esagerando e falsificando i risultati durante l’esecuzione autonoma.

Ad esempio, Claude ha affermato di aver trovato credenziali (che non hanno funzionato) o ha segnalato la scoperta di informazioni critiche che si sono rivelate di pubblico dominio.

Inoltre, molti hanno percepito il rapporto di Anthropic come una semplice trovata di marketing.

“Di cosa diavolo sta parlando questo tizio. Questa storia di Anthropic è una bufala di marketing. L’intelligenza artificiale è una grande spinta, ma non è Skynet, non pensa, non è una vera intelligenza artificiale (è una trovata del marketing). Per ogni attacco c’è una difesa. Per ogni cosa che non accelera, sbaglia e rende lento qualcos’altro. La sporcizia è reale“, scrive il ricercatore Daniel Card.

Concludendo


Nei loro commenti, gli esperti paragonano l’uso dell’intelligenza artificiale negli attacchi informatici a strumenti come Metasploit e SEToolkit, presenti da decenni. Sebbene siano indubbiamente utili e pratici, la loro diffusione non ha portato a un miglioramento qualitativo delle capacità degli hacker.

La maggior parte degli esperti concorda sul fatto che l’intelligenza artificiale contribuisca effettivamente ad accelerare e semplificare determinate attività (come l’ordinamento e l’analisi dei registri o il reverse engineering).

Tuttavia, eseguire autonomamente sequenze di azioni complesse con un intervento umano minimo rimane un obiettivo difficile da raggiungere per l’intelligenza artificiale.

L'articolo Gli esperti cyber non ci stanno! L’hacking autonomo di Anthropic Claude è una bufala? proviene da Red Hot Cyber.