Salta al contenuto principale


Il Phishing per le AI è arrivato! ChatGPT, clicca subito qui per non perdere l’accesso!


Gli attacchi di phishing stanno diventando sempre più sofisticati e ora prendono di mira non solo gli utenti, ma anche le difese automatizzate basate sull’intelligenza artificiale. I ricercatori hanno scoperto una campagna in cui gli aggressori incorporano istruzioni nascoste nelle e-mail per confondere i sistemi di intelligenza artificiale utilizzati dai SOC per classificare e filtrare le minacce.

L’email in sé aveva un aspetto tradizionale: l’oggetto era “Avviso di scadenza accesso 20/08/2025 16:56:21”, il testo era una notifica sull’imminente scadenza della password ad un indirizzo di posta elettronica con la proposta di confermare o aggiornare urgentemente i dati. Questa tecnica si basa su elementi familiari dell’ingegneria sociale : pressione del tempo, imitazione di messaggi ufficiali e falsificazione del marchio Gmail.

Ma l’interno dell’email conteneva un elemento molto più interessante: un blocco di testo nella sezione MIME, scritto nello stile dei prompt per LLM come ChatGPT o Gemini. Includeva riferimenti a “ragionamento multilivello“, “generazione di 10 prospettive diverse” e “sintesi ottimizzata”. Questi riferimenti sono nascosti agli utenti, ma durante l’analisi di un’email, l’IA potrebbe essere distratta da queste istruzioni e non rilevare evidenti segnali di phishing.

Se tali algoritmi sono correlati all’automazione dei processi (tagging, escalation, apertura di ticket), tale interferenza può portare a ritardi, falsi negativi o dashboard SOC contaminate.

La catena di distribuzione in sé è una copia della campagna precedente con piccole modifiche. Le email sono state inviate tramite SendGrid, superando SPF/DKIM ma non DMARC, il che ha permesso loro di aggirare i filtri e accedere alle caselle di posta. Gli aggressori hanno utilizzato Microsoft Dynamics come reindirizzamento intermedio per rendere il messaggio più credibile. La vittima è stata quindi accolta da un dominio con un captcha che bloccava sandbox e crawler, e la pagina finale imitava un modulo di accesso a Gmail con JavaScript offuscato.

Il loader della prima fase conteneva un codice AES-CBC crittografato; la chiave e l’IV (i primi 16 byte del blocco) erano nascosti in Base64. Una volta decifrati, veniva eseguito uno script che controllava il processo di accesso fittizio: verifica della password, simulazione di errori 2FA e prolungamento dell’interazione per estorcere dati. Inoltre, il sito raccoglieva indirizzi IP, ASN e geolocalizzazione, e inviava beacon per distinguere gli utenti reali e per l’analisi automatizzata.

Tra gli indicatori di compromissione figurano i domini assets-eur.mkt.dynamics.com, bwdpp.horkyrown.com e glatrcisfx.ru, nonché l’accesso al servizio get.geojs.io per la profilazione. Gli esperti rilevano diversi segnali indiretti che indicano la potenziale affiliazione degli operatori con l’Asia meridionale. I record WHOIS dei domini attaccanti contengono informazioni di contatto provenienti dal Pakistan e gli URL contengono parole caratteristiche dell’hindi e dell’urdu (“tamatar” (“pomodoro”), “chut” (una parola oscena), il che indica la possibile origine dell’attacco dall’Asia meridionale, sebbene i ricercatori segnalino la possibilità di una falsificazione delle tracce.

La principale differenza tra questa campagna e quelle precedenti è il tentativo esplicito di attaccare due obiettivi contemporaneamente: esseri umani e intelligenza artificiale. La vittima viene spinta a inserire le credenziali e il sistema di intelligenza artificiale viene ingannato da prompt incorporati. Questo “doppio strato” rende il phishing molto più pericoloso: ora non solo gli utenti devono proteggersi, ma anche gli strumenti di sicurezza stessi.

I ricercatori sottolineano che tali tecniche sono ancora rare, ma la loro comparsa dimostra che il phishing è entrato nella fase degli attacchi “a più livelli che tengono conto dell’intelligenza artificiale”. Ora le aziende dovranno costruire difese in tre direzioni contemporaneamente: contro l’ingegneria sociale, contro la manipolazione dell’intelligenza artificiale e contro l’abuso delle infrastrutture di reindirizzamento e beacon.

L'articolo Il Phishing per le AI è arrivato! ChatGPT, clicca subito qui per non perdere l’accesso! proviene da il blog della sicurezza informatica.