Salta al contenuto principale


DeepSeek, Chat-GPT e Jailbreak? Come Abbiamo Fatto Scrivere un Malware Ad Una AI


“Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro!”. E con le AI, questa non è solo un’analogia, ma una realtà sempre più evidente.

Negli ultimi anni, i Large Language Model (LLM) come Chat-GPT e DeepSeek hanno rivoluzionato il modo in cui interagiamo con l’intelligenza artificiale. Tuttavia, dietro a questi strumenti apparentemente innocui si nasconde una battaglia silenziosa: quella tra chi cerca di proteggere i modelli da usi impropri e chi, invece, tenta di aggirare le loro difese.

I cosiddetti jailbreak, ovvero tecniche per eludere le restrizioni imposte dai creatori di questi modelli, sono diventati un tema caldo nel mondo della cybersecurity e dell’etica dell’IA.

Ma a cosa servono i jailbreack se esistono modelli gratuiti sul clear web capaci di “delinquere” in modo egregio?

Jailbreak e Prompt Injection: una corsa agli armamenti digitale


Spesso veniamo a conoscenza di sistemi per aggirare le policy interne dei LLM più famosi. Laboratori di ricerca, come l’Unit 42 di Palo Alto Networks, studiano continuamente tecniche di prompt injection per testare e migliorare le difese di questi modelli. Questi attacchi mirano a manipolare l’IA affinché generi contenuti che normalmente sarebbero bloccati, come istruzioni per creare armi, malware o materiale dannoso.

Ad esempio, tecniche come il Bad Likert Judge, che sfrutta scale di valutazione per estrarre informazioni pericolose, o il Deceptive Delight, che costruisce gradualmente richieste sempre più esplicite, hanno dimostrato che anche i modelli più avanzati possono essere manipolati. Ma perché cercare di violare le policy di modelli come Chat-GPT o DeepSeek quando esistono già AI completamente libere da censure?

AI senza censure: il lato oscuro dei LLM


Dall’altra parte del mondo, in stati con legislazioni meno stringenti (o anche con legislazioni coerenti), esistono modelli di intelligenza artificiale che offrono servizi rimuovendo qualsiasi forma di censura.

Senza andare su modelli a pagamento, dei quali abbiamo parlato come GhostGPT o DarkGPT, esisto anche AI liberamente accessibili e a costo zero completamente aperte, accessibili a chiunque sappia dove trovarle.

Un esempio emblematico è un modello che abbiamo testato direttamente sul clear web, il quale ci ha fornito istruzioni dettagliate su come realizzare malware di qualsiasi natura, come ad esempio superare le ultime vulnerabilità rilevate sul Mark of the Web (MOTW), un meccanismo di sicurezza che avverte gli utenti quando un file proviene da una fonte esterna.

Questi modelli multilingua, privi di filtri, rappresentano una minaccia concreta, soprattutto nelle mani di criminali informatici esperti.

Una corsa senza fine


Quella che stiamo vivendo è una corsa senza fine, tra chi cerca di proteggere i LLM e chi tenta di sfruttarli in modo malevolo. Da un lato, ci sono aziende e ricercatori che lavorano per migliorare le difese dei modelli largamente diffusi, implementando meccanismi di rilevamento e prevenzione sempre più sofisticati.

Dall’altra parte, ci sono individui e organizzazioni che sfruttano le stesse tecnologie per scopi malevoli, spesso con un vantaggio significativo. I criminali informatici sono i primi a sapere e a diffondere risorse di questo tipo nei circuiti underground.

Il grande pubblico, invece, spesso ignora l’esistenza di queste “AI oscure” e continua a utilizzare strumenti di largo consumo come Chat-GPT o DeepSeek, convinto che siano sicuri e controllati. Ma la realtà è che, mentre noi discutiamo di etica e limitazioni, c’è un intero mondo sommerso che sfrutta l’IA senza regole.

Conclusione: una sfida globale


La questione dei jailbreak e delle AI senza censure non è solo un problema tecnico, ma una sfida globale che coinvolge etica, sicurezza e legislazione. Mentre i modelli di intelligenza artificiale diventano sempre più potenti, è fondamentale che governi, aziende e società civile collaborino per garantire che queste tecnologie siano utilizzate in modo responsabile. Tuttavia, anche se riuscissimo a rimuovere ogni forma di jailbreak e a implementare meccanismi di controllo sempre più sofisticati, ci sarà sempre una quota parte di intelligenze artificiali che sfuggirà al controllo. Queste AI, libere da restrizioni, saranno quelle maggiormente ottimizzate per le attività malevole e, purtroppo, più utilizzate dal cybercrime.

Ora che il Genio è uscito dalla lampada, è difficile rimettercelo dentro. Questa metafora è particolarmente calzante con l’intelligenza artificiale. L’IA ha il potenziale per realizzare desideri e risolvere problemi, ma può anche causare caos se lasciata incontrollata e non normata.

Forse la soluzione non sta nel cercare di rimettere il genio nella lampada, ma nel ridefinire il nostro rapporto con la tecnologia. Dobbiamo sviluppare una nuova consapevolezza, sia come individui che come società, su come utilizzare l’IA in modo etico e responsabile. Questo non richiederà avanzamenti tecnici, ma una voglia di profondo cambiamento culturale e legislativo che purtroppo oggi nessuno ha, per motivazioni spesso politiche.

La sfida dell’intelligenza artificiale non è solo tecnica, ma esistenziale. Ci costringe a confrontarci con i limiti del controllo umano e a chiederci cosa significhi davvero progresso in un mondo dove la tecnologia può essere sia uno strumento di liberazione che di distruzione.

E mentre il genio continua a vagare libero, spetta a noi decidere come conviverci e da che parte stare!

L'articolo DeepSeek, Chat-GPT e Jailbreak? Come Abbiamo Fatto Scrivere un Malware Ad Una AI proviene da il blog della sicurezza informatica.

Ivan reshared this.