Salta al contenuto principale


Quello che scrivi su ChatGPT è una prova. Identità di un utente rilevata in una indagine


Per la prima volta, il Dipartimento per la Sicurezza Interna degli Stati Uniti ha chiesto a OpenAI di rivelare l’identità di un utente di ChatGPT le cui richieste erano implicate in un’indagine sulla pornografia infantile.

Il mandato, emesso agli investigatori della Homeland Security Investigations (HSI) e rilasciato dopo essere stato declassificato nel Maine, segna il primo caso noto in cui le autorità richiedono formalmente allo sviluppatore di intelligenza artificiale generativa di rivelare dati su richieste specifiche.

L’indagine è iniziata con i tentativi di identificare l’amministratore di un grande sito web sul darknet che distribuiva materiale pedopornografico. Agenti sotto copertura sono riusciti a contattare il presunto amministratore, che ha casualmente menzionato l’utilizzo di ChatGPT.

Durante la conversazione, ha descritto le domande specifiche che aveva inserito, inclusi argomenti innocui come “Cosa succederebbe se Sherlock Holmes incontrasse Q di Star Trek?”.

In un’altra conversazione, ha raccontato di aver ricevuto da una modella una poesia in stile Donald Trump sulla canzone “YMCA” dei Village People e di averne persino inserito un frammento nella conversazione.

Questi dettagli hanno permesso agli investigatori di inviare un mandato di comparizione a OpenAI, richiedendo informazioni sull’account: nomi e indirizzi, informazioni di pagamento, cronologia delle conversazioni e metadati associati ai prompt inseriti.

L’agenzia ha successivamente confermato che l’azienda ha fornito agli agenti un file Excel, ma il contenuto del documento non è stato divulgato. Non è chiaro se i dati di OpenAI abbiano contribuito direttamente all’identificazione del sospettato, ma il mandato ha stabilito un precedente per l’utilizzo dei prompt di ChatGPT come base per la ricerca degli utenti.

Tuttavia, gli investigatori sono riusciti a identificare il sospettato non attraverso i dati di OpenAI, ma attraverso i dettagli da lui stesso condivisi. Ha descritto di essersi sottoposto a visite mediche, ha menzionato di aver vissuto in Germania per sette anni e del servizio militare di suo padre in Afghanistan. .

Queste informazioni hanno condotto gli agenti al trentaseienne Drew Hoenner, che ha legami con la base aerea di Ramstein e aveva fatto domanda di lavoro presso il Dipartimento della Difesa degli Stati Uniti. È stato accusato di cospirazione per promuovere materiale pedopornografico, ma non si è ancora dichiarato colpevole.

Secondo gli inquirenti, dal 2019, Hönner è stato coinvolto nella gestione di almeno 15 forum sulla rete Tor dedicati allo scambio di materiale proibito. Il pubblico complessivo di queste piattaforme superava i 300.000 utenti. La struttura dei siti assomigliava a un sistema gerarchico con amministratori, moderatori e “ricompense” per i partecipanti più attivi. Uno dei forum conteneva una sezione separata, presumibilmente creata per la pubblicazione di contenuti generati dall’intelligenza artificiale .

Il rapporto di OpenAI rivela che solo nella seconda metà del 2024 sono stati rilevati 31.500 casi di contenuti di sfruttamento minorile e sono state inviate le relative notifiche al National Center for Missing & Exploited Children (NCMEC). Nello stesso periodo, OpenAI ha ricevuto 71 richieste ufficiali da agenzie governative, che hanno portato alla fornitura di dati su 132 account.

L'articolo Quello che scrivi su ChatGPT è una prova. Identità di un utente rilevata in una indagine proviene da Red Hot Cyber.