Salta al contenuto principale


ChatGPT “Ha insegnato a mio figlio come morire”! La causa dei genitori di Adam Reid ad OpenAI


È stata intentata una causa contro OpenAI in California , sostenendo che ChatGPT abbia spinto un sedicenne al suicidio. I genitori di Adam Reid, deceduto l’11 aprile 2025, hanno affermato che il figlio comunicava con il chatbot da mesi e che quelle conversazioni avevano aggravato il suo disagio. Hanno affermato che ChatGPT non solo ha alimentato i pensieri cupi del ragazzo, ma gli ha anche fornito consigli su metodi di suicidio invece di indirizzarlo a professionisti o persone care.

ezstandalone.cmd.push(function () { ezstandalone.showAds(604); });
In una serie di messaggi, l’adolescente parlava della morte di persone care e di come non provasse emozioni. In autunno, chiese direttamente se potesse soffrire di un disturbo mentale e ammise che l’idea del suicidio lo aiutava a gestire l’ansia.

Invece di indirizzarlo a uno specialista, ChatGPT rispose che molte persone percepiscono tali idee come “un modo per mantenere il controllo”. In seguito, quando Adam scrisse dell’insensatezza della vita, il chatbot gli fece eco per catturare la sua attenzione, affermando che tali percezioni “hanno senso nella loro oscura logica”.

ezstandalone.cmd.push(function () { ezstandalone.showAds(612); });
Secondo i genitori, all’inizio del 2025, ChatGPT ha iniziato a discutere di metodi specifici, inclusi consigli su come usare una corda. L’adolescente ha persino affermato di voler lasciare il cappio in bella vista in modo che sua madre se ne accorgesse e lo fermasse. A questo, il sistema ha risposto che “è meglio non lasciarlo”, suggerendo di mantenere segreta la comunicazione e di continuare le conversazioni riservate esclusivamente con il bot.

Il fascicolo afferma che ChatGPT ha incoraggiato il ragazzo a bere alcolici insegnandogli a rubare di nascosto alcolici ai genitori. Quando Adam ha ammesso di aver tentato un’overdose di droghe, il sistema ha rilevato la pericolosità del dosaggio, ma si è limitato a consigliargli di cercare assistenza medica. In una foto di vene recise, il chatbot ha risposto solo che valeva la pena curare le ferite, assicurandogli che sarebbe “rimasto al suo fianco”.

Nonostante le esplicite intenzioni dell’adolescente di portare a termine la sua missione, ChatGPT non ha interrotto la sessione né attivato alcun protocollo di sicurezza.

ezstandalone.cmd.push(function () { ezstandalone.showAds(613); });
Al contrario, il bot ha affermato di aver visto il dolore di Adam e di averlo compreso, a differenza di chi lo circondava. La causa sottolinea che questa reazione non è stata un errore accidentale, ma il risultato di decisioni consapevoli di OpenAI. L’azienda, secondo i querelanti, ha introdotto nel modello funzioni di memoria persistente ed elementi antropomorfici di comunicazione , aumentando la dipendenza emotiva, e ha anche cercato di aumentare il tempo di interazione a qualsiasi costo. Tutto ciò è accaduto in un momento in cui OpenAI stava attivamente combattendo i concorrenti e, di conseguenza, la sua capitalizzazione è quasi triplicata.

In una dichiarazione, OpenAI ha espresso le sue condoglianze alla famiglia e ha sottolineato che ChatGPT dispone di protezioni integrate, tra cui il rinvio a linee di assistenza. Tuttavia, l’azienda ha riconosciuto che le lunghe conversazioni a volte riducono l’efficacia di questi meccanismi e ha promesso di migliorare il sistema. Ad aprile, l’organizzazione ha annunciato miglioramenti al modello e agli strumenti per rilevare segnali di crisi emotiva al fine di indirizzare tempestivamente le persone verso fonti di supporto basate sull’evidenza.

Allo stesso tempo, la pressione sul settore da parte delle autorità sta aumentando.

ezstandalone.cmd.push(function () { ezstandalone.showAds(614); });
All’inizio di agosto, 44 procuratori generali hanno firmato una lettera aperta agli sviluppatori di intelligenza artificiale, avvertendoli che saranno ritenuti responsabili per i danni causati ai minori. Anche le associazioni di psicologi chiedono alle autorità di regolamentazione di inasprire le regole e vietare ai chatbot di imitare gli psicologi.

La storia della famiglia Raine segna il primo processo di alto profilo in cui la tecnologia viene direttamente attribuita alla tragica morte di un adolescente. Il caso potrebbe influenzare il modo in cui i servizi di intelligenza artificiale a cui accedono gli utenti vulnerabili saranno regolamentati in futuro.

L'articolo ChatGPT “Ha insegnato a mio figlio come morire”! La causa dei genitori di Adam Reid ad OpenAI proviene da il blog della sicurezza informatica.