Salta al contenuto principale

Macferret ha ricondiviso questo.


ChatGPT accusa un uomo di un crimine inesistente e viola il GDPR: il caso esplode in tribunale!


Il norvegese Arve Hjalmar Holmen è rimasto scioccato da un messaggio di ChatGPT in cui l’intelligenza artificiale lo accusava ingiustamente di un crimine ai danni dei suoi tre figli. Allo stesso tempo, il testo conteneva informazioni reali sul suo luogo di residenza e sulla sua famiglia, il che aumentava la drammaticità della situazione.

L’incidente è diventato oggetto di reclamo legale — L’organizzazione per i diritti umani noyb ha presentato un reclamo all’autorità norvegese per la protezione dei dati, sostenendo che OpenAI ha violato l’Articolo numero 5 del Regolamento generale sulla protezione dei dati (GDPR).

L’obiettivo principale del reclamo è che i dati personali, anche se utilizzati in un modello generativo, debbano essere affidabili. Noyb (European Centre for Digital Rights è un’organizzazione senza scopo di lucro con sede a Vienna, in Austria, fondata nel 2017 con un focus paneuropeo) ha notato che la legge non eccezioni per le reti neurali: un errore nei dati resta una violazione, indipendentemente dai limiti tecnologici. L’organizzazione ritiene che nel caso di Holman, OpenAI abbia mescolato elementi fittizi e autentici, il che aggrava la natura della violazione.

Il problema è aggravato dal fatto che l’azienda non offre agli utenti la possibilità di correggere le informazioni false. noyb ha già sottolineato in precedenza che ChatGPT, a differenza dei servizi tradizionali, non consente di modificare informazioni errate. OpenAI ha semplicemente aggiunto un avviso sui possibili errori nell’interfaccia del chatbot, il che, secondo gli avvocati, non esonera l’azienda da ogni responsabilità.

Gli avvocati stanno cercando di ottenere un’ordinanza dall’autorità di regolamentazione norvegese che potrebbe obbligare l’azienda a modificare i suoi algoritmi, limitare il trattamento dei dati personali di Holmen o imporre una multa. Tuttavia, OpenAI potrebbe avere qualche giustificazione: noyb ha riconosciuto che le versioni più recenti di ChatGPT connesse a Internet non generano più informazioni false su Holman. Ciò significa che il problema, almeno a livello di interfaccia utente, è stato risolto.

Tuttavia, il reclamo sottolinea che il collegamento alla conversazione originale è ancora disponibile, il che significa che le informazioni false potrebbero essere state memorizzate nei sistemi di OpenAI e persino utilizzate per addestrare ulteriormente il modello. Ciò, secondo noyb, indica una violazione in corso nonostante gli adeguamenti esterni. Gli avvocati sottolineano che rimuovere l’accesso alle informazioni false non significa interromperne l’elaborazione: le aziende non hanno il diritto di “nascondere” un errore senza eliminarlo dal sistema.

La decisione sul reclamo spetta alle autorità di regolamentazione norvegesi, ma la situazione dimostra già la crescente pressione sugli sviluppatori di intelligenza artificiale affinché elaborino i dati personali in modo accurato e legale. Lo sviluppo di modelli generativi richiede nuovi approcci alla responsabilità e al rispetto dei diritti umani: anche se la bugia proviene da una macchina, qualcuno deve esserne responsabile.

L'articolo ChatGPT accusa un uomo di un crimine inesistente e viola il GDPR: il caso esplode in tribunale! proviene da il blog della sicurezza informatica.

reshared this