Salta al contenuto principale


Sam Altman “Spero che a causa della tecnologia non accadano cose brutte”


Le ultime dichiarazioni di Sam Altman, CEO di OpenAI, in merito al progresso dell’intelligenza artificiale (IA) non sono molto incoraggianti, in quanto ha recentemente affermato di essere preoccupato per “l’impatto dell’IA sui posti di lavoro”e ha anche chiarito che non saremo al sicuro nemmeno in un bunker “se l’IA sfugge al controllo” .

Ma non è tutto, perché in una recente intervista l’AD di OpenAI ha dichiarato senza mezzi termini che dovremmo preoccuparci del futuro che l’intelligenza artificiale ci porterà: “Penso che succederà qualcosa di brutto con l’intelligenza artificiale”.

Come riporta un articolo di Investopedia, un mese fa Sam Altman ha partecipato a un’intervista per il videopodcast a16z della società di venture capital Andreessen Horowitz e ha colto l’occasione per dire che si aspetta che accadano cose brutte a causa dell’intelligenza artificiale: “Spero che a causa della tecnologia non accadano cose davvero brutte”.

youtube.com/embed/JfE1Wun9xkk?…

Come potete vedere nell’intervista qui sotto, Altman si riferiva a Sora, uno strumento di generazione video lanciato a fine settembre da OpenAI che è rapidamente diventato l’app più scaricata sull’App Store negli Stati Uniti. Ciò ha portato a un’ondata di deepfake creati da questo modello, che hanno inondato i social media con video con personaggi come Martin Luther King Jr. e altri personaggi pubblici come lo stesso Altman.

In effetti, Altman è apparso in questi video mentre compiva varie attività criminali, come potete vedere in questa Instagram Story. Ma non è tutto, poiché Altman ha anche affermato che strumenti come Sora necessitano di controlli per impedire che questa tecnologia venga utilizzata per scopi dannosi: “Molto presto il mondo dovrà vedersela con incredibili modelli video in grado di fingere chiunque o di mostrare qualsiasi cosa si voglia”.

Allo stesso modo, il creatore di ChatGPT ha affermato che, invece di perfezionare questo tipo di tecnologia a porte chiuse, la società e l’intelligenza artificiale dovrebbero collaborare per “co-evolversi” e “non si può semplicemente lasciare tutto alla fine“.

Secondo Altman, ciò che dovremmo fare è offrire alle persone un’esposizione precoce a questo tipo di tecnologia, in modo che le comunità possano creare norme e barriere prima che questi strumenti diventino ancora più potenti. Afferma inoltre che, se lo faremo, saremo meglio preparati quando arriveranno modelli di generazione video basati sull’intelligenza artificiale ancora più avanzati di quelli attuali.

L’avvertimento di Sam Altman non si riferiva solo ai video falsi, ma anche al fatto che molti di noi tendono a “esternalizzare” le proprie decisioni ad algoritmi che poche persone comprendono: “Penso ancora che ci saranno momenti strani o spaventosi.”

Inoltre, Altman ha anche spiegato che il fatto che l’intelligenza artificiale non abbia ancora causato un evento catastroficonon significa che non lo farà mai” e che “miliardi di persone che parlano allo stesso cervello” potrebbero finire per creare “strane cose su scala sociale” .

“Credo che come società svilupperemo delle barriere attorno a questo fenomeno” ha detto. Infine, sebbene si tratti di qualcosa che ci riguarda tutti, Altman si oppone a una regolamentazione rigida di questa tecnologia perché afferma che “la maggior parte delle regolamentazioni probabilmente presenta molti svantaggi” e che l’ideale sarebbe condurre “test di sicurezza molto accurati” con questi nuovi modelli che ha definito “estremamente sovrumani” .

L'articolo Sam Altman “Spero che a causa della tecnologia non accadano cose brutte” proviene da Red Hot Cyber.