Salta al contenuto principale


La lettera aperta sulla moratoria dell'Intelligenza Artificiale è fuorviante: rispetto ai pericoli fantascientifici dell'IA ignora i rischi reali. Di @random_walker e @sayashk


Disinformazione, impatto sul lavoro e sicurezza sono tutti rischi. Ma non nel modo in cui implica la lettera.

@Etica Digitale (Feddit)

Il Future of Life Institute ha rilasciato una lettera aperta chiedendo una pausa di 6 mesi sulla formazione di modelli linguistici "più potenti di" GPT-4. Oltre 1.000 ricercatori, tecnologi e personaggi pubblici hanno già firmato la lettera. La lettera solleva l'allarme su molti rischi legati all'IA:

"Dovremmo lasciare che le macchine inondino i nostri canali informativi con propaganda e menzogna? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, superarci in astuzia, diventare obsolete e sostituirci? Dovremmo rischiare la perdita del controllo della nostra civiltà?" (fonte)

Siamo d'accordo che la disinformazione, l'impatto sul lavoro e la sicurezza sono tre dei principali rischi dell'IA. Sfortunatamente, in ogni caso, la lettera presenta un rischio speculativo e futuristico, ignorando la versione del problema che sta già danneggiando le persone. Distrae dai problemi reali e rende più difficile affrontarli. La lettera ha una mentalità di contenimento analoga al rischio nucleare, ma non si adatta bene all'IA. Fa il gioco delle società che cerca di regolamentare.


➡ Il post originale continua qui

➡ Il thread su twitter di Arvind Narayanan, coautore del post insieme a Sayash Kapoor

Unknown parent

Informa Pirata
@Zak McKracken La tua opinione è piuttosto verosimile! Trovo comunque che, poiché oggi si sottovalutano alcuni aspetti legati alla pericolosità sociale della AI, questo tipo di iniziative faccia comunque bene al dibattito

Etica Digitale (Feddit) reshared this.