Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI”
La frase “Costruiremo sicuramente un bunker prima di lanciare l’AGI” dal quale prende spunto l’articolo, è stata attribuita a uno dei leader della Silicon Valley, anche se non è chiaro a chi si riferisse esattamente con “noi”.
La frase ha catturato perfettamente il paradosso dei nostri tempi e l’ironia è evidente: coloro che stanno facendo progredire l’intelligenza artificiale più sofisticata a livello mondiale sono gli stessi che sono tremendamente preoccupati per le sue ripercussioni.
Mentre stanno proseguendo nelle loro ricerche, stanno al contempo escogitando strategie di evasione. La situazione è simile a quella di chi costruisce una diga consapevole che finirà per cedere, ma anziché provvedere a rafforzarla, preferisce procurarsi un’imbarcazione.
I bunker dei super ricchi e la paura dell’AGI
Durante un incontro estivo nel 2023, Ilya Sutskever, cofondatore di OpenAI e mente brillante dietro ChatGPT, fece una dichiarazione intrigante ai suoi ricercatori: “Costruiremo sicuramente un bunker prima di rilasciare AGI”… e poi “Certo, sarà facoltativo decidere se entrare o meno nel bunker”.
La sua affermazione enigmatica venne interrotta da un ricercatore che ne chiese il significato. Sutskever proseguì con una risposta che lasciò tutti sbalorditi: “Prima di procedere al lancio dell’AGI, costruiremo senza dubbio un bunker”.
Secondo quanto dichiarato da Reid Hoffman, fondatore di LinkedIn, una quota significativa, pari ad almeno il 50%, degli individui estremamente facoltosi nella Silicon Valley ha già fatto acquisizione di quella che viene definita come “assicurazione apocalittica”.
Jeff Bezos, fondatore di Amazon, ha acquistato due ville da 147 milioni di dollari sull’isola di Indian Creek in Florida. Larry Ellison, miliardario di Oracle, ha comprato (anche) una proprietà sull’isola hawaiana di Lanai. Peter Thiel, cofondatore di PayPal, ha scelto la Nuova Zelanda. Jack Ma, fondatore di Alibaba, il regista James Cameron e il guru della finanza William Foley hanno tutti costruito bunker postapocalittici in località remote.
La professoressa di informatica all’Università di Southampton, Dame Wendy Hall, non condivide le previsioni più cupe. Sostiene che, secondo la comunità scientifica, la tecnologia dell’intelligenza artificiale sia notevolmente avanzata ma ancora distante dall’intelligenza umana. Per arrivare a una vera AGI sarebbero necessari ulteriori significativi progressi. È eccessivo, quindi, drammatizzare la situazione. Le tempistiche, in particolare, lasciano perplessi.
Ma andiamo con calma ad analizzare la questione.
Le dichiarazioni sull’Artificial General Intelligence
Quando emergerà l’AGI, l’intelligenza artificiale generale, paragonabile a quella umana per ampiezza di competenze? Gli ottimisti dicono che sarà molto presto. Il CEO di OpenAI, Sam Altman, ha dichiarato a dicembre 2024 che sarebbe successo “prima di quanto la maggior parte delle persone pensi”. Il co-fondatore di DeepMind, Sir Demis Hassabis, stima i tempi tra i cinque e i dieci anni. Il fondatore di Anthropic, Dario Amodei, preferisce parlare di “intelligenza artificiale potente” e prevede che potrebbe realizzarsi già nel 2026.
Gli scettici ribattono che “i traguardi vengono costantemente spostati”: secondo Dame Wendy Hall, professoressa dell’Università di Southampton, tutto dipende dalla persona a cui si chiede. La tecnologia è impressionante, ma è ancora lontana dall’intelligenza umana. Il CTO di Cognizant, Babak Hojat, concorda: prima sono necessarie diverse innovazioni fondamentali. E non aspettatevi che l’AGI emerga “istantaneamente”: non si tratta di un solo giorno, ma di una lunga strada, con decine di aziende che perseguono approcci diversi.
Parte di questo entusiasmo è alimentato dall’idea della fase successiva: l’AGI, o super intelligenza, che supererà gli esseri umani. Già nel 1958, al matematico ungherese-americano John von Neumann fu attribuita la prima formulazione della “singolarità“, il punto oltre il quale il ritmo e la natura dello sviluppo informatico sfuggono alla comprensione umana.
Nel libro del 2024 Genesis, Eric Schmidt, Craig Mundie e il compianto Henry Kissinger discutono di una tecnologia superpotente che prende decisioni e controlla in modo così efficace che gli esseri umani gradualmente le cedono il controllo. Nella loro logica, la domanda non è “se”, ma “quando”.
Cosa porterà l’AGI tra benefici e paure
I sostenitori dipingono un quadro folgorante. L’intelligenza artificiale (AGI) contribuirà presumibilmente a trovare cure per malattie mortali, a superare la crisi climatica e a sbloccare fonti di energia pulita praticamente illimitate. Elon Musk ha parlato di una possibile era di “alto reddito universale”, in cui l’intelligenza artificiale diventerà così accessibile che tutti avranno il loro “R2-D2 e C-3PO”.
Nella sua visione, tutti avranno un’assistenza sanitaria, un alloggio, trasporti migliori e un’abbondanza sostenibile. Ma c’è un rovescio della medaglia in questo sogno. Si può impedire che un sistema del genere venga abusato dai terroristi o che concluda automaticamente che noi stessi siamo il problema più grande del pianeta?
Tim Berners-Lee, il creatore del World Wide Web, avverte che se una macchina è più intelligente di un essere umano, deve essere contenuta e, se necessario, “spenta”. I governi stanno cercando di costruire barriere protettive. Negli Stati Uniti, nel 2023, è stato emesso un ordine esecutivo presidenziale che impone ad alcune aziende di condividere i risultati dei test di sicurezza con le autorità, sebbene alcune disposizioni siano state successivamente indebolite in quanto “ostacolanti l’innovazione”.
Due anni fa, il Regno Unito ha lanciato l’AI Safety Institute, un’organizzazione governativa che studia i rischi dei modelli avanzati. In questo contesto, i super-ricchi discutono di “assicurazione contro l’apocalisse” – dalle case ai confini del mondo ai rifugi privati – sebbene anche in questo caso il fattore umano stia sconvolgendo tutto.
Ancora siamo lontani da questo
C’è anche chi considera l’intera discussione fuorviante. Il professore di Cambridge Neil Lawrence definisce il concetto stesso di AGI assurdo quanto “un veicolo universale artificiale”. Il mezzo di trasporto giusto dipende sempre dal contesto: le persone volano in Kenya, guidano fino all’università e vanno a piedi alla mensa. Non esiste e non esisterà mai un’auto adatta a tutti: perché aspettarsi il contrario dall’IA?
Lawrence ritiene che parlare di AGI distolga l’attenzione dai veri cambiamenti già in atto: per la prima volta, le persone comuni possono parlare con una macchina e capire cosa intende realmente. Questo sta cambiando la vita di tutti i giorni, il che significa che è necessario impegnarsi per garantire che la tecnologia funzioni a beneficio dei suoi utenti.
I sistemi attuali sono addestrati su enormi set di dati e sono eccellenti nel riconoscere schemi ricorrenti, dai marcatori tumorali nelle immagini alla probabile parola successiva in una frase. Ma non li “sentono”, non importa quanto convincenti sembrino le loro risposte.
Secondo Babak Hojat, esistono modi “intelligenti” per far sembrare che grandi modelli linguistici abbiano capacità di memoria e apprendimento, ma questi trucchi sono ben lontani dal livello umano. Il CEO di IV.AI, Vince Lynch, avverte che le affermazioni altisonanti sull’intelligenza artificiale sono semplicemente una trovata pubblicitaria. Se si costruisce “la cosa più intelligente del mondo”, i soldi arriveranno. In pratica, il percorso non si misura in due anni: richiede un’enorme potenza di calcolo, una grande creatività umana e infiniti tentativi ed errori.
Il Cervello umano è ancora più performante
Eppure, per certi aspetti, le macchine ci superano già nell’ampiezza delle loro applicazioni. L’intelligenza artificiale generativa può passare dalla storia medievale a equazioni complesse in un minuto. Persino gli sviluppatori non sempre capiscono perché il modello risponda in un certo modo, e alcune aziende segnalano miglioramenti nei loro sistemi. La biologia rimane ancora all’avanguardia: il cervello umano contiene circa 86 miliardi di neuroni e circa 600 trilioni di sinapsi, incomparabilmente di più delle architetture artificiali. Il cervello non ha bisogno di pause tra le interazioni; ristruttura continuamente la sua visione del mondo.
Se dici a una persona che è stata scoperta la vita su un esopianeta, questa lo integrerà immediatamente nella sua visione della realtà. Un modello linguistico “sa” questo solo nella misura in cui continui a ripeterglielo. L’LLM manca di metacognizione, la capacità di essere consapevoli della propria conoscenza. Gli esseri umani ce l’hanno, ed è spesso descritta come coscienza. È un elemento fondamentale dell’intelligenza che non è stato ancora replicato in laboratorio.
Dietro le grandiose previsioni e gli allarmi, a quanto pare, si nasconde una semplice verità: l’intelligenza artificiale sta già trasformando la vita quotidiana e i processi aziendali, e parlare di “vera” intelligenza artificiale è comodo per chi raccoglie fondi o definisce l’agenda.
Se e quando si verificherà un punto di singolarità rimane una questione aperta. Ma la qualità degli strumenti che creiamo ora, la loro sicurezza, trasparenza e utilità per le persone, dipendono molto più dei dibattiti su silos e date.
L'articolo Tra AI e paura Skynet insegna: “Costruiremo dei bunker prima di lanciare l’AGI” proviene da il blog della sicurezza informatica.