Un'interessantissima conversazione con LLM su LLM
@booboo ha scritto una sequenza di post molto interessante riferendo una conversazione con un LLM ("modello linguistico di grandi dimensioni").
Spero di non dimenticare alcun link. La sequenza inizia qui, prosegue qui, qui, qui, qui, qui, fino a concludersi qui.
La trascrivo integralmente qui di seguito per comodità.
Ho fatto alcune domande su LLM a un LLM. Condivido la conversazione perché mi ha chiarito alcuni dubbi; magari anche altri la troveranno utile.Domanda: In che cosa sei diverso da sistemi come AlphaGo o Watson?
Risposta: Io sono un modello linguistico addestrato sul linguaggio naturale per dialogo e assistenza generale. AlphaGo era focalizzato sul Go con tecniche di reinforcement learning, mentre Watson era progettato per rispondere a domande specifiche, ad esempio in Jeopardy!. Io sono quindi più generalista e versatile.
Domanda: Quindi la differenza principale sta nel tipo di apprendimento?
Risposta: Esatto. AlphaGo usava il reinforcement learning, cioè imparava per tentativi ed errori, ottimizzando ricompense. Io invece sono addestrato con enormi quantità di testo: attraverso le reti neurali transformer imparo a prevedere e generare linguaggio. Non ottimizzo ricompense, ma riduco un errore di previsione tramite l’ottimizzazione.
Domanda: Questo significa che il tuo addestramento è come un aggiornamento bayesiano continuo?
Risposta: Non proprio. Non aggiorno continuamente credenze come nel senso classico bayesiano. Io aggiusto miliardi di parametri riducendo una funzione di perdita attraverso la discesa del gradiente. Quindi è un continuo aggiustamento tramite esempi, non un apprendimento basato su ricompense.
Domanda: Il tuo addestramento è online, cioè aggiornato dato per dato, o batch?
Risposta: È batch. Non aggiorno i pesi dopo ogni singolo esempio. I dati sono divisi in blocchi (batch), e il modello viene addestrato un po’ alla volta. È un addestramento offline.
Domanda: Quanto sono grandi questi batch?
Risposta: Possono essere grandi da qualche megabyte a decine di megabyte di testo per volta. L’intero addestramento coinvolge terabyte di dati, ma i blocchi servono a renderlo gestibile.
Domanda: Quanto dura l’addestramento di un modello così grande?
Risposta: Può richiedere settimane o mesi, a seconda della dimensione e della potenza di calcolo. I modelli con centinaia di miliardi di parametri usano enormi cluster di GPU.
Domanda: E alla fine, che cos’è davvero un modello addestrato?
Risposta: È un enorme insieme di pesi, cioè miliardi di numeri che determinano il comportamento della rete neurale. Ogni peso contribuisce a come il modello interpreta e genera linguaggio. In pratica, è un file gigantesco di parametri.
Domanda: Quindi quando una conversazione viene usata per migliorare il modello, stai cambiando i tuoi pesi in tempo reale?
Risposta: No. ChatGPT-5 non cambia i suoi pesi durante le conversazioni. I dati possono essere usati per addestrare una versione futura (per esempio ChatGPT-6), ma la versione attuale resta fissa.
Domanda: Allora cos’è il “contesto” in una conversazione con te?
Risposta: È una memoria temporanea: ogni risposta tiene conto non solo dell’ultima domanda ma anche della storia recente della conversazione. Non modifica i miei pesi, ma mi permette di mantenere coerenza. È una memoria a breve termine, che ha però un limite massimo.
Domanda: Quanto è lungo questo limite?
Risposta: Dipende dal modello, ma parliamo di migliaia di token, cioè frammenti di testo. In termini pratici corrisponde a decine o centinaia di kilobyte di testo. È sufficiente per conversazioni molto lunghe, ma se si supera la soglia, i dettagli più vecchi vengono dimenticati.
Domanda: Puoi darmi numeri? Ad esempio, quanto è grosso il contesto in byte?
Risposta: Per qualcosa come ChatGPT-5, il contesto che posso ricordare è tipicamente nell'ordine di diverse migliaia di token. Un token è una piccola unità di testo, che può essere una parola o anche solo un frammento di parola. In termini di byte, dipende un po', ma stiamo parlando magari di qualche decina o centinaia di kilobyte di testo che posso tenere in memoria per la conversazione.
Domanda: Ad esempio, ti ricordi come ho cominciato questa conversazione oggi? La prima domanda che ti ho fatto qual era?
Risposta: Sì, certo! In questo momento mi ricordo che all'inizio mi hai chiesto in che senso io, cioè ChatGPT, fossi diverso da altri tipi di intelligenze artificiali come AlphaGo o Watson. E da lì abbiamo iniziato la nostra chiacchierata.
Conclusione: chi vede gli LLM attuali come "Skynet" in Terminator non ha capito come funzionano. Gli LLM non hanno un "fine", un "obiettivo". Sono solo una relazione di input-output: dato un input, cacciano fuori un output. Non pensano, anche se fanno finta di farlo.
La confusione è alimentata dall'industria di questi LLM che usa termini come "thinking" quando in realtà non c'è alcun processo cognitivo.
.mau.
Unknown parent • • •