Salta al contenuto principale


Dall'articolo (meraviglioso, l'ho divorato)
postato da @informapirata

" Come pensa la macchina:un LLM smontato pezzo per pezzo "

(Cit.)
>>ogni token generato è un lancio di dado. La "intelligenza" apparente dell'output è il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'è ragionamento, non c'è pianificazione, non c'è verifica. Il modello non "sa" che la prossima parola è giusta. Sa che è probabile. E probabile non significa corretto.
_____________

Una AI non capisce nulla. Dunque di intelligenza non ce n'è. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilità che assembla testo non perchè capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilità guidati da regolette.

Traduco in modo più semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.

Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtà stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.

Leggetelo, è ultra comprensibile e spiega tanto sulle "AI" in modo semplice.

reshared this