CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE
Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)
Le soluzioni di intelligenza artificiale basano la rispettiva forza sul volume di conoscenze progressivamente accumulate.
L'articolo CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE proviene da GIANO NEWS.
reshared this
Andre123 🐧
in reply to Informa Pirata • • •Informa Pirata likes this.
Informa Pirata reshared this.
Informa Pirata
in reply to Andre123 🐧 • •Valturchese
in reply to Informa Pirata • • •Io non la considererei una situazione drammatica; anzi, potrebbe essere una difesa collettiva contro l’uso indiscriminato dei dati per addestrare gli LLM. Senza fonti chiare o licenze, questi modelli dovranno basarsi su contenuti tracciabili e, di conseguenza, pagarne le licenze, per ridurre il rischio di data poisoning. Inoltre, le LLM "avvelenate" potrebbero persino aiutare l’utente medio a comprenderne meglio la natura e l’importanza di un utilizzo etico.
Elena Brescacin
in reply to Andre123 🐧 • • •E sì, anch'io appoggio la scelta di chiamarli modelli linguistici o, al massimo, "generatori automatici basati su modelli linguistici di grandi dimensioni" e tuto el resto va in mona [cit]
pgo_lemmy
in reply to Elena Brescacin • • •La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.
Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.
Elena Brescacin
in reply to pgo_lemmy • • •pgo_lemmy
in reply to Andre123 🐧 • • •La risposta è facile: no.
Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell'avvelenamento non si pone.
Gli LLM a cui si riferisce l'articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.
E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate...
Andre123 🐧
in reply to pgo_lemmy • • •