CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE
Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)
Le soluzioni di intelligenza artificiale basano la rispettiva forza sul volume di conoscenze progressivamente accumulate.
L'articolo CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE proviene da GIANO NEWS.
reshared this
Informa Pirata
Unknown parent • •Informatica (Italy e non Italy 😁) reshared this.
pgo_lemmy
Unknown parent • • •La risposta è facile: no.
Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell'avvelenamento non si pone.
Gli LLM a cui si riferisce l'articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.
E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate...
Informatica (Italy e non Italy 😁) reshared this.
Valturchese
in reply to Informa Pirata • • •Io non la considererei una situazione drammatica; anzi, potrebbe essere una difesa collettiva contro l’uso indiscriminato dei dati per addestrare gli LLM. Senza fonti chiare o licenze, questi modelli dovranno basarsi su contenuti tracciabili e, di conseguenza, pagarne le licenze, per ridurre il rischio di data poisoning. Inoltre, le LLM "avvelenate" potrebbero persino aiutare l’utente medio a comprenderne meglio la natura e l’importanza di un utilizzo etico.
pgo_lemmy
Unknown parent • • •La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.
Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.
Informatica (Italy e non Italy 😁) reshared this.