Salta al contenuto principale


CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE

Per vedere altri post come questo, segui la comunità @Informatica (Italy e non Italy 😁)

Le soluzioni di intelligenza artificiale basano la rispettiva forza sul volume di conoscenze progressivamente accumulate.
L'articolo CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE proviene da GIANO NEWS.

in reply to Informa Pirata

La domanda che mi pongo è se tutto ciò non andrà a massacrare anche possibilità d i uso legittimo di AI dedicate a compiti specifici. Penso a una compagnia di Taxi autonomi che usa la AI non solo per condurre i veicoli, ma anche per dislocarli in città nei vari orari ecc. A un'azienda farmaceutica che usa la AI per fare ricerca ecc.

Informa Pirata reshared this.

in reply to Andre123 🐧

@Andre123 🐧 qui però stiamo parlando soprattutto di LLM e altri modelli "content creator", non di sistemi di intelligenza artificiale tout court, come quelli di guida autonoma, sistmi di simulazione, analisi testuale, etc
in reply to Informa Pirata

@andre123
Io non la considererei una situazione drammatica; anzi, potrebbe essere una difesa collettiva contro l’uso indiscriminato dei dati per addestrare gli LLM. Senza fonti chiare o licenze, questi modelli dovranno basarsi su contenuti tracciabili e, di conseguenza, pagarne le licenze, per ridurre il rischio di data poisoning. Inoltre, le LLM "avvelenate" potrebbero persino aiutare l’utente medio a comprenderne meglio la natura e l’importanza di un utilizzo etico.
in reply to Andre123 🐧

@andre123 A questi avvelenatori augurerei di perdere la vista e trovarsi per strada con lo smartphone in mano a guidarli. Un amico mio si è trovato coi meta rayban che lo hanno orientato da una parte, invece per evitare l'ostacolo doveva andare dall'altra. E lui su youtube lo dice chiaro: non fidatevi totalmente di queste tecnologie.
E sì, anch'io appoggio la scelta di chiamarli modelli linguistici o, al massimo, "generatori automatici basati su modelli linguistici di grandi dimensioni" e tuto el resto va in mona [cit]
in reply to Elena Brescacin

La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.

Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.

Questa voce è stata modificata (3 giorni fa)
in reply to pgo_lemmy

@pgo_lemmy "toglierli non è la soluzione" a qualsiasi cosa. Basta che guardi la storia della verifica età, gli smartphone a scuola, l'educazione sessuale e tutto il resto. Comprese le droghe. Senza conoscenza, e senza alternative, il problema viene solo rimandato
in reply to Andre123 🐧

La risposta è facile: no.

Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell'avvelenamento non si pone.

Gli LLM a cui si riferisce l'articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.

E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate...

in reply to pgo_lemmy

@pgo_lemmy Giusta osservazione, effettivamente se non sanno neanche scartare informazioni sballate rispetto a informazioni valide.....