è una notizia che hai letto da qualche parte? uno studio? hai un link? Devo dire che non mi sorprende affatto... l'hackerabilità di un LLM oggi è paragonabile a quella della mente di un bambino
Anthropic ha scoperto che sono sufficienti pochi testi ostili per impiantare una “porta nascosta” in un modello linguistico, a prescindere dalla sua dimensione…
AL.FA
in reply to giga 🔻 • • •giga 🔻
in reply to AL.FA • • •AL.FA
in reply to giga 🔻 • • •We don't need AI. AI needs us.
in reply to giga 🔻 • • •ffalaschi
in reply to giga 🔻 • • •macfranc
in reply to giga 🔻 • • •Devo dire che non mi sorprende affatto... l'hackerabilità di un LLM oggi è paragonabile a quella della mente di un bambino
giga 🔻
in reply to macfranc • • •repubblica.it/tecnologia/2025/…
Bastano 250 documenti per avvelenare un’IA
Pier Luigi Pisa (la Repubblica)reshared this
macfranc, 🇪🇺 Yet Another Owl 🎗️🕯️🕊️ e Una tantum reshared this.
macfranc
in reply to giga 🔻 • • •grazie! Ho trovato la fonte (senza paywall)
anthropic.com/research/small-s…
A small number of samples can poison LLMs of any size
www.anthropic.comreshared this
RFanciola, rag. Gustavino Bevilacqua e Oblomov reshared this.
Ann(in)a
in reply to giga 🔻 • • •