Cina, stretta contro le fake news generate dall’intelligenza artificiale
La Cyberspace Administration of China ha annunciato l’avvio di una campagna nazionale straordinaria di due mesi, partita il 24 luglio, con l’obiettivo di contrastare la diffusione di informazioni false pubblicate dai cosiddetti self-media.
L’iniziativa, dal titolo “Chiaro e pulito: correggere i ‘self-media’ dalla pubblicazione di informazioni false”, punta a regolamentare il funzionamento di queste piattaforme, reprimendo le manipolazioni malevole, la distorsione dei fatti e le speculazioni ingannevoli.
Disinformazione e intelligenza artificiale
Uno degli aspetti centrali del programma riguarda l’utilizzo dell’intelligenza artificiale per creare contenuti sintetici, impersonare altre persone o fabbricare notizie false legate a questioni sociali sensibili. Negli ultimi anni, lo sviluppo rapido delle tecnologie di IA ha rivoluzionato la circolazione delle informazioni, ma ha anche aperto nuove criticità.
Un esempio recente si è verificato il 20 luglio, quando ha iniziato a circolare la notizia del presunto capovolgimento di una nave da crociera a Yichang, nella provincia di Hubei, con numerosi passeggeri in acqua.
Dopo le verifiche, è stato accertato che si trattava di una fake news generata dall’IA, accompagnata da immagini manipolate digitalmente per renderla più credibile.
Rischi e impatto sociale
Rispetto alle fake news tradizionali, quelle prodotte dall’IA sono più difficili da riconoscere: testi, foto e video risultano estremamente realistici, al punto che i cittadini comuni non riescono a verificarne l’autenticità con il solo buon senso.
In settori sensibili come la sicurezza pubblica o la gestione delle emergenze, tali contenuti possono innescare panico collettivo e compromettere la vita quotidiana.
Un ulteriore fattore di rischio è rappresentato dal basso costo e dall’alta efficienza con cui l’IA può generare grandi quantità di disinformazione. Questo fenomeno mina la fiducia nella rete, riduce lo spazio per contenuti di qualità e danneggia lo sviluppo sano dell’industria digitale.
Le misure previste
Contrastare la disinformazione artificiale non è semplice: i contenuti evolvono rapidamente, sfumando i confini tra reale e falso, mentre l’individuazione delle fonti resta complessa. La campagna della Cyberspace Administration prevede perciò una serie di interventi mirati:
- potenziamento dei meccanismi di etichettatura delle informazioni, con particolare attenzione all’identificazione dei contenuti generati dall’IA;
- obbligo per le piattaforme di self-media di segnalare in modo chiaro i contenuti sintetici;
- esclusione dai sistemi di raccomandazione algoritmica dei materiali non etichettati correttamente.
Oltre alle regole, le piattaforme dovranno investire nello sviluppo tecnologico per migliorare la capacità di riconoscere e bloccare la disinformazione, riducendone la diffusione alla fonte. Parallelamente, le autorità invitano a rafforzare i programmi di educazione del pubblico, così da accrescere la consapevolezza e le competenze dei cittadini nell’identificazione di notizie false.
Verso una governance a lungo termine
Gli esperti sottolineano che la lotta alla disinformazione basata sull’IA richiede costanza e collaborazione. La campagna attuale, pur avendo carattere straordinario, rappresenta un passo verso una governance più stabile, capace di passare da interventi sporadici a strategie preventive e istituzionalizzate.
Il successo dipenderà dal lavoro congiunto di autorità di regolamentazione, piattaforme digitali, associazioni di settore e comunità degli utenti. Solo un approccio condiviso potrà garantire un cyberspazio più affidabile e sicuro.
L'articolo Cina, stretta contro le fake news generate dall’intelligenza artificiale proviene da il blog della sicurezza informatica.