Salta al contenuto principale


Dal furto d’immagine ai deepfake: la nuova frontiera della manipolazione digitale


Negli ultimi mesi mi sono trovato più volte a redigere querele per video falsi che circolavano online. Non parliamo soltanto di contenuti rubati e diffusi senza consenso, ma anche di deepfake: filmati nei quali volti noti vengono sovrapposti a corpi estranei, spesso utilizzati per sponsorizzare investimenti finanziari o inseriti in contesti pornografici.

Un fenomeno che, purtroppo, non sorprende più per la sua presenza, ma per la rapidità con cui cresce, si diffonde e si perfeziona.

Dai siti “amatoriali” ai falsi digitali: un continuum di abusi


Chi segue il settore ha appreso di realtà come Mia moglie o Phica. Piattaforme dove l’apparente spontaneità nasconde spesso un vero e proprio mercato del corpo e dell’intimità altrui. In molti casi i video sono caricati senza il consenso delle persone ritratte.Registrazioni private sottratte, oppure contenuti condivisi in un momento di fiducia che diventano improvvisamente di dominio pubblico.

Il salto tecnologico successivo è rappresentato dai deepfake. Se nei siti amatoriali il problema era (ed è) il furto di immagini reali, oggi l’asticella si alza ulteriormente: non serve più rubare un file, basta una fotografia per costruire un video in cui la persona sembra fare o dire ciò che in realtà non ha mai fatto. È il passaggio dalla violazione della privacy alla creazione di una vera e propria realtà alternativa.

Volti noti e volti comuni: due vulnerabilità diverse


L’impatto di queste manipolazioni varia a seconda di chi ne è vittima.

I volti noti – attori, politici, influencer – sono un bersaglio privilegiato: la loro esposizione pubblica rende più facile scoprire e smascherare il falso, ma al tempo stesso amplifica il danno, perché la diffusione avviene in tempi rapidissimi e su larga scala.

Per i volti comuni, invece, la questione è ancora più insidiosa. Non avendo la stessa visibilità, non hanno nemmeno i mezzi per difendersi: difficilmente possono monitorare la rete o ottenere la rimozione tempestiva dei contenuti. In questi casi l’inganno è spesso più credibile, proprio perché non c’è un “originale” di pubblico dominio con cui confrontare il falso. La conseguenza è devastante: persone comuni che si ritrovano coinvolte in video manipolati a contenuto sessuale o in false promozioni finanziarie, con effetti distruttivi sulla loro vita privata e professionale.

Una normativa da aggiornare


Di fronte a questa realtà in continua evoluzione, il diritto appare spesso in ritardo rispetto alla tecnologia. La tradizione giuridica italiana ha già introdotto norme importanti, ma i deepfake sfuggono alle categorie giuridiche tradizionali in modo problematico. Le immagini di partenza possono essere pubbliche, i contenuti manipolati non riguardano solo la pornografia ma anche finalità finanziarie, politiche o di disinformazione sanitaria. Eppure, i danni per la persona coinvolta sono paragonabili – e in alcuni casi addirittura peggiori – rispetto alle fattispecie già previste.

Per questo, l’introduzione di norme dedicate potrebbe costituire una risposta necessaria. L’obiettivo non è moltiplicare le incriminazioni, ma individuare una disposizione e alcune aggravanti specifiche legate all’uso dell’intelligenza artificiale per manipolare l’immagine e la voce di un individuo. In questa direzione si colloca il disegno di legge n. 1146/2024, che dedica un articolo alle disposizioni penali. Il testo introduce una nuova fattispecie di reato, l’“illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, punita con la reclusione da uno a cinque anni nei casi in cui vengano diffusi, senza consenso, immagini, video o voci artificialmente manipolati e idonei a trarre in inganno. Accanto a ciò, il disegno di legge prevede una serie di aggravanti comuni e speciali: truffa, frode informatica, riciclaggio, autoriciclaggio, manipolazioni di mercato e persino sostituzione di persona possono essere puniti più severamente se commessi attraverso strumenti di intelligenza artificiale. Si tratta dunque di un tentativo di aggiornare il Codice penale, senza creare un corpus autonomo, ma rafforzando gli strumenti esistenti quando l’IA diventa il mezzo dell’illecito.

A livello europeo e internazionale il dibattito è già aperto: basti pensare all’AI Act in discussione a Bruxelles, che prova a stabilire regole comuni per i sistemi di intelligenza artificiale, inclusi i rischi di manipolazione audiovisiva.

Le sfide aperte: tecnologia, diritto, cultura


La lotta ai deepfake e ai video rubati non si vince con un solo strumento, ma con la sinergia di più piani di intervento. La sfida tecnologica. Servono algoritmi capaci di individuare automaticamente contenuti manipolati e di segnalarli prima che diventino virali. Alcune università e centri di ricerca stanno sviluppando watermark digitali e sistemi di tracciamento delle immagini per distinguere l’autentico dal falso. Tuttavia, è una corsa senza fine: ogni nuovo strumento di rilevazione stimola la nascita di tecniche di falsificazione più sofisticate. La sfida è quindi continua e richiede investimenti pubblici significativi, non lasciati al solo interesse privato.

La sfida giuridica. Oltre alle norme, è fondamentale l’efficacia delle procedure. Una vittima che scopre un deepfake su una piattaforma internazionale non può attendere mesi per ottenere la rimozione. Occorrono canali di urgenza, simili a quelli introdotti per i contenuti terroristici online, che permettano alle autorità di richiedere la cancellazione immediata e vincolante. In parallelo, è necessario rafforzare la cooperazione internazionale, perché i server sono spesso all’estero e i responsabili agiscono in Paesi con legislazioni meno severe.

La sfida culturale. Qui si gioca probabilmente la partita più decisiva. Una società che non sa distinguere il vero dal falso è destinata a diventare terreno fertile per manipolazioni di ogni tipo, dal gossip alla propaganda politica. Serve educazione digitale nelle scuole, programmi di alfabetizzazione per gli adulti, campagne istituzionali che spieghino i rischi e insegnino a riconoscere un contenuto manipolato. La consapevolezza critica è il miglior antidoto contro la viralità del falso.

Una sfida di civiltà


Il filo rosso che lega i siti amatoriali come Mia moglie e Phica ai deepfake più sofisticati è sempre lo stesso: l’uso non consensuale dell’immagine e dell’identità di una persona. Oggi questo non è più soltanto un problema legato alla pornografia o alla morbosità di alcuni contesti, ma una questione che riguarda la democrazia, l’economia e la convivenza civile.

Se chiunque può creare un video credibile con il volto di un politico che dichiara guerra, con quello di un imprenditore che invita a investire in una truffa, o con quello di una persona comune trascinata in uno scenario pornografico, allora è la fiducia stessa nella realtà che viene minata. Non si tratta più soltanto di tutelare la reputazione individuale, ma di preservare la coesione sociale e la possibilità di distinguere ciò che accade davvero da ciò che è artificiosamente costruito.
In questo senso, il contrasto ai deepfake e alla diffusione di video rubati rappresenta una vera sfida di civiltà. Non basta il diritto, non basta la tecnologia, non basta la cultura: serve un’alleanza che le metta insieme, con il coinvolgimento delle istituzioni, delle piattaforme e dei cittadini. È in gioco non solo la dignità dei singoli, ma la qualità della nostra vita democratica.

L'articolo Dal furto d’immagine ai deepfake: la nuova frontiera della manipolazione digitale proviene da il blog della sicurezza informatica.