«Ora puoi utilizzare qualsiasi app mobile #Mastodon con #Pixelfed!
Abbiamo appena inviato una serie di correzioni per la compatibilità di mastoapi, se noti bug o problemi faccelo sapere!»
mastodon.social/@pixelfed/1080…
informapirata ⁂ likes this.
informapirata ⁂ reshared this.
#Garantismi – Riconoscimento facciale. Russia e Ukraina
Torniamo sul caso Clearview AI, questa volta perché i “servizi” della società sarebbero usati anche in zona di conflitto. Ne parliamo con Matteo Flora nella nuova puntata di #Garantismi.
Guarda il video:
youtube.com/embed/bVOayBc8tDI?…
Data breach: “Ecco perché non bisogna aver paura di informare gli interessati”
Se vi sono i presupposti, bisognerebbe sempre procedere alla notifica di una violazione agli interessati non solo perché lo impone la legge quanto perché è la cosa giusta da fare. La decisione del Garante privacy nel caso Minelli Spa.
Guarda il mio video intervento su Agenda Digitale.
youtube.com/embed/kjKjNyUXi_g?…
Privacy Daily – 23 marzo 2022
Come le società di sorveglianza utilizzano la guerra
Reuters ha riferito che Clearview AI, la famigerata società di sorveglianza online, ha offerto i suoi servizi al ministero della Difesa ucraino. In un’intervista per TechCrunch , il vice primo ministro e ministro per la trasformazione digitale dell’Ucraina, ha confermato che la partnership con Clearview AI sia “attualmente in fase di sviluppo”.
privacyinternational.org/news-…
Biden rafforza la sicurezza informatica degli Stati Uniti contro le minacce russe
Il presidente degli Stati Uniti Joe Biden ha esortato a rafforzare i sistemi di sicurezza informatica a fronte dll’aumento del potenziale di attacchi informatici russi”, occorre ha aggiunto il Presidente USA “rafforzare immediatamente le difese informatiche”. aggiungendo che le aziende hanno “il potere, la capacità e la responsabilità” di aumentare le difese su servizi e tecnologie critiche su cui gli americani fanno affidamento”.
Biden warns Russian cyberattacks ‘coming’ – POLITICO
USA – India prospettive di cooperazione sui flussi di dati
Il Consiglio Atlantico ha pubblicato un documento politico che delinea la necessità per le delegazioni statunitensi e indiane di definire politiche per flussi di dati transfrontalieri. Justin Sherman, membro del Consiglio Atlantico, ha spiegato come le due parti abbiano “reali opportunità di identificare un terreno comune sulla politica dei dati e lavorare per massimizzare i benefici reciproci in essa contenuti”. Il brief ha delineato gli obiettivi chiave che gli Stati Uniti e l’India potrebbero esplorare, tra cui l’accesso delle forze dell’ordine ai dati, i requisiti di elaborazione e localizzazione dei dati e la sicurezza dei dati.
Trading in US-India data flows: Prospects for cooperation in US-India data policy – Atlantic Council
Lapsus$ ha rubato Cortana e Bing a Microsoft
I criminali di lingua spagnola hanno divulgato su Telegram un archivio compresso di software che pare essere originale. Non ci sono tracce dei codici che fanno girare Windows e Office
di ARTURO DI CORINTO per ItalianTech/ La Repubblica del 22 Marzo 2022
Il gruppo criminale Lapsus$ annuncia di avere derubato Microsoft di alcuni gioielli di famiglia come i codici informatici di Bing, Bing Maps e Cortana, rispettivamente il motore di ricerca e l’assistente virtuale. Questo per ricordarci, semmai ce ne fossimo dimenticati, che mentre siamo tutti col fiato sospeso per le sorti della guerra in Ucraina i cybercriminali non dormono mai.
LordMax likes this.
Ucraina: Washington sta ufficialmente flirtando con l’idea della guerra mondiale? Finora la Casa Bianca sta resistendo al coinvolgimento diretto degli Stati Uniti in Ucraina. Ma i piani per rafforzare le armi e l'assistenza possono avere conseguenze
Ted Galen Carpenter / Quincy Institute for Responsible Statecraft (L'Indro)
L’aggressione militare russa in Ucraina: quale futuro per la nostra libertà
Il 28 marzo 2022 si terrà il convegno "L'aggressione militare russa in Ucraina: quale futuro per la nostra libertà".
noybeu: “👉Your Chance to join the @noyb…”
👉Your Chance to join the @noybeu Team as a #Trainee! 😊
We are looking for young lawyers that want to gain experience in #GDPR litigation and enforcement.
⏩Find out more & apply now for May 2022 onward at noyb.eu/en/traineeship
mastodon.social/@noybeu/107999…
‘Presunzione d’innocenza e diritto all’informazione’, il 22 marzo seminario in Fondazione Einaudi
'Presunzione d'innocenza e diritto all'informazione', il 22 marzo alle ore 17.00 seminario in Fondazione Einaudi
Sono benvenuti eventuali commenti o link ad altri materiali... @maupao @Notizie da Poliverso @Carlo Gubitosa :nonviolenza: @filippodb @Ca_Gi @Informa Pirata @admin @Yaku
Carlo Gubitosa likes this.
Carlo Gubitosa reshared this.
Il deepfake e le risposte normative delineate dal legislatore europeo
Nei giorni scorsi, abbiamo assistito alla diffusione in rete di un video falso in cui compare il Presidente ucraino Volodymyr Zelens’kyj che, rivolgendosi ai propri connazionali, li invita a deporre le armi incoraggiandoli alla resa. Ciò, è stato reso possibile grazie ad un uso malevolo dell’intelligenza artificiale e, più in particolare, della tecnica del deepfake.
La vicenda descritta non rappresenta certamente il principale problema di quanto sta accadendo, a livello mondiale, a causa del triste conflitto in corso, tuttavia suscita alcune riflessioni rispetto al fenomeno dei deepfakes e sui rischi ad esso connessi, nonché sulle risposte normative che il legislatore europeo ha, in tempi recenti, cercato di dare al problema.
Cos’è il deepfake
Anzitutto, il deepfake è una tecnica che sfrutta l’intelligenza artificiale per creare ex novo dei contenuti digitali falsi oppure per manipolare contenuti già esistenti al fine di mistificare la realtà in essi rappresentata.La parola è un neologismo nato dalla fusione dei termini fake, ovvero “falso”, e deep learning, una particolare tecnologia basata sull’apprendimento profondo delle macchine.
La recente proposta di Regolamento europeo sull’Intelligenza Artificiale, pubblicata lo scorso 21 aprile dalla Commissione Europea, all’art. 52, comma 3, definisce il deepfake come “sistema di intelligenza artificiale che genera o manipola immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona”.
Nella vicenda che ha visto coinvolto il Presidente ucraino, la tecnica descritta non è stata utilizzata in maniera del tutto efficace, per cui il tentativo di disorientare i destinatari non si è affatto compiuto. Tuttavia, talvolta, i contenuti sono creati e/o manipolati con un’accuratezza tale da rendere difficile anche ad altri sistemi IA di rilevarne la falsità.
Per tale motivo, un controllo ed una regolamentazione del fenomeno si ritengono essere più che mai necessari, visti i possibili rischi sottesi ad un improprio uso di tale tecnologia.
In uno studio sui falsi digitali pubblicato nel luglio 2021 dall’European Parliament Research Service, “EPRS”, consultabile qui, è stato rilevato come, nel giro dei prossimi cinque anni, gli strumenti per creare deepfakes diverranno ancora più alla portata e semplici da utilizzare.
L’attuale ascesa delle deepfake-as-a-service companies renderà la tecnicacomunemente usata ed integrata nelle varie tipologie di software prodotte, facendo acquisire agli utenti una sempre maggiore familiarità con tale applicazione IA; familiarità che, naturalmente, comporterà anche una più elevata possibilità di abuso nel prossimo futuro.
Il quadro normativo di riferimento
Dal momento che, come detto, il deepfake costituisce una tecnologia basata sull’intelligenza artificiale, rilevano innanzitutto le regole per l’uso delle applicazioni IA che nella recente proposta di Regolamento il legislatore europeo ha cercato di delineare.
In secondo luogo, posto che la creazione di un falso contenuto digitale comporta, tipicamente, anche il trattamento di dati personali, trovano applicazione le disposizioni del Regolamento UE 679/2016, “GDPR”.
La proposta di Regolamento europeo sull’Intelligenza Artificiale sopra richiamata, come noto, ha l’obiettivo di consentire un uso affidabile e sicuro dell’IA, nel rispetto dei valori e dei diritti fondamentali degli individui.
A tal fine, stabilisce regole armonizzate per lo sviluppo, l’immissione sul mercato e l’utilizzo dei sistemi IA.
In estrema sintesi, il quadro normativo proposto adotta un approccio basato sul rischio, distinguendo tra “rischio minimo”, “rischio limitato”, “rischio elevato” e “rischio inaccettabile” per i diritti e le libertà fondamentali. Esso è volto a vietare l’uso di sistemi che presentino un rischio inaccettabile, mentre per i sistemi che rientrano nella categoria ad alto rischio prevede l’obbligo di effettuare dettagliate analisi e valutazioni d’impatto, nonché di garantire una fase di controllo e di supervisione “umani”.
Con particolare riguardo alla tecnica del deepfake, la proposta di Regolamento consente tale tecnologia, ma articola alcuni requisiti minimi e prevede un obbligo di trasparenza in capo a chi ne fa uso.
Nello specifico, l’art. 52, comma 3, della proposta impone ai creatori di deepfakes di etichettare il contenuto generato in modo che sia chiaro a chiunque che si tratti di un contenuto digitale artificialmente creato e/o manipolato.
Tuttavia, successivamente, lo stesso art. 52 prevede che tale obbligo non si applica “quando l’uso è autorizzato dalla legge per accertare, prevenire, indagare e perseguire reati o se è necessario per l’esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze garantito dalla Carta dei diritti fondamentali dell’UE, e fatte salve le tutele adeguate per i diritti e le libertà dei terzi.”
Un obbligo di etichettatura dei deepfakes potrebbe essere un primo passo verso la mitigazione dei potenziali impatti negativi del fenomeno. Nondimeno, come rilevato dall’EPRS nello studio citato, la natura e la portata della disposizione sono ad ora poco chiare e si rinviene, complessivamente, una certa timidezza regolatoria da parte del legislatore, il quale non prevede neppure una sanzione per l’ipotesi di mancato rispetto dell’obbligo previsto dall’art. 52.
Inoltre, la possibilità di deroga, prevista dalla norma, laddove l’uso del deepfake sia “necessario per l’esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze”, include un raggio di ipotesi così ampio da svuotare di significato l’obbligo di trasparenza sancito.
Pertanto, la risposta normativa tratteggiata, in tale sede, dal legislatore europeo non è attualmente ritenuta sufficiente a contrastare il problema.
Con riguardo, poi, all’aspetto relativo al trattamento dei dati personali, è da rilevare che, nel contesto dei deepfakes, i dati personali vengono trattati non soltanto nella fase di creazione dei contenuti, ma anche per addestrare il software che, a tal fine, viene utilizzato. Per tale motivo, è bene innanzitutto precisare che il GDPR, in relazione al suo ambito di applicazione, rileva in entrambe le fattispecie.
Con particolare riferimento al requisito di liceità del trattamento, di un certo interesse è la ricerca della base giuridica.
Secondo l’EPRS, nel caso specifico della generazione dei deepfakes, due sono le basi giuridiche cui i creatori potrebbero appellarsi: l’interesse legittimo ed il consenso esplicito dell’interessato. Nel caso in cui il creatore sostenga di vantare un interesse legittimo, quest’ultimo, come noto, per costituire fondamento di liceità, deve prevalere sugli interessi o sui diritti e libertà dell’interessato.
Quando la base giuridica dell’interesse legittimo non è applicabile, l’uso di dati personali per la creazione e diffusione di deepfakes deve essere sottoposto al consenso informato delle persone raffigurate nei contenuti. È importante notare, qui, che il consenso deve essere ottenuto sia dai soggetti del contenuto originale, che dai soggetti che appaiono nel contenuto “fabbricato”.
Il GDPR offre dei rimedi alle vittime dei falsi digitali, attraverso la previsione di alcuni diritti in capo agli interessati, quali il diritto alla correzione dei dati inesatti o il diritto alla cancellazione dei propri dati.
Nel contesto dei deepfakes, il percorso legale può essere piuttosto impegnativo, da intraprendere, per le vittime. In molti casi, è impossibile per la vittima identificare l’autore, che opera quasi sempre in modo anonimo ed illecito.
L’Autorità italiana Garante per la protezione dei dati personali ha pubblicato, sul proprio sito istituzionale, un vademecum sul tema consultabile qui.
Conclusioni
La tecnica del deepfake, se utilizzata illecitamente, pone seri rischi in termini di diritti e libertà dei soggetti coinvolti. Notevoli ripercussioni, poi, possono essere prodotte laddove i deepfakes abbiano ad oggetto contenuti di un certo impatto sociale e politico, come da ultimo accaduto nel contesto del conflitto russo-ucraino.
Non vi sono soluzioni rapide di contrasto al fenomeno, né la risposta normativa di recente approntata dal legislatore europeo, che sopra si è brevemente descritta, sembra adeguata a mitigare i possibili danni derivanti dalla divulgazione illecita di falsi digitali.
Attualmente, dunque, il primo e più efficace strumento di difesa è rappresentato da una maggiore consapevolezza nella navigazione in rete, dalla responsabilità e dall’attenzione degli utenti. Nella speranza che, frattanto, venga apprestato un quadro regolatorio più appropriato da parte delle istituzioni europee, che giocano un ruolo primario in tale contesto.
Gabriella Amato
L'articolo Il deepfake e le risposte normative delineate dal legislatore europeo proviene da E-Lex.
Privacy Daily – 22 marzo 2022
EDPB: linee guida sui dark pattern
L’EDPB ha pubblicato le Linee guida sui cosiddetti “dark pattern” sulle piattaforme dei social media e sulle loro potenziali violazioni del Regolamento generale sulla protezione dei dati dell’UE. Le linee guida delineano i principi per la trasparenza, la responsabilità e la protezione dei dati fin dalla progettazione, nonché le disposizioni del GDPR che possono aiutare le valutazioni dei “dark pattern”. L’EDPB ha anche redatto una checklist per identificare particolari “dark pattern” La scadenza per i commenti pubblici sulle linee guida è il 2 maggio.
edpb.europa.eu/our-work-tools/…
Come l’UE sta combattendo i giganti delle tecnologia con Margrethe Vestager
Margherita Vestager nominata commissario alla concorrenza della Commissione europea nel 2014 e vicepresidente esecutivo nel 2019, ha portato avanti cause antitrust contro Apple, Google, Meta (ex Facebook) e Amazon, tra gli altri. Ora, con l’UE punta ad attuare una nuova legge antitrust chiamata Digital Markets Act e prepara le sue prossime mosse. Lintervista su The Verge.
theverge.com/22981261/margreth…
I trend dell’intelligenza artificiale del 2022
Ha fatto notizia il pronunciamento di un tribunale di Hangzhou, città a 140 chilometri da Shanghai, oltre che sede del colosso cinese dell’e-commerce Alibaba, che ha dato ragione a Guo Bing, professore di giurisprudenza presso l’Università Tecnica Zhejiang nonché cliente tutt’altro che soddisfatto del Safari Park cittadino. Nel 2019 il professor Bing si era lamentato perché il safari park chiedeva obbligatoriamente a tutti i clienti di essere ripresi dal sistema di riconoscimento facciale, pena il mancato ingresso allo zoo. Secondo il cliente tale requisito violava le norme cinesi a protezione dei consumatori. In questi giorni il tribunale cinese gli ha dato ragione, ha condannato il safari park al rimborso dell’abbonamento annuale e ha dichiarato illegale la cattura dei dati biometrici del volto senza il consenso degli interessati.
notizie.ai/i-trend-nellintelli…
Sabrina Web 📎
in reply to Sabrina Web • • •Sabrina Web 📎
in reply to Sabrina Web 📎 • • •Anon likes this.