Privacy Pride ha ricondiviso questo.

🇩🇪 Innenkommissarin Johansson versucht vergeblich, die #ChatControlGate-Lobbyismus-Enthüllungen zu bestreiten.

Die Wahrheit ist: Industrievertreter hatten Zugang zu hochrangigen EU-Kommissionsvertretern, sicherlich nicht die Zivilgesellschaft.

Kommentar: patrick-breyer.de/chatkontroll…

reshared this

Privacy Pride ha ricondiviso questo.

In case you missed it: Listen to Max Schrems discuss GDPR enforcement in a webinar with Daniel Solove.

youtube.com/watch?v=2Pm69NM3qm…

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇬🇧 Before you sign up to #Bluesky, you should know:
❌ anonymous read access
✅ pervasive tracking of your online behaviour including IP address
✅ external trackers
✅ personal data leakage to the USA

My advice: #JoinMastodon blueskyweb.xyz/support/privacy…

reshared this

in reply to Patrick Breyer

Wenn man sich die Dienste aktuell auf der Website ansieht, sieht das nicht so schlimm aus.
Und auch die in der Policy genannten Dienste sind nachvollziehbar.
Bei aller berechtigten Vorsicht, die man haben sollte…es sieht dort aktuell wesentlich besser aus als in den anderen sozialen Netzwerken (Fediverse ausgenommen). Und API-Zugriff auf Inhalte…nun ja…es ist ein soziales Netzwerk.
Denke nicht, dass die Leute meinen, dass ihre Postings dort geschützt sind. (1/2)
Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Bevor du dich auf #Bluesky anmeldest, solltest du wissen:
❌ anonymer Lesezugriff
✅ Ausspionieren/Tracking deines kompletten Nutzungsverhaltens samt IP-Adresse
✅ externe Tracker
✅ Personendatenabfluss in die USA

Ich rate: #JoinMastodon blueskyweb.xyz/support/privacy…

Privacy Pride ha ricondiviso questo.

"Eigentum, Medien, Öffentlichkeit": Große Leseempfehlung für diesen Sammelband der Kritischen Kommunikationswissenschaft @krikowi

Unsere Kollegen @roofjoke & @fantafanta haben eine Analyse der Abhängigkeit vieler Medien von Google beigesteuert.

Das Buch gibt's Open Access hier: krikowi.net/eigentum-medien-of…

Privacy Pride reshared this.

Privacy Pride ha ricondiviso questo.

Wenn Polizeibedienstete auf interne Missstände wie Sexismus oder Rechtsextremismus aufmerksam machen, müssen sie als Nestbeschmutzer:innen gravierende Konsequenzen fürchten. Ein neues Projekt von Alfred Landecker Foundation & @Freiheitsrechte will das ändern:

netzpolitik.org/2023/projekt-m…

Privacy Pride reshared this.

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇬🇧 The timeline algorithms of Instagram and Co. are surveillance capitalist hate and fake news slingshots. Should users be able to freely choose their timeline algorithm in future? Conservatives and Socialists are preventing that.

#Pirates t.co/ldnHpGGqks

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Lesenswert: In seiner Kolumne für @spiegelonline beschreibt @ChrisStoecker ausführlich über die gefährlichen #Chatkontrolle-Bestrebungen der EU: spiegel.de/wissenschaft/mensch…

Privacy Pride reshared this.

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Die Timeline-Algorithmen von Instagram und Co. sind überwachungskapitalistische Hass- und Fake News-Schleudern. Sollen Nutzer ihren Timeline-Algorithmus künftig frei wählen können? SPD, Union und AfD verhindern das.

#Piraten t.co/yN8r48D2qa

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Die Timeline-Algorithmen von Instagram und Co. sind überwachungskapitalistische Hass- und Fake News-Schleudern. Sollen Nutzer ihren Timeline-Algorithmus künftig frei wählen können? SPD, Union und AfD verhindern das.

#Piraten

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Interne Dokumente zeigen: #Europol will uneingeschränkten Zugang zu #Chatkontrolle-Daten für KI-Training. Interne Dokumente zeigen, dass Ex-Europol Beamte nun bei Ashton Kutchers Lobby-Organisation Thorn arbeiten. @Netzpolitik_org berichtet: netzpolitik.org/2023/interne-d…

reshared this

Finalmente in italiano l'inchiesta di Giacomo Zandonini che fa tremare la Commissione Europea «Il pericolo della “porta sul retro” imposta dal regolamento europeo anti-pedopornografia»

@Privacy Pride

Proposto dalla Commissaria Ue Johansson, rischia di mettere fine alla sicurezza delle comunicazioni private. Lo dicono gli esperti, mentre la Commissione minimizza. E si fa consigliare da società e enti non profit della Silicon Valley

Gli appetiti dei privati – profit e non profit – sui sistemi di detection delle immagini, l’approccio “lasco” agli ordini di ricerca e le richieste aggiuntive di Europol in termini di possibilità d’indagine sono alcune delle rappresentazioni concrete del Rubicone da non varcare citato dal Garante europeo Wojciech Wiewiórowski: costringere ogni app, sito o piattaforma a mantenere una “porta sul retro” espone chiunque al rischio di essere spiato all’interno di una piazza virtuale, sia da agenti, sia da criminali. Mentre la Commissaria Johansson e la rete di lobby con cui ha stretto rapporti nell’ultimo biennio spingono per chiudere l’iter legislativo al più presto, con la fine dell’estate i negoziati sembrano bloccati.

IRPIMEDIA È GRATUITO - Ogni donazione è indispensabile per lo sviluppo di IrpiMedia

#chatcontrol #stopchatcontrol

in reply to EDRi

4/4
💙 Support us with a donation: edri.org/take-action/donate/
📩 Stay updated: edri.org/take-action/stay-up-t…
🎪 Join us at an event: edri.org/take-action/events/
💪🏾 Get involved in our campaigns: edri.org/take-action/our-campa…
Privacy Pride ha ricondiviso questo.

"A leading campaigner against Meta’s data practices said he would fight the proposals “up and down the courts” if the subscription fees were implemented." 👇

theguardian.com/technology/202…

Privacy Pride reshared this.

in reply to noyb.eu

I don't understand. #Facebook et al. destroyed the #OpenWeb by giving people the illusion of forever free web hosting paid by mysterious pots of infinite money. Switching to a subscription model is a positive development (if they really mean it).

However, non-paying customers still need to have their #GDPR rights. Otherwise the risk of business as usual is too high.

in reply to Nemo_bis 🌈

@nemobis I also agree that to change a business model based on ads, an alternative may be charging users. Having platforms like these costs a lot - Meta has more than 70.000 employees, so they need money from somewhere. But in that case, they should charge everyone (my view), not only those that want their fundamental rights respected. They cannot divide citizens in 2 categories. And they will charge high fees so people will never pay for it, everyone will choose ads. Nothing changes. 🙁
in reply to veroandi

@veroandi Agreed in principle. Making everyone pay is never going to happen because the service has zero value if the network effect goes away (I'd welcome it as a way to kill Facebook and other proprietary social media, but it won't happen voluntarily).

However it would be interesting to charge every super user based on some objective criteria for hosting costs, a bit like #Telegram does for channel owners (IIRC).

Le fakenews della commissaria agli affari interni Ylva Johansson su chatcontrol nella newsletter di Privacy Chronicles di Matteo Navacci

@Privacy Pride

"nessuno ci ha ancora spiegato in che modo un regime di sorveglianza di massa totalitario sulle comunicazioni (chat, email, ecc.) di 500 milioni di persone possa in qualche modo evitare che un bambino venga violentato nella sua stanzetta"

Sei sicuro di volerlo sapere?

Clicca per aprire/chiudereForse inoculando un malware "buono" nei dispositivi di acquisizione audio e video presenti in ogni cameretta di ogni bimbo? 🙄

La newsletter completa

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇬🇧 In the plenary of the EU Parliament, the #MediaFreedomAct was voted on today. Here you can see which groups supported “exceptional” use of spyware against journalists: t.co/FLWAS5DnxA

reshared this

in reply to Patrick Breyer

The media in this post is not displayed to visitors. To view it, please go to the original post.

@ChatonsOrg @federationfdn @LaQuadrature
En plénière du parlement européen, le #MediaFreedomAct a été voté aujourd'hui. Vous pouvez voir ici quels groupes ont supporté l'usage "exceptionnel" de logiciels espions contre les journalistes.
Questa voce è stata modificata (2 anni fa)
Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Im Plenum des EU-Parlaments wurde heute über das Medienfreiheitsgesetz abgestimmt. Union, SPD und FDP finden ernsthaft, “ausnahmsweise” sei das Ausspähen von Journalistenhandys ok – mit uns #Piraten nicht zu machen! t.co/OQPrYFffqq

reshared this

in reply to Patrick Breyer

Die Verwanzungsbestrebungen dieser Parteien ist ein Offenbarungseid. Wer keine politischen Lösungen mehr hat, bringt das Volk mit Massenüberwachung an die Kandarre, damit die Sklaven weiter spuren und die Machtverhältnisse zementiert bleiben.
Massenüberwachung führt zu Stillstand! Dabei dachte ich, den hätten wir in Europa schon vollkommen erreicht.

#Piraten

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Im Plenum des EU-Parlaments wurde heute über das Medienfreiheitsgesetz abgestimmt. Union, SPD und FDP finden ernsthaft, “ausnahmsweise” sei das Ausspähen von Journalistenhandys ok – mit uns #Piraten nicht zu machen!

reshared this

in reply to Patrick Breyer

Verständlich, die wollen nicht als die korrupten Skandalnudeln von Journalisten geoutet werden welche sie eigentlich sind. Deshalb ist es unumgänglich den Journalisten ihr Arbeiten unmöglich zu machen. Aggressiv ausspionieren und Handy ausspähen scheint den Korruptlingen die erfolgversprechendste Maßnahme. Deshalb ist die Verteidigung der Pressefreiheit unumgänglich auch wenn das Christian Lindner und Philipp Amthor überhaupt nicht paßt.
Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Una buona giornata per la libertà di stampa in Parlamento europeo

@giornalismo

L'Europarlamento anche grazie al contributo di @marcel_kolaja ha stabilito oggi nuove regole contro le cancellazioni arbitrarie e la sorveglianza dei giornalisti.
Ma bisogna ancora lavorare per bandire gli #spyware per i giornalisti

#EMFA #EuropeanMediaFreedomAct

pirati.io/2023/10/liberta-dei-…

in reply to Pirati.io

Una settimana fa, infatti, 80 associazioni e sindacati della società civile e dei giornalisti, comprese le federazioni europee e internazionali dei giornalisti (EFJ-IFJ), hanno chiesto ai membri del Parlamento europeo una protezione significativa per i giornalisti includendo nel nel regolamento un divieto totale dello spyware.

Purtroppo non è andata così!

europeanjournalists.org/blog/2…

@giornalismo @marcel_kolaja

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇬🇧 A good day for press freedom: the EU Parliament today set new rules against arbitrary deletions and journalist surveillance. @marcel_kolaja was involved in the negotiations.

We had hoped for banning #spyware though: t.co/kAU0Vd5L5Z patrick-breyer.de/en/media-fre…

Questa voce è stata modificata (2 anni fa)

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Ein guter Tag für die Pressefreiheit: Das EU-Parlament hat heute neue Regeln gegen willkürliche Löschungen und Journalisten-Überwachung auf den Weg gebracht. #Pirat @marcel_kolaja hat mitverhandelt.

Wir hätten uns noch mehr gewünscht: t.co/W7GmZrapXY patrick-breyer.de/medienfreihe…

Questa voce è stata modificata (2 anni fa)

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪 Ein guter Tag für die Pressefreiheit: Das EU-Parlament hat heute neue Regeln gegen willkürliche Löschungen und Journalisten-Überwachung auf den Weg gebracht. #Pirat @piratkolaja hat mitverhandelt.

Wir hätten uns noch mehr gewünscht: patrick-breyer.de/medienfreihe…

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪🤝 Am Tag der deutschen Einheit sollten wir uns auch daran erinnern, dass wir mehr als 40 Jahre Stasi-Überwachungsapparat losgeworden sind.

Autokratischer Überwachungs-Populismus hat in unserer Demokratie keinen Platz. Darum kämpfe ich gegen Gesetze wie die #Chatkontrolle. t.co/ujGPqxmxzG

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🇩🇪🤝 Am Tag der deutschen Einheit sollten wir uns auch daran erinnern, dass wir mehr als 40 Jahre Stasi-Überwachungsapparat losgeworden sind.

Autokratischer Überwachungs-Populismus hat in unserer Demokratie keinen Platz. Darum kämpfe ich gegen Gesetze wie die #Chatkontrolle.

reshared this

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

1/3📌 Send a proposal: #PrivacyCamp24 will take place on 24 January 2024 under the theme:

✨‘Revealing, Rethinking, and Changing Systems’✨

Submit your proposal here: framaforms.org/panel-submissio…

reshared this

in reply to EDRi

The media in this post is not displayed to visitors. To view it, please go to the original post.

2/3 🤩 Starting this year, @jilltoh will join us as a part of #PrivacyCamp's content committee! We're so honoured!

Jill is a PhD researcher at University of Amsterdam’s Institute for Information Law, and a co-founder of Racism and Technology Center, working on data, tech, labour & social justice.

She will join @Andreea, @ggf and @ikkibop on the committee.

in reply to EDRi

3/3 🤝#PrivacyCamp23 is organised by @edri, in collaboration with our partners: the Research Group on Law, Science, Technology & Society (LSTS) at Vrije Universiteit Brussel (VUB), Privacy Salon vzw, the Institute for European Studies (IEE) at Université Saint-Louis – Bruxelles, the Institute of Information Law (IViR) at University of Amsterdam and the Racism and Technology Center.

For more details about the event and how to submit your proposal: privacycamp.eu/2023/10/02/priv…

Questa voce è stata modificata (2 anni fa)
Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

Der heutige Beschluss lässt Nutzerbewertungen der Vertrauenswürdigkeit und Fact Checking auch von Medienberichten selbstverständlich zu.
Nur zwei Beispiele von BigTech-Overblocking zulasten der freien Medien (ARD Monitor und Süddeutsche Zeitung): sueddeutsche.de/digital/instag…

Privacy Pride reshared this.

Privacy Pride ha ricondiviso questo.

Guter Tag für die #Pressefreiheit: EU-Parlament will unabhängige Medien vor der Zensurwillkür und fehleranfälligem #Uploadfilter von Zuckerberg, Musk usw. schützen. Wir sollten selbst entscheiden dürfen, welchen Quellen wir vertrauen und was "Desinformation" ist! #MediaFreedomAct

reshared this

Privacy Pride ha ricondiviso questo.

⚠ Meta will apparently to move to a "Pay for your Rights" model in the European Union!

EU users would then have to pay $ 168 a year if they don't want to give up their fundamental right to privacy on Facebook and Instagram. This move is inacceptable.

noyb.eu/en/meta-facebook-insta…

Privacy Pride ha ricondiviso questo.

Wir machen zum Feiertag einen Ausflug nach Südkorea: KI hat ihren Weg in den K-Pop gefunden. Ein Grund: Die virtuellen Idole scheinen wie geschaffen für den Perfektionsdruck in der Branche. netzpolitik.org/2023/neue-k-po…

Privacy Pride reshared this.

Il Regolamento chatcontrol è diventato la "legge più criticata di tutti i tempi": ecco perché i piani di scansione CSAM dell'UE devono fallire

@Privacy Pride

Riportiamo la severa presa di posizione di @Tutanota contro il regolamento #chatcontrol

Il Consiglio degli Stati membri dell'UE ha rinviato il voto finale sul regolamento sugli abusi sessuali sui minori (CSAR), previsto per il 28 settembre, alla fine di ottobre, poiché il disaccordo e le critiche alla legge continuano. Questo è un grande segno che il regolamento, soprannominato anche controllo delle chat e una delle leggi europee più criticate di sempre, potrebbe fallire.
La lotta sul controllo delle chat continua tra gli Stati membri dell'UE: un piccolo gruppo di Paesi - Germania, Austria, Paesi Bassi, Polonia, Svezia, Estonia e Slovenia - si oppone all'attuale bozza del regolamento CSA dell'UE. I politici tedeschi hanno già detto che non ci sono procedimenti penali ad ogni costo, una chiara dichiarazione contro i piani dell'UE per la scansione lato client che comprometterebbe la crittografia.

Questo arriva in un momento molto importante, dato che il Regno Unito ha appena approvato la legge sulla sicurezza online, il cosiddetto "libro dei sogni dei dittatori". Mentre ora è teoricamente possibile per il Regno Unito minare la crittografia, l'UE ha ancora la possibilità di adottare un approccio più favorevole alla privacy quando si tratta di salvaguardare il web.


La Germania si oppone al controllo delle chat

La Germania ha chiesto di rinviare il voto, come nella sessione precedente, sostenuta dall'Austria. Il lavoro non sarebbe ancora finito, le misure contenute nel testo attuale sono sproporzionate e illegali e devono essere modificate.

All'inizio di quest'anno gli esperti legali del Servizio scientifico del Parlamento europeo hanno concluso in uno studio sulla legalità del controllo delle chat:

"soppesando i diritti fondamentali interessati dalle misure della proposta CSA, si può stabilire che la proposta CSA violerebbe gli articoli 7 e 8 della Carta dei diritti fondamentali per quanto riguarda gli utenti".

Secondo i servizi legali dell'UE, le parti della proposta CSAR sul controllo delle chat tramite scansione lato client sono sproporzionate e contrarie ai diritti fondamentali. Il regolamento CSA dell'UE è illegale ai sensi del diritto dell'UE.


Il Consiglio è diviso

Inoltre, Polonia, Paesi Bassi e Svezia hanno chiesto di modificare il testo della legge. Altri nove Stati hanno chiesto che la posizione comune venga adottata al più presto. La loro argomentazione: nei negoziati a tre con la Commissione e il Parlamento europeo, gli Stati dovranno comunque scendere a compromessi.

Ma dall'inizio dei dibattiti, 18 mesi fa, gli obblighi di sorveglianza come la scansione lato client, il controllo delle chat e gli aspetti di crittografia - punti chiave del progetto di legge - sono particolarmente controversi tra gli Stati membri dell'UE.

La Svezia vede "problemi con l'integrità e la certezza giuridica della proposta", mentre la Polonia ha definito tutto "molto complicato", affermando che il regolamento CSA non è ancora "riuscito a trovare il giusto equilibrio tra protezione dei minori e protezione dei dati".

La Polonia ha chiesto che vengano scansionate solo le chat di "persone concretamente sospette" e non quelle di cittadini innocenti.

Diversi Stati criticano altre disposizioni in quanto sproporzionate. I Paesi Bassi e la Germania vogliono esentare la telefonia audio, mentre la Svezia vuole esentare le comunicazioni su reti mobili. Svezia e Paesi Bassi vogliono limitare la scansione al materiale abusivo noto ed esentare il materiale sconosciuto e il grooming.

Questo dimostra quanto gli Stati membri dell'UE siano ancora divisi e quanto sia controverso il controllo delle chat, una delle leggi europee più criticate di tutti i tempi.

Dichiarazioni contrastanti della Commissione UE

La Commissione europea, tuttavia, respinge le argomentazioni degli oppositori e sostiene che è possibile proteggere e scansionare le chat allo stesso tempo - senza tuttavia fornire alcuna prova su come ciò dovrebbe essere fatto.

Allo stesso tempo, un'altra formulazione all'interno della proposta di legge chiarisce che il controllo delle chat è uno strumento di sorveglianza: I servizi di comunicazione non pubblici devono essere esentati, ad esempio se sono "utilizzati per scopi di sicurezza nazionale", per proteggere "le informazioni riservate, comprese quelle classificate". Gli Stati non vogliono il controllo delle chat per le proprie comunicazioni per evitare la sorveglianza.

Decisione rinviata

Mentre la Commissione europea sta facendo pressione sugli Stati per giungere a una decisione finale, è diventato evidente che non esiste una maggioranza qualificata per l'attuale proposta. Di conseguenza, il voto sul CSAR è stato rinviato in seno al Consiglio.

Ciò non sorprende, poiché nessun'altra legge dell'UE è stata criticata quanto il CSAR (bozza trapelata della Presidenza spagnola).

Critiche al controllo delle chat


1. Il controllo delle chat può essere illegale

Il problema centrale del CSAR è il seguente: scansionare in massa le comunicazioni di persone insospettabili senza motivo è sproporzionato e contrario ai diritti fondamentali.

Nel maggio dello scorso anno, la Commissione europea ha proposto di introdurre requisiti obbligatori per tutti i servizi di chat, messaggistica e posta elettronica, anche quando forniscono una crittografia Ende-zu-Ende, per scansionare i messaggi alla ricerca di materiale illegale relativo ad abusi sessuali su minori (CSAM). Dopo la loro pubblicazione, le misure proposte sono state criticate in tutta Europa perché potrebbero portare a una "sorveglianza permanente di tutte le comunicazioni interpersonali".

La Carta dei diritti fondamentali dell'UE garantisce il diritto alla privacy per tutte le persone che vivono nell'Unione europea. Di conseguenza, i consulenti legali dell'UE hanno concluso che le proposte europee di controllo delle chat, che richiederebbero alle aziende tecnologiche di scansionare i messaggi privati e criptati alla ricerca di materiale pedopornografico (CSAM), violano il diritto dell'UE.

La controversa legge dell'UE consentirà ai governi di inviare "ordini di rilevamento" alle aziende tecnologiche, imponendo loro di scansionare i messaggi privati e le e-mail alla ricerca di "indicatori di abusi su minori". Ciò potrebbe compromettere le comunicazioni criptate e viene criticato dagli esperti di sicurezza e dai sostenitori della privacy come una sorveglianza di massa generale e indiscriminata. Inoltre, bisogna ricordare che la Corte costituzionale federale tedesca ha persino dichiarato illegale la conservazione dei dati in Germania perché "sproporzionata".

È molto probabile che il regolamento CSA - se dovesse diventare legge - venga dichiarato illegale anche dalla Corte di giustizia europea (CGE). L'obbligo per aziende come WhatsApp, Signal e altre di analizzare ogni messaggio - anche se criptato - alla ricerca di materiale pedopornografico viola il diritto alla privacy delle persone, in contrasto con la Carta dei diritti fondamentali dell'UE.

Mentre le aziende tecnologiche si sono opposte senza successo a proposte simili nel Regno Unito nel disegno di legge sulla sicurezza online appena approvato, compreso il controverso requisito di scansionare il materiale pedopornografico una volta che esista una "tecnologia fattibile", sembra piuttosto improbabile che qualcosa di simile venga approvato nell'UE, data la grande resistenza, anche tra gli Stati membri dell'UE, ma ancora di più tra i parlamentari europei.


2. Forte lobbying da parte delle aziende di IA

Nel settembre 2023 è stata pubblicata una nuova ricerca che getta una luce molto diversa sul controllo delle chat - e su chi trarrebbe davvero vantaggio se tutti gli europei fossero monitorati 24 ore su 24, 7 giorni su 7, su Internet.

Oltre ad Ashton Kutcher e alla sua organizzazione Thorn, un lungo elenco di organizzazioni, aziende di IA e forze dell'ordine sta facendo pressione a Bruxelles a favore del controllo delle chat. La ricerca, ad esempio, rivela che WeProtect Global Alliance è un'istituzione affiliata al governo, strettamente legata all'ex diplomatico Douglas Griffiths e alla sua Oak Foundation. Quest'ultima ha investito più di 24 milioni di dollari USA in attività di lobbying per il controllo delle chat dal 2019, ad esempio attraverso la rete Ecpat, l'organizzazione Brave e l'agenzia di PR Purpose.

La ricerca "conferma i nostri peggiori timori", ha dichiarato Diego Naranjo, responsabile delle politiche dell'organizzazione per i diritti civili European Digital Rights (EDRi). "La legge europea sulla tecnologia più criticata dell'ultimo decennio è il prodotto di un'attività di lobbying da parte di aziende private e forze dell'ordine"."Il commissario dell'UE, Ylva Johansson, ha ignorato "la scienza e la società civile" e ha proposto una legge per "legalizzare la sorveglianza di massa e rompere la crittografia", ha detto. "La protezione dei minori viene qui abusata come porta aperta per un'infrastruttura di sorveglianza di massa senza alcuna ragione", denuncia Konstantin Macher dell'associazione per la protezione dei dati Digitalcourage.

3. La Germania è contraria alla proposta

La Germania è il più forte oppositore dell'attuale progetto CSAR - e a ragione. La Germania ha un passato di difesa del diritto alla privacy, non da ultimo a causa della sua storia di sorveglianza di massa durante i sistemi repressivi della Repubblica Democratica Tedesca (DDR) e durante la Seconda Guerra Mondiale.

Oggi, i politici tedeschi affermano: "Non c'è alcun procedimento giudiziario ad ogni costo": Il diritto alla privacy è un diritto umano importante, a cui non dobbiamo rinunciare.

4. La legge dell'UE più criticata di sempre

Secondo l'organizzazione no-profit EDRi, "un'ampia gamma di soggetti interessati senza precedenti ha sollevato preoccupazioni sul fatto che, nonostante i suoi importanti obiettivi, le misure proposte nella bozza di regolamento UE sugli abusi sessuali sui minori sono fondamentalmente incompatibili con i diritti umani".

EDRi ha pubblicato un'impressionante raccolta di 69 voci contrarie provenienti da politici dell'UE, Stati membri dell'UE, aziende tecnologiche e persino esperti di protezione dell'infanzia che spiegano perché il controllo delle chat deve fallire.

Ha inoltre pubblicato una lettera aperta firmata da oltre 80 ONG che si aggiunge alla voce di quasi 500 scienziati che spiegano perché dobbiamo lottare per la privacy in Europa.

Non importa quanto i politici cerchino di convincere l'opinione pubblica: La scansione dei nostri messaggi privati alla ricerca di materiale pedopornografico è una sorveglianza di massa. Non dobbiamo mai permetterlo.

Tutanota non accetta il controllo delle chat

Noi di Tutanota siamo combattenti per la libertà: Siamo all'avanguardia nella rivoluzione della privacy offrendo a tutti nel mondo un account di posta elettronica privato.

Se il regolamento CSA dovesse andare avanti nella sua forma attuale, saremmo disposti a difendere il diritto alla privacy in tribunale, come abbiamo già fatto in Germania.

Mettiamo la vostra privacy e sicurezza al primo posto, il nostro codice per la crittografia automatica Ende-zu-Ende di Tutanota è pubblicamente disponibile come open source. Non comprometteremo mai la nostra promessa di privacy o la nostra crittografia.

La nostra posizione rimane ferma: faremo tutto il necessario per garantire il vostro diritto alla privacy.


QUI IL POST ORIGINALE

Privacy Pride ha ricondiviso questo.

Medienanbieter sollen mit dem Medienfreiheitsgesetz auf sehr großen Online-Plattformen eine Art Sonderstatus bekommen: EU-Parlament will nur noch betreutes Löschen für Musk und Zuckerberg. Es geht auch um #Staatstrojaner netzpolitik.org/2023/medienfre…

reshared this

in reply to netzpolitik.org

Leider übersieht der Artikel ein ganze Latte an Kritik an Art. 17 #EMFA: News-Artikel werden in Zukunft auf Plattformen nichtmals mehr einen Fact Check bekommen können (weil ="Einschränkung").
#Desinformation bleibt einfach stehen.
Siehe auch:
edri.org/our-work/policy-state…
Oder clubmadrid.org/advocacy-letter…
Oder
epd.eu/news-publications/joint…

Dichiarazione congiunta di scienziati e ricercatori sulla proposta di regolamento sugli abusi sessuale infantili proposta dall'UE: 4 luglio 2023

@Privacy Pride

Cari deputati al Parlamento europeo,

Cari Stati membri del Consiglio dell’Unione europea,

I firmatari di questa dichiarazione sono scienziati e ricercatori di tutto il mondo.

Innanzitutto, riconosciamo che l’abuso e lo sfruttamento sessuale dei minori è un crimine molto grave che può causare danni permanenti ai sopravvissuti. È responsabilità delle autorità governative, con il sostegno delle aziende e delle comunità, intraprendere interventi efficaci per prevenire questo crimine e reagire rapidamente quando si verifica.

La Commissione europea ha proposto una legge con l'obiettivo dichiarato di fermare la diffusione online di materiale pedopornografico e l'adescamento online di minori. Per fare ciò, la legge consente alle autorità di obbligare i fornitori di app o altri servizi online a scansionare messaggi, immagini, e-mail, messaggi vocali e altre attività dei propri utenti. Nel caso delle app crittografate end-to-end, l’affermazione è che questa scansione può essere eseguita sui dispositivi degli utenti – la cosiddetta “scansione lato client” (CSS).

L'efficacia della legge (nei suoi obiettivi dichiarati) dipende dall'esistenza di tecnologie di scansione efficaci. Sfortunatamente, le tecnologie di scansione attualmente esistenti e all’orizzonte sono profondamente imperfette. Questi difetti, che descriviamo in dettaglio di seguito, significano che la scansione è destinata a essere inefficace. Inoltre, l’integrazione della scansione su larga scala nelle app in esecuzione sui dispositivi degli utenti, e in particolare in un contesto globale, crea effetti collaterali che possono essere estremamente dannosi per tutti coloro che sono online e che potrebbero rendere Internet e la società digitale meno sicuri per tutti.

Poiché i problemi che descriviamo riguardano misure che sono al centro della proposta legislativa dell’UE, la nostra raccomandazione professionale come scienziati è che tale proposta non venga portata avanti. Non è fattibile né sostenibile richiedere alle aziende private di utilizzare le tecnologie in modi che già sappiamo non possono essere fatti in modo sicuro – o addirittura non possono essere fatti affatto. Data la natura orribile dell’abuso sessuale sui minori, è comprensibile, e in effetti allettante, sperare che esista un intervento tecnologico in grado di sradicarlo. Tuttavia, guardando la questione in modo olistico, non possiamo sfuggire alla conclusione che l’attuale proposta non è un intervento di questo tipo.

L’approvazione di questa legislazione mina il lavoro ponderato e incisivo che i ricercatori europei hanno svolto nel campo della sicurezza informatica e della privacy, compresi i contributi allo sviluppo di standard di crittografia globali. Tale indebolimento indebolirà l’ambiente per il lavoro sulla sicurezza e sulla privacy in Europa, riducendo la nostra capacità di costruire una società digitale sicura.

Il regolamento proposto costituirebbe inoltre un precedente globale per il filtraggio di Internet, il controllo di chi può accedervi e l’eliminazione di alcuni dei pochi strumenti a disposizione delle persone per proteggere il proprio diritto alla vita privata nello spazio digitale. Ciò avrà un effetto dissuasivo sulla società e probabilmente influenzerà negativamente le democrazie di tutto il mondo.

Mettiamo quindi fortemente in guardia dal perseguire queste o misure simili poiché il loro successo non è possibile data la tecnologia attuale e prevedibile, mentre il loro potenziale danno è sostanziale.

1. Le tecnologie di rilevamento sono profondamente imperfette e vulnerabili agli attacchi

Gli strumenti utilizzati per la scansione di materiale pedopornografico noto (CSAM) non devono contenere materiale pedopornografico stesso poiché ciò comporterebbe gravi rischi. Pertanto, l'unica tecnologia scalabile per affrontare questo problema consiste nel trasformare il contenuto noto con una cosiddetta funzione hash percettiva e nell'utilizzare un elenco dei valori hash risultanti da confrontare con potenziale materiale CSAM. Una funzione hash percettiva deve raggiungere due obiettivi: (i) dovrebbe essere facile da calcolare ma difficile da invertire e (ii) piccole modifiche a un'immagine dovrebbero comportare piccole modifiche all'output hash, il che significa che anche dopo la manipolazione dell'immagine la l'immagine conosciuta può ancora essere rilevata. Anche se sembra facile, dopo più di due decenni di ricerca non sono stati compiuti progressi sostanziali nella progettazione di funzioni che soddisfino queste proprietà.

La ricerca ha dimostrato che per tutte le funzioni hash percettive conosciute, è praticamente sempre possibile apportare piccole modifiche a un'immagine che si traducono in un grande cambiamento del valore hash che consente l'evasione del rilevamento (falso negativo). Inoltre, è anche possibile creare un'immagine legittima che verrà erroneamente rilevata come materiale illegale in quanto ha lo stesso hash di un'immagine presente nel database (falso positivo). Ciò può essere ottenuto anche senza conoscere il database hash. Un simile attacco potrebbe essere utilizzato per incastrare utenti innocenti e inondare le forze dell’ordine di falsi positivi, distogliendo risorse dalle vere indagini sugli abusi sessuali sui minori.

Questi attacchi non sono teorici: per progetti concreti come Photo DNA, la funzione hash PDQ di Facebook e la funzione NeuralHash di Apple, in letteratura sono stati descritti attacchi efficienti.

Per il momento l’unico modo per evitare tali attacchi è mantenere segreta la descrizione della funzione hash percettiva. Questa “sicurezza tramite oscurità” non solo va contro i principi di base dell’ingegneria della sicurezza ma, in pratica, è fattibile solo se la funzione hash percettiva è nota solo al fornitore di servizi. Nel caso della crittografia end-to-end, l'operazione di hashing deve avvenire sul dispositivo client. Pertanto, mantenere segreto il design è un’illusione.

Come scienziati, non ci aspettiamo che nei prossimi 10-20 anni sia fattibile sviluppare una soluzione scalabile che possa funzionare sui dispositivi degli utenti senza fuga di informazioni illegali e che possa rilevare contenuti noti (o contenuti derivati da o correlati a contenuti noti) contenuto) in modo affidabile, cioè con un numero accettabile di falsi positivi e negativi.

La proposta della Commissione Europea va oltre l'individuazione dei contenuti conosciuti. Richiede inoltre che le immagini o i video appena generati con materiale pedopornografico debbano essere rilevati sulla base di strumenti di “intelligenza artificiale”. Inoltre, la proposta prevede che l'adescamento nei servizi di comunicazione, comprendenti sia testo che audio, venga rilevato utilizzando tecniche simili. Sebbene alcuni attori commerciali affermino di aver fatto progressi, i progetti rimangono segreti e non è stata effettuata alcuna valutazione aperta e obiettiva che ne dimostri l’efficacia. Inoltre, lo stato dell’arte dell’apprendimento automatico suggerisce che ciò va ben oltre ciò che è fattibile oggi. In effetti, ogni volta che i progetti lato client sono stati valutati (come nel caso dei prototipi finanziati dal Ministero degli Interni del Regno Unito) si sono rivelati né efficaci né conformi alle leggi sulla privacy e sui diritti umani.

Gli strumenti di intelligenza artificiale possono essere addestrati per identificare determinati modelli con elevati livelli di precisione. Tuttavia, commettono regolarmente errori, compresi errori che a un essere umano sembrano molto elementari. Questo perché i sistemi di intelligenza artificiale mancano di contesto e buon senso. Ci sono alcuni compiti per i quali i sistemi di intelligenza artificiale sono adatti, ma la ricerca di un crimine molto sfumato e delicato – che è ciò che è il comportamento di adescamento – non è uno di questi compiti.

Considerando la scala con cui le comunicazioni private vengono scambiate online, anche la scansione dei messaggi scambiati nell’UE su un solo fornitore di app significherebbe generare milioni di errori ogni giorno. Ciò significa che durante la scansione di miliardi di immagini, video, testi e messaggi audio al giorno, il numero di falsi positivi sarà di centinaia di milioni. Sembra inoltre probabile che molti di questi falsi positivi siano essi stessi immagini profondamente private, probabilmente intime e del tutto legali inviate tra adulti consenzienti.

Ciò non può essere migliorato attraverso l’innovazione: i “falsi positivi” (contenuti erroneamente contrassegnati come materiale illegale) sono una certezza statistica quando si tratta di IA. I falsi positivi sono inevitabili anche quando si tratta dell'uso di tecnologie di rilevamento, anche per materiale CSAM noto. L'unico modo per ridurre questo margine di errore a un margine di errore accettabile sarebbe quello di eseguire la scansione solo in circostanze ristrette e realmente mirate in cui vi sia un sospetto preliminare, nonché risorse umane sufficienti per gestire i falsi positivi, altrimenti i costi potrebbero essere proibitivi data la un gran numero di persone che saranno necessarie per rivedere milioni di testi e immagini. Questo non è quanto previsto dalla proposta della Commissione Europea.

Il sistema di segnalazione proposto nel progetto di proposta CSAM potrebbe incoraggiare nuovi attacchi alle tecnologie di rilevamento. Questo perché in questo momento i fornitori hanno la facoltà di eliminare i falsi allarmi evidenti. Con il nuovo sistema, tuttavia, sarebbero tenuti a segnalare anche i contenuti che sembrano improbabili essere di materiale pedopornografico. Oltre agli attacchi di cui abbiamo parlato, molti altri stanno iniziando ad apparire in sedi accademiche specializzate, e ci aspettiamo che molti altri vengano preparati da coloro che sono motivati a condividere materiale illecito.

Infine, è stato affermato che il rilevamento di materiale pedopornografico dovrebbe essere fattibile poiché la scansione dei virus informatici è una tecnologia ampiamente utilizzata. Sebbene superficialmente entrambi sembrino simili, ci sono differenze essenziali. Innanzitutto, quando viene rilevato un virus informatico, l'utente viene avvisato e il virus può essere rimosso. In secondo luogo, un virus può essere riconosciuto sulla base di una piccola sottostringa univoca, cosa che non è il caso di un'immagine o di un video: sarebbe molto semplice modificare o rimuovere una sottostringa univoca con piccole modifiche che non ne alterano l'aspetto; farlo per un virus renderebbe il codice inutilizzabile. Infine, le tecniche di machine learning possono talvolta identificare il comportamento virale, ma solo quando tale comportamento può essere definito con precisione (ad esempio codice che copia se stesso) e quindi rilevato. Ciò è in contrasto con la definizione di CSAM per la quale non è facile stabilire confini chiari.

2. Implicazioni tecniche dell'indebolimento della crittografia end-to-end

La crittografia end-to-end è progettata in modo tale che solo il mittente e il destinatario possano visualizzare il contenuto di un messaggio o di un'altra comunicazione. La crittografia è l’unico strumento di cui disponiamo per proteggere i nostri dati nel regno digitale; UN

È stato dimostrato che tutti gli altri strumenti sono compromessi. L'utilizzo della crittografia dei collegamenti (da utente a fornitore di servizi e da fornitore di servizi a utente) con la decrittografia nel mezzo, come avviene nel sistema di telefonia mobile, non è una soluzione accettabile nell'attuale contesto di minacce. È ovvio che la crittografia end-to-end rende impossibile implementare la scansione di contenuti noti o nuovi e il rilevamento di adescamenti presso il fornitore di servizi.

Per rimediare a questo, è stata suggerita una serie di tecniche chiamate “Client-Side Scanning” (CSS) come un modo per accedere alle comunicazioni crittografate senza violare la crittografia. Secondo quanto riferito, tali strumenti funzionerebbero scansionando il contenuto sul dispositivo dell’utente prima che sia stato crittografato o dopo che sia stato decrittografato, quindi segnalando ogni volta che viene trovato materiale illecito. Si potrebbe equiparare questo all’aggiunta di videocamere nelle nostre case per ascoltare ogni conversazione e inviare segnalazioni quando parliamo di argomenti illeciti.

L’unica implementazione dei CSS nel mondo libero è stata quella di Apple nel 2021, che secondo loro era una tecnologia all’avanguardia. Questo tentativo è stato ritirato dopo meno di due settimane a causa di problemi di privacy e del fatto che il sistema era già stato dirottato e manipolato.

Quando distribuiti sul dispositivo di una persona, i CSS agiscono come uno spyware, consentendo agli avversari di accedere facilmente a quel dispositivo. Qualsiasi legge che imponga i CSS, o qualsiasi altra tecnologia progettata per accedere, analizzare o condividere il contenuto delle comunicazioni, senza dubbio minerà la crittografia e di conseguenza renderà le comunicazioni di tutti meno sicure. Il lodevole obiettivo di proteggere i bambini non cambia questa realtà tecnica.

Anche se un simile sistema CSS potesse essere concepito, il rischio che se ne abusi è estremamente elevato. Ci aspettiamo che ci sia una pressione sostanziale sui politici affinché estendano il campo di applicazione, prima per individuare il reclutamento di terroristi, poi altre attività criminali, quindi i discorsi dissidenti. Ad esempio, sarebbe sufficiente che i governi meno democratici estendessero il database dei valori hash che tipicamente corrispondono ai contenuti pedopornografici noti (come spiegato sopra) con valori hash dei contenuti critici nei confronti del regime. Poiché i valori hash non forniscono informazioni sul contenuto stesso, sarebbe impossibile per gli estranei rilevare questo abuso. L’infrastruttura CSS potrebbe quindi essere utilizzata per segnalare immediatamente a questi governi tutti gli utenti con questo contenuto.

Se un tale meccanismo venisse implementato, dovrebbe avvenire in parte attraverso la sicurezza tramite oscurità, altrimenti sarebbe facile per gli utenti aggirare i meccanismi di rilevamento, ad esempio svuotando il database dei valori hash o aggirando alcune verifiche. Ciò significa che verrà danneggiata la trasparenza dell’applicazione, che potrebbe essere utilizzata da alcuni attori come velo per raccogliere più dati personali degli utenti.


3. Efficacia

Nutriamo serie riserve sull’efficacia delle tecnologie imposte dal regolamento: gli autori dei reati sarebbero a conoscenza di tali tecnologie e passerebbero a nuove tecniche, servizi e piattaforme per scambiare informazioni CSAM evitando il rilevamento.

Il regolamento proposto danneggerà la libertà di espressione dei bambini poiché anche le loro conversazioni potrebbero innescare allarmi. Le forze dell’ordine nazionali sul campo si occupano in genere in modo sfumato dei messaggi intimi tra adolescenti entrambi in età da consenso. Queste tecnologie cambiano il rapporto tra gli individui e i loro dispositivi e sarà difficile reintrodurre tali sfumature. Per gli altri utenti, nutriamo grandi preoccupazioni per gli effetti agghiaccianti creati dalla presenza di questi meccanismi di rilevamento.

Infine, l’enorme numero di falsi positivi che ci si può aspettare richiederà una notevole quantità di risorse e creerà seri rischi per tutti gli utenti di essere identificati in modo errato. Sarebbe meglio spendere queste risorse per adottare altri approcci volti a proteggere i bambini dagli abusi sessuali. Sebbene la maggior parte del lavoro di protezione dell’infanzia debba essere locale, un modo in cui la legislazione comunitaria potrebbe aiutare è utilizzare i poteri esistenti (DMA/DSA) per richiedere ai servizi di social network di rendere più semplice per gli utenti denunciare gli abusi, poiché si tratta di reclami degli utenti piuttosto che di abusi. IA che in pratica portano al rilevamento di nuovo materiale abusivo.

reshared this

Lo sapete che oltre 300 ricercatori ed esperti in materia di sicurezza affermano che le misure previste dalla proposta chatcontrol sono deleterie in primo luogo per i minori vittime di abusi?

@Privacy Pride

In una lettera aperta di inizio luglio, centinaia di studiosi mettono in guardia contro la proposta di regolamento CSA dell'UE, citando effetti collaterali dannosi della scansione su larga scala delle comunicazioni online che avrebbero un effetto dissuasivo sulla società e influenzerebbero negativamente le democrazie.

Il 4 luglio 2023 è stata inviata una lettera aperta, firmata da oltre 300 studiosi di tutto il mondo ai legislatori dell’UE. La lettera metteva in guardia i decisori contro la proposta di regolamento CSA, citando gli effetti collaterali dannosi della scansione su larga scala delle comunicazioni online che avrebbero un effetto dissuasivo sulla società e influenzerebbero negativamente le democrazie. Il fatto che i legislatori dell’UE procedano con questa legge pericolosa nonostante tali avvertimenti dimostrerà un totale disprezzo per le prove scientifiche.

Ecco le tre ragioni principali che ricercatori e accademici citano nella lettera per non procedere con questa legge:

- Le tecnologie di rilevamento che potrebbero essere utilizzate per scansionare le comunicazioni online sono imperfette e vulnerabili agli attacchi
- Le pericolose implicazioni dell'indebolimento della crittografia end-to-end , che è l'unico strumento di cui disponiamo per proteggere i nostri dati negli spazi digitali
- Seri dubbi sull'efficacia delle tecnologie imposte da questo regolamento, che potrebbero consentire agli autori del reato di eludere il rilevamento e spostarsi su una piattaforma diversa

Queste preoccupazioni fanno eco a quelle già sollevate da oltre 133 organizzazioni della società civile, organizzazioni per la privacy e i diritti digitali, attori dell'industria tecnologica ed esperti istituzionali dell'UE, inclusi avvocati incaricati di consigliare i governi degli Stati membri dell'UE, la principale autorità europea per la protezione dei dati, lo studio del Parlamento europeo e il comitato di controllo della Commissione europea.

Leggi l'appello degli studiosi



Dichiarazione congiunta di scienziati e ricercatori sulla proposta di regolamento sugli abusi sessuale infantili proposta dall'UE: 4 luglio 2023

@Privacy Pride

Cari deputati al Parlamento europeo,

Cari Stati membri del Consiglio dell’Unione europea,

I firmatari di questa dichiarazione sono scienziati e ricercatori di tutto il mondo.

Innanzitutto, riconosciamo che l’abuso e lo sfruttamento sessuale dei minori è un crimine molto grave che può causare danni permanenti ai sopravvissuti. È responsabilità delle autorità governative, con il sostegno delle aziende e delle comunità, intraprendere interventi efficaci per prevenire questo crimine e reagire rapidamente quando si verifica.

La Commissione europea ha proposto una legge con l'obiettivo dichiarato di fermare la diffusione online di materiale pedopornografico e l'adescamento online di minori. Per fare ciò, la legge consente alle autorità di obbligare i fornitori di app o altri servizi online a scansionare messaggi, immagini, e-mail, messaggi vocali e altre attività dei propri utenti. Nel caso delle app crittografate end-to-end, l’affermazione è che questa scansione può essere eseguita sui dispositivi degli utenti – la cosiddetta “scansione lato client” (CSS).

L'efficacia della legge (nei suoi obiettivi dichiarati) dipende dall'esistenza di tecnologie di scansione efficaci. Sfortunatamente, le tecnologie di scansione attualmente esistenti e all’orizzonte sono profondamente imperfette. Questi difetti, che descriviamo in dettaglio di seguito, significano che la scansione è destinata a essere inefficace. Inoltre, l’integrazione della scansione su larga scala nelle app in esecuzione sui dispositivi degli utenti, e in particolare in un contesto globale, crea effetti collaterali che possono essere estremamente dannosi per tutti coloro che sono online e che potrebbero rendere Internet e la società digitale meno sicuri per tutti.

Poiché i problemi che descriviamo riguardano misure che sono al centro della proposta legislativa dell’UE, la nostra raccomandazione professionale come scienziati è che tale proposta non venga portata avanti. Non è fattibile né sostenibile richiedere alle aziende private di utilizzare le tecnologie in modi che già sappiamo non possono essere fatti in modo sicuro – o addirittura non possono essere fatti affatto. Data la natura orribile dell’abuso sessuale sui minori, è comprensibile, e in effetti allettante, sperare che esista un intervento tecnologico in grado di sradicarlo. Tuttavia, guardando la questione in modo olistico, non possiamo sfuggire alla conclusione che l’attuale proposta non è un intervento di questo tipo.

L’approvazione di questa legislazione mina il lavoro ponderato e incisivo che i ricercatori europei hanno svolto nel campo della sicurezza informatica e della privacy, compresi i contributi allo sviluppo di standard di crittografia globali. Tale indebolimento indebolirà l’ambiente per il lavoro sulla sicurezza e sulla privacy in Europa, riducendo la nostra capacità di costruire una società digitale sicura.

Il regolamento proposto costituirebbe inoltre un precedente globale per il filtraggio di Internet, il controllo di chi può accedervi e l’eliminazione di alcuni dei pochi strumenti a disposizione delle persone per proteggere il proprio diritto alla vita privata nello spazio digitale. Ciò avrà un effetto dissuasivo sulla società e probabilmente influenzerà negativamente le democrazie di tutto il mondo.

Mettiamo quindi fortemente in guardia dal perseguire queste o misure simili poiché il loro successo non è possibile data la tecnologia attuale e prevedibile, mentre il loro potenziale danno è sostanziale.

1. Le tecnologie di rilevamento sono profondamente imperfette e vulnerabili agli attacchi

Gli strumenti utilizzati per la scansione di materiale pedopornografico noto (CSAM) non devono contenere materiale pedopornografico stesso poiché ciò comporterebbe gravi rischi. Pertanto, l'unica tecnologia scalabile per affrontare questo problema consiste nel trasformare il contenuto noto con una cosiddetta funzione hash percettiva e nell'utilizzare un elenco dei valori hash risultanti da confrontare con potenziale materiale CSAM. Una funzione hash percettiva deve raggiungere due obiettivi: (i) dovrebbe essere facile da calcolare ma difficile da invertire e (ii) piccole modifiche a un'immagine dovrebbero comportare piccole modifiche all'output hash, il che significa che anche dopo la manipolazione dell'immagine la l'immagine conosciuta può ancora essere rilevata. Anche se sembra facile, dopo più di due decenni di ricerca non sono stati compiuti progressi sostanziali nella progettazione di funzioni che soddisfino queste proprietà.

La ricerca ha dimostrato che per tutte le funzioni hash percettive conosciute, è praticamente sempre possibile apportare piccole modifiche a un'immagine che si traducono in un grande cambiamento del valore hash che consente l'evasione del rilevamento (falso negativo). Inoltre, è anche possibile creare un'immagine legittima che verrà erroneamente rilevata come materiale illegale in quanto ha lo stesso hash di un'immagine presente nel database (falso positivo). Ciò può essere ottenuto anche senza conoscere il database hash. Un simile attacco potrebbe essere utilizzato per incastrare utenti innocenti e inondare le forze dell’ordine di falsi positivi, distogliendo risorse dalle vere indagini sugli abusi sessuali sui minori.

Questi attacchi non sono teorici: per progetti concreti come Photo DNA, la funzione hash PDQ di Facebook e la funzione NeuralHash di Apple, in letteratura sono stati descritti attacchi efficienti.

Per il momento l’unico modo per evitare tali attacchi è mantenere segreta la descrizione della funzione hash percettiva. Questa “sicurezza tramite oscurità” non solo va contro i principi di base dell’ingegneria della sicurezza ma, in pratica, è fattibile solo se la funzione hash percettiva è nota solo al fornitore di servizi. Nel caso della crittografia end-to-end, l'operazione di hashing deve avvenire sul dispositivo client. Pertanto, mantenere segreto il design è un’illusione.

Come scienziati, non ci aspettiamo che nei prossimi 10-20 anni sia fattibile sviluppare una soluzione scalabile che possa funzionare sui dispositivi degli utenti senza fuga di informazioni illegali e che possa rilevare contenuti noti (o contenuti derivati da o correlati a contenuti noti) contenuto) in modo affidabile, cioè con un numero accettabile di falsi positivi e negativi.

La proposta della Commissione Europea va oltre l'individuazione dei contenuti conosciuti. Richiede inoltre che le immagini o i video appena generati con materiale pedopornografico debbano essere rilevati sulla base di strumenti di “intelligenza artificiale”. Inoltre, la proposta prevede che l'adescamento nei servizi di comunicazione, comprendenti sia testo che audio, venga rilevato utilizzando tecniche simili. Sebbene alcuni attori commerciali affermino di aver fatto progressi, i progetti rimangono segreti e non è stata effettuata alcuna valutazione aperta e obiettiva che ne dimostri l’efficacia. Inoltre, lo stato dell’arte dell’apprendimento automatico suggerisce che ciò va ben oltre ciò che è fattibile oggi. In effetti, ogni volta che i progetti lato client sono stati valutati (come nel caso dei prototipi finanziati dal Ministero degli Interni del Regno Unito) si sono rivelati né efficaci né conformi alle leggi sulla privacy e sui diritti umani.

Gli strumenti di intelligenza artificiale possono essere addestrati per identificare determinati modelli con elevati livelli di precisione. Tuttavia, commettono regolarmente errori, compresi errori che a un essere umano sembrano molto elementari. Questo perché i sistemi di intelligenza artificiale mancano di contesto e buon senso. Ci sono alcuni compiti per i quali i sistemi di intelligenza artificiale sono adatti, ma la ricerca di un crimine molto sfumato e delicato – che è ciò che è il comportamento di adescamento – non è uno di questi compiti.

Considerando la scala con cui le comunicazioni private vengono scambiate online, anche la scansione dei messaggi scambiati nell’UE su un solo fornitore di app significherebbe generare milioni di errori ogni giorno. Ciò significa che durante la scansione di miliardi di immagini, video, testi e messaggi audio al giorno, il numero di falsi positivi sarà di centinaia di milioni. Sembra inoltre probabile che molti di questi falsi positivi siano essi stessi immagini profondamente private, probabilmente intime e del tutto legali inviate tra adulti consenzienti.

Ciò non può essere migliorato attraverso l’innovazione: i “falsi positivi” (contenuti erroneamente contrassegnati come materiale illegale) sono una certezza statistica quando si tratta di IA. I falsi positivi sono inevitabili anche quando si tratta dell'uso di tecnologie di rilevamento, anche per materiale CSAM noto. L'unico modo per ridurre questo margine di errore a un margine di errore accettabile sarebbe quello di eseguire la scansione solo in circostanze ristrette e realmente mirate in cui vi sia un sospetto preliminare, nonché risorse umane sufficienti per gestire i falsi positivi, altrimenti i costi potrebbero essere proibitivi data la un gran numero di persone che saranno necessarie per rivedere milioni di testi e immagini. Questo non è quanto previsto dalla proposta della Commissione Europea.

Il sistema di segnalazione proposto nel progetto di proposta CSAM potrebbe incoraggiare nuovi attacchi alle tecnologie di rilevamento. Questo perché in questo momento i fornitori hanno la facoltà di eliminare i falsi allarmi evidenti. Con il nuovo sistema, tuttavia, sarebbero tenuti a segnalare anche i contenuti che sembrano improbabili essere di materiale pedopornografico. Oltre agli attacchi di cui abbiamo parlato, molti altri stanno iniziando ad apparire in sedi accademiche specializzate, e ci aspettiamo che molti altri vengano preparati da coloro che sono motivati a condividere materiale illecito.

Infine, è stato affermato che il rilevamento di materiale pedopornografico dovrebbe essere fattibile poiché la scansione dei virus informatici è una tecnologia ampiamente utilizzata. Sebbene superficialmente entrambi sembrino simili, ci sono differenze essenziali. Innanzitutto, quando viene rilevato un virus informatico, l'utente viene avvisato e il virus può essere rimosso. In secondo luogo, un virus può essere riconosciuto sulla base di una piccola sottostringa univoca, cosa che non è il caso di un'immagine o di un video: sarebbe molto semplice modificare o rimuovere una sottostringa univoca con piccole modifiche che non ne alterano l'aspetto; farlo per un virus renderebbe il codice inutilizzabile. Infine, le tecniche di machine learning possono talvolta identificare il comportamento virale, ma solo quando tale comportamento può essere definito con precisione (ad esempio codice che copia se stesso) e quindi rilevato. Ciò è in contrasto con la definizione di CSAM per la quale non è facile stabilire confini chiari.

2. Implicazioni tecniche dell'indebolimento della crittografia end-to-end

La crittografia end-to-end è progettata in modo tale che solo il mittente e il destinatario possano visualizzare il contenuto di un messaggio o di un'altra comunicazione. La crittografia è l’unico strumento di cui disponiamo per proteggere i nostri dati nel regno digitale; UN

È stato dimostrato che tutti gli altri strumenti sono compromessi. L'utilizzo della crittografia dei collegamenti (da utente a fornitore di servizi e da fornitore di servizi a utente) con la decrittografia nel mezzo, come avviene nel sistema di telefonia mobile, non è una soluzione accettabile nell'attuale contesto di minacce. È ovvio che la crittografia end-to-end rende impossibile implementare la scansione di contenuti noti o nuovi e il rilevamento di adescamenti presso il fornitore di servizi.

Per rimediare a questo, è stata suggerita una serie di tecniche chiamate “Client-Side Scanning” (CSS) come un modo per accedere alle comunicazioni crittografate senza violare la crittografia. Secondo quanto riferito, tali strumenti funzionerebbero scansionando il contenuto sul dispositivo dell’utente prima che sia stato crittografato o dopo che sia stato decrittografato, quindi segnalando ogni volta che viene trovato materiale illecito. Si potrebbe equiparare questo all’aggiunta di videocamere nelle nostre case per ascoltare ogni conversazione e inviare segnalazioni quando parliamo di argomenti illeciti.

L’unica implementazione dei CSS nel mondo libero è stata quella di Apple nel 2021, che secondo loro era una tecnologia all’avanguardia. Questo tentativo è stato ritirato dopo meno di due settimane a causa di problemi di privacy e del fatto che il sistema era già stato dirottato e manipolato.

Quando distribuiti sul dispositivo di una persona, i CSS agiscono come uno spyware, consentendo agli avversari di accedere facilmente a quel dispositivo. Qualsiasi legge che imponga i CSS, o qualsiasi altra tecnologia progettata per accedere, analizzare o condividere il contenuto delle comunicazioni, senza dubbio minerà la crittografia e di conseguenza renderà le comunicazioni di tutti meno sicure. Il lodevole obiettivo di proteggere i bambini non cambia questa realtà tecnica.

Anche se un simile sistema CSS potesse essere concepito, il rischio che se ne abusi è estremamente elevato. Ci aspettiamo che ci sia una pressione sostanziale sui politici affinché estendano il campo di applicazione, prima per individuare il reclutamento di terroristi, poi altre attività criminali, quindi i discorsi dissidenti. Ad esempio, sarebbe sufficiente che i governi meno democratici estendessero il database dei valori hash che tipicamente corrispondono ai contenuti pedopornografici noti (come spiegato sopra) con valori hash dei contenuti critici nei confronti del regime. Poiché i valori hash non forniscono informazioni sul contenuto stesso, sarebbe impossibile per gli estranei rilevare questo abuso. L’infrastruttura CSS potrebbe quindi essere utilizzata per segnalare immediatamente a questi governi tutti gli utenti con questo contenuto.

Se un tale meccanismo venisse implementato, dovrebbe avvenire in parte attraverso la sicurezza tramite oscurità, altrimenti sarebbe facile per gli utenti aggirare i meccanismi di rilevamento, ad esempio svuotando il database dei valori hash o aggirando alcune verifiche. Ciò significa che verrà danneggiata la trasparenza dell’applicazione, che potrebbe essere utilizzata da alcuni attori come velo per raccogliere più dati personali degli utenti.


3. Efficacia

Nutriamo serie riserve sull’efficacia delle tecnologie imposte dal regolamento: gli autori dei reati sarebbero a conoscenza di tali tecnologie e passerebbero a nuove tecniche, servizi e piattaforme per scambiare informazioni CSAM evitando il rilevamento.

Il regolamento proposto danneggerà la libertà di espressione dei bambini poiché anche le loro conversazioni potrebbero innescare allarmi. Le forze dell’ordine nazionali sul campo si occupano in genere in modo sfumato dei messaggi intimi tra adolescenti entrambi in età da consenso. Queste tecnologie cambiano il rapporto tra gli individui e i loro dispositivi e sarà difficile reintrodurre tali sfumature. Per gli altri utenti, nutriamo grandi preoccupazioni per gli effetti agghiaccianti creati dalla presenza di questi meccanismi di rilevamento.

Infine, l’enorme numero di falsi positivi che ci si può aspettare richiederà una notevole quantità di risorse e creerà seri rischi per tutti gli utenti di essere identificati in modo errato. Sarebbe meglio spendere queste risorse per adottare altri approcci volti a proteggere i bambini dagli abusi sessuali. Sebbene la maggior parte del lavoro di protezione dell’infanzia debba essere locale, un modo in cui la legislazione comunitaria potrebbe aiutare è utilizzare i poteri esistenti (DMA/DSA) per richiedere ai servizi di social network di rendere più semplice per gli utenti denunciare gli abusi, poiché si tratta di reclami degli utenti piuttosto che di abusi. IA che in pratica portano al rilevamento di nuovo materiale abusivo.


Questa voce è stata modificata (2 anni fa)
Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

@YlvaJohansson @EUHomeAffairs @BeBraveGlobal @ECPAT @Childmanifesto @MissingKids @clothildegouj @liliebayer @mrsahuquillo @EP_Justice @eu2023es Your proposal is so extreme and harmful that even survivors are split, with many opposing:

Survivors positions are not fake, but they are being instrumentalised and millions of foreign money is being used to set up organisations claiming to represent them edri.org/our-work/most-critici…

reshared this

Cresce la pressione su Ylva Johansson. Dopo le inchieste giornalistiche sui collegamenti delle lobby nel controllo delle chat, la Commissione Interni del Parlamento europeo pretende chiarimenti

@Privacy Pride

Riportiamo l'articolo di Markus Reuter e Andre Meister pubblicato il 28 settembre 2023 su Netzpolitik

La commissione per gli Interni del Parlamento europeo (LIBE) chiede al commissario europeo per gli Interni Ylva Johansson di commentare le inchieste condotte da diversi giornali europei. Lunedì scorso i rapporti hanno rivelato come alcune aziende IT e di intelligenza artificiale, insieme a fondazioni, ONG, autorità di sicurezza e agenzie di pubbliche relazioni, da anni esercitano pressioni per il cosiddetto regolamento chatcontrol e con finanziamenti di diversi milioni di dollari.

Dalla ricerca è emerso che “un’intera rete di associazioni e organizzazioni di lobby”, finanziata con oltre 20 milioni di euro dalla sola Oak Foundation, mantiene stretti legami, tra gli altri, con la commissaria europea agli Interni Ylva Johansson. I rappresentanti delle organizzazioni hanno preso parte alle riunioni e hanno fornito consulenza al commissario per gli interni. Lei, a sua volta, è stata protagonista di un video promozionale per un'organizzazione di lobby ed è apparsa in una campagna di pubbliche relazioni. Inoltre, uno dei dipendenti di Ylva Johansson è membro di una delle organizzazioni di lobby ed è anche responsabile delle norme di controllo della chat presso l'ufficio del commissario per gli interni.


“Possibile influenza indebita”


Nella lettera al Commissario, che pubblichiamo integralmente, i coordinatori della LIBE esprimono la loro “preoccupazione” per i rapporti. I resoconti dei media suggerivano “una possibile influenza indebita nello sviluppo della proposta [ n.d.r.: il regolamento chatcontrol]”.

Particolarmente preoccupanti sono le accuse secondo cui le soluzioni proposte nella proposta legislativa per combattere il CSAM replicherebbero quelle progettate da questi gruppi e contribuirebbero quindi a promuovere i loro interessi economici, continua la lettera.

La commissione chiede quindi al commissario europeo per gli affari interni “chiarimenti e spiegazioni” sulle accuse – e chiede una risposta entro una settimana.


Voto rinviato


Anche la regolamentazione del controllo delle chat di Johansson sta attraversando un momento difficile nei negoziati del Consiglio dei ministri dell'UE: un piccolo gruppo di stati dell'UE respinge l'attuale testo legale sul controllo delle chat. Dato che il voto previsto per questo mese fallirebbe, la Presidenza spagnola ha rinviato la questione.

Ecco la lettera (qui il PDF):

Data: 28 settembre 2023
Da: Juan Fernando López Aguilar, commissione LIBE
A: Ylva Johansson, commissaria per gli affari interni
Caro Commissario Johansson,

Scrivo a nome e su mandato dei coordinatori LIBE per esprimere preoccupazione per le recenti notizie pubblicate negli organi di stampa che presumibilmente indicano un conflitto di interessi riguardo alla proposta di regolamento recante norme per prevenire e combattere gli abusi sessuali sui minori (2022/0155(COD)).

I resoconti dei media menzionati indicano presunti stretti rapporti di lavoro tra la Commissione europea e un’ampia rete di aziende tecnologiche, fondazioni, agenzie di sicurezza e agenzie di pubbliche relazioni, tra cui Thorn e WeProtect Global Alliance, indicando una possibile influenza indebita nella stesura della proposta.

Particolarmente preoccupanti sono le accuse secondo cui le soluzioni previste nella proposta legislativa per combattere il materiale pedopornografico replicherebbero le soluzioni ideate da tali gruppi, contribuendo così a promuovere i loro interessi economici.

Chiedo pertanto gentilmente di ricevere chiarimenti e delucidazioni in merito alle accuse sopra descritte. I coordinatori LIBE apprezzerebbero ricevere una risposta al più presto possibile e idealmente entro e non oltre una settimana dal ricevimento di questa lettera.

Riteniamo che la vostra cooperazione e una reazione tempestiva a questa richiesta andrebbero a vantaggio della trasparenza e della responsabilità, valori che sono al centro delle azioni dell’Unione Europea.

Cordiali saluti,

Juan Fernando López Aguilar

Privacy Pride ha ricondiviso questo.

The media in this post is not displayed to visitors. To view it, please go to the original post.

🚨 In tomorrow's vote on the European Media Freedom Act #EMFA, the European Parliament needs to stick up for journalists' rights and for EU's democracy.

✊🏾 We need a total ban on the use of #spyware against journalists.

But will the European Parliament walk the talk? Or will 'pragmatism' become an excuse for not doing everything possible to prevent real, grievous harm to journalists?

Read our take: euronews.com/2023/10/02/will-t…

Questa voce è stata modificata (2 anni fa)

reshared this

Privacy Pride ha ricondiviso questo.

⚠ € 5,8 million fine against the dating app Grindr has been confirmed by the Norwegian Privacy Appeals Board!

The decision follows a complaint by the Norwegian Consumer Council (NCC) from 2020. noyb assisted the NCC in its legal analysis.

noyb.eu/en/eu-58-million-fine-…

reshared this

Un brillante pezzo di Carlo Blengino sulla stupidissima intelligenza delle smart city

@Privacy Pride

«Ci sono violazioni di legge che hanno un buon profumo, che sanno di umano, e che gli automatismi tecnologici, per quanto “intelligenti”, non capiranno mai.»

ilpost.it/2023/10/02/blengino-…