Tigray, membri e leader dei gruppi di opposizione arrestati a Mekelle prima della prevista manifestazione di protesta
La polizia della regione del Tigray ha arrestato i leader del partito di opposizione Kidane Amene e Tesfamichael Nigus, che sono i massimi leader del Congresso nazionale del Grande Tigray (Baytona) e coordinatori della protesta prevista per domani.
Il Tigray Independent Party, Salsay Weyane e Baytona hanno annunciato la settimana scorsa che avrebbero organizzato una protesta per attirare l’attenzione sulla situazione attuale nel Tigray, con particolare attenzione all’attuazione dell’accordo di Pretoria a seguito dell’accordo di pace firmato tra il governo federale e forze nel Tigray. Tuttavia, la polizia regionale ha negato il permesso alla protesta, che avrebbe dovuto svolgersi a Mekelle, la capitale della regione del Tigray, il 7 settembre 2023. La polizia ha affermato che le forze di sicurezza disponibili non erano sufficienti per garantire la sicurezza della protesta. .
L’arresto di Kidane e Tesfamichael fa seguito al rilascio di Dejen Mezgebe, presidente del Partito Indipendente del Tigray; Hayalu Godifay, presidente di Salsay Weyane; e Kibrom Berehe, un altro massimo leader di Baytona. Questi tre individui sono stati detenuti per tre ore presso la stazione di polizia di Kedamay Weyane mentre chiedevano il rilascio dei membri dei partiti di opposizione arrestati il giorno precedente.
Con l’aumento della tensione, Kidane e Tesfamichael sono stati arrestati questa mattina presto dalla polizia regionale mentre erano in strada vicino al loro ufficio dopo un incontro sulla protesta, secondo Alemseged Aregay, vicepresidente e capo degli affari esteri del Partito Indipendente del Tigray.
Alemseged ha affermato che la protesta, che mira a sostenere la giustizia, la pace e la sicurezza nel Tigray, il ritorno degli sfollati interni nelle loro città natali, la certificazione e la riabilitazione degli ex combattenti e l’istituzione di un’amministrazione inclusiva, è un evento pacifico uno. Ha anche riferito che ieri sono stati arrestati sei membri dei tre partiti dell’opposizione e altri sei autisti coinvolti nell’organizzazione della protesta, insieme ai loro materiali.
I leader dell’opposizione hanno informato Addis Standard che l’amministrazione provvisoria del Tigray sta intimidendo attivamente le persone che dovrebbero partecipare alla protesta. Nonostante i tentativi, Addis Standard non è riuscita a ottenere un commento dalla polizia del Tigray in merito alla situazione.
FONTE: addisstandard.com/news-members…
Il pressing di Draghi per gli Stati Uniti d’Europa
Mario Draghi scende di nuovo in campo dopo il discorso dell’11 luglio a Cambridge, Massachusetts, e rilancia la sua ambiziosa agenda per l’Europa, con un articolo sull’Economist. L’ex presidente della Bce e del governo italiano, si chiede innanzitutto se “un’unione monetaria può sopravvivere senza un’unione fiscale”. Domanda retorica e risposta negativa. “Tuttavia oggi, paradossalmente, le prospettive di un’unione fiscale nella zona euro stanno migliorando”, scrive.
Sembra in contraddizione con quello che vediamo giorno dopo giorno sulla scena dell’Unione europea, un dibattito politico che si sta incartando attorno alla riforma del Patto di stabilità. Ma per Draghi la grande occasione è offerta dalle nuove sfide che l’Europa è chiamata a gestire: “Non deve più affrontare soprattutto crisi provocate da malsane politiche dei singoli paesi. Invece deve confrontarsi con shock comuni importati come la pandemia, la crisi energetica, la guerra in Ucraina. Questi shock sono troppo grandi perché i paesi li gestiscano da soli. Di conseguenza c’è meno opposizione affinché vengano affrontati attraverso un’azione fiscale comune”.
Il Patto di stabilità non è più adeguato, anche perché ha un vizio di fondo ormai pienamente riconosciuto: è prociclico, “troppo lento nelle fasi di espansione troppo stretto in quelle di contrazione”. A questo punto,“il peggiore esito possibile sarebbe tornare indietro passivamente ”. L’Europa ha due scelte: “Una è allentare le regole fiscali e quelle sugli aiuti di stato, consentendo agli stati di sobbarcarsi l’onere dell’investimento necessario. Ma siccome lo spazio fiscale non è distribuito uniformemente, sarebbe fondamentalmente dispendioso”. La seconda è “ridefinire l’intelaiatura fiscale e il processo decisionale della Ue”. Le regole debbono essere a un tempo “rigorose per assicurare che le finanze dei governi siano credibili nel medio termine, e flessibili per consentire ai governi di reagire agli shock imprevisti”. La proposta della Commissione va molto avanti, “ma anche se realizzata completamente non risolverebbe pienamente il bilanciamento tra regole rigorose, che debbono essere automatiche per essere credibili, e flessibilità. Questa contraddizione può essere risolta soltanto trasferendo più poteri di spesa al centro, il che a sua volta consente più regole automatiche per gli stati membri”. Draghi porta ad esempio gli Stati Uniti, come aveva fatto già nel suo discorso di luglio.
La critica alla proposta Gentiloni è destinata a far discutere. Il giudizio è netto: non basta. E Draghi rilancia: la strada è opposta a quella che vogliono imboccare i sovranisti perché lasciare più spazio ai singoli governi vuol dire rendere più forte chi già lo è, consentire di spendere e investire solo a quel nucleo (oggi in realtà piccolo) in grado di farlo perché ha risorse a sufficienza e i conti in ordine. Invece “federalizzare” alcune spese per investimenti consente di raggiungere come negli Usa l’equilibro tra regole rigide per i singoli stati ai quali è proibito andare in disavanzo, e scelte fiscali a livello centrale. In sostanza, se la proposta della Commissione non è adeguata, la risposta non è liberi tutti, bensì mettere in comune più sovranità, ciò non implica soltanto un bilancio comunitario, occorre rivedere la governance dell’Unione. Si tratta di superare il principio dell’unanimità, riformando i trattati.
In sostanza, Draghi ripropone un federalismo da Stati Uniti d’Europa ed è convinto che i tempi siano storicamente maturi. Lo sono anche politicamente? “Oggi, mentre ci stiamo avviando verso le elezioni europee del 2024, questa prospettiva sembra irrealistica dal momento che molti cittadini e governi si oppongono alla perdita di sovranità che la riforma del trattato comporterebbe. Ma anche le alternative sono anch’esse irrealistiche”, così conclude l’articolo pubblicato dall’Economist. Gli europei, aveva detto a Cambridge, hanno solo tre opzioni: “Paralisi, uscita o integrazione”. Parole forti della nuova agenda Draghi.
L'articolo Il pressing di Draghi per gli Stati Uniti d’Europa proviene da Fondazione Luigi Einaudi.
Navigating Privacy-Enhancing Technologies: Key Takeaways from the Inaugural Meeting of the Global PETs Network
In recent years, privacy-enhancing technologies (PETs) have been an increasingly popular subject on regulators’ and policymakers’ agendas. Whether by issuing guidance about these types of tools (Canada’s Office of the Privacy Commissioner; United Kingdom’s Information Commissioner’s Office; Organisation for Economic Co-operation and Development), setting up regulatory sandboxes (Singapore’s Personal Data Protection Commission; Colombia’s Superintendence of Industry and Commerce); or creating prize challenges (United States and United Kingdom),1 regulators are investing resources and energy to better understand, support the deployment, and potentially regulate PETs.
On June 26, 2023, the Israel Privacy Protection Authority (IPPA) and the Future of Privacy Forum (FPF) brought industry experts, government officials, and academia together in Tel Aviv to discuss experiences and challenges faced towards the adoption of PETs. The in-person event served as the inaugural meeting of an informal Global PETs Network for regulators, providing a platform to discuss the latest developments and projects related to privacy-enhancing technologies among regulators and relevant stakeholders worldwide.
The inaugural meeting, hereinafter referred to as the “PETs Conference,” included the presentation of two case studies, a closed roundtable for regulators, and an open discussion with academia and industry experts, with the discussions being held under Chatham House Rule. This blog analyzes the main challenges raised by participants for adequate implementation of privacy-enhancing technologies, as well as the main takeaways of the discussions.
PETs: an evolving concept gaining increasing attention
As technological developments increase the collection and exchange of personal data across jurisdictions and organizations, privacy-enhancing technologies can help by providing greater security, confidentiality, and protection of personal data. There are several types of PETs, which may be classified based on their functionality. For instance, some tools obfuscate and hide information (i.e., anonymization, synthetic data, differential privacy), other technologies allow for computations on encrypted data (i.e., homomorphic encryption, secure multi-party computation), while others facilitate the training of models without transferring and sharing data to a local server (i.e., federated learning).
Although PETs have received heightened attention from authorities in recent years through different policies and initiatives, the concept is not new. As a term of reference, PETs were first introduced by the predecessor of the Dutch Data Protection Authority and the Information and Privacy Commissioner in Ontario back in 1995, through a joint report that sought to demonstrate that identity-protective elements might be included in the design of information technology systems.2
Ever since, interest in PETs has increased not only through extensive research but also in practice. For instance, federated learning and multi-party computation have proven to be useful when feeding machine learning models with on-device user data to improve digital services and products, without transferring the data to a central server. Public and private sector players use differential privacy to protect identities and privacy of people when publishing large sets of data
While governments and organizations seem to acknowledge the potential benefits of PETs, significant challenges to their effective deployment remain. Some of these challenges include the lack of maturity and high costs associated with some of these technologies, as well as an apparent lack of communication between experts and regulators, resulting in limited regulatory guidance and understanding about the benefits, limitations, and use cases of PETs.
1. Collaboration and a greater understanding of PETs are essential
For some jurisdictions, privacy-enhancing technologies are still seen as a new and complex subject by regulators and companies alike. In that sense, educational resources and guidance can help translate the benefits and limitations of these tools. Although PETs may be encapsulated in one general concept, they differ in technical capabilities and usability. During the PETs Conference, participants praised efforts by regulators and international organizations to conceptualize the functionality and use cases of these technologies and tools. These studies include the United Kingdom’s Information Commissioner’s Office (ICO) recently published “PETs Guidance”, as well as the OECD’s 2023 Report on “Emerging Privacy-Enhancing Technologies.”
These efforts are a starting point for greater understanding and certainty about the role of PETs in protecting personal information and privacy, which can lead to more detailed guidance and initiatives. During the meeting, authorities advocated for increased communication and collaboration to advance the understanding of PETs. This not only refers to collaboration for new projects and initiatives but also to leveraging useful and already available information to provide greater guidance and certainty to the industry. For instance, authorities could translate and disseminate available guidance by foreign authorities to their own official languages, where useful, or build their own guidance from previous documents. This kind of exercise can be helpful in providing guidance to the industry faster and in building capacity and technical knowledge within agencies.
2. Regulatory certainty is necessary to boost the adoption of PETs
Secondly, regulatory guidance can provide greater certainty for the deployment and adoption of PETs. During the open discussion with industry stakeholders, some participants indicated that more certainty on regulators’ perceptions of these tools can spur the innovation and deployment of privacy-enhancing technologies. In the long term, guidance can also manifest through metrics to evaluate the success and risks associated with some of the tools.
While some organizations might recognize the value of these tools to offer more privacy-preserving products, barriers to their implementation – such as high investments in time and resources, technical expertise, lack of maturity, and information asymmetries between developers and potential buyers – are a major factor in deciding whether to invest in these tools. However, if these technologies provide an opportunity for more privacy-preserving products and services, regulators should make efforts to ensure that most organizations consider the implementation or integration of PETs, when possible. Authorities have an important role in building trust in the digital ecosystem by providing greater certainty regarding how privacy-enhancing technologies can ensure the protection of personal information.
Importantly, data protection authorities have a special task in identifying how PETs overlap with data protection principles and how these technologies could potentially complement data protection compliance systems. Providing greater certainty in this regard could be definitive to some organizations’ decisions regarding investment and adoption of privacy-enhancing technologies.
Later on in the open discussion, industry representatives highlighted the importance of noticing the dynamics and different incentives created by PETs. In providing guidance and regulatory certainty, authorities should consider that privacy-enhancing technologies can benefit different parties across the chain of data utilization, particularly in cases where a certain technique enables data-sharing across multiple organizations. In this sense, regulators could consider economic and behavioral incentives to foster collaboration between organizations and public institutions.
3. The adoption of PETs requires constant evaluation and review of potential detrimental market outcomes
Regulators and industry participants agreed on the merit of setting standards and certification programs as a viable way to generate more trust in the use and deployment of PETs across organizations. However, they also agreed that regulation and guidance are necessary to ensure the adequate implementation of standards. Importantly, regulators still have an important role in assessing whether standardized tools will be sufficient to comply with data protection regulations, and if additional measures are required to integrate data protection and privacy throughout organizations.
Finally, due to the high costs associated with some PETs, regulators should be cautious of potential barriers to competition that might arise from the deployment of these technologies. If PETs start to be actively promoted within digital services and products, centering privacy as a key market value, regulators must consider that certain companies might be able to get a competitive advantage through the early development and deployment of PETs. To avoid additional market deficiencies caused by privacy-enhancing technologies, regulators have an important task at hand in attempting to strike a balance between privacy and competition concerns.
Conclusion
Regulators, academia, and industry experts seem to agree that further study and understanding of the potential benefits and limitations of privacy-enhancing technologies is necessary. Importantly, if PETs are part of the solution towards privacy-enhanced products and services in the digital ecosystem, regulators must strengthen their efforts to achieve their adequate deployment. Particularly, data protection authorities must indicate the extent to which privacy-enhancing technologies align with data protection and privacy frameworks and should evaluate whether their implementation is enough, or if additional measures are necessary. This assessment requires greater communication and collaboration between regulators, academia, and industry.
Importantly, more regulatory certainty on whether and how organizations should deploy PETs is essential. PETs already face intrinsic barriers to their adoption because they require technical expertise within organizations and are costly to adopt. Regulatory certainty plays an important role in tackling these challenges by providing greater transparency and knowledge about PETs, as well as the technology’s relation to data protection compliance. Regulators and data protection authorities, in particular, should focus on providing more information about the potential of PETs and provide metrics to assess their effectiveness or risks, if possible.
Finally, while PETs can help build more privacy and trust in the digital ecosystem, it is important to note that they are not a fail-safe solution. Authorities and organizations should keep core data protection principles in mind and supplement these technical tools with other organizational and administrative measures.
1The US-UK PETs Prize Challenge was led by the U.K.’s Centre for Data Ethics and Innovation (CDEI) and Innovate UK, the U.S. National Institute of Standards and Technology (NIST), and the U.S. National Science Foundation (NSF), in cooperation with the White House Office of Science and Technology Policy.
2See: Hes, R. & Borking, John. (1995). Privacy-Enhancing Technologies: The Path to Anonymity. researchgate.net/publication/2…
Breyer’s lawsuit forces EU to publish secret AI surveillance research
The European Court of Justice today issued important clarifications on the transparency of EU-funded development of surveillance technology in response to a transparency lawsuit by MEP Dr Patrick Breyer (Pirate Party) (Case T-158/19). Under the iBorderCtrl project, the EU had tested the use of controversial AI-based “video lie detector” technology on travelers. Breyer’s lawsuit had already forced the EU in the first instance to release a large number of documents about the project in full or partially redacted, which Breyer published today on his homepage.
On Breyer’s appeal, the European Court of Justice today refused, for lack of “special urgency”, to object to the far-reaching blacking out of information on, for example, the legal admissibility and ethical justifiability of the technology in order to protect “business secrets”. However, it laid down three important principles for the future transparency of EU surveillance research:
1) not all information about a EU research project may be withheld from the public as a trade secret, but only the “tools and technologies” developed within the framework of the project.
2) The results of a project are not per se trade secrets.
3) Public access to information is not excluded even in the case of ongoing EU research projects.
Plaintiff Patrick Breyer, Pirate Party Member of the European Parliament in the Greens/EFA group, comments on the ruling:
“In the service of private profit interests, the European Union keeps financing the development and testing of technology that violates fundamental rights and is unethical. In the future, it will even fund weapons research. Today’s landmark ruling breaks with decades of secret EU-funded development of high-risk technologies for mass surveillance, crowd control, and profiling. With my transparency complaint, I have had it clarified that the taxpayer, science, media and parliaments have a right to access public research as long as no business secrets are involved. Especially in the case of pseudo-scientific and Orwellian developments such as the ‘video lie detector’, public scrutiny is indispensable.
The released parts of the documents on the iBorderCtrl project prove that it was clear to all involved that the use of the tested video lie detector would be illegal and unethical, but this is simply being ignored in the interest of profits. Scientific publications are being misused as marketing tools, research funds are being misappropriated for lobbying. EU research funding must be fundamentally reformed!
“I’m convinced that you won’t find terrorists with this pseudo-scientific security mumbo-jumbo. For stressed, nervous, conspicuously dressed or tired people, such a suspicion machine can quickly become a nightmare. Lie detectors are not admitted as evidence in court in this country precisely because they do not work. The EU-funded development of technologies for the ever-increasing surveillance, recording and control of people must come to an end! We are also fighting for this in the negotiations on the planned AI law.”
Anja Hirschel, the Pirate Party’s top candidate for the 2024 European elections, adds:
“The transparency complaint demands what should be standard by now:
MEPs need complete information in order to get the most comprehensive picture as possible and to be able to make informed decisions on this basis.
At the same time, civil society should also be allowed to participate in publicly funded research and to examine, evaluate and comment on it. After all, the EU should not be a closed system into which only a handful have insight.
Technologies that promise automated assessment of human behaviour can influence our future so fundamentally that there must be as broad a debate as possible. Because what is initially intended as pure support for human decision-making can too quickly turn into its own decision-making authority. Only with the knowledge of how it works and potential uses can we ask ourselves in detail the important question: Do we want this?”
Per garantire il futuro dell'istanza social.linux.pizza, si è deciso di potenziarla tra il 19 e il 21 settembre
"Ci saranno un paio d'ore di inattività, ma tutto il contenuto sarà intatto e i tuoi account non saranno interessati"
Per dubbi o richieste di informazioni, contatta @:debian: 𝚜𝚎𝚕𝚎𝚊 :fedora:
like this
reshared this
TANZANIA. Bloccata la delegazione europea: non si indaga sui Masai
Twitter WhatsAppFacebook LinkedInEmailPrint
(Nella foto: Anziano ferito durante l’attacco sferrato dall’esercito ai Masai che protestavano contro i tentativi di sfratto. © Survival)
Pagine Esteri, 7 settembre 2023. La Tanzania ha impedito a una delegazione di europarlamentari di visitare il paese, nonostante precedentemente avesse accettato di lasciarli andare ad indagare sugli abusi dei diritti umani commessi contro i Masai nel nome della conservazione.
Il gruppo dei Verdi/Alleanza Libera Europea (Greens/EFA) ha definito quella del governo della Tanzania “una decisione incomprensibile”.
I Masai della Tanzania vivono da generazioni nell’ecosistema del Serengeti e hanno plasmato e protetto il territorio, salvaguardando la fauna selvatica e la biodiversità di aree come Loliondo, l’area di conservazione di Ngorongoro e quello che oggi è il Serengeti National Park.
Tuttavia, in violazione dei loro diritti umani e costituzionali, i Masai sono stati sistematicamente emarginati e sfrattati violentemente dalle loro terre ancestrali per far spazio a progetti di conservazione, al turismo e alla caccia da trofeo.
Queste violazioni sono avvenute anche grazie al sostegno di ONG per la conservazione come la Frankfurt Zoological Society (FZS) e finanziamenti europei.
Negli ultimi anni gli abusi dei diritti umani commessi contro i Masai sono aumentati, inclusi sfratti forzati dalle terre ancestrali mediante violenze e intimidazioni, sparatorie, arresti e detenzioni arbitrari, e torture.
L’ambasciatore tedesco festeggia una partnership sulla conservazione stretta con la Tanzania nell’aprile 2023, a qualche mese di distanza dallo sfratto forzato dei Masai da Loliondo operato dalle autorità del paese nel nome della conservazione. © twitter.com/GermanyTanzania/
Per costringere i Masai ad abbandonare la loro terra ancestrale, il governo della Tanzania ha anche bloccato loro l’accesso a servizi sociali fondamentali, ad esempio ai servizi sanitari a Ngorongoro.
“Ancora una volta, il governo della Tanzania ha sospeso la visita dei parlamentari europei” ha dichiarato oggi Joseph Oleshangay, avvocato masai per i diritti umani. “Nel maggio 2023, l’ambasciatore della Tanzania aveva promesso apertamente che non avrebbero fermato la visita degli europarlamentari come era accaduto con il Relatore Speciale ONU nel dicembre 2022. Ma tre mesi dopo lo hanno rifatto. Queste mancate promesse sono solo la punta dell’iceberg di quello che noi Masai stiamo subendo da parte di un regime repressivo che vuole espropriarci della terra per far spazio alla caccia sportiva di lusso e agli investimenti alberghieri. Ma ne sono una ennesima prova – hanno molto da nascondere! La situazione sul campo è indescrivibile. Acconsentono alle viste solo se possono usarle per coprire la situazione. Ringraziamo gli eurodeputati per aver agito secondo dei principi.”
“È l’elefante nella stanza: il furto di terra e gli abusi contro i Masai sono lampanti, così come la riluttanza del governo della Tanzania a rispettare finalmente i diritti dei Masai” ha commentato oggi Fiore Longo, responsabile della campagna di Survival per la decolonizzazione della conservazione. “I governi occidentali e le organizzazioni per la conservazione come la Frankfurt Zoological Society, tuttavia, continuano con il loro comportamento razzista e coloniale, facendo finta che vada tutto bene. Ancora una volta, si fanno strada con i soldi e la “competenza”, mentre i diritti dei popoli indigeni vengono calpestati nel nome della ‘conservazione della natura’.”
Twitter WhatsAppFacebook LinkedInEmailPrint
L'articolo TANZANIA. Bloccata la delegazione europea: non si indaga sui Masai proviene da Pagine Esteri.
Sul carro armato, Berlino sceglie l’Europa (e l’Italia). Prossimo passo il caccia?
Dopo la proposta francese di far entrare l’Italia nel progetto, condiviso con Berlino, per il carro armato del futuro Main ground combat system (Mgcs), arriva la risposta tedesca che secondo il quotidiano Handelsblatt avrebbe concluso una intesa per un programma per un main battle tank da sviluppare in sede europea insieme a Italia, Spagna e Svezia. L’indiscrezione arriva in un momento molto teso delle relazioni tra i partner franco-tedeschi e, qualora confermata, potrebbe rappresentare una rottura della partnership tra Rheinmetall e da Knds, joint venture nata nel 2015 dalla tedesca Krauss-Maffei Wegmann (Kmw) e la francese Nexter. Sembrerebbe, infatti, che le aziende tedesche vogliano tenere fuori per ora il gruppo Nexter, e in ogni caso l’avvio di un programma parallelo, e potenzialmente concorrenziale, al Mgcs sicuramente non verrebbe accolto con particolare entusiasmo dall’Eliseo.
Il Main ground combat
Il progetto per il Main ground combat è stato lanciato da Parigi e Berlino nel 2012, ma da allora il programma ha faticato a prendere slancio, funestato da una serie di ritardi e malumori sia tra i partner industriali, sia tra i governi di Francia e Germania. Indicativo il fatto che Parigi nel suo bilancio per la Difesa del 2023 non abbia inserito il programma Mgcs (né quello per il caccia di nuova generazione Fcas, realizzato sempre insieme a Berlino). L’urgenza dei Paesi europei di dotarsi di carri armati aggiornati alle sfide contemporanee, inoltre, mette a repentaglio il futuro del programma. Invece di attendere i decenni necessari a progettare e mettere in produzione i Mgcs, le capitali del Vecchio continente potrebbero scegliere di comprare immediatamente mezzi già disponibili. È il caso della Polonia, che l’anno scorso ha deciso di acquistare 250 carri americani Abrams M1A2.
Una risposta all’ultimatum francese?
L’annuncio francese di qualche giorno fa sembrava essere un ultimatum per Berlino, allargare il progetto all’Italia (attraverso Leonardo) oppure concludere la collaborazione. “Prendere o lasciare” lo ha definito La Tribune. Sarebbe stato un tentativo dei francesi di riequilibrare il rapporto con i partner tedeschi, in particolare con Rheinmetall, facendo leva su citati ottimi rapporti tra Parigi e Roma – con quest’ultima descritta da quotidiano francese come “il nuovo partner preferito” della Francia – basati sui progetti comuni come il missile Aster di Mbda, la partecipazione italiana ai missili franco-britannici Fman/Fmc e soprattutto l’aggiornamento di mezza vita di quattro Fremm, due francesi e due italiane (il Doria e il Duilio).
Collaborazione italo-tedesca
In questo contesto arriva adesso la proposta tedesca. con Kmw e Rheinmetall parteciperebbero Leonardo e il gruppo per la difesa svedese Saab attraverso l’ottenimento dei fondi del Fondo europeo per la Difesa (Edf), di cui circa cinque miliardi di euro sono stati messi a disposizione proprio per progetti di armamenti congiunti tra Paese Ue. Per quanto riguarda il nostro Paese, inoltre, l’Italia può però vantare ottimi rapporti con la Germania proprio nel settore terrestre, come dimostra la decisione del governo di acquistare i carri armati Leopard 2A8 a partire dal 2024, da affiancare ai 125 carri Ariete modernizzati in versione C2. L’obiettivo è arrivare ad avere circa 256 sistemi Mbt in grado di equipaggiare quattro reggimenti carri. La scelta di procedere lungo il doppio binario Ariete/Leopard risponde alla necessità di accelerare i tempi, con i primi due reggimenti dotati di C2 modernizzati già entro il 2028, anno in cui dovrebbero essere introdotti i primi Leopard, evitando gap operativi.
L’importanza del carro armato
Tra tutti i diversi sistemi d’arma, quello che più di altri rappresenta plasticamente lo stato di frammentazione del settore difesa europeo è il carro armato da battaglia (conosciuto anche con l’acronimo Mbt – Main battle tank). Attualmente, infatti, i circa seimila carri armati in servizio con le Forze armate dei Paesi europei appartengono a diciassette modelli diversi, senza contare le diverse varianti, spesso realizzate ad hoc per un singolo Paese. Addirittura, questo stato di proliferazione dei sistemi da combattimento terrestre avviene anche all’interno di numerosi Stati, con in servizio contemporaneamente modelli diversi di carro armato più o meno moderni (una condizione che caratterizza in particolare i Paesi dell’est Europa, dove sono impiegati anche apparecchi risalenti all’era sovietica). Per fare un rapido raffronto, i circa 2.500 carri degli Stati Uniti sono tutti un unico modello, l’M1 Abrams, sulla base del quale sono poi state realizzate le diverse varianti per rispondere alle necessità operative delle Forze Usa.
Prossimo passo, il caccia?
Un dettaglio fondamentale di questa possibile partnership tra Berlino, Roma, Stoccolma e Madrid è anche il fatto che potrebbe essere solo il primo passo per un avvicinamento della Germania anche al programma del caccia di nuova generazione Global combat air system (Gcap). L’Italia è un partner a pieno titolo del progetto insieme a Londra e Tokyo, e gli svedesi, parte integrante del programma precedente programma Tempest, in un recente incontro a Roma con SegreDifesa hanno espresso il loro interessamento per il Gcap, oltre ad aver siglato nelle settimane precedenti un accordo sul trasferimento di tecnologia e difesa con il Giappone che potrebbe spianare la strada per l’ingresso della Svezia nel Gcap. I ritardi accumulati dal programma franco-tedesco Fcas potrebbero portare Berlino ad aprirsi a collaborazioni più estese, anche alla luce dello slancio che invece sta caratterizzando l’evoluzione del Gcap.
“IL TEMPO DELLE DONNE”
L’8 settembre a partire dalle 16.30 nell’ambito dell’evento IL TEMPO DELLE DONNE avrò il piacere di discutere con Martina Pennisi di Intelligenza artificiale privacy. Qui il programma completo 27esimaora.corriere.it/il-temp… Qui le informazioni in dettaglio del mio intervento 27esimaora.corriere.it/il-temp…
“OliCyber.IT – CyberTrials 2023”
L’8 settembre avrò il piacere di intervenire alla Cerimonia di Premiazione OliCyber.IT – CyberTrials 2023 organizzata dal CYBERSECURITY NATIONAL LAB A Torino con il patrocinio del Garante per la Protezione dei Dati Personali Qui potrete seguire l’evento in diretta youtube.com/watch?v=Yyo7ZF4wxP…
UCRAINA. Cresce il potere distruttivo dei “pacchetti” di aiuti militari
Twitter
WhatsApp
Facebook
LinkedIn
Email
Print
di Antonio Mazzeo –
L'articolo UCRAINA. Cresce il potere distruttivo dei “pacchetti” di aiuti militari proviene da Pagine Esteri.
In Cina e Asia – Summit Asean, Tokyo si scontra con Pechino su Fukushima
I titoli di oggi:
- Summit Asean, Tokyo si scontra con Pechino su Fukushima
- Seul torna alla linea dura con Pyongyang
- Cina, esportazioni in calo per il quarto mese consecutivo
- Apple minaccia la sicurezza nazionale: via gli iPhone ai dipendenti pubblici
- Cina, la Grande muraglia danneggiata per far passare una strada
- Il caffè corretto al Moutai incontra il gusto dei più giovani
L'articolo In Cina e Asia – Summit Asean, Tokyo si scontra con Pechino su Fukushima proviene da China Files.
MESSICO. Depenalizzato l’aborto, decisione storica
Twitter WhatsAppFacebook LinkedInEmailPrint
Pagine Esteri, 7 settembre 2023. Nella giornata del 6 settembre, la Corte Suprema di Giustizia in Messico ha deliberato la depenalizzazione dell’aborto in tutto il paese. Non è la prima volta che la Corte di Giustizia messicana si pronuncia in questo senso, era accaduto già 2 anni fa e in quell’occasione aveva deliberato in modo unanime l’incostituzionalità della pratica dell’aborto in uno stato del Nord del paese dopo alcune denunce avanzate da collettivi femministi.
Nel 2021 il presidente progressista López Obrador aveva rispettato la decisione della Corte Suprema per il rispetto della legalità. Inoltre, aveva espresso il suo parere favorevole alla decisione unanime della stessa Corte. In altre occasioni, lo stesso presidente aveva dichiarato che il paese era maturo per affrontare la legalizzazione dell’aborto attraverso una consulta popolare.
La stessa non si è poi concretizzata e così a dare luce verde alla delicata questione ci ha pensato la Corte Suprema di Giustizia che attraverso il suo account di Twitter ha scritto che è incostituzionale che il sistema giuridico penalizzi l’aborto nel Codice Penale Federale in quanto viola i diritti umani delle donne e delle persone gestanti.
In Messico l’aborto volontario è stato depenalizzato in 11 dei 32 stati che integrano il paese. La maggioranza lo permette fino al mese 12 di gestazione.
Considerando che l’80% della popolazione messica si dichiara cattolica, la decisione dei magistrati nella giornata di ieri è stata davvero importante ed ha anche una grande rilevanza storica.
Oggi in America Latina predomina la criminalizzazione dell’aborto nella maggioranza dei paesi della regione. Nel 2020 l’Argentina è stata il terzo paese a legalizzare la pratica insieme a Cuba ed Uruguay.
Poi c’è un gruppo di paesi che concede la possibilità alla persona gestante di praticare l’aborto solo in alcuni casi specifici e soprattutto quando viene messa in pericolo la vita della persona gestante o nel caso ci sia violenza sessuale contro la donna, come Brasile, Venezuela, Ecuador e Paraguay e infine c’è il gruppo che vieta assolutamente l’aborto come Honduras, El Salvador e Nicaragua.
Twitter WhatsAppFacebook LinkedInEmailPrint
L'articolo MESSICO. Depenalizzato l’aborto, decisione storica proviene da Pagine Esteri.
CALL: EMERGENCY OF BEAUTY
mail art Project: Emergency of Beauty, a tribute to True Love This is an emergency call! We need more beauty here and now.
PRIVACYDAILY
Perché le spese militari sono nell’interesse dell’Italia. Parla Nones (Iai)
Recentemente è tornato al centro del dibattito pubblico il tema dell’aumento delle spese militari fino all’obiettivo deciso in sede Nato del 2% del Pil da dedicare alla difesa. In particolare, le posizioni assunte da una parte dell’arco parlamentare si è detto scettico dell’opportunità di aumentare le spese da destinare alle esigenze militari. Airpress ne ha parlato con Michele Nones, vicepresidente dell’Istituto affari internazionali (Iai).
Quale ritiene sia il cuore della questione?
Credo che discorso sul 2% del Pil da dedicare alla Difesa vada affrontato su due piani diversi: il primo è quello dell’impegno che l’Italia ha sottoscritto, insieme agli altri Paesi, al summit Nato in Galles del 2014 di portare le spese militari due punti percentuali di Pil entro dieci anni (quindi entro il 2024). L’impegno era esplicito e palese, venendo riconfermato in sede europea nel 2018. Inoltre, si è trattato di una decisione presa al massimo livello politico, assunta direttamente di capi di Stato e di governo. Ne consegue che l’aderenza a questa previsione chiama in causa la credibilità dei singoli sistemi-Paese.
Ritiene ci sia un problema di credibilità del nostro Paese?
Bisogna tenere conto, e vale la pena di ricordarlo, che nel corso di questi otto anni, questo impegno è stato continuamente ribadito nelle riunioni a livello dei capi di Stato e di governo, con l’Italia che vedeva succedersi governi con diverse maggioranze politiche. Quindi, colpisce il fatto che, mentre vengono presi impegni formali in sede internazionali, si possa pensa che una volta rientrati in Italia si possa sedersi dall’altro lato pretendendo di poterli non rispettare.
Perché in Italia il raggiungimento dell’obiettivo al 2% è un tema ancora dibattuto a suo parere?
Le motivazioni contro l’aumento delle spese militari ci sono sempre. Queste non riguardano solo l’Italia e non sono legate a una situazione particolare quale quella del nostro Paese: la presenza di altre esigenze, di impegni di carattere civile, sociale, sanitario o scolastico è condivisa da tutti i Paesi, così come tutti hanno vissuto insieme i momenti di crisi economica. Certo, una sola differenza forse l’Italia ce l’ha, cioè il fatto che il nostro Paese ha un debito pubblico molto più alto di altri Stati. D questo punto di vista, quindi, gli altri hanno potuto aumentare le proprie spese in un quadro finanziario più sostenibile, ricorrendo parzialmente a un deficit di bilancio. Questo per l’Italia non è evidentemente possibile, dal momento che siamo già sopra le soglie tollerabili. Per aumentare le spese militari avremmo necessariamente bisogno di distogliere delle risorse da altri settori, ma questa situazione era ben nota a tutti, e non credo che nessuno abbia potuto nutrire dubbi su questa questione.
Si tratta, dunque, di una volontà politica…
I nostri politici quando stanno al governo manifestano le preoccupazioni per la difficoltà di rispettare l’impegno, salvo poi sostenere l’importanza di rispettare l’obiettivo prefissato quando vanno all’opposizione. Una eccezione a questo è rappresentata, oggi, dal Movimento 5 Stelle e da una parte del Pd, nonostante quest’ultimo avesse accettato e sottoscritto l’impegno al 2% quando era al governo. Adesso, nel tentativo di recuperare spazi elettorali, si pone in maniera critica. E questo, mi si lasci dire, manifesta una diffusa immaturità e irresponsabilità di una parte del nostro mondo politico. L’unico modo, e questo vale per tutti i Paesi, che si ha per evitare di ritrovarsi in difficoltà nel rispettare gli impegni assunti in campo internazionale è quello di assumere su queste tematiche un atteggiamento bipartisan. Non farne, dunque, terreno di scontro elettorale (anche se la tentazione può essere forte).
Perché proprio il 2%?
Questo è un problema di carattere tecnico, sul quale credo che vada fatta chiarezza sia nella nostra opinione pubblica, sia nel mondo politico. Le cifre, infatti, sono sempre opinabili. Si è deciso per il 2% perché nel 2014 si è voluto dare un segnale chiaro alla Federazione russa che aveva appena annesso la Crimea, in un momento nel quale la media delle spese per la difesa della maggior parte dei Paesi Nato era intorno al punto e mezzo percentuale (più o meno quella che è adesso la spesa italiana). Il punto era manifestare delle posizioni che sostanzialmente orientavano l’Alleanza verso una cifra superiore a quella che all’epoca veniva investita dalla media della Nato. È abbastanza interessante ricordare che, alla fine della Seconda guerra mondiale, gli Stati Uniti imposero al Giappone, all’interno della loro costituzione, un tetto alle proprie spese per la difesa fissato all’1%, nella convinzione, e tutti erano concordi, che un Paese che avesse investito solo quella quota non sarebbe mai diventato una potenza militare. Questo lo ricordo per sottolineare il fatto che stiamo parlando del 2%, in fondo appena il doppio di quel limite massimo imposto da Washington a Tokyo quale vincolo per evitare ogni velleità di riarmo. Quindi, non si può sostenere oggi che arrivare al 2% del Pil sia il sintomo di una volontà riarmistica, dal momento che tale traguardo non raggiunge nemmeno il livello sostenuto da alcuni Paesi che sono sì più capaci in campo militare, ma di sicuro non sono in preda a un delirio di riarmo.
Perché il nostro Paese fatica a raggiungere la soglia decisa?
Per quanto riguarda l’Italia, c’è un problema che non va sottovalutato, ed è quello che riguarda la decisione assunta l’anno scorso dal Parlamento di rinviare di dieci anni la prevista riduzione della dimensione delle nostre Forze armate, misura decisa con la riforma di Di Paola nel 2018 e che puntava a contenere la spesa del personale all’interno del bilancio della Difesa per lasciare spazio non solo alle spese di investimento, che comunque si sono sempre mantenute intorno al 30%, ma alle spese di esercizio, che sono quelle destinate a garantire la manutenzione e riparazione dei mezzi e il loro utilizzo per l’addestramento, oltre a coprire i costi per l’addestramento del personale. Ormai, questo capitolo è ridotto a una quota che si aggira tra il 10 e l’11%, un livello assolutamente inaccettabile per avere Forze armate efficienti. Non potendo ridurre la quota di investimenti, perché si deve far fronte al ricambio di intere generazioni di mezzi in servizio, dal campo aeronauti, a quello elicotteristico, navale e terrestre, è evidente che bisognava andare a ridurre la spesa per il personale, che in Italia vale ancora il 60% del bilancio. La decisione di non arrivare, come previsto, a questa riduzione del numero di militari complica la possibilità di poter avere un bilancio più equilibrato aumentando le risorse disponibili.
Ci spieghi…
Bisogna tener conto che, se si vuole avere delle forze armate che siano anche qualitativamente più efficaci, questo vorrà dire che i futuri militari saranno più appetibili anche per il settore civile, soprattutto la parte più legata alla dimensione informatica. La digitalizzazione di tutti i sistemi d’arma vorrà dire che i militari che opereranno queste piattaforme avranno capacità molto ricercate sul mercato. Questo vorrà dire che dovranno essere offerte loro condizioni economiche e sociali migliori di quelle attuali. Quindi, ci si sta avviando verso un generale aumento del costo del personale, a discapito di quelle di esercizio, indispensabili per sostenere l’efficacia delle Forze armate nel loro insieme.
Ci sono poi le esigenze di modernizzazione delle piattaforme in uso presso le Forze armate…
Molti dei sistemi d’arma dell’attuale generazione si stanno avviando rapidamente alla conclusione della loro vita operativa. Dobbiamo quindi modernizzare e approvvigionarci di nuovi sistemi. Ed è il caso per esempio del Leopard, che tuttavia non è un carro di nuova generazione, quanto piuttosto il carro più evoluto oggi disponibile. Ci troveremo quindi nella situazione di dover far fronte da una parte a queste spese, e contemporaneamente dovremo sostenere lo sviluppo dei nuovi programmi per il salto tecnologico generazionale come il Tempest, il Ngcs, e probabilmente il nuovo elicottero da combattimento, così come nuove piattaforme navali e satellitari. Pensare di poter far fronte a tutte queste esigenze senza aumentare i fondi per la Difesa è impossibile. Non si può fare il gioco delle tre carte, spostando continuamente le risorse da una parte all’altra. Siamo giunti al punto in cui tutte queste esigenze richiedono contemporaneamente un finanziamento e l’unica strada percorribile è quella di destinare nuove risorse, sia pure gradualmente, come previsto dal precedente governo. Quindi, dobbiamo puntare ad arrivare al 2% entro il 2028, e non si può ricominciare a rimettere in discussione questa scadenza che, tra l’altro, già supera di quattro o cinque anni quella concordata nel 2014. Ritengo che questa previsione temporale sia quella massima che consenta di dare stabilità all’Italia senza perdere completamente la credibilità rispetto ai nostri partner e alleati.
Il merito (nella scuola) e i suoi nemici
Impietosamente, anno dopo anno, i test Invalsi mostrano l’incapacità di una parte assai consistente delle scuole italiane di dare una preparazione adeguata agli alunni. La scuola ha smesso di funzionare come ascensore sociale. Disinteresse per il merito e promozioni facili, se non garantite, sono la conseguenza di una malintesa lotta contro le disuguaglianze sociali che ha l’effetto di accrescerle, anziché diminuirle. È bastato che il governo della destra decidesse di aggiungere la parola «merito» al titolo del ministero competente perché in tanti saltassero su a spiegarci che chi vuole il ripristino del merito è un reazionario, nostalgico della scuola classista del tempo che fu. Luca Ricolfi, un sociologo che in tanti suoi lavori ha mostrato di possedere grande maestria e una capacità davvero non comune di leggere la società italiana, affronta il tema in un libro appena uscito: La rivoluzione del merito (Rizzoli).
Due i punti di partenza di Ricolfi. Il primo è il (sempre disatteso) articolo 34 della Costituzione ove si afferma che «i capaci e meritevoli», anche se privi di mezzi, hanno diritto di raggiungere i gradi più alti degli studi. Ricolfi riprende le tesi di Piero Calamandrei che nel citare quell’articolo sostiene l’importanza di favorire i meritevoli, qualche che sia la loro origine sociale, per consentire il ricambio delle classi dirigenti e assicurare che ai vertici della società giungano i più preparati. Favorendo così il benessere collettivo e la democrazia. Il secondo punto di partenza è dato dalla constatazione di un capovolgimento culturale che ha investito la sinistra italiana nel corso degli anni: dalla grande importanza che il Pci dell’epoca togliattiana attribuiva all’istruzione seria e rigorosa come mezzo di elevazione dei giovani delle classi popolari, alle posizioni del periodo successivo al ’68. I nemici attuali del merito sono il prodotto di quel clima, i figli della stagione del 6 e del 18 garantiti. La scuola si è così ridotta al luogo in cui «il dovere di studiare e di impegnarsi è stato sostituito dal “diritto al successo formativo”».
Ricolfi pensa che la difesa del merito debba guardarsi da due nemici. Da un lato, la confusione fra merito e meritocrazia. Quello meritocratico è un ideale (il governo dei meritevoli) che ha pesanti implicazioni anti-egualitarie. È l’ideale di chi vuole ricostruire rigide barriere di classe, ma questa volta basate su un sistema di test presentati come obiettivi: di qua i meritevoli, di là tutti gli altri. Una cosa assai diversa da chi vuole che il talento individuale venga valorizzato e premiato senza prefigurare utopie sociali irrealizzabili o che, se realizzate, darebbero vita al contrario di una società libera e aperta. C’è però chi, contrastando la meritocrazia, ha gettato via anche il bambino (il merito) insieme all’acqua sporca. Il secondo nemico è rappresentato da un clima filosofico e culturale che, nel corso dei decenni, ha scavato nelle coscienze di tanti spingendoli a svalorizzare il merito scambiando ciò per una battaglia a favore dell’uguaglianza. Ricolfi passa in rassegna, mostrandone le debolezze, le idee di una lunga fila di pensatori che hanno contribuito al risultato negando diritto di cittadinanza al merito in una società democratica.
Perché, si chiede Ricolfi, le idee dei filosofi e dei sociologi nemici del merito fanno a pugni con il senso comune? I sondaggi, quali che ne siano i limiti, mostrano che una forte maggioranza degli intervistati è di altro parere. Il sentire comune, che non disprezza il merito, è molto più in sintonia con la realtà di tanti intellettuali che pretendono di conoscere la cura contro le disuguaglianze sociali. Non è vero che gli studenti più bravi provengano solo dalle famiglie ricche, talché valorizzare il merito significherebbe rafforzare le disuguaglianze. È noto e documentato, ad esempio, che, mediamente, le studentesse, quale che ne sia la provenienza sociale, hanno un migliore rendimento scolastico degli studenti. È l’impegno personale che soprattutto conta. I dati italiani, inoltre, mostrano che non è affatto vero che i bravi a scuola siano concentrati nelle classi alte. Il diverso capitale culturale delle famiglie d’origine dà un leggero vantaggio allo studente di condizione sociale medio-alta (e sarebbe strano se così non fosse), ma solo questo. Il 40 per cento dei figli di famiglie agiate va male a scuola, una percentuale quasi identica di figli di famiglie povere ha un alto rendimento scolastico.
Il paradosso di una battaglia per l’uguaglianza, che pretende di pareggiare a scuola meritevoli e non, è che essa rimanda a un momento successivo il riprodursi delle disuguaglianze. Non distinguere fra chi merita e chi non merita è un danno per la società, ma è anche un’arma spuntata contro la disuguaglianza. Una volta usciti dalla «scuola egualitaria», agli studenti accadono due cose: la prima riguarda i più capaci e preparati, la seconda quelli con una preparazione insufficiente. Nel gruppo dei meritevoli saranno favoriti, nel continuare gli studi, i figli delle famiglie agiate. I meritevoli più poveri (a causa della mancata attuazione dell’articolo 34) avranno difficoltà e, spesso, dovranno rinunciarvi. Così l’ascensore sociale si blocca a danno di chi ha capacità, ma non i mezzi per continuare gli studi. Anche nel gruppo degli impreparati la disuguaglianza colpisce: i non meritevoli delle classi agiate se la caveranno perché potranno contare sul supporto della famiglia e relative conoscenze, gli impreparati poveri no. Come sostiene Ricolfi, le posizioni anti- merito sono oscurantiste. Dequalificando la scuola, negano ai poveri dotati di capacità un futuro migliore.
Il libro si conclude con una proposta di attuazione dell’articolo 34: favorire i meritevoli senza sufficienti mezzi con consistenti borse di studio. Un progetto attuabile per i cui dettagli si rinvia al testo. Però — osservo — bisogna anche agire sul lato dell’offerta. Servono insegnanti motivati che sappiano valorizzare meriti e talenti. Fortunatamente ce ne sono. Vanno liberati dalle mille pastoie che ne mortificano la professionalità. Altri invece dovrebbero essere, per così dire, «riprogrammati»: sottratti all’influenza di cattivi maestri che predicando male li hanno spinti a razzolare anche peggio.
L'articolo Il merito (nella scuola) e i suoi nemici proviene da Fondazione Luigi Einaudi.
Antistatalismo
Finirà nel nulla, ma contiene molto. Il retroscena appassiona chi preferisce le suggestioni alla realtà, mentre il peggio è sul proscenio, davanti a tutti. Nessuno lo vede perché è considerato normale. Nelle parole di Giuliano Amato, circa quel che avvenne a un aereo Itavia, si trova il seme di un male antico dell’Italia. Antico e persistente, anche perché non riconosciuto come un male: lo Stato sono sempre gli altri; l’Italia è sempre quella di altri e altri sono gli italiani; alla storia si offre la propria irresponsabilità, mai la propria responsabilità. E questo toglie dignità al discorso pubblico, alimentando la sfiducia, cancellando la coerenza (che è essa stessa moralità della politica) e premiando l’arte di trasformarsi senza ammetterlo.
Le sentenze si rispettano, ma anche si discutono e criticano. Le sentenze non scrivono la storia, ma sono parte della storia. Per le sentenze, come per ogni altra cosa, ci sono le critiche a vanvera e quelle ragionate. È sciocco che si chiedano ad Amato le ‘prove’ di quel che ha detto: non siamo a un processo – ci sono già stati – e che prove volete mai che porti se sostiene che ad abbattere l’aereo fu un missile di cui non s’è mai trovata traccia? Quel che gli si deve chiedere è la fondatezza razionale di quel che sostiene e di trarne le conseguenze che ne derivano. Le suggestioni servono a nulla, sono anzi depistaggi.
La cosa va vista non con l’approccio del piccolo investigatore, destinato all’insuccesso, ma dall’angolo visuale istituzionale. Amato parla di «tentativi di depistaggio messi in atto da generali e ammiragli». L’insieme delle nostre Forze armate. Noi tutti sappiamo che la giustizia ha assolto i militari «perché il fatto non sussiste», ma le sentenze si possono discutere. Mettiamo, dunque, che abbiano depistato. Ci sono soltanto due possibilità: 1. i militari lo hanno fatto su ordine del governo quindi, omessi i riferimenti alle responsabilità penali (escluse), la responsabilità della scelta è politica, legata al contesto; 2. i militari lo hanno fatto ingannando la giustizia ma anche il governo, quindi sono dei traditori.
Nel primo caso è vile sia scaricare la responsabilità sui militari sia supporre di potersi considerare estraneo alla scelta politica, visti i ruoli svolti e considerata la chiamata in causa di Bettino Craxi, che ad Amato non era estraneo. Supporre che una responsabilità politica del primo non ricada sul secondo che gli stava a fianco non è neanche vile, è stolto. Nel secondo caso non basta dire che si sono ripetute cose note, perché da presidente del Consiglio la questione del tradimento andava posta. In quanto tale. L’alternativa consistendo nel ritenere traditori i militari e cretini i governanti, in loro balìa.
Dice Amato: si è organizzata un’esercitazione Nato, in modo da mascherare il lancio di un missile francese, ove l’errore sarebbe stato (ovviamente) il bersaglio. Aggiunge anche che l’Italia era un Paese «a sovranità limitata». Lo fece presente a Craxi, in occasione di Sigonella, quando i Carabinieri circondarono gli americani? A tutto volere concedere, il racconto è privo di senso, per due ragioni: a. abbattere Gheddafi nel corso di una esercitazione Nato avrebbe reso ben più clamoroso e grave il fatto; b. la Francia era uscita dal Comando integrato Nato nel 1966 e le sue Forze armate sono state reintegrate nel 2009; il governo italiano, in cui nel 1980 erano presenti anche i socialisti di Amato, non era stato informato manco della partecipazione francese? Qui, più che a sovranità, si sarebbe a intelligenza limitata.
Cosa accadde quella disgraziata giornata non lo sappiamo e siamo pronti a discutere di tutto, ma se quello fu lo scenario allora mancano delle parole: abbiamo governato male perché non eravamo all’altezza, io non ho avuto il coraggio delle mie convinzioni, ho coperto i depistaggi o sono stato incapace di vederli. Altrimenti va come Meloni a Caivano: «Qui lo Stato ha fallito». Perché lo Stato è sempre di altri. Semmai: abbiamo fallito. Oppure si sta mestando nel torbido, alimentando l’antistatalismo presente nella nostra storia.
La Ragione
L'articolo Antistatalismo proviene da Fondazione Luigi Einaudi.
Il governo inglese ammette che la clausola spia non può essere utilizzata in modo sicuro
Open Rights Group si è espresso in merito a un rapporto secondo cui il governo di Londra ha ammesso che non utilizzerà i poteri per scansionare i messaggi privati finché non sarà “tecnicamente fattibile” farlo
Government admits Spy Clause can’t be used safely
Open Rights Group has responded to a report that the Government has conceded that it will not use powers to scan private messages until it is “technically feasible” to do so.Open Rights Group
like this
reshared this
Marino Bruschini reshared this.
Israele arresta Khaled El Qaisi, ricercatore italo-palestinese
Twitter WhatsAppFacebook LinkedInEmailPrint
redazione
Pagine Esteri, 6 settembre 2023 – Lo scorso 31 agosto il giovane ricercatore italo-palestinese Khaled El Qaisi è stato a arrestato dalle autorità israeliane al valico di Allenby, tra Cisgiordania e Giordania. Ne danno notizia la moglie del ricercatore, Francesca Antinucci, e la madre, Lucia Marchetti.
El Qaisi che ha la doppia cittadinanza, italiana e palestinese, la scorsa settimana, diretto ad Amman, stava attraversando il valico di Allenby con moglie e figlio dopo aver trascorso le vacanze con la propria famiglia a Betlemme. Al controllo dei bagagli e dei documenti è stato ammanettato sotto lo sguardo del figlio di 4 anni, e della moglie.
Antinucci spiega che alle richieste di delucidazioni sui motivi del fermo, non è seguita risposta alcuna da parte degli agenti di frontiera israeliani. Invece le sono state sottoposte domande per poi essere allontanata col figlio verso il territorio giordano, senza telefono, senza contanti né contatti, in un paese straniero. Solo nel tardo pomeriggio la moglie e il bambino sono riusciti a raggiungere l’Ambasciata italiana ad Amman grazie all’aiuto di alcune persone.
Khaled El Qaisi, aggiungono la madre e la moglie, ancora non ha potuto incontrare il suo avvocato. Si è solo saputo che affronterà un’udienza davanti a giudici israeliani domani, 7 settembre, perché, secondo indiscrezioni, avrebbe avuto contatti con il Fronte popolare per la liberazione della Palestina, la principale formazione della sinistra marxista palestinese.
Traduttore e studente di Lingue e Civiltà Orientali all’Università La Sapienza di Roma, stimato per il suo impegno nella raccolta, divulgazione e traduzione di materiale storico, è tra i fondatori del Centro Documentazione Palestinese, associazione che mira a promuovere la cultura palestinese in Italia. Pagine Esteri
Twitter WhatsAppFacebook LinkedInEmailPrint
L'articolo Israele arresta Khaled El Qaisi, ricercatore italo-palestinese proviene da Pagine Esteri.
More than 100,000 EU citizens call for better protection of their health data – and their voices are heard in Brussels
This morning, WeMove Europe, the European Disability Forum, the European Trade Union Confederation and European Digital Rights (EDRi) handed over the signatures of more than 100,000 EU citizens to MEPs Patrick Breyer (Pirate Party, Greens/EFA) and Petar Vitanov (S&D), who are currently co-negotiating legislation to create a European Health Data Space (EHDS).
In their open letter, the signatories demand respect for the confidentiality of their medical records,[1] and in particular call for a requirement to obtain the explicit consent of patients before their health data is shared to be used for other purposes. So far, the negotiators in the European Parliament are only proposing a right to object (opt-out).
MEP Patrick Breyer (Pirate Party), who is co-negotiating the proposal on behalf of the Greens/EFA group, comments on the handover of signatures:
“This petition comes at the right time and constitutes important support in the fight to keep patients in control of their medical records. There must be an end to playing off medical confidentiality against medical progress, as the political majority and a myriad of lobbyists here in Brussels are doing. Anonymised and aggregated datasets, representative datasets collected with patient consent and data altruism based on broad consent could advance research without sidelining patients. After all, our medical records include the most intimate information about mental problems, drug abuse, abortions or potency problems.
In the face of constant reports about hacks and leaks of confidential patient records, every citizen should be able to decide for himself or herself whether he or she wants an electronic patient record at all and which treatments should be listed there. In order to obtain an independent second opinion and to ensure the confidentiality of particularly sensitive treatments such as psychotherapy or drug treatment, the decision on medical access to patient records by third parties should also remain in the hands of the individual.”
SUDAFRICA. La segregazione razziale si riflette nell’emergenza abitativa
Twitter WhatsAppFacebook LinkedInEmailPrint
di Alessandra Mincone –
Pagine Esteri, 6 settembre 2023. L’incendio divampato giovedì 31 agosto in uno stabile occupato a Johannesburg è stato definito dalla stampa internazionale “uno dei peggiori roghi abitativi al mondo”. Il bilancio riportato dalle agenzie sudafricane è di 77 abitanti morti di cui 12 minori, e oltre 50 feriti. La palazzina di cinque piani dove da anni si riparavano centinaia di senza tetto, molti dei quali immigrati, si è trasformata in una prigione infernale: testimoni hanno giurato di aver visto bambini venire lanciati dalle finestre nella speranza di risparmiarli al fumo e al fuoco.
L’edificio di 80 Albert Street, di proprietà comunale, era già stato dichiarato inagibile – denuncia la Bbc, ma alcuni giornalisti locali parlano di un business sulle case a Johannesburg che non può smantellarsi facilmente, grazie ad una fitta rete clientelare che accomuna bande criminali e istituzioni. Nel 2019, ci fu il tentativo di sgomberare l’edificio per arrestare più di cento immigrati irregolari ed una persona fu accusata di gestire il racket degli affitti. Il costo di uno spazio variava dai 19 agli 80 dollari al mese, rispetto all’ampiezza delle camere e alle condizioni di privacy richieste dagli inquilini. Ma nell’edificio non vi erano estintori né uscite di sicurezza, e molte porte erano blindate, cosa che ha limitato ulteriormente le vie di fuga la notte dell’incendio.
Gli impianti elettrici prevedibilmente abusivi, che non si esclude abbiano potuto generare la scintilla dell’incendio, purtroppo, sono una condizione abitativa accettata da migliaia di persone che, come accaduto per le famiglie dell’edificio finito sulla cronaca, sono disposti a tutto pur di ottenere un posto letto una volta approdati in Sudafrica, alla ricerca di un lavoro nel distretto più industrializzato della regione. Eppure la questione abitativa non è un’emergenza nuova per il Sudafrica, né affonda le sue radici con le più recenti migrazioni di lavoratori, quelli provenienti soprattutto da Mozambico, Botswana, Namibia e Zimbabwe.
Le politiche di segregazione razziale vigenti fino agli inizi degli anni ’90 si ripercuotono ancora nelle vite di migliaia di sudafricani a cui in passato erano state sottratte case, terre e documenti e che oggi vivono in condizioni di estrema povertà. Il risultato è che oggi, le migrazioni interne ed esterne generano insediamenti precari in città carenti di alloggi dignitosi, ma ricchi di strutture abbandonate e fatiscenti.
Nel marzo 2020, quando il governo sudafricano denunciava lo stato di emergenza per la pandemia da covid-19, il Dipartimento degli insediamenti, dell’acqua e della sanificazione attivava nelle aree più sovraffollate delle città di Johannesburg, Pretoria, Durban, Cape Town e Buffalo Cityun piano di ricollocazione abitativa con la costruzione di strutture prefabbricate in legno e componibili in una sola ora. Le alternative abitative fornite dalle autorità per ridurre il rischio di focolai di contagiati, però, non avevano convinto quasi nessuno a lasciare gli stabili occupati, in cambio di quelle soluzioni “temporanee”, sebbene queste risultassero migliori da un punto di vista igienico-sanitario. Un’inchiesta pubblicata sul “giornale dell’architettura” dimostra, in realtà, timidamente, quanto il ricordo dell’apartheid e della rimozione forzata dalle proprie case sia ancora vivo tra la popolazione sudafricana, tanto da influire psicologicamente nei processi dell’abitare sino ad oggi.
Proprio all’esterno dell’edificio di 80 Albert Street si leggeva ancora una targa per ricordare il periodo di suprematismo dei bianchi. Intorno agli anni ’60 era la sede del Dipartimento per gli affari non europei e lì vi si recavano i pretendenti al lavoro per sottoporsi a delle prove fisiche ed esami medici, nella speranza di ottenere un permesso che gli consentisse di trovare occupazione in quell’area, già all’epoca, costruita per confinare operai e minatori salariati.
Oggi le stime ufficiali riferiscono che l’emergenza abitativa in Sudafrica riguarda un numero compreso tra le 100mila e 200mila persone. C’è da dire che tali statistiche non differenziano le persone che vivono per strada o che non hanno una dimora fissa da quelle che vivono nei vari tipi di insediamenti illegali, come in stabili occupati o baracche.
Nel frattempo il livello di stigmatizzazione statale aumenta. A pochi giorni dalla tragedia, il Governo di Gauteng ha chiesto in Tribunale lo sfratto immediato di tutti gli alloggi attualmente occupati abusivamente, in contrapposizione alla legge sudafricana secondo la quale nessuno spostamento forzato può essere messo in atto senza un programma di ricollocamento per le persone in emergenza abitativa. Il presidente Cyril Ramaphosa ha definito l’incendio di Johannesburg un campanello d’allarme con l’intento di criminalizzarne gli aspetti: “l’edificio è di proprietà della città (…) Questi tipi di edifici vengono occupati da criminali che poi impongono l’affitto a famiglie disperate”.
E non si è fatto attendere il Ministro della presidenza Khumbudzo Ntshavheni che ha persino negato l’esistere di alcuna emergenza abitativa: “la maggior parte di quelle persone che soggiornano e risiedono in edifici dirottati non sono sudafricani e non sono in questo paese legalmente. Il governo non può fornire alloggi agli immigrati clandestini”, ha detto.
Secondo un saggio datato di una decina di anni, pubblicato per conto del Centro di consulenza tecnica del governo del Sudafrica, la posizione dei senza tetto è da considerarsi “continuativa”. Vale a dire che si definiscono tali, soggetti che non dispongono di un’autosufficienza economica per vivere in condizioni socialmente soddisfacenti e che compongono una percentuale di popolazione indesiderata nei centri urbani dove risiedono cittadini dal tenore di vita “adeguato” alle aspettative sociali generali. “I senzatetto sono spesso la fase finale di una serie permanente di crisi e opportunità mancate e di un graduale disimpegno dalle relazioni di supporto e da una rete sociale adeguata”.
Ma delle persone sopravvissute all’incendio di 80 Albert Street, e dei piani di ricollocazione e sostegno per il loro diritto ad una casa, dal Governo non c’è traccia di dichiarazione.
Twitter WhatsAppFacebook LinkedInEmailPrint
L'articolo SUDAFRICA. La segregazione razziale si riflette nell’emergenza abitativa proviene da Pagine Esteri.
Ministero dell'Istruzione
#PNSD: proiettato al Teatro Piccolo Arsenale di Venezia il documentario MABArt, un emozionante viaggio attraverso le sfide culturali, le tematiche di approfondimento, di ricerca e metodologie didattiche innovative sviluppate durante il primo ciclo di…Telegram
Etiopia, 10 mesi di abusi e violenze dopo la tregua mentre sta per scadere la giustizia per le 800.000 vittime in Tigray
Che cos’è la Commissione internazionale di esperti sui diritti umani in Etiopia (ICHREE) e perché bisogna sostenere che sia fondamentale per i sopravvissuti e le centinaia di migliaia di vittime della guerra genocida iniziata in Tigray e sconfinata in Amhara e Afar.
Il 4 novembre 2020 è scoppiato un conflitto armato tra il governo federale etiope e il partito TPLF – Tigray People’s Liberation Front in Tigray, stato regionale settentrionale dell’ Etiopia. Il conflitto alla fine si estese alle regioni vicine.
Amnesty International e molte altre organizzazioni hanno documentato gravi violazioni dei diritti umani in questo conflitto, inclusi crimini di guerra e crimini contro l’umanità.
Nel 2021 sono stati istituiti due meccanismi investigativi per indagare sugli abusi in questo conflitto:
- Una commissione d’inchiesta della Commissione africana sui diritti umani e dei popoli – ACHPR
- Una commissione internazionale di esperti sui diritti umani sull’Etiopia da parte del Consiglio per i diritti umani – ICHREE
Il governo etiope ha resistito con persistenza alle indagini da parte di qualsiasi meccanismo regionale e internazionale per i diritti umani.
[REPORT] Violenze ed abusi anche dopo la firma dell’accordo di cessazione ostilità
Il 2 novembre 2022 è stato firmato un accordo tra il governo etiope e il TPLF per porre fine alle ostilità (#CoHA), ma Amnesty nel suo ultimo rapporto rileva che i gravi abusi sono continuati anche durante questi 10 mesi di tregua.
Approfondimenti:
- Etiopia, 10 mesi di crisi umanitaria in aggravamento dopo 2 anni di guerra in Tigray
- Etiopia, continua occupazione eritrea, abusi e violenze ad Irob, Tigray
- Etiopia, non è mai troppo tardi per chiedere verità e giustizia per il Tigray – Appello al Governo Italiano
Le prospettive di responsabilità nazionale per questi crimini sono desolanti. A ciò hanno contribuito il conflitto di interessi da parte delle autorità etiopi nel perseguire la giustizia, la debolezza delle istituzioni e le debolezze del quadro giuridico interno.
Approfondimenti:
- Etiopia, Perseguire Crimini Contro l’Umanità: Dov’é La Legge?
- Etiopia, USA ed Europa hanno già scelto le sorti per la giustizia e le vittime della guerra genocida in Tigray
Nel giugno 2023, dopo quasi due anni di pressioni continue e di una campagna diffamatoria da parte del governo etiope, la commissione della ACHPR – African Commission on Human and Peoples’ Rights è stata sciolta prematuramente. Ora, anche il mandato dell’unico meccanismo internazionale rimasto, l’ICHREE, rischia di essere revocato.
L’ICHREE è fondamentale per garantire che un giorno possa esserci giustizia per gli innumerevoli sopravvissuti, vittime e famiglie colpite dal conflitto nel nord dell’Etiopia. Senza l’ICHREE, l’impunità per le atrocità commesse in Etiopia probabilmente persisterà e le vittime rimarranno senza risarcimento.
youtube.com/embed/pQjj2XDyNZk?…
L’ICHREE scadrà come mandato a settembre.
Nella prossima sessione del Consiglio per i diritti umani delle Nazioni Unite, l’11 settembre, verrà presa la decisione. I molteplici appelli da aprte della diaspora, della società civile, di collettivi di attivisti e realtà per la tutela dei diritti umani verranno ascoltati?
Ma soprattutto, sarà ascoltata la voce delle 800.000 vittime e delle loro famiglie in Tigray che chiedono giustizia o sarà l’ennesimo affronto dell’ingiustizia politicizzata verso la tutela della vita e dei diritti degli indivdui?
Panoramax, un'alternativa libera a Google Street View per foto-cartografare il territorio.
Cos'è #Panoramax? Il post di @CapitaineMoustache 🗺️⭕️ ce lo spiega!
È come Google Street View ma gratis!
Le foto sono fornite dalla community, ospitata su diverse istanze (come Mastodon), disponibili con licenza CC-BY-SA 4.0 e scaricabili a piena risoluzione (vedi ultima immagine)!
È ancora in beta, ma i primi mattoncini ci sono già, puoi già consultare le foto, visualizzarle su una mappa, contribuire caricando le tue foto tramite l'interfaccia web!
Questo è MEGA utile per la mappatura su #OpenStreetMap ! Con queste foto potrai scoprire velocemente nomi di percorsi, indirizzi, attrezzature di emergenza, negozi, limiti di velocità, infrastrutture ciclistiche, insomma è oro! E salta, colpisce poi tutte le app che utilizzano OpenStreetMap, come OsmAnd (vedi foto).
Con poca attrezzatura (un semplice smartphone o una fotocamera GoPro per esempio), chiunque può fotografare e poi mappare un'intera città, soprattutto dove i servizi commerciali non passano mai, tipo "basse densità" o.... dove non passano le auto!
Attualmente esistono due organismi Panoramax:
- Il National Geographic Institute (IGN)
- L'Associazione OpenStreetMap Francia
Grazie a @nilocram per la segnalazione
like this
OpenStreetMap Italia Community reshared this.
Grandi Poliverso e Nilocram! 🤩
Ne avevo già parlato qui e qui ma effettivamente mancava un post dedicato!
L'unica cosa che non mi è al 100% chiara è come contribuire da smartphone....manca l'app dedicata e non so se esista una funzione della fotocamera per cui si possano scattare immagini ogni x secondi ad es. per 1 ora. Oltre al fatto che su smartphone con GPlay l'attivazione del gps per la fotocamera obbliga ad attivare la localizzazione precisa (anche tramite reti wifi vicine e altro)
Poliverso - notizie dal Fediverso ⁂ likes this.
Poliverso - notizie dal Fediverso ⁂ reshared this.
dove scrivono che è prevista la federazione tra istanze!
In Cina e Asia – Summit Asean, al centro Myanmar e Mar cinese meridionale
I titoli di oggi:
Summit Asean, al centro Myanmar e Mar cinese meridionale
Hong Kong, il governo invitato a riconoscere le unioni lgbtq+
Cina, i produttori di batterie continuano a investire "ben oltre le necessità"
Cina, Xi "sgridato" dagli anziani del Pcc?
Thailandia, il nuovo governo ha prestato giuramento
G20, L'India diventa Bharat sugli inviti ai leader
L'articolo In Cina e Asia – Summit Asean, al centro Myanmar e Mar cinese meridionale proviene da China Files.
“Hello World” è la prima comunità Lemmy italiana dedicata alla programmazione
Qui possiamo condividere notizie, tutorial e manuali, video, interviste ad addetti ai lavori ma anche link a repository di progetti personali (rigorosamente open source).
PRIVACYDAILY
Weekly Chronicles #44
Privacy Week 2023
Dal 25 al 29 settembre torna la Privacy Week, un festival di cui sono co-organizzatore in cui si parla di privacy, cybersecurity, crypto, nuove tecnologie e diritti umani. Si terrà a Milano in diverse sedi molto belle, come l’headquarter di Fastweb, il Museo della Scienza e della Tecnica o nella sede di Banca Sella (fintech district).
Le partecipazioni dal vivo per alcuni eventi sono limitate e su invito, ma tutti gli incontri potranno essere seguiti comodamente da www.privacyweek.it in streaming.
Qui: https://privacyweek.it/exposed puoi trovare tutto il palinsesto e i principali speaker. Tra i nomi più interessanti (per me), devo sicuramente citare: Patrick Breyer, uno dei pochi europarlamentari fermamente contro la sorveglianza di massa; Max Schrems, l’uomo che ha causato l’annullamento del Privacy Shield tra UE e USA e Giacomo Zucco, probabilmente il miglior divulgatore bitcoiner d’Italia (che partecipa per la terza volta).
Ci vedremo sicuramente dal vivo qui:
- Giovedì 28 settembre, dalle ore 20:30 presso Phyd, Via Tortona 31, (Milano) in cui si terrà la Privacy Night con Diego Passoni.
- Venerdì 29 settembre, dalle ore 14: 21 presso House of Stories, Via Enrico Nöe 24, Città Studi (Milano) in cui si terrà l’intervista a Max Schrems e anche Bitcoin Beach, un workshop dal vivo per insegnare persone e commercianti a usare Bitcoin, a cura di Milano Trustless.
Ti consiglio di registrarti sul sito e iscriverti alla newsletter per non perdere nessun aggiornamento, seguire tutti gli eventi e ricevere i dettagli per la partecipazione dal vivo.
Supporta Privacy Chronicles, iscriviti e condividi!
Twitter/X vuole i nostri meme per la sua IA
Tutto ciò che scrivi su Twitter/X sarà usato per allenare i loro modelli di intelligenza artificiale. Questo è ciò che dice l’ultimo aggiornamento alla sezione 2.1:
We may use the information we collect and publicly available information to help train our machine learning or artificial intelligence models for the purposes outlined in this policy.
A luglio di quest’anno Elon Musk aveva dichiarato di voler lanciare una nuova azienda per competere contro chatGPT di OpenAI. Le nostre conversazioni, flame e meme su Twitter/X saranno quindi il carburante con cui Musk allenerà la sua versione di chatGPT.
Se da un lato un algoritmo che fagociterà ogni nostra parola potrebbe non sembrare una grandissima notizia, potrebbe invece esserlo per la libertà d’espressione di tutti noi. Sappiamo infatti che chatGPT è estremamente orientato verso ideologie progressiste di sinistra (un cosiddetto “bias”).
Una versione sviluppata su Twitter/X potrebbe invece offrire una nuova visione, più neutrale, utile a portare un “equilibrio nella Forza” di cui abbiamo estremamente bisogno.
La chimera della Chainanalysis
Lo scorso 23 giugno Elizabeth Bisbee, head of investigations di Chainalysis Government Solutions, ha testimoniato in un giudizio di non conoscere l’accuratezza del software sviluppato dalla sua stessa azienda. Il contesto è quello di un procedimento penale contro Roman Sterlingov, sviluppatore che ha creato uno strumento di Coinjoin per Bitcoin.
Per chi non lo sapesse, potremmo definire la chainanalisys come un settore specialistico dell’informatica forense che ha lo scopo di tracciare e ricostruire il percorso delle transazioni su blockchain e identificare i wallet (e le persone) a cui si riferiscono quelle transazioni.
L’attività di chainanalysis si scontra proprio con strumenti privacy-focused come il Coinjoin, che permettono di mescolare e offuscare le transazioni per rendere estremamente complesso ogni tentativo tracciamento e re-identificazione dei wallet.
Nel corso del giudizio il software di chainanalysis è stato definito come un “black box algorithm” che fa affidamento su “junk science”.
Se il giudice dovesse dare ragione alla difesa, sarebbe indubbiamente un gran brutto colpo per tutte quelle aziende che da qualche anno promettono ai governi di tutto il mondo una bacchetta magica da miliardi di dollari per rintracciare e identificare transazioni su blockchain come Bitcoin o Ethereum.
Weekly memes
Weekly quote
“Tyranny in democratic republics does not proceed in the same way, however. It ignores the body and goes straight for the soul.
The master no longer says: You will think as I do or die. He says: You are free not to think as I do. You may keep your life, your property, and everything else. But from this day forth you shall be as a stranger among us.
You will retain your civic privileges, but they will be of no use to you. For if you seek the votes of your fellow citizens, they will withhold them, and if you seek only their esteem, they will feign to refuse even that. You will remain among men, but you will forfeit your rights to humanity.
Alexis de Tocqueville
Support Privacy Chronicles!
One way to support Privacy Chronicles is to share this article with your friends and acquaintances and leave a like or a comment! Another way is to subscribe (with Bitcoin as well) for the equivalent of a monthly breakfast.
Or, you can make a voluntary donation in sats by scanning this QR Code:
Scan the QR Code or click here!
English version
Privacy Week 2023
From September 25th to 29th, Privacy Week returns, a festival of which I am a co-organizer, focusing on discussions about privacy, cybersecurity, crypto, new technologies, and human rights. It will take place in various beautiful venues in Milan, including the headquarters of Fastweb, the Museum of Science and Technology, and the location of Banca Sella (fintech district).
Live participation for some events is limited and by invitation, but all sessions can be conveniently followed via streaming on www.privacyweek.it.
Here: privacyweek.it/exposed, you can find the full schedule and key speakers. Among the most notable names (for me), I must definitely mention: Patrick Breyer, one of the few European parliamentarians staunchly against mass surveillance; Max Schrems, the man who triggered the annulment of the Privacy Shield between the EU and the USA; and Giacomo Zucco, arguably Italy's best Bitcoin advocates and educators (participating for the third time!).
We will definitely see each other in person here:
- Thursday, September 28th, from 8:30 PM at Phyd, Via Tortona 31 (Milan), where the Privacy Night with Diego Passoni will be held.
- Friday, September 29th, from 2:00 PM to 9:00 PM at House of Stories, Via Enrico Nöe 24, Città Studi (Milan), where the interview with Max Schrems will take place, along with Bitcoin Beach, a live workshop to teach individuals and merchants to use Bitcoin, hosted by Milano Trustless.
I recommend registering on the website and subscribing to the newsletter to stay updated, follow all the events, and receive details for live participation.
Twitter/X wants our memes for its AI model
Everything you write on Twitter/X will be used to train their artificial intelligence models. This is what the latest update to section 2.1 states:
"We may use the information we collect and publicly available information to help train our machine learning or artificial intelligence models for the purposes outlined in this policy."
In July of this year, Elon Musk had announced his intention to launch a new company to compete against OpenAI's chatGPT. Our conversations, debates, and memes on Twitter/X will thus be the fuel with which Musk will train his version of chatGPT.
While an algorithm devouring every word we say might not seem like great news, it could indeed be a positive outcome for our freedom of expression. We know that chatGPT is highly oriented towards progressive left-leaning ideologies (a "bias"). A version developed on Twitter/X, on the other hand, might offer a new, more neutral perspective, helpful in bringing a much-needed "balance to the Force."
The Chimera of Chainanalysis
On June 23rd, Elizabeth Bisbee, head of investigations at Chainalysis Government Solutions, testified in a trial that she was not aware of the accuracy of the software developed by her own company. The context is a criminal case against Roman Sterlingov, a developer who created a Coinjoin tool for Bitcoin.
For those unaware, chainanalysis could be described as a specialized field of computer forensics that aims to trace and reconstruct the path of transactions on blockchains and identify the wallets (and individuals) associated with those transactions.
The activity of chainanalysis directly clashes with privacy-focused tools like Coinjoin, which allow transactions to be mixed and obscured, making any attempts at tracking and re-identifying wallets extremely complex.
During the trial, the chainanalysis software was referred to as a "black box algorithm" relying on "junk science." If the defense were to prevail, it would undoubtedly be a significant blow to all those companies that have been promising governments worldwide a multi-billion-dollar magic wand to trace and identify transactions on blockchains like Bitcoin or Ethereum.
Il fronte coreano della guerra: "Kim andrà in Russia”
Lo dice il New York Times, lo sottoscrive la Casa bianca. Da Mosca e Pyongyang no comment. Sul tavolo un accordo non solo militare: in cambio di armi la Corea del Nord potrebbe ottenere tecnologie e aiuti alimentari
L'articolo Il fronte coreano della guerra: “Kim andrà in Russia” proviene da China Files.
Campanella
Torna a suonare la campanella della scuola, ma si sentono anche le campane stonate dei discorsi sempre uguali e inconcludenti. I libri di testo erano uno strumento vecchio già nel secolo scorso, ma siamo ancora qui a parlare del loro costo crescente, mentre riaprono i mercatini dell’usato, intralciati da “nuove edizioni” che di nuovo hanno soltanto la diversa dislocazione e numerazione degli esercizi. Noi andavamo a scuola con il laccio, poi si è passati ai ragazzi caricati come fantaccini, infine sono arrivati i borsoni con le rotelle. Un mercato dissennato, una rendita di posizione che non si riesce a smontare. Come tante altre rendite di posizione.
I libri sono uno strumento insostituibile. Il libro ha un nobile passato e un glorioso avvenire. Ma una scuola rispettabile ha un buona biblioteca e fornisce agli studenti le dispense su cui studiare gli argomenti che mano a mano si affrontano. Portarsi l’intero programma sulla schiena non è cultura, ma soma. Cui si adibivano gli asini. Il costo medio dei libri di testo, per un singolo studente e un singolo anno, si aggira sui 500 euro. Ma la media cela punte ben più alte. Con assai meno di quei soldi si può dotare ciascuno di lettori digitali, capaci di contenere lo scibile. Si possono fare assicurazioni e disporre di memorie remote, nel caso siano fracassati.
Taluni si sentono colti nel sostenere che il digitale annebbia la vista e incurva le spalle. A loro sfugge che si sosteneva la stessa cosa dei libri stampati. Polemiche schiocche: i libri resteranno un pilastro della cultura, della curiosità e del divertimento, mentre la manualistica è tutta traslocata in digitale. La scuola serve anche a insegnare come si studia. Non soltanto senza il digitale fallisce la sua missione, ma consegna i meno culturalmente protetti all’uso esclusivamente (a)social del digitale.
Nelle nostre scuole ci sono insegnanti straordinariamente bravi, come ce ne sono di riprovevolmente incapaci. Severità e selezione non funzioneranno mai fra i banchi se non li si pratica fra le cattedre. Non soltanto ci serve una banca dati continuamente aggiornata sui progressi culturali di ciascuno studente – non bastano i medi complessivi – ma il digitale consente anche di costruirsi da soli le ripetizioni, per chi è rimasto indietro, o di accedere alle lezioni del docente più bravo, che si trova in un’altra città. Questo non porta alla spersonalizzazione, ma contrasta l’irresponsabilità. Perché nella nostra scuola ci si occupa dei contratti, delle presenze, dell’anzianità e dei pensionamenti dei docenti, ma mai dei risultati che ciascuno di loro ha il merito di generare.
Suona la campanella e di tutto si parla, meno che dei contenuti della scuola. Ora va per la maggiore l’accorpamento delle classi o delle scuole. Ma gli studenti diminuiscono e il risultato da raggiungersi non è che ciascuno abbia una scuola deserta sotto casa, ma che disponga di mezzi di trasporto dedicati per raggiungere istituti con massa critica che giustifichi i servizi e l’attenzione alla qualità degli insegnanti. Il ministro continua a ricordare quanti ne ha assunti, ma non come sono stati selezionati. Anche perché taluni non sono affatto stati selezionati: erano lì, da tempo. In questo modo gli sconfortanti risultati di ieri saranno quelli di domani.
La scuola la dice lunga su tutti noi. Sempre pronti a dare la colpa ai politici, ai sindacalisti, al ’68 e via andando. Esistono i genitori che fanno ricorso al tribunale amministrativo contro le bocciature, dove sono quelli che fanno ricorso contro l’ignoranza? Quando prendevamo un brutto voto il nostro problema non era a scuola, che a tutto si rimedia, ma a casa, dove nulla si trascura. È una brutta deriva, rabbiosa e lamentosa, quella che si è presa. Che poi genera una classe dirigente che alla voce “congiuntivo” prova a vedere se l’occhio ti lacrima.
La scuola è preziosa per i non protetti e per la competizione. In silenzio molti, in cattedra e fra i banchi, ci salvano. A far rumore sono gli altri.
La Ragione
L'articolo Campanella proviene da Fondazione Luigi Einaudi.
Hebron. Soldatesse israeliane obbligano donne palestinesi a denudarsi completamente
Twitter WhatsAppFacebook LinkedInEmailPrint
della redazione
(foto di archivio, via Twitter)
Pagine Esteri, 5 settembre 2023 – Lo scorso luglio a Hebron, due soldatesse israeliane con il volto coperto, armate di mitra e con un cane da attacco hanno costretto cinque donne palestinesi della famiglia Ajluni a spogliarsi nude, ciascuna separatamente, per controllarle. Le militari israeliane hanno minacciato di liberare il cane se le donne non avessero obbedito. A riferirlo sul quotidiano Haaretz è la giornalista israeliana Amira Hass che ha raccolto la testimonianza delle palestinesi. Durante l’irruzione nell’abitazione degli Ajluni, aggiunge la reporter, altri soldati hanno perquisito i componenti maschi della famiglia ma non hanno chiesto loro di togliersi i vestiti. L’esercito, ha detto un portavoce militare, riteneva che ci fossero armi in casa.
Le donne costrette a spogliarsi nude sono Ifaf, 53 anni, sua figlia Zeinab, 17 anni, e tre nuore: Amal, Diala e Rawan, sui venti anni. Una dopo l’altra sono state portate nella cameretta dei bambini. La prima a essere chiamata nella stanza è stata Amal, poi costretta a spogliarsi in presenza di tre dei suoi quattro figli che, scrive Hass, hanno seguito la scena piangendo e urlando perché terrorizzati dal cane e dalle armi. Le soldatesse a gesti hanno ordinato alla giovane di togliersi tutti vestiti. Di fronte alle sue proteste hanno rilasciato il cane che le si è avvicinato ma non l’ha toccata. Tra le lacrime per l’umiliazione subita, Amal ha anche dovuto fare un giro su sé stessa, completamente nuda, per dimostrare di non avere armi addosso.
Gli altri membri della famiglia tenuti prigionieri in altre stanze, hanno sentito Amal e i suoi figli urlare, seguiti dalle altre donne che facevano lo stesso. La famiglia palestinese ha poi denunciato la sparizione di denaro in contanti (2000 shekel (circa 500 euro) e di oggetti d’oro avvenuta durante la perquisizione. Nei giorni successivi, i militari hanno restituito l’oro ma non i soldi.
Amira Hass scrive che non sono frequenti le segnalazioni di donne palestinesi costrette a spogliarsi nude durante i raid dell’esercito israeliano nelle loro case. Tuttavia, aggiunge, la ricercatrice Manal Al Jaabari del gruppo per i diritti umani B’Tselem, Manal Al Jaabari ha documentato una ventina di casi simili a quello della famiglia Ajluni. Il numero reale, secondo Al Jaabari, con ogni probabilità è molto più alto perché tante donne palestinesi, per pudore, preferiscono non denunciare l’umiliazione alla quale sono state sottoposte. Pagine Esteri
Twitter WhatsAppFacebook LinkedInEmailPrint
L'articolo Hebron. Soldatesse israeliane obbligano donne palestinesi a denudarsi completamente proviene da Pagine Esteri.
“DATA PROTECTION AS A CORPORATE SOCIAL RESPONSIBILITY”
Domani avrò il piacere di partecipare a partire dalle 15.00 all’incontro “Data Protection as a Corporate Social Responsibility” organizzato a Maastricht dall’ European Centre on Privacy and Cybersecurity per discutere di dati e privacy.
EU’s Digital Services Act Just Became Applicable: Outlining Ten Key Areas of Interplay with the GDPR
DSA: What’s in a Name?
The European Union’s (EU) Digital Services Act (DSA) is a first-of-its-kind regulatory framework, with which the bloc hopes to set an international benchmark for regulating online intermediaries and improving online safety. The DSA establishes a range of legal obligations, from content removal requirements, prohibitions to engage in manipulative design and to display certain online advertising targeted to users profiled on the basis of sensitive characteristics, to sweeping accountability obligations requiring audits of algorithms and assessments of systemic risks for the largest of platforms.
The DSA is part of the EU’s effort to expand its digital regulatory framework to address the challenges posed by online services. It reflects the EU’s regulatory approach of comprehensive legal frameworks which strive to protect fundamental rights, including in digital environments. The DSA should not be read by itself: it is applicable on top of the EU’s General Data Protection Regulation (GDPR), alongside the Digital Markets Act (DMA), as well as other regulations and directives of the EU’s Data Strategy legislative package.
The Act introduces strong protections against both individual and systemic harms online, and also places digital platforms under a unique new transparency and accountability framework. To address the varying levels of risks and responsibilities associated with different types of digital services, the Act distinguishes online intermediaries depending on the type of business service, size, and impact, setting up different levels of obligations.
Given the structural and “systemic” significance of certain firms in the digital services ecosystem, the regulation places stricter obligations on Very Large Online Platforms (VLOPs) and Very Large Online Search Engines (VLOSEs). These firms will have to abide by higher transparency standards, provide access to (personal) data to competent authorities and researchers, and identify, analyze, assess, and mitigate systemic risks linked to their services. Such systemic risks have been classified into four different categories (Recitals 80-84): illegal content; fundamental rights (freedom of expression, media pluralism, children’s rights, consumer protection, and non-discrimination, inter alia); public security and electoral/democratic processes; and public health protection, with a specific focus on minors, physical and mental well-being, and gender-based violence.
The European Commission designated VLOPs and VLOSEs earlier this year (see Table 1), based on criteria laid out in the DSA and a threshold number of 45 million monthly users across the EU. The DSA obligations for these designated online platforms became applicable on August 25, 2023, with the exception of a transparency database whose publication was postponed for a month following complaints. The full regulation becomes applicable for all covered starting on February 17, 2024.
Table 1 – Mapping the 19 Designated Companies by the European Commission (April 2023)
Type of service | Company | Digital Service | Type of designation |
Social Media | Alphabet | Youtube | VLOP |
Meta | VLOP | ||
Meta | VLOP | ||
Bytedance | TikTok | VLOP | |
Microsoft | VLOP | ||
Snap | Snapchat | VLOP | |
VLOP | |||
X (formerly known as Twitter) | X (formerly known as Twitter) | VLOP | |
App Stores | Alphabet | Google App Store | VLOP |
Apple | Apple App Store | VLOP | |
Wiki | Wikimedia | Wikimedia | VLOP |
Marketplaces | Amazon* | Amazon Marketplace | VLOP |
Alphabet | Google Shopping | VLOP | |
Alibaba | AliExpress | VLOP | |
Booking.com | Booking.com | VLOP | |
Zalando* | Zalando | VLOP | |
Maps | Alphabet | Google Maps | VLOP |
Search | Alphabet | Google Search | VLOSE |
Microsoft | Bing | VLOSE |
— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
* The companies that sought to challenge their designation as ‘VLOPs’ – the European General Court will be addressing these challenges and will determine whether the European Commission’s designation shall be upheld.
— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
However, VLOPs and VLOSEs are not the only regulated entities. All intermediaries that offer their services to users based in the EU, including online platforms such as app stores, collaborative economy platforms, and social media platforms, fall within the scope of the regulation, regardless of their number of users. Notably, micro and small-sized enterprises that do not meet the VLOP/VLOSE criteria, as defined by EU law, are exempted from some of the legal obligations. While “regular” online platforms may have scaled down requirements compared to VLOPs/VLOSEs, their new legal obligations are nonetheless significant and include, among others, transparency regarding their recommendation systems, setting up internal complaint-handling mechanisms, prohibitions on designing their platforms in a way that deceives or manipulates users, and prohibitions on presenting ads based on profiling using special categories of personal data, including personal data of minors.
All providers of intermediary services, including online platforms, covered by the DSA are also “controllers” under the GDPR to the extent that they process personal data and decide on the means and purposes of such processing. As a consequence, they have to comply with both these legal frameworks at the same time. While the DSA stipulates, pursuant to Recital 10, that the GDPR and the ePrivacy Directive serve as governing rules for personal data protection, some DSA provisions intertwine with GDPR obligations in complex ways, requiring further analysis. For instance, some of the key obligations in the DSA refer to “profiling” as defined by the GDPR, while others create a legal requirement for VLOPs and VLOSEs to give access to personal data to researchers or competent authorities.
After a brief overview of the scope of application of the DSA and a summary of its key obligations based on the type of covered entity (see Table 2), this blog maps out ten key areas where the DSA and the GDPR interact in consequential ways and reflects on the impact of this interaction on the enforcement of the DSA. The ten interplay areas we are highlighting are:
- Manipulative design in online interfaces;
- Targeted advertising based on sensitive data;
- Targeted advertising and protection of minors;
- Recommender systems free-of-profiling;
- Recommender systems and advertising transparency;
- Access to data for researchers and competent authorities;
- Takedown of illegal content;
- Risk Assessments;
- Compliance function and the DSA legal representative;
- Intermediary liability and the obligation to provide information.
The DSA Applies to Intermediary Services of Various Types and Sizes and Has Broad Extraterritorial Effect
The DSA puts in place a horizontal framework of layered responsibilities targeted at different types of online intermediary services, including:
(1) Intermediary services offering network infrastructure | Including “mere conduit services” (e.g. internet access, content delivery networks, WiFi hotspots); “caching services” (e.g. automatic, intermediate, and temporary storage of information); and “hosting services” (e.g. cloud and web-hosting services). |
(2) Online platform services | Providers bringing together sellers and consumers, such as online marketplaces, app stores, collaborative economy platforms, social media platforms, and providers that disseminate information to the public. |
(3) Very Large Online Platforms (VLOPs) | Reaching at least 45 million active recipients in the EU on a monthly basis (10% of the EU population). |
(4) Very Large Online Search Engines (VLOSEs) | Reaching at least 45 million active recipients in the EU on a monthly basis (10% of the EU population). |
Recitals 13 and 14 of the DSA highlight the importance of “disseminating information to the public” as a benchmark for which online platforms fall under the scope of the Regulation and the specific category of hosting services. For instance, Recital 14 explains that emails or private messaging services fall outside the definition of online platforms “as they are used for interpersonal communication between a finite number of persons determined by the sender of the communication.” However, the DSA obligations for online platforms may still apply to them if such services “allow the making available of information to a potentially unlimited number of recipients, … such as through public groups or open channels.”
Important carve-outs are made in the DSA for micro and small-sized enterprises, as defined by EU law, that do not meet the VLOP/VLOSE criteria. These firms are exempted from some of the legal obligations, in particular from making available an annual report on the content moderation they engage in, as well as the more substantial additional obligations imposed on providers of online platforms in Articles 20 to 28 – such as the prohibition to display ads based on profiling conducted on special categories of personal data, and obligations for platforms allowing consumers to conclude distance contracts with traders in Articles 29 to 32.
These carve-outs come in contrast with the broad applicability of the GDPR to entities of all sizes. This means, for instance, that even if micro and small-sized enterprises that are online platforms do not have to comply with the prohibitions related to displaying ads based on profiling using special categories of personal data and profiling of minors, they continue to fall under the scope of the GDPR and its requirements that impact such profiling.
The DSA has extra-territorial effect and global coverage, similar to the GDPR, since it captures companies regardless of whether they are established in the EU or not, as long as the recipients of their services have their place of establishment or are located in the EU (Article 2).
The DSA Just Became Applicable to VLOPs and VLOSEs and Will Continue to Roll Out to All Online Platforms
The Act requires that platforms and search engines publish their average monthly number of active users/recipients with the EU-27 (Article 24 – check the European Commission’s guidance on the matter). The first round of sharing those numbers was due on February 17, 2023. Based on the information shared through that exercise, the Commission designated the VLOPs and VLOSEs with additional obligations because of the “systemic risks that they pose to consumers and society,” (Article 33). The designation announcement was made public on April 25.
Four months after the designation, on August 25, 2023, the DSA provisions became applicable to VLOPs and VLOSEs through Article 92. This means that the designated platforms must already implement their obligations, such as conducting risk assessments, increasing transparency of recommender systems, and offering an alternative feed of content not subject to recommender systems based on profiling (see an overview of their obligations in Table 2).
As of February 17, 2024, all providers of intermediary services must comply with a set of general obligations (Articles 11-32), with certain exceptions for micro and small enterprises as explained above.
Table 2 – List of DSA Obligations as Distributed Among Different Categories of Intermediary Service Providers
Pillar obligations | Set of Obligations | Intermediary Services | Hosting Services | Online Platforms | VLOPs/VLOSEs |
Transparency measures | Transparency reporting (Article 15) | ||||
Requirements on terms and conditions wrt fundamental rights (Article 14) | |||||
Statement of reasons (Article 17) | |||||
Notice-and-action and obligation to provide information to users (Article 16) | |||||
Recommender system transparency (Articles 27 and 38) | |||||
User-facing transparency of online advertising (Article 24) | |||||
Online advertising transparency (Article 39) | |||||
User choice for access to information (Article 42) | |||||
Oversight structure to address the complexity of the online intermediary services ecosystem | Cooperation with national authorities following orders (Article 11) | ||||
Points of contact for recipients of service (Article 12) and, where necessary, legal representatives (Article 13) | |||||
Internal complaint and handling system (Article 20) and redress mechanism (Article 32) and out-of-court dispute settlement (Article 21) | |||||
Independent auditing and public accountability (Article 37) | |||||
Option for recommender systems not based on profiling (Article 38) | |||||
Supervisory fee (Article 43) | |||||
Crisis response mechanism and cooperation process (Article 36) | |||||
Manipulative Design | Online interface design and organization (Article 25) | ||||
Measures to counter illegal goods, services, or content online | Trusted flaggers (Article 22) | ||||
Measures and protection against misuse (Article 23) | |||||
Targeted advertising based on sensitive data (Article 26) | |||||
Online protection of minors (Article 28) | |||||
Traceability of traders (Articles 30-32) | |||||
Reporting criminal offenses (Article 18) | |||||
Risk management obligations and compliance officer (Article 41) | |||||
Risk assessment and mitigation of risks (Articles 34-35) | |||||
Codes of conduct (Articles 45-47) | |||||
Access to data for researchers | Data sharing with authorities and researchers (Article 40) |
From Risk Assessments to Profiling and Transparency Requirements – Key Points of Interplay Between the DSA and GDPR
While the DSA and the GDPR serve different purposes and objectives at face value, ultimately both aim to protect fundamental rights in a data-driven economy and society, on the one hand, and reinforce the European single market, on the other hand. The DSA aims to establish rules for digital services and their responsibilities toward content moderation and combating systemic risks, so as to ensure user safety, safeguard fairness and trust in the digital environment, and enhance a “single market for digital services.” Notably, providing digital services is inextricably linked to processing data, including personal data. The GDPR seeks to protect individuals in relation to how their personal data is processed, ensuring that such processing respects their fundamental rights, while at the same time seeking to promote the free movement of personal data within the EU.
While the two regulations do not have the same taxonomy of regulated actors, the broad scope of the GDPR’s definitions of “controllers” and “processing of personal data” are such that all intermediaries covered by the DSA are also controllers under the GDPR in relation to any processing of personal data they engage in and for which they establish the means and purposes of processing. Some intermediaries might also be “processors” under the GDPR in specific situations, a fact that needs to be assessed on a case-by-case basis. Overall, this overlap triggers the application of both regulations, with the GDPR seemingly taking precedence over most of the DSA (Recital 10 of the DSA), with the exception of the intermediary liability rules in the DSA as the updated eCommerce Directive, which take precedence over the GDPR (Article 2(4) of the GDPR).
The DSA mentions the GDPR 19 times in its text across recitals and articles, with “profiling” as defined by the GDPR playing a prominent role in core obligations for all online platforms. These include the two prohibitions to display ads based on profiling that use sensitive personal data or the data of minors, and the obligation that any VLOPs and VLOSEs that use recommender systems must provide at least one option for their recommender systems not based on profiling. The GDPR plays an additional role in setting the definition for sensitive data (“special categories of data”) in its Article 9, which the DSA specifically refers to for the prohibition of displaying ads based on profiling done on such data. In addition to these cross-references, where it will be essential to apply the two legal frameworks consistently, there are other areas of overlap that create complexity for compliance, at the minimum, but also risks for inconsistencies (such as the DSA risk assessment processes and the GDPR Data Protection Impact Assessment). Additional overlaps may confuse individuals concerned regarding the best legal framework to rely on for removing their personal data from online platforms, as the DSA sets up a framework for takedown requests for illegal content that may also include personal data and the GDPR provides individuals with the right to obtain erasure of their personal data in specific contexts.
In this complex web of legal provisions, here are the elements of interaction between the two legal frameworks that stand out. As the applicability of the DSA rolls out on top of GDPR compliance programs and mechanisms, other such areas may surface.
- Manipulative Design (or “Dark Patterns”) in Online Interfaces
These are practices that “materially distort or impair, either on purpose or in effect, the ability of recipients of the service to make autonomous and informed choices or decisions,” per Recital 67 DSA. Both the GDPR and the DSA address these practices, either directly or indirectly. The GDPR, on the one hand, offers protection against manipulative design in cases that involve processing of personal data. The protections are relevant for complying with provisions detailing lawful grounds for processing, requiring data minimization, setting out how valid consent can be obtained and withdrawn, or how controllers must apply Data Protection by Design and by Default when building their systems and processes.
Building on this ground, Article 25 of the DSA, read in conjunction with Recital 67, includes a ban on providers of online platforms to “design, organize or operate their online interfaces in a way that deceives or manipulates the recipients of their service or in a way that otherwise materially distorts or impairs the ability of the recipients of their service to make free and informed decisions.” The ban seems to be applicable only to online platforms as defined in Article 3(i) of the DSA, as a subcategory of the wide spectrum of intermediary services. Importantly, the DSA specifies that the ban on dark patterns does not apply to practices covered by the Unfair Commercial Practices Directive (UCPD) or the GDPR. Article 25(3) of the DSA highlights that the Commission is empowered to issue guidelines on how the ban on manipulative design applies to specific practices, so further clarity is expected. And since the protection vested by the GDPR against manipulative design will remain relevant and primarily applicable, it will be essential for consistency that these guidelines are developed in close collaboration with Data Protection Authorities (DPAs).
- Targeted Advertising Based on Sensitive Data
Article 26(3) and Recital 68 of the DSA underline a prohibition of the providers of online platforms to “present” ads to users stemming from profiling them, as defined by Article 4(4) of the GDPR, based on sensitive personal data, as defined by Article 9 of the GDPR. Such personal data include race, religion, health status, and sexual orientation, among others on a limited list. However, it is important to mention that case law from the Court of Justice of the EU (CJEU) may further complicate the application of this provision. In particular, Case C-184/20 OT, in a judgment published a year ago, expanded “special categories of personal data” under the GDPR to also cover any personal data from which a sensitive characteristic may be inferred. Additionally, the very recent CJEU judgment in Case C-252/21 Meta v. Bundeskartellamtmakes important findings regarding how social media services as a category of online platforms can lawfully engage in profiling of their users pursuant to the GDPR, including for personalized ads. While the DSA prohibition is concerned with “presenting” ads based on profiling using sensitive data, rather than with the activity of profiling itself, it must be read in conjunction with the obligations in the GDPR for processing personal data for profiling and with the relevant CJEU case-law. To this end, the European Data Protection Board has published relevant guidelines for automated decision-making and profiling in general, but also specifically on targeting of social media users.
- Targeted Advertising and Protection of Minors
Recital 71 of the GDPR already provides that solely automated decision-making, including profiling, with legal or similarly significant effects should not apply to children – a rule that is relevant for any type of context, such as educational services, and not only for online platforms. The DSA enhances this protection when it comes to online platforms, prohibiting the presentation of ads on their interface based on profiling by using personal data of users “when they are aware with reasonable certainty that the recipient of the service is a minor” (Article 28 of the DSA). Additionally, in line with the principle of data minimization provided by Article 5(1) of the GDPR, this DSA prohibition should not lead the provider of the online platform to “maintain, acquire or process” more personal data than it already has in order to assess if the recipient of the service is a minor. While this provision addresses all online platforms, VLOPs and VLOSEs are expected to take “targeted measures to protect the rights of the child, including age verification and parental control tools” as part of their obligation in Article 35(1)(j) to put in place mitigation measures tailored to their specific systemic risks identified following the risk assessment process. As highlighted in a recent FPF infographic and report on age assurance technology, age verification measures may require processing of additional personal data than what the functioning of the online service requires, which could be at odds with the data minimization principles in the absence of additional safeguards. This is an example where the two regulations complement each other.
In recent years, DPAs have been increasingly regulating the processing of personal data of minors. For instance, in the EU, the Irish Data Protection Commission published Fundamentals for a Child-Oriented Approach to Data Processing, the Italian Garante often includes the protection of children in its high-profile enforcement decisions (see, for instance, the TikTok and ChatGPT cases), and the CNIL in France published recommendations to enhance the protection of children online and launched several initiatives to enhance digital rights of children. This is another area where collaboration with DPAs will be very important for consistent application of the DSA.
- Recommender Systems and Advertising Transparency
A significant area of overlap between the DSA and the GDPR relates to transparency. A key purpose of the DSA is to increase overall transparency related to online platforms, manifesting through several obligations, while transparency related to how one’s personal data are processed is an overarching principle of the GDPR. Relevant areas for this principle in the GDPR are found in Article 5, through extensive notice obligations in Articles 13 and 14, data access obligations in Article 15, and underpinned by modalities on how to communicate to individuals in Article 12. Two of the DSA obligations that increase transparency are laid out in Article 27, which imposes on providers of online platforms transparency related to how recommender systems work, and in Article 26, which imposes transparency related to advertising on online platforms. To implement the latter obligation, the DSA requires, per Recital 68, that the “recipients of a service should have information directly accessible from the online interface where the advertisement is presented, on the main parameters used for determining that a specific advertisement is presented to them, providing meaningful explanations of the logic used to that end, including when this is based on profiling.”
As for transparency related to recommender systems, Recital 70 of the DSA explains that online platforms should consistently ensure that users are appropriately informed about how recommender systems impact the way information is displayed and can influence how information is presented to them. “They should clearly present the parameters for such recommender systems in an easily comprehensible manner” to ensure that the users “understand how information is prioritized for them,” including where information is prioritized “based on profiling and their online behavior.” Notably, Articles 13(2)(f) and 14(2)(g) of the GDPR require that notices to individuals whose personal data is processed include “meaningful information about the logic involved, as well as the significance and the envisaged consequences” of automated decision-making, including profiling. These provisions should be read and applied together, complementing each other, to ensure consistency. This is another area where collaboration between DPAs and the enforcers of the DSA would be desirable. To understand the way in which DPAs have been applying this requirement so far, this case-law overview on automated decision-making under the GDPR published by the Future of Privacy Forum last year is helpful.
- Recommender Systems Free-of-Profiling
“Profiling” as defined by the GDPR also plays an important role in one of the key obligations of VLOPs and VLOSEs: to offer users an alternative feed of content not based on profiling. Technically, this stems from an obligation in Article 38 of the DSA for VLOPs and VLOSEs to “provide at least one option for each of their recommender systems which is not based on profiling.” The DSA explains in Recital 70 that a core part of an online platform’s business is the manner in which information is prioritized and presented on its online interface to facilitate and optimize access to information for users: “This is done, for example, by algorithmically suggesting, ranking and prioritizing information, distinguishing through text or other visual representations, or otherwise curating information provided by recipients.”
The DSA text further explains that “such recommender systems can have a significant impact on the ability of recipients to retrieve and interact with information online, including to facilitate the search of relevant information,” as well as playing an important role “in the amplification of certain messages, the viral dissemination of information and the stimulation of online behavior.” Additionally, as part of their obligations to assess and mitigate risks on their platforms, VLOPs and VLOSEs may need to adjust the design of their recommender systems. Recital 94 of the DSA explains that they could achieve this “by taking measures to prevent or minimize biases that lead to the discrimination of persons in vulnerable situations, in particular where such adjustment is in accordance with Article 9 of the GDPR,” where Article 9 establishes conditions for processing sensitive personal data.
- Access to Data for Researchers and Competent Authorities
Article 40 of the DSA includes an obligation for VLOPs and VLOSEs to provide access to the data necessary to monitor their compliance with the regulation to competent authorities (Digital Services Coordinators designated at the national level in the EU Member State of their establishment or the European Commission). This includes access to data related to algorithms, based on a reasoned request and within a reasonable period specified in the request. Additionally, they also have an obligation to provide access to vetted researchers following a request of their Digital Services Coordinator of establishment “for the sole purpose of conducting research that contributes to the detection, identification, and understanding of systemic risks” in the EU, and “to the assessment of the adequacy, efficiency, and impacts of the risk mitigations measures.” This obligation presupposes that the platforms may be required to explain the design, logic of the functioning, and the testing of their algorithmic systems, in accordance with Article 40 and its corresponding Recital 34.
Providing access to online platforms’ data entails, in virtually all cases, providing access to personal data as well, which brings this processing under the scope of the GDPR and triggers its obligations. Recital 98 of the DSA highlights that providers and researchers alike should pay particular attention to safeguarding the rights of individuals related to the processing of personal data granted by the GDPR. Recital 98 adds that “providers should anonymize or pseudonymize personal data except in those cases that would render impossible the research purpose pursued.” Notably, the data access obligations in the DSA are subject to further specification through delegated acts, to be adopted by the European Commission. These acts are expected to “lay down the specific conditions under which such sharing of data with researchers can take place” in compliance with the GDPR, as well as “relevant objective indicators, procedures and, where necessary, independent advisory mechanisms in support of sharing of data.” This is another area where the DPAs and the DSA enforcers should closely collaborate.
- Takedown of Illegal Content
Core to the DSA are obligations for hosting services, including online platforms, to remove illegal content: Article 16 of the DSA outlines this obligation based on a notice-and-action mechanism initiated at the notification of any individual or entity. The GDPR confers rights on individuals to request erasure of their personal data (Article 17 of the GDPR) under certain conditions, as well as the right to request rectification of their data (Article 16 of the GDPR). These rights of the “data subject” under the GDPR aim to strengthen individuals’ control over how their personal data is collected, used, and disseminated. Article 3(h) of the DSA defines “illegal content” as “any information that, in itself or in relation to an activity … is not in compliance with Union law or the law of any Member State…, irrespective of the precise subject matter or nature of that law.” As a result, to the extent that “illegal content” as defined by the DSA is also personal data, an individual may potentially use either of the avenues, depending on how the overlap of the two provisions is further clarified in practice. Notably, one of the grounds for obtaining erasure of personal data is if “the personal data has been unlawfully processed,” and therefore processed not in compliance with the GDPR, which is Union law.
Article 16 of the DSA highlights an obligation for hosting services, including online platforms, to put mechanisms in place to facilitate the submission of sufficiently precise and adequately substantiated notices. Article 12 of the GDPR, on another hand, requires controllers to facilitate the exercise of data subject rights, including erasure, and to communicate information on the action taken without undue delay and in any case no longer than one month after receiving the request. The DSA does not prescribe a specific timeline to deal with notices for removal of illegal content, other than “without undue delay.” All hosting services and online platforms whose activity falls under the GDPR have internal processes set up to respond to data subject requests, which could potentially be leveraged in setting up mechanisms to remove illegal content pursuant notices as requested by the DSA. However, a key differentiator is that in the DSA content removal requests can also come from authorities (see Article 9 of the DSA) and from “trusted flaggers” (Article 22), in addition to any individual or entity – each of these situations under their own conditions. In contrast, erasure requests under the GDPR can only be submitted by data subjects (individuals whose personal data is processed), either directly or through intermediaries acting on their behalf. DPAs may also impose the erasure of personal data, but only as a measure pursuant to an enforcement action.
VLOPs/VLOSEs will have to additionally design mitigation measures ensuring the adoption of content moderation processes, including the speed and quality of processing notices related to specific types of illegal content and its expeditious removal.
- Risk Assessments
The DSA, pursuant to Article 34, obliges VLOPs/VLOSEs to conduct a risk assessment at least once per year to identify, analyze, and assess “systemic risks stemming from the design or functioning of their service and its related systems,” including algorithmic systems. The same entities are very likely subject to the obligation to conduct a Data Protection Impact Assessment (DPIA) under Article 35 of the GDPR, as at least some of their processing operations, like using personal data for recommender systems or profiling users based on personal data to display online advertising, meet the criteria that trigger the DPIA obligation. A DPIA is required in particular where processing of personal data “using new technologies, and taking into account the nature, scope, context, and purposes of the processing, is likely to result in a high risk to the rights and freedoms of natural persons.”
There are four systemic risks that the DSA asks to be included in the risk assessment: dissemination of illegal content; any actual or foreseeable negative effects on the exercise of specific fundamental rights, among which the right to respect for private life and the right to the protection of personal data are mentioned; any actual or foreseeable negative effects on civic discourse, electoral processes and public security; and any actual foreseeable negative effects in relation to gender-based violence, the protection of public health and minors, and serious negative consequences to the person’s physical and mental well-being.
Among the elements that a DPIA under the GDPR must include is “an assessment of the risks to the rights and freedoms of data subjects” that may arise from how controllers process personal data through new technologies, such as algorithmic systems. Other elements that must be included are the measures envisaged to address these risks, similar to how Article 35 of the DSA requires VLOPs/VLOSEs to put mitigation measures in place tailored to the identified risks. The EDPB has also published guidelines on how to conduct DPIAs.
When conducting the risk assessments required by the DSA, VLOPs/VLOSEs must take into account whether and how specific factors enumerated in Article 34(2) influence any of the systemic risks mentioned. Most factors to consider are linked to how VLOPs/VLOSEs process personal data, such as the design of their algorithmic systems, the systems for selecting and presenting advertisements, and generally their data-related practices.
Both DSA risk assessments and DPIAs are ex-ante risk assessment obligations and both involve some level of engagement with supervisory authorities. The scope of the assessments differ, with the DSA focused on systemic risks and risks that go beyond impact on fundamental rights, and the GDPR’s DPIA focused on any risks that novel processing of personal data may pose on fundamental rights and freedoms and on assessments unique to data protection. However, they also have areas of clear overlap where processing of personal data is involved. DPIAs can potentially feed into DSA risk assessments, and the two processes should be implemented consistently.
- Compliance Function and the DSA Legal Representative
Under the DSA, in accordance with Article 41, the designated VLOPs/VLOSEs will be obliged to establish a “compliance function,” which can be composed of several compliance officers. This function must be (i) independent from their operational functions; (ii) allocated with sufficient authority, stature and resources; and must have (iii) access to the management body of the provider to monitor the compliance of that provider with the DSA. On top of that, the compliance function will have to cooperate with the Digital Services Coordinator of the establishment, ensure that all risks are identified through the risk assessments and that the mitigation measures are effective, as well as inform and advise the management and employees of the provider in relation to DSA obligations.
All providers of the services designated as VLOPs and VLOSEs who are also controllers under the GDPR are under an obligation to appoint a Data Protection Officer (DPO), as they very likely meet the criteria required by Article 37 of the GDPR due to the nature and scope of their processing activities involving personal data. There are similarities between the compliance function and the DPO, including their independence, reporting to the highest management level, their key task to monitor compliance with the whole regulation that creates their role, or their task to cooperate with the competent supervisory authorities. Appointing two independent roles that have a powerful internal position and with roles that may overlap to a certain extent will require consistency and coordination, which can be supported by further guidance from DPAs and DSA supervisory authorities.
Another role in the application of the two regulations that has many similarities is the role of a “representative” in the EU, in the situations of extraterritorial applicability of the DSA and the GDPR covering entities that do not have an establishment in the EU. In the DSA, this obligation pertains to all online service providers, pursuant to Article 13. If they are processing personal data in the context of targeting their services to individual recipients in the EU or if they monitor the recipients’ behavior, the service provider triggers the extraterritorial application of the GDPR as well. In such cases, they also need to appoint a GDPR representative, in accordance with Article 27. Under the GDPR, the representative acts as a mere “postal box” or point of correspondence between the non-EU controller and processor on one hand and DPAs or data subjects on the other hand, with liability that does not go beyond its own statutory obligations. In contrast, Article 13(3) of the DSA suggests that the “legal representative” could be held liable for failures of the intermediary service providers to comply with the DSA. Providers must mandate their legal representatives for the purpose of being addressed “in addition to or instead of” them by competent authorities, per Article 13(2) of the DSA.
Recital 44 of the DSA clarifies that the obligation to appoint a “sufficiently mandated” legal representative “should allow for the effective oversight and, where necessary, enforcement of this regulation in relation to those providers.” The legal representative must have “the necessary powers and resources to cooperate with the relevant authorities” and the DSA envisages that there may be situations where providers even appoint in this role “a subsidiary undertaking of the same group as the provider, or its parent undertaking, if that subsidiary or parent undertaking is established in the Union.” Recital 44 of the DSA also clarifies that the legal representative may also only function as a point of contact, “provided the relevant requirements of this regulation are complied with.” This could mean that if other structures are in place to ensure an entity on behalf of the provider can be held liable for non-compliance by a provider with the DSA, the representative can also function just as a “postal box.”
- Intermediary Liability and the Obligation to Provide Information
Finally, the GDPR and the DSA intersect in areas where data protection, privacy, and intermediary liability overlap.
The GDPR, per Article 2, stresses that its provisions shall be read without prejudice to the e-Commerce Directive (2000/31/EC), in particular, to “the liability rules of intermediary service providers in Articles 12 to 15 of that Directive”. However, the DSA, pursuant to its Article 89, stipulates that while Articles 12 to 15 of the e-Commerce Directive become null, relevant “references to Articles 12 to 15 of Directive 2000/31/EC shall be construed as references to Articles 4, 5, 6 and 8 of this Regulation, respectively.”
The DSA deals with the liability of intermediary services providers, especially through Articles 4 to 10. With respect to Article 10, addressing orders to provide information, the DSA emphasizes the strong envisaged cooperation between intermediary service providers, national authorities, and also the Digital Services Coordinators as enforcers. This could potentially involve the sharing of information, including in certain cases that already collected personal data, in order to combat illegal content online. The GDPR actively passes the baton on intermediary liability on the DSA, but in the eventuality of data sharing and processing, the intermediary service providers should ensure that they comply with the protections of the GDPR (in particular sections 2 and 3). This overlap signals yet another instance where the two Regulations will be complementary to each other, this time in the case of intermediary liability and the obligation to provide information.
The DSA Will Be Enforced Through a Complex Web of Authorities, And The Interplay With The GDPR Complicates It
Enforcement in such a complex space will be challenging. In a departure from the approach promoted by the GDPR, where enforcement is ensured primarily at the national level and through the One Stop Shop mechanism for cross-border cases coordinated through the European Data Protection Board, the DSA centralizes enforcement of the DSA at the EU level when it comes to VLOPs and VLOSEs, leaving it in the hands of the European Commission.
However, Member States will also be playing a role in ensuring enforcement of the DSA against the intermediary services providers who are not VLOPs and VLOSEs. Each Member State must designate one or more competent authorities for the enforcement of the DSA, and if they designate more, they must choose one to be appointed as their Digital Services Coordinator (DSC). The deadline to designate DSCs is February 2024. Challenges come with the designation of national competent authorities left to the Member States, as it seems that there is no consistent approach related to what type of authority will be most appropriately positioned to enforce the Act. Not all Member States have appointed their DSCs for the time being, but there is a broad spectrum of enforcers that Member States plan to rely on, creating a scattered landscape.
Table 3 – Designated Authorities as Digital Services Coordinators Across the EU Member States
Digital Services Coordinators | Member States |
Media Regulator | Belgium, Hungary, Ireland and Slovakia |
Consumer Protection Authority | Finland and the Netherlands |
Telecoms Regulator | Czech Republic, Germany, Greece, Italy, Poland, Slovenia and Sweden |
Competition Authority | Spain |
The Digital Services Coordinators will be closely collaborating and coordinating with the European Board for Digital Services, which will be undertaking an advisory capacity (Articles 61-63 of the DSA), in order to ensure consistent cross-border enforcement. Member States are also tasked to adopt national rules on penalties applicable to infringements of the DSA, including fines that can go up to 6% of the annual worldwide turnover of the provider of intermediary services concerned in the preceding financial year (Article 52 of the DSA). Complaints can be submitted to DSCs by recipients of the services and by any body, organization, or association mandated to exercise rights conferred by the DSA to recipients. With respect to VLOPs and VLOSEs, the European Commission can issue fines not exceeding 6% of the annual worldwide turnover in the preceding year, following decisions of non-compliance which can also ask platforms to take necessary measures to remediate the infringements. Moreover, the Commission can also order interim measures before an investigation is completed, where there is an urgency due to the risk of serious damage to the recipients of the service.
The recipients of the service, including users of online platforms, also have a right to seek compensation from providers of intermediary services for damages or loss they suffer due to infringements of the DSA (Article 54 of the DSA). The DSA also applies in out-of-court dispute resolution mechanisms with regard to decisions of online platforms related to illegal content (Article 21 of the DSA), independent audits in relation to how VLOPs/VLOSEs comply with their obligations (Article 37 of DSA), and voluntary codes of conduct adopted at the Union level to tackle various systemic risks (Article 45), including codes of conduct for online advertising (Article 46) and for accessibility to online services (Article 47).
The newly established European Centre for Algorithmic Transparency (ECAT) also plays a role in this enforcement equation. The ECAT will be supporting the Commission in its assessment of VLOPs/VLOSEs with regard to risk management and mitigation obligations. Moreover, it will be particularly relevant to issues pertaining to recommender systems, information retrieval, and search engines. The ECAT will use a principles-based approach to assessing fairness, accountability, and transparency. However, the DSA is not the only regulation relevant to the use of algorithms and AI by platforms: the GDPR, the upcoming Digital Markets Act, the EU AI Act, and the European Data Act add to this complicated landscape.
The various areas of interplay between the DSA and the GDPR outlined above require consistent interpretation and application of the law. However, there is no formal role recognized in the enforcement and oversight structure of the DSA for cooperation or coordination, specifically among DPAs, the European Data Protection Board, or the European Data Protection Supervisor. This should not be an impediment to setting up processes for such cooperation and coordination within their respective competencies, as the rollout of the DSA will likely reveal the complexity of the interplay between the two legislative frameworks even beyond the ten areas outlined above.
Editor: Alexander Thompson
Old Laws & New Tech: As Courts Wrestle with Tough Questions under US Biometric Laws, Immersive Tech Raises New Challenges
Extended reality (XR) technologies often rely on users’ body-based data, particularly information about their eyes, hands, and body position, to create realistic, interactive experiences. However, data derived from individuals’ bodies can pose serious privacy and data protection risks for people. It can also create substantial liability risks for organizations, given the growing volume of lawsuits under the Illinois Biometric Information Privacy Act (BIPA) and scrutiny of biometric data practices by the Federal Trade Commission (“FTC” or “Commission”) in their recent Policy Statement. At the same time, there is considerable debate and lack of consensus about what counts as biometric data under existing state privacy laws, creating significant uncertainty for regulators, individuals, and organizations developing XR services.
This blog post explores the intersection of US biometric data privacy laws and XR technologies, particularly whether and to what extent specific body-based data XR devices collect and use may be considered “biometric” under various data protection regimes. We observe that:
- Face templates and iris scans used to authenticate an individual’s identity are regulated biometrics, therefore those use cases in XR are covered by biometric laws.
- Laws with broad definitions of biometrics may apply to systems that use face detection, as seen in emerging case law from Illinois regarding virtual try-on XR applications.
- Organizations have taken steps that reduce their liability risk regarding face-based biometric systems, including by minimizing collection of identifying data or processing biometric data on individuals’ devices.
- Other body-based data not used for identification in XR, like eye-tracking and voice analysis, may also be considered “biometric” if the technology and data are capable of identifying an individual.
A. Face Templates, Hand Scans, and Iris Scans Used to Authenticate an Individual’s Identity Are Regulated Biometrics, Therefore User Authentication in XR is Covered by Biometric and Comprehensive Privacy Laws
In the US, there are three biometric data privacy laws: the Illinois Biometric Information Privacy Act (BIPA), the Texas Capture and Use of Biometric Identifier Act (CUBI), and the Washington Biometric Privacy Protection Act (BPPA). Other states like California, Connecticut, and Virginia also maintain comprehensive data privacy laws that regulate biometric data, and the FTC regulates “unfair and deceptive” biometric data practices. But because BIPA is the only privacy law to have a private right of action for any person “aggrieved” by a violation of a biometric privacy statute, Illinois cases abound and Illinois courts play a fundamental role in determining the scope of what policymakers, companies, and consumers consider to be “biometric data.”
With the exception of CUBI (and to a certain extent, BIPA), most biometric and comprehensive data privacy statutes tie their definitions of “biometric data” to identification, meaning the laws are intended to regulate unique physiological characteristics that entities use to identify an individual. Generally, each biometric and comprehensive law focuses on five forms of biometric data: retina or iris scan, fingerprint, voiceprint, hand scan, and face scan. BIPA, in particular, applies to “biometric identifiers,” defined as a “retina or iris scan, fingerprint, voiceprint, or scan of hand or face geometry,” as well as “biometric information,” which includes “any information…based on an individual’s biometric identifier used to identify an individual.” Therefore, any entity that uses technology to scan an individual’s iris, finger, hand, or face to uniquely identify an individual (1:many) or authenticate their identity (1:1) must comply with BIPA’s requirements, unless they fall within one of BIPA’s exemptions or exclusions. The same conclusion applies to CUBI, BPPA, and comprehensive data privacy laws.
XR devices often use iris, face, or hand scans to authenticate a user’s identity to log in to their profile or enable in-app payments. Much like computers or smartphones, more than one user may use a single XR device, so authenticating the specific person using the device at a given time allows for more personalization and secure transactions. As a result, iris or face authentication systems in XR devices are likely covered by U.S. biometric and comprehensive data privacy laws. The laws typically require organizations to obtain user consent before enrolling individuals in this sort of biometric XR system, and BIPA has potentially thorny provisions requiring “written consent,” which can be challenging to implement for many XR applications. The face and eye scans that XR technologies use for authentication may also be considered “sensitive data” under comprehensive data privacy laws, such as the California Privacy Rights Act (CPRA) or the Connecticut Data Privacy Act, requiring organizations to provide individuals opt-out rights, including the right to opt out of data sales and other transfers.
Most XR authentication technologies employ live capture of biometrics. Iris, face, or hand scans are captured in real-time when an individual first enrolls, and subsequent scans are likewise captured in real-time when the individual authenticates their identity to the device or app. These scenarios are typically covered by biometrics laws as described above. However, there is some uncertainty regarding biometric laws’ application to XR devices that create a biometric template from non-real-time photos, videos, and audio recordings. Most biometric and comprehensive privacy laws exclude photos, videos, and audio recordings from the scope of “biometric data” to varying degrees (with the exception of CUBI and the CPRA). Utah and Virginia’s comprehensive privacy laws, for example, broadly exempt photographs “or any data generated therefrom” from coverage, making their biometric regulations perhaps less likely to apply to photographic scanning. But case law under BIPA shows that these provisions may not exclude “biometric templates” derived from non-real-time photos, videos, or audio recordings. In Shutterfly v Monroe, the United States District Court for the Northern District of Illinois concluded that narrowly reading “biometric identifier” only to mean real-time scans would swallow the intent of the law, thus photographic scanning to create “templates” were still within scope. Laws like the Connecticut Data Privacy Act (CTDPA) and the final rules for the Colorado Privacy Act (CPA) that do not exclude photos or data generated from these sources if an entity uses them for identification purposes, or CUBI, which contains no exemptions for photographs at all, are likely to follow this analysis. The FTC’s conception of biometric information similarly and explicitly encompasses photos, videos, audio recordings, and certain data derived from these sources, making it likely that most regulators will still consider “biometric templates” created from photographic scanning subject to applicable biometric regulations.
B. Laws with Broad Definitions of Biometrics May Apply to Systems that Use Face Detection, as Seen in Emerging Case Law from Illinois Regarding Virtual Try-On XR Applications
Despite most laws’ goal to regulate biometric data that is uniquely identifying, several statutes’ text can be interpreted to apply to biometric technologies that merely distinguish a face from other objects or analyze facial characteristics, without identifying a particular individual. Depending on a privacy law’s definition of “biometric data,” courts may hold that the term regulates technologies that utilize data derived from an individual’s face, eyes, or voice even when they are not used for identification purposes. In XR, devices may use inward-facing cameras to conduct facial analysis for non-identification purposes, such as rendering expressive avatars. Augmented reality (AR) products like “virtual try-on” may also use facial analysis for people to visualize how different products – like eyeglasses – might look on them. Like many other XR applications, VTO primarily uses facial scans to detect and correctly align the product with an individual’s physical features, rather than for identification purposes.
Some laws with broad definitions can apply to these non-identification technologies unless a specific exception applies. CUBI does not require “biometric identifiers” to uniquely identify an individual, which has prompted the Texas Attorney General to claim that CUBI applies to the capture of face geometry regardless of whether an entity uses these facial maps for individual identification. The FTC’s conception of biometric technologies also broadly encompasses “all technologies that use or purport to use biometric information for any purpose.” But most notably, BIPA is complex because its definition of “biometric identifiers” does not explicitly require that the data be used for identification (in contrast to the statute’s definition of “biometric information,” which does require identification). As a result, Illinois courts have largely found that any facial scan may create a “biometric identifier,” such as with doorbell cameras, photo grouping, and Snapchat filters. This is true even when that technology’s facial scan feature was not used to identify the individual in the photo or video frame.
Recent BIPA lawsuits brought against companies that offer (VTO) illustrate how broad biometric laws might apply to XR devices that use facial analysis. In Theriot v. Louis Vuitton North America, Inc., a federal court permitted BIPA claims to proceed against Louis Vuitton’s VTO sunglasses application, finding that the technology’s use of facial scans was analogous to BIPA case law holding that face scans derived from photographs constitute biometric identifiers. Other VTO cases have had similar outcomes. Only VTO technology used for healthcare-related purposes, such as trying on prescription eyeglasses, have been found by courts to be outside the scope of BIPA. But this result did not rest on BIPA’s overall definition of biometric data, but rather arose from a narrow exception for “information captured from a patient in a health care setting.” So BIPA may not apply to medical providers’ use of XR apps or other immersive technologies, such as brain computer interfaces (BCIs), for diagnostic purposes, but BIPA’s coverage of non-identifying, non-medical uses remains a source of substantial confusion. This confusion undermines individuals’ understanding of their privacy rights and presents liability risks for organizations.
C. Organizations May Reduce their Liability Risk by Minimizing Collection of Identifying Data or Processing Biometric Data on Individuals’ Devices
Some organizations have taken steps to limit their liability risks by minimizing the collection of identifying data or processing biometric data on individuals’ devices. Case law suggests that some facial detection technologies fall outside the scope of BIPA and other biometric regulations if (1) there is no mechanism for the technology to retain facial scans or link scans to a user’s individual identity or account; and/or (2) all of the data is stored on-device.
First, in Daichendt and Odell v. CVS Pharmacy, the Northern District of Illinois dismissed a case against CVS for its passport photosystem, which scans facial geometry in photos to confirm that they meet government requirements for passports (e.g., a person’s eyes are open, their mouth is closed and not smiling, and eyeglasses are not present). The court held that the plaintiffs failed to allege that CVS’ photosystem enabled CVS to determine their identities, nor did the plaintiffs provide CVS “with any information, such as their names or physical or email addresses, that could connect the voluntary scans of face geometry with their identities.”
Separately, in Apple v. Barnett, the Illinois’ appellate court held that Apple was not subject to BIPA requirements regarding their Face ID on iPhone because the company was not “collecting” or “possessing” users’ biometric data since the data was completely stored on the device and never stored on Apple servers. Thus, XR devices that do not retain facial scans that can link to users’ accounts, or only store data on-device (such as Apple’s recently announced Vision Pro) may be out of scope of even some of the broadest biometrics laws.
D. Eye-tracking and Voice Analysis May Also be Considered “Biometric” if the Technology and Data are Capable of Identifying an Individual
In addition to face-based biometric technologies, most XR devices also use other forms of body-based detection or characterization systems for device functionality, such as voice analysis and eye-tracking. As seen with facial detection, these features are developed to detect or create predictions regarding bodily characteristics or behavior, but the subject is typically not identifiable and PII is typically not retained. For example, XR devices often contain microphones to capture a user’s voice and surroundings, which can enable voice commands, verbal interactions with other users, spatial mapping, and realistic sound effects. XR devices may also maintain inward-facing cameras that collect data about a user’s gaze—where they look and for how long—to enable eye tracking. This may be used to improve graphics and allow for more expressive avatars, including avatars that can display microexpressions.
Whether these systems that collect voice or gaze data are covered by biometric or comprehensive data privacy laws may depend on whether an organization can use the technology to identify an individual, even if not used in that capacity. As seen in CVS Pharmacy, many Illinois courts focus on the capacity of the technology to identify an individual. As an initial matter, biometric and comprehensive privacy laws typically apply to “voiceprints,” and not voice recordings. As stated by the Illinois Attorney General, “a voiceprint, which is a record of mechanical measurement, is not the same as a simple recording of a voice.”
However, the line between a voice recording and a voiceprint is blurry, particularly as it relates to the gray area of natural language processing (NLP)—a kind of artificial intelligence (AI) that can use audio to understand, interpret, and manipulate language. In Carpenter v. McDonald’s Corp., the U.S. District Court for the Northern District of Illinois found that McDonald’s drive-through voice assistant technology could be used for identification purposes, and thus could be considered a “voiceprint” under BIPA, since the technology’s patent application states that the technology may capture voice characteristics “like accent, speech pattern, gender, or age for the purpose of training the AI.” In a similar ongoing case against Petco, an Illinois federal judge permitted BIPA claims to proceed regarding employee voice data, stating “[w]hat matters [at the dismissal stage] is not how defendant’s software actually used plaintiffs’ data, but whether the data that Petco gathered was capable of identifying [the employees].” As a result, if an XR device captures vocal characteristics that are capable of unique identification, certain voice data may be considered a “voiceprint” under BIPA. This analytical framework will likely apply to jurisdictions that define biometric data to include biological characteristics that have the potential to identify an individual, such as in the final rules under the Colorado Privacy Act regarding biometric identifiers, or under the FTC’s Policy Statement on Biometric Information.
Whether privacy laws apply to gaze data, however, is even less clear. BIPA lawsuits against online exam proctoring services, autonomous vehicles, and “smart advertising screens” suggest that eye-tracking could be a biometric identifier under BIPA, even if not used for identification. In each of these cases, the technology conducted eye-tracking to determine where a user was looking—whether on the screen, the road, or in the store—but did not identify the individual. Instead, these technologies made inferences about whether someone may be cheating, not paying attention to the road, or what product they were looking at. Plaintiffs in these cases argue that eye-tracking is part of the technology’s collection and analysis of facial geometry, thus making it a “biometric identifier” under BIPA.
Unfortunately, state and federal courts in Illinois have not analyzed whether and to what extent eye tracking, without additional face analysis, constitutes a biometric identifier, nor whether it is a subset of facial analysis. Rather, most cases proceed based solely on the software’s overall facial analysis features, if at all. If courts are prone to equate facial detection scans to “facial geometry,” and voice analysis to “voiceprints,” they may also conflate eye tracking with “a retina or iris scan,” and thus treat eye tracking as a biometric identifier. Or they may follow the BIPA plaintiffs’ analysis, lumping eye-tracking into facial analysis as “facial geometry.” Alternatively, courts could characterize eye tracking as altogether separate from BIPA’s “facial geometry” and “retina or iris scan” categories. In any event, like with voice analysis, if an XR device collects gaze data that could be used for identification purposes, laws with broad biometrics definitions will apply, while other laws that have narrower definitions focused on the data or technology’s current use, may exclude the technology.
Takeaways
Statutory language and court opinions vary in how they define and/or apply to biometric data and identifiers. Though the plain text of most U.S. biometric and comprehensive data privacy laws tie their definition of a “biometric” to the identification of an individual, some laws may be more broadly applied to technologies that use body-based data for non-identification purposes. While most of the body-based data XR collects is not used for identification, litigation brought under BIPA and other state laws suggest that lawmakers and judges may consider certain kinds and uses of such data—for example, AR “facial scans,” eye tracking, and voice— to be biometrics. Whether this will be the case (or continue to be the case) depends on how policymakers draft these laws, and how courts, enforcement bodies, and other parties to litigation interpret statutes regulating biometrics.
#NoiSiamoLeScuole questa settimana racconta l’Istituto Comprensivo “Cesalpino” di Arezzo!
Grazie al PNRR il vecchio edificio della scuola verrà demolito e ricostruito secondo una moderna organizzazione degli spazi, ma soprattutto nel rispetto della …
Ministero dell'Istruzione
#NoiSiamoLeScuole questa settimana racconta l’Istituto Comprensivo “Cesalpino” di Arezzo! Grazie al PNRR il vecchio edificio della scuola verrà demolito e ricostruito secondo una moderna organizzazione degli spazi, ma soprattutto nel rispetto della …Telegram
𝚜𝚎𝚕𝚎𝚊
in reply to Poliverso - notizie dal Fediverso ⁂ • • •I dont speak italian, sorry.
@fediverso
Poliverso - notizie dal Fediverso ⁂ likes this.
Poliverso - notizie dal Fediverso ⁂
in reply to 𝚜𝚎𝚕𝚎𝚊 • •like this
vivitux, skariko, Mechanize e nemo like this.