Salta al contenuto principale



La European Ports Alliance mira a rafforzare la sicurezza in tutti i porti dell’UE


##
Immagine/foto

Come annunciato in un precedente post (leggi qui => noblogo.org/cooperazione-inter… ), il 24 gennaio la Commissione Europea, insieme alla presidenza belga del Consiglio dell’ #UE, ha lanciato in una riunione tenutasi presso il porto di Anversa (Belgio) l’Alleanza europea dei porti, mediante un partenariato pubblico-privato per intensificare la lotta contro il traffico di droga e la criminalità organizzata che lo sostiene. Questa partnership mira a riunire tutte le parti interessate coinvolte, per creare soluzioni per proteggere i porti, che contribuiscono al 75% dei volumi del commercio estero, ma sono particolarmente vulnerabili al traffico di droga e allo sfruttamento da parte di reti criminali. In Europa, quasi il 70% di tutti i sequestri di droga effettuati dalle dogane avviene nei porti. Il capo di Europol Catherine De Bolle ha affermato che il traffico di droga rimane il più grande mercato criminale in Europa.

Immagine/foto


I criminali si infiltrano nei porti per organizzare il passaggio di merci illegali nell’UE. Ciò include il traffico di droga, una delle minacce alla sicurezza più gravi che l’Europa deve affrontare oggi. Le reti criminali ricorrono alla violenza, alla corruzione e all’intimidazione nella ricerca del profitto. 500 tonnellate di droga sono state sequestrate dalle dogane in ingresso nell'UE nel 2022. Oltre il 50% era cocaina.
La commissaria per gli Affari interni Ylva Johansson ha affermato "L'Europa ha un enorme problema di criminalità organizzata e sappiamo che la sua fonte di reddito è la droga". Proprio al porto belga di Anversa, la polizia l'anno scorso ha sequestrato 116 tonnellate di cocaina, battendo di sei unità l'anno record del 2022. tonnellate in più. Johansson ha affermato che l'aumento dei sequestri di droga nel porto di Anversa, il più alto dell'UE, è dovuto al maggior numero di uomini a terra, ma segnala anche un livello più elevato di afflusso di cocaina.

Ylva Johansson, commissaria per gli affari interni dell'Unione europea 👇
Immagine/foto

La sicurezza dei porti dell’UE sarà rafforzata:
- con 200 milioni di euro per finanziare attrezzature moderne che aiuteranno i funzionari doganali dell'UE a scansionare i container e a controllare le importazioni in modo più efficiente;
- attraverso operazioni di contrasto specifiche ed efficienti nei porti con una maggiore cooperazione tra gli Stati membri, la Commissione europea, Europol, Eurojust, la Procura europea (EPPO) e la Piattaforma multidisciplinare europea contro le minacce penali (EMPACT);
- attraverso il partenariato pubblico-privato che supporterà le autorità portuali e le compagnie di navigazione, per proteggere la logistica, le informazioni, il personale e i processi nei porti. Il partenariato pubblico-privato si incontrerà ogni anno a livello ministeriale per identificare le sfide rimanenti, stabilire le priorità strategiche e scambiare informazioni sui progressi compiuti.

L’Alleanza dei porti europei è un’iniziativa che rientra nella tabella di marcia dell’UE per combattere il traffico di droga e la criminalità organizzata, adottato dalla Commissione il 18 ottobre 2023.

#EuropeanPortsAlliance #Alleanzadeiportieuropei #Narcotraffico



L'invito rivolto dal Ministero degli interni ai questori che li invita a vietare le manifestazioni di solidarietà con il popolo palestinese nel Giorno della Me


Il testo approvato alla Camera dell'accordo fra Albania e Italia si è rivelato peggiore delle proposte enunciate. Non solo saranno detenute persone in un Paese


Identifying Privacy Risks and Implementing Best Practices for Body-Related Data in Immersive Technologies


As organizations develop more immersive technologies, and rely on the collection, use, and transferring of body-related data, they need to ensure their data practices not only maintain legal compliance, but also more fulsomely protect people’s privacy. To

As organizations develop more immersive technologies, and rely on the collection, use, and transferring of body-related data, they need to ensure their data practices not only maintain legal compliance, but also more fulsomely protect people’s privacy. To guide organizations as they develop their body-related data practices, the Future of Privacy Forum created the Risk Framework for Body-Related Data in Immersive Technologies. This framework serves as a straightforward, practical guide for organizations to analyze the unique risks associated with body-related data, particularly in immersive environments, and to institute data practices that earn the public’s trust. Developed in consultation with privacy experts and grounded in the experiences of organizations working in the immersive technology space, the framework is also useful for organizations that handle body-related data in other contexts. This post will build on our previous blog post where we discussed the importance of understanding an organization’s data practices and evaluating legal obligations. In this post we will focus on identifying the risks data practices raise and implementing best practices to mitigate these risks.

I. Identifying and assessing risk to individuals, communities, and society

Beyond legal compliance, leading organizations also should seek to ensure their products, services, and other uses of body-related data are fair, ethical, and responsible. Body-related data, and particularly the aggregation of this data, can give those with access to it significant insight into an individual’s personal life and thoughts. These insights include not just an individual’s unique ID, but potentially their emotions, characteristics, behaviors, desires, and more. As such, it is important for safeguards to prevent harmful uses of body-related data. Proactively identifying the risks their data handling raises will help organizations determine which best practices are most appropriate.

As demonstrated in the chart below, privacy harms may stem from particular types of data being used or handled in particular ways, or transferred to particular parties. Organizations should consider the factors related to data type and data handling that impact the risks associated with their data practices.

immersive tech blog chart 1 1

When assessing the risks their data practices raise, organizations should ask themselves questions including:

  • What are the harms that each risk may create, and how severe might they be?
  • Who is likely to be the most significantly harmed by the realization of any given risk?
  • What organizational goal or objective is a given data practice serving?
  • Are there any public policy or legal considerations impacting an organization’s analysis of their data practices?
  • Might technology change in the near future in a way that makes certain data practices more or less likely to result in harm, or more or less harmful?
  • Are there any alternatives to a given data practice that are more privacy-friendly, while still allowing the organization to achieve its objectives?
  • Does a given data practice raise risks that are too significant or implicate sufficiently serious harms such that it should be abandoned altogether?


II. Implementing relevant best practices

There are a number of legal, technical, and policy safeguards that can help organizations maintain statutory and regulatory compliance, minimize privacy risks, and ensure that immersive technologies are used fairly, ethically, and responsibly. These best practices should be implemented in a way that is intentional—adopted as appropriate given an organization’s data practices and associated risks; comprehensive—touching all parts of the data lifecycle and addressing all relevant risks; and collaborative—developed in consultation with multidisciplinary teams within an organization including stakeholders from legal, product, engineering, privacy, and trust and safety.

The chart below summarizes some of the major best practices organizations can apply to body-related data, as well as specific recommendations for each.

immersive tech blog chart 2

It is critical to note that no single best practice stands alone, and instead the contemplation of best practices should be considered comprehensively and implemented together as part of a coherent strategy. In addition, any strategy and practices must be evaluated on an ongoing basis as technology, data practices, and regulations change.

As organizations grapple with the privacy risks that body-related data raises, risk-based approaches to evaluating data practices can help organizations ensure they are not just compliant but also that they value privacy. FPF’s Risk Framework for Body-Related Data in Immersive Technologiesserves as a starting point for organizations that collect, use, or transfer body-related data to develop best practices that prioritize user privacy. As technologies become more immersive, the unique considerations raised in this framework will be relevant for a growing number of organizations and the virtual experiences they create. Organizations can use this framework as a guide as they examine, develop, and refine their data practices.


fpf.org/blog/identifying-priva…



Nuovi asset per le forze di Kyiv. Ecco cosa si è deciso al Contact Group


“Gli ucraini sono stati incredibilmente creativi nell’utilizzo delle capacità dei droni. E anche i russi si sono adattati e hanno imparato a usare queste capacità” così ha commentato Celeste Wallander, assistente del segretario alla Difesa statunitense pe

“Gli ucraini sono stati incredibilmente creativi nell’utilizzo delle capacità dei droni. E anche i russi si sono adattati e hanno imparato a usare queste capacità” così ha commentato Celeste Wallander, assistente del segretario alla Difesa statunitense per gli affari di sicurezza internazionale, dopo una riunione dell’Ukrainian Defense Contact Group guidato dal Pentagono, nato nell’aprile del 2022 (a ridosso dell’inizio dell’invasione russa dell’Ucraina) e comprendente al suo interno quasi cinquanta Paesi aderenti.

I sostenitori internazionali dell’Ucraina, riuniti in questo format, hanno promosso una nuova serie di sforzi atti a rifornire l’esercito di Kyiv con un numero significativo di droni e veicoli blindati, con l’obiettivo di renderlo “all’avanguardia” nella sua lotta contro gli invasori russi. Una lotta caratterizzata per la sua rapidità nel cambiare forma e dinamica.

La Lettonia si è posizionata come leader di una nuova iniziativa incentrata sugli Uncrewed Aerial Systems: l’iniziativa, annunciata formalmente al termine della riunione del Contact Group, che si ripromette di rifornire l’Ucraina con migliaia di droni. L’obiettivo è quello di essere “all’avanguardia” dal punto di vista tecnologico, operativo e della produzione, “per aiutare gli ucraini a trovare nuovi modi di usare i droni e a confrontarsi con le nuove modalità di impiego adottate dai russi contro di loro”, ha dichiarato Wallander.

Ma le novità non riguardano soltanto la dimensione uncrewed. Anche la Polonia si porrà alla guida di una nuova coalizione incentrata sulle capacità di difesa, come annunciato durante l’incontro, ha detto Wallander. Gli Stati Uniti sono co-leader di altre due coalizioni di capacità del Gruppo: una sulla potenza aerea con Danimarca e Paesi Bassi e una sull’artiglieria con la Francia.

Il Segretario alla Difesa Lloyd Austin, intervenuto virtualmente all’incontro, ha esortato il gruppo a impegnarsi a fondo per fornire all’Ucraina il maggior numero di cruciali sistemi terrestri per la difesa aerea e di caccia intercettori. “Insieme, i nostri alleati e partner hanno creato sei coalizioni di capacità per sostenere l’aeronautica dell’Ucraina, le difese aeree di terra, l’artiglieria, la sicurezza marittima, lo sminamento e la tecnologia dell’informazione”, ha detto Austin. “Se perdiamo i nervi, se ci tiriamo indietro, se non riusciamo a dissuadere altri potenziali aggressori, non faremo altro che provocare ancora più spargimenti di sangue e più caos…. non dobbiamo vacillare nel nostro sostegno all’Ucraina”.

Austin ha anche rilasciato una dichiarazione sul tema della tracciabilità degli aiuti statunitensi all’Ucraina. “Il 27 dicembre, gli Stati Uniti hanno annunciato un ulteriore pacchetto di 250 milioni di dollari per aiutare a soddisfare le urgenti necessità di sicurezza dell’Ucraina, tra cui attrezzature mediche, artiglieria e munizioni. Non abbiamo visto alcuna prova credibile di un uso improprio o di una diversione illecita delle attrezzature americane fornite all’Ucraina”.


formiche.net/2024/01/nuovi-ass…



Pubblichiamo dal sito Antropocene.org, rassegna internazionale di ecosocialismo, la traduzione di un importante saggio di John Bellamy Foster dal numero di genn


New chat control gate leak: Intelligence-industrial network suggests undermining encryption for other purposes than CSAM


„Follow the money“ has published lobby documents produced by surveillance-tech provider Thorn, some of which the EU Commission had tried to hide from the public. EU Internal Affairs Commissioner Johansson … https://www.ftm.eu/articles/ashton-kutcher-s-an

„Follow the money“ has published lobby documents produced by surveillance-tech provider Thorn, some of which the EU Commission had tried to hide from the public. EU Internal Affairs Commissioner Johansson teamed up with a network of foreign organisations to propose mandatory scanning of any private message and chat for suspicious content, including by undermining the secure end-to-end encryption of popular messaging apps. The leaked documents cast doubt over the assertions made to defend the EU‘s chat control CSAR bill. Patrick Breyer, Member of the European Parliament for the Pirate Party and most prominent opponent of chat control, comments:

„In the course of the chat control gate we discovered that a foreign intelligence-industrial complex is behind the EU Commission’s attempt to destroy the privacy of correspondence and secure encryption. Even today the Commission is obstructing the reconstruction of the truth about this scandal by withholding evidence. The LIBE Committee is still trying to get hold of documents. We can tell from the latest disclosures that Thorn’s lobby documents don’t contan any intellectual property at all, but are withheld because their content is politically inopportune to the Commission’s chat control surveillance scheme.

Configuring the scanning AI to an accuracy of 99.9% is totally unrealistic, as Big Sister Johansson knows very well. Only in December she publicly acknowledged that no more of 25% of the personal communications disclosed by chat control scanners are found to be criminally relevant by the police. We thus observe 75% of false positives in practise, not 0.1%. Nothing in the Commission’s own chat control proposal requires a 99.9% reliability of scanning algorithms. Industry would be free to use the current algorithms that flood our police with mostly legal intimate photos.

We now know Thorn lobbies against requirements for their flawed technology, discrediting regulation as „overly prescriptive“. In the European Parliament we are pushing to require independent and publicly accessible audits of any technology used. Anyway, no technology can reliably distinguish consensual sexting from sharing CSAM, resulting in the mass criminalisation of teenagers.

Where Thorn and the Commission advocate for undermining secure encryption by turning our smartphones into bugs, they disregard the findings of the Commission’s own experts as quoted in the impact assessment: The experts rate the privacy of the recommended method of „on-device hashing with server side matching“ as „medium-low“ warning the method „may introduce vulnerabilities that could decrease the privacy of the communication“. Likewise they rate the security of the approach as „medium-low“, warning that tech-savvy offenders like the organised criminals that produce material might just switch so different messengers.

The public will be appalled to find that Thorn pushes for legislation on encryption to apply beyond child sexual abuse, arguing that the purpose of scanning encrypted messages could be „much broader than one single crime“. This is what Europol advocates for, too – and two former Europol officials have joined Thorn for a reason. If the international intelligence-industrial complex manages to destroy secure encryption, they will next want to scan our personal messages for terrorism, for file sharing and for political purposes. These insights should fuel our fight for the privacy of our correspondence and secure encryption.”

Currently, the surveillance-industrial network including the umbrella organization WeProtect, of which Thorn is a member, is calling for the extension of indiscriminate chat control scanning of private messages on a voluntary basis by US big tech companies. The European Parliament‘s LIBE committee is to vote next Monday.

Breyer‘s website on chat control


patrick-breyer.de/en/new-chat-…



Droni, Cimic e cyber. L’Esercito 4.0 prende forma


Presso la Brigata Informazioni Tattiche ad Anzio Isabella Rauti, sottosegretario di Stato alla Difesa, ha partecipato, su delega del ministro Guido Crosetto, alla cerimonia di consegna delle bandiere di guerra a tre reparti dell’Esercito: il 3° Reggimento

Presso la Brigata Informazioni Tattiche ad Anzio Isabella Rauti, sottosegretario di Stato alla Difesa, ha partecipato, su delega del ministro Guido Crosetto, alla cerimonia di consegna delle bandiere di guerra a tre reparti dell’Esercito: il 3° Reggimento Supporto Targeting “Bondone”, il Reggimento Cimic e il 9° Reparto Sicurezza Cibernetica “Rombo”.

L’ESERCITO DEL FUTURO

Continua a prendere forma, così, l’Esercito 4.0, dal titolo di un concept paper presentato a settembre 2022 dal generale Pietro Serino. Spiegava allora il capo di stato maggiore della forza armata che “lo scoppio di una guerra convenzionale a poche centinaia di chilometri dai nostri confini ha riportato all’attenzione dell’opinione pubblica la rinnovata esigenza di assicurare alla Difesa uno strumento terrestre credibile, efficace, pronto e, se necessario, in grado di combattere in ambienti in continua evoluzione”. Il documento individuava cinque macro-aree su cui concentrare risorse e impegno nel medio periodo: manovra a contatto, in profondità e nella terza dimensione, difesa integrata e logistica distribuita. “Tale sviluppo non potrà prescindere dalla consapevolezza dell’ingresso ‘prepotente’ nella condotta delle operazioni dei nuovi domini cyber e spazio, nonché della combinazione di opportunità e insidie che li caratterizza”, si legge sul sito della Difesa in cui si pone forte l’accento sui droni.

IL REGGIMENTO PER I DRONI

Il 3° Reggimento “Bondone”, l’unità di eccellenza dell’Esercito Italiano nel settore degli aeromobili a pilotaggio remoto, ovvero i droni, si è costituito a novembre presso la Caserma “Lolli Ghetti” di Cassino. Si tratta del reggimento che ha ereditando la bandiera di guerra e le tradizioni del 3° Gruppo Specialisti d’Artiglieria Bondone. Questa nuova realtà operativa, “vedrà confluire il personale dell’80° Reggimento addestramento volontari ‘Roma’, rafforzando la struttura già esistente, anche in termini numerici e ampliandone le competenze come risultato di un approccio innovativo volto a migliorare le capacità operative della Forza Armata”, aveva spiegato l’Esercito in una nota. “L’introduzione di aeromobili a pilotaggio remoto”, si legge ancora, “costituisce un passo chiave per la creazione di un polo di riferimento nazionale per le istituzioni militari e civili, per le aziende e gli operatori economici di settore, garantendo continuità nella sinergia tra Esercito, cittadini e Istituzioni di Cassino. Questo importante passo verso il futuro rappresenta l’impegno tangibile dell’Esercito nelle sfide alla modernizzazione delle proprie forze, in linea con i progressi tecnologici di prossima generazione”, concludeva la nota.

IL REGGIMENTO CIMIC

Il Reggimento Cimic è, invece, un reparto multinazionale interforze a guida italiana, “prontamente dispiegabile in teatro estero per condurre operazioni nel cruciale settore della cooperazione civile-militare a supporto dei contingenti dell’Alleanza Atlantica”, spiega la Difesa. L’unità è stanziata nella Caserma “Mario Fiore” di Motta di Livenza (Treviso) ed è alimentata da personale delle quattro forze armate nazionali e da personale straniero proveniente da Grecia, Ungheria, Portogallo, Romania e Slovenia. Gerarchicamente dipendente dal Comando Genio ma affiliato al Supreme Headquarters Allied Powers in Europe (Shape) quale Nato Affirmed Force. È articolato su un comando multinazionale, una Hq Coy (compagnia comando e supporto logistico), un comando nazionale e un battaglione Cimic, alimentato questo da quattro compagnie organicamente concepite per assolvere tutte le attività connesse alle funzioni Cimic.

IL CYBER-REPARTO “ROMBO”

Il 9° Reparto Sicurezza Cibernetica “Rombo”, a differenza delle altre unità del comparto cyber della forza armata, è in grado di esprimere l’intero complesso delle capacità afferenti al cyberspace, finalizzate a eseguire attività di cyber defence e a pianificare e condurre qualsiasi tipologia di operazioni cibernetiche, spiega la Difesa. In tale ambito, può essere impiegato fuori area sia in maniera autonoma, per la difesa delle reti informatiche e delle piattaforme e sistemi d’arma dispiegate in teatro operativo, sia a supporto della Difesa, per la protezione di reti e sistemi di telecomunicazioni interforze. Il reparto, attraverso l’Ufficio sperimentazione e dottrina, promuove anche progetti di ricerca e concorso allo sviluppo (di concerto con l’industria e il mondo accademico) di tecnologie innovative.


formiche.net/2024/01/esercito-…



Paolo Ferrero* Il governo italiano ha deciso di entrare in guerra contro gli Houthi, nel Mar Rosso. Penso che nell’opinione pubblica italiana, cloroformizz


INDIA. Modi inaugura il tempio, i fondamentalisti indù piantano la bandiera sulle chiese


Il sito d'informazione Asianews riferisce che a Jhabua in Madhya Pradesh le celebrazioni per il nuovo tempio Ram Mandir di Ayodhya sono diventate una nuova occasione per intimidazioni ai cristiani. L'articolo INDIA. Modi inaugura il tempio, i fondamental

Twitter WhatsAppFacebook LinkedInEmailPrint

di Nirmala Carvalho – Asianews.it

Una bandiera color zafferano sul tetto di una chiesa per “celebrare” l’inaugurazione del Ram Mandir, il grande tempio simbolo del nazionalismo indù. Proprio alla vigilia della fastosa celebrazione presieduta ad Ayodhtya nell’Uttar Pradesh dal premier Narendra Modi, a centinaia di chilometri di distanza nel distretto di Jhabua, nello Stato del Madhya Pradesh domenica 21 gennaio un nutrito gruppo di fondamentalisti indù ha preso di mira alcune chiese cristiane, inneggiando a Ram, la divinità indù a cui il nuovo tempio è dedicato.

Virali sono diventate in rete le immagini di un uomo che si arrampica sul tetto della chiesa evangelica di Matasula, un villaggio a maggioranza tribale, per piazzare la bandiera simbolo dei nazionalisti indù sopra alla croce. “È successo intorno alle 16 – racconta il pastore Kidar Singh che guida una comunità affiliata alla Church of South India -. Erano oltre 50 e volevano installare bandiere color zafferano sulla mia casa e sulla cima della chiesa. Hanno minacciato di far demolire la chiesa con la falsa accusa di conversione illegale”. Scene simili si sono ripetute anche in altri tre villaggi della zona. Tutto questo nonostante in Madhya Pradesh molti esponenti di altre religioni abbiano espresso messaggi di felicitazioni per l’inaugurazione del Tempio. Anche il vescovo cattolico di Jhabua, mons. Peter Kharadi, ha espresso congratulazioni e auguri “a nome dell’intera comunità cristiana cattolica”.

Il vescovo pentecostale Paul Muniya, delle chiese Shalom a cui appartengono le altre tre sale di preghiera dei villaggi dove sono state issate le bandiere, ha dichiarato ad AsiaNews che la polizia ha cercato di convincerli a non sporgere denuncia. “Ci hanno consigliato di gestire la situazione con amore, come insegna la nostra religione – ha raccontato -. Hanno assicurato che interverranno se un simile incidente si ripeterà, ma per ora non faranno nulla perché hanno detto che c’è molta pressione dall’alto”.

Rockey Shah, della diocesi cattolica di Jhabua, ha dichiarato ad AsiaNews: “Abbiamo incontrato il sovrintendente della polizia e ha parlato di mantenere la pace. La Chiesa ha in programma due importanti eventi nel fine settimana per i quali abbiamo chiesto di rafforzare la nostra sicurezza. Il 26 gennaio, tutte le nostre istituzioni educative cristiane celebrano in grande stile la Festa della Repubblica indiana e il 27 gennaio ci sarà l’ordinazione episcopale del vescovo di Jhabua”.

Twitter WhatsAppFacebook LinkedInEmailPrint

L'articolo INDIA. Modi inaugura il tempio, i fondamentalisti indù piantano la bandiera sulle chiese proviene da Pagine Esteri.



Bruxelles (EuroEFE) – La Commissione europea ha proposto mercoledì di fornire alle piccole e medie imprese (PMI) e alle start-up di intelligenza artificiale (IA) un accesso privilegiato al suo sistema di supercomputer, a condizione di sviluppare progetti “affidabili ed etici”....


Rifondazione: “Schifani nominato dal governo commissario per il ciclo dei rifiuti: porta aperta a deroghe alla tutela ambientale ed al codice degli appalti”.


In occasione del Giorno della Memoria, la Biblioteca del #MIM rinnova l’esposizione di volumi dal titolo “La scuola negata” che ripercorre la storia dei libri di testo eliminati dalle scuole nel 1938 perché scritti da autori di origine ebraica.
#MIM


Dialoghi – Essere taoisti, fuori dalla Cina


Dialoghi – Essere taoisti, fuori dalla Cina scuola taoista
In Asia il taoismo si è diffuso da secoli ed è spesso praticato in sincretismo con altre pratiche locali, mentre in occidente non ha mai attecchito davvero.

L'articolo Dialoghi – Essere taoisti, fuori dalla Cina proviene da China Files.



Gaza tra future colonie e appelli all’uso dell’atomica


Il ministro israeliano Amichai Eliyahu, ha ribadito che andrebbe sganciata una bomba nucleare su Gaza. Domenica a Gerusalemme conferenza con ministri e deputati israeliani sulla ricostruzione delle colonie nella Striscia. L'articolo Gaza tra future colon

Twitter WhatsAppFacebook LinkedInEmailPrint

di Michele Giorgio*

Pagine Esteri, 25 gennaio 2024 – In Israele c’è un ministro che vorrebbe cancellare Gaza dalla faccia della terra con la bomba atomica e altri ministri che chiedono di cacciare via i suoi abitanti per ricostruirvi gli insediamenti coloniali. Sullo sfondo, si fa per dire, ci sono le «armi convenzionali» delle forze armate israeliane che da tre mesi e mezzo proseguono la demolizione della Striscia provocando ogni giorno decine se non centinaia di morti e feriti. Ieri 14 sfollati palestinesi, tra cui 8 donne e bambini, sono stati uccisi ed altri 75 feriti quando due cannonate hanno colpito un centro di formazione dell’agenzia dei profughi Unrwa che le Nazioni Unite avevano designato come rifugio a Khan Younis. A denunciarlo è stato il direttore dell’Unrwa a Gaza, Thomas White, che ha parlato di numerose vittime, edifici in fiamme e persone intrappolate dentro il centro che ospitava circa 800 civili palestinesi. L’esercito israeliano ha detto che indagherà sull’accaduto ma ha già anticipato che la responsabilità potrebbe essere non sua ma di Hamas.

12008985
Amichai Eliyahu

Sfidando apertamente la Corte internazionale di Giustizia dell’Aia che domani comunicherà una sua prima decisione riguardo la denuncia per «genocidio a Gaza» rivolta dal Sudafrica a Israele, Amichai Eliyahu, ministro israeliano per gli affari e il patrimonio di Gerusalemme, ha detto che andrebbe sganciata una bomba nucleare su Gaza. Eliyahu è andato persino oltre le dichiarazioni già fatte a novembre quando aveva parlato di «opzione bomba atomica» contro la Striscia prendendosi poi il rimprovero del premier Netanyahu, forse più per aver confermato indirettamente il possesso da parte di Israele di ordigni atomici. La Corte dell’Aia «conosce le mie posizioni» ha detto spavaldo Eliyahu. Invece, non chiedono di distruggere Gaza con una bomba nucleare, ma di renderla disponibile di nuovo alla colonizzazione ebraica i due ministri del governo Netanyahu che hanno annunciato per il 28 gennaio a Gerusalemme una ampia conferenza su questo tema ormai parte del dibattito politico in Israele. Haim Katz, ministro del Turismo, e Miki Zohar, ministro dello Sport e della Cultura, entrambi del partito Likud del primo ministro, affermano che solo la colonizzazione di Gaza potrà impedire altri attacchi come quello fatto il 7 ottobre da Hamas nel sud di Israele e la creazione di uno Stato palestinese. L’iniziativa non è del governo, ma i suoi promotori sono dei ministri e ciò illustra bene i desideri che animano la maggioranza di destra. Alla conferenza prenderanno parte altri esponenti del Likud, ministri e deputati di Potere ebraico e Sionismo religioso e naturalmente i leader di organizzazioni dei coloni e del Movimento per gli insediamenti ebraici «Nachala».

VIDEO: SPARI SU ABITANTI NEL NORD DI GAZA IN ATTESA DI GENERI ALIMENTARI

pagineesteri.it/wp-content/upl…

Khan Yunis resta accerchiata dall’esercito israeliano. I carri armati hanno isolato l’ospedale Nasser e la sede della Mezzaluna Rossa, un edificio di otto piani in cui si trovano migliaia di sfollati. La strage continua. Tra i 210 morti in 24 ore – in totale dal 7 ottobre sono 25.700 – e circa 400 feriti riferiti dal ministero della Sanità a Gaza, c’è anche l’accademico Fadel Abu Hein, docente da oltre venti anni di psicologia all’Università Al-Aqsa, colpito a morte, pare, da un cecchino. Abu Hein era considerato un esperto nel trattamento dei traumi mentali derivanti dalla guerra, specie nei bambini. Israele ha ucciso almeno 94 accademici a Gaza, denunciano i palestinesi.

I reparti corazzati avanzano lungo la strada al-Bahar e hanno bloccato la via di fuga da Khan Yunis verso l’autostrada costiera del Mediterraneo. Per chi fugge verso Rafah a bordo di auto, su carretti o a piedi è un ulteriore ostacolo considerando che la superstrada all’interno, la Salah Edin, è gravemente danneggiata e bloccata in molti punti da terrapieni alzati dai militari israeliani. Tanti, perciò, scelgono di attraversano la campagna esponendosi a rischi enormi. I combattimenti infatti sono intensi.

I militanti di Hamas e di altre formazioni armate, impegnano i soldati in scontri a fuoco incessanti nelle strade di Khan Yunis e in altre zone. Israele afferma di aver ucciso un centinaio di palestinesi armati. Hamas da parte sua sostiene di aver causato altre perdite agli israeliani. Ieri, riferivano alcune agenzie di stampa, si è svolta una manifestazione a Deir al Balah di palestinesi che chiedevano la fine della guerra a Gaza, con la restituzione degli ostaggi israeliani. Non è chiaro però se la loro iniziativa sia stata anche una contestazione di Hamas, come hanno riportato i media israeliani. Sempre ieri 16 organizzazioni internazionali umanitarie e per i diritti umani – tra cui Amnesty, Oxfam, Save the Children, Norwegian Refugee Council – hanno lanciato un appello congiunto contro l’invio di armi a Israele e ai gruppi armati palestinesi e per un cessate il fuoco generale immediato e definitivo a Gaza.

Invece è lontana persino una tregua umanitaria a tempo determinato con uno scambio tra ostaggi israeliani a Gaza e detenuti politici palestinesi in carcere in Israele. Negli ultimi due-tre giorni sono circolate indiscrezioni su intese mediate da Usa, Egitto e Qatar ma di concreto non c’è nulla. Hamas insiste sulla proclamazione di un cessate il fuoco permanente come base di qualsiasi negoziato per uno scambio di prigionieri. La portavoce del governo Netanyahu, Ilana Stein, è stata perentoria quando ieri ha affermato che «non ci sarà alcun cessate il fuoco e Israele non rinuncerà alla distruzione di Hamas, alla restituzione di tutti gli ostaggi e non ci sarà alcuna minaccia alla sicurezza da Gaza verso Israele». L’Amministrazione Biden, avvicinandosi alle posizioni del premier israeliano Netanyahu, afferma che il futuro governo di Gaza non dovrà includere alcun leader di Hamas. Il movimento islamico replica che gli Stati uniti non potranno «imporre un mandato al nostro popolo libero».

VIDEO: MANIFESTANTI ISRAELIANI CERCANO AL VALICO DI KEREM SHALOM DI BLOCCARE L’INGRESSO A GAZA DEGLI AIUTI

pagineesteri.it/wp-content/upl…

Ieri si sono svolti in tutto Israele picchetti di famigliari e e sostenitori degli oltre 130 ostaggi. Al valico di Kerem Shalom tra Egitto, Gaza e Israele, decine di israeliani hanno provato a bloccare i camion con gli aiuti umanitari per la popolazione palestinese affermando che occorre impedire l’ingresso di ogni fornitura sino a quando non saranno liberati gli ostaggi. Pagine Esteri

*Il testo integrale di questo articolo è stato pubblicato il 25 gennaio dal quotidiano Il Manifesto

ilmanifesto.it/gaza-tra-nuove-…

Twitter WhatsAppFacebook LinkedInEmailPrint

L'articolo Gaza tra future colonie e appelli all’uso dell’atomica proviene da Pagine Esteri.



In Cina e Asia – L’Ue vuole introdurre screening sugli investimenti diretti cinesi per tutti i Paesi


In Cina e Asia – L’Ue vuole introdurre screening sugli investimenti diretti cinesi per tutti i Paesi cina europa
I titoli di oggi: L’Ue vuole introdurre screening sugli investimenti diretti cinesi per tutti i Paesi Gli Usa hanno chiesto alla Cina di fare pressioni sull’Iran per fermare gli Houthi Jack Ma e Joe Tsai sono i principali azioni di Alibaba Cina e Uzbekistan hanno una “partnership strategica globale per tutte le stagioni” La Corea del Nord ha migliorato il ...

L'articolo In Cina e Asia – L’Ue vuole introdurre screening sugli investimenti diretti cinesi per tutti i Paesi proviene da China Files.



VERSIONE ITALIANA INDIA, NUOVE NORME SULLA PROTEZIONE DEI DATI SARANNO APPROVATE DOPO LE ELEZIONI Secondo quanto recentemente dichiarato il quadro normativo indiano sulla protezione dei dati personali potrebbe essere implementato dopo le elezioni della Lok Sabha. La DPDP mira a proteggere i dati personali digitali dei cittadini e richiede norme dettagliate per essere efficace. Secondo …


ECUADOR IN MANO AL NARCOTRAFFICO. LA SITUAZIONE SPIEGATA BENE DA UNA TRASMISSIONE RADIO (E DA UNA MAPPA CORRELATA)


##
Immagine/foto
Immagine frame della mappa ☝️

Recentemente vi abbiamo parlato della difficile situazione dell’Ecuador (leggi il post qui => noblogo.org/cooperazione-inter… ), lo stato sudamericano che è sprofondato in una crisi politico-militare scatenata dalla fuga dalla prigione di boss del narcotraffico con la dichiarazione dello stato di emergenza da parte di Daniel Noboa, il Presidente, e da una guerra tra bande dedite al contrabbando di stupefacenti - per lo più cocaina proveniente dalla Colombia, seppure siano state scoperte piantagioni di papavero da oppio e di foglie di coca - imbarcati dal porto di Guayaquil.

Immagine/foto
Il giornalista di radio 24 Giuseppe Musumeci ☝️

La trasmissione condotta da Giuseppe Musumeci “Nessun luogo è lontano” di Radio 24, ha messo a disposizione per la rubrica “la radio che si vede” una mappa animata del narcotraffico in Ecuador, realizzata dai cartografi di Fase Due Studio, Daniele Dapiaggi e la matita di Giulia De Amicis: video.liberta.vip/w/x8uP9cyZgm… .

Si può apprezzare tra l’altro come i cartelli messicani di Sinaloa e di Jalisco-Nueva Generation gestiscano il trasporto della droga verso il Nord America. La via verso l'Europa è controllata dalla mafia albanese (abbiamo parlato dell’arresto del boss albanese che aveva trascorso recentemente un periodo di detenzione – per svolgere il proprio business – proprio in Ecuador, leggi qui => noblogo.org/cooperazione-inter… ) e dalla ndrangheta italiana (leggi qui sull’arresto in Colombia di un “inviato” per favorire il traffico noblogo.org/cooperazione-inter… ).

Immagine/foto
Immagine del Quartier generale del Porto di Anversa ☝️

La principale via d'accesso al vecchio continente è il porto di Anversa in Belgio (leggi qui => noblogo.org/cooperazione-inter… ), seguito da Paesi Bassi ed Italia (per il nostro Paese, leggi qui => noblogo.org/cooperazione-inter… ).
Per via della posizione strategica, l'Ecuador ricopre un ruolo attualmente determinante per il transito delle droghe È stato calcolato che dall'Ecuador arriva più del 70% del totale provenienti dall'America meridionale.

#ECUADOR #NARCOTRAFFICO #RADIO24 #NESSUNLUOGOèLONTANO #FASEDUESTUDIOCARTOGRAFIA



Augusta | Fondazione Einaudi, in città una sede – webmarte.tv


Inaugurazione venerdì 2 febbraio la sede della provincia di Siracusa della “Fondazione Luigi Einaudi” intitolata all’avvocato siracusano Paolo Ezechia Reale, di recente scomparso. Si trova in via Principe Umberto al civico 210. All’inaugurazione, in pro

Inaugurazione venerdì 2 febbraio la sede della provincia di Siracusa della “Fondazione Luigi Einaudi” intitolata all’avvocato siracusano Paolo Ezechia Reale, di recente scomparso.

Si trova in via Principe Umberto al civico 210.

All’inaugurazione, in programma per mezzogiorno, interverranno Giuseppe Benedetto, avvocato e presidente della fondazione che cura studi di politica, economia e storia e del senatore Giulio Terzi di Sant’Agata, presidente della commissione Politiche dell’Unione Europea del Senato.

webmarte.tv

L'articolo Augusta | Fondazione Einaudi, in città una sede – webmarte.tv proviene da Fondazione Luigi Einaudi.



Cuarteto Yemayà - El tic tac


Il Cuarteto Yemayà era un famoso gruppo peruviano degli anni settanta, fondato e capitanato dal chitarrista Francisco "Pancho" Acosta Angeles che aveva esordito con Compay Quinto per poi suonare nei famosi Los Kintos fino al loro scioglimento, ma Pancho non si ferma e continua ad incidere per la famosa etichetta MAG con i Cuarteto Yemyà con il debutto "Ecos del trio Matamoros" che fu un discreto successo, grazie ad una proposta di musica e ritmo cubano, con molti accenni al rock più in voga in quegli anni, e anche al beat. @Musica Agorà iyezine.com/cuarteto-yemaya-el…

reshared this



Export militare, la riforma arriva al Senato. Cosa cambia e perché


Arriva dalla commissione Esteri e difesa del Senato il via libera per la discussione in Aula del disegno di legge del governo che modifica la legge 185 sull’import-export della difesa. Con l’approvazione in commissione al Senato, il provvedimento deve ora

Arriva dalla commissione Esteri e difesa del Senato il via libera per la discussione in Aula del disegno di legge del governo che modifica la legge 185 sull’import-export della difesa. Con l’approvazione in commissione al Senato, il provvedimento deve ora essere inserito nel calendario dei lavori dell’Aula. La principale riforma vede la reintroduzione presso la presidenza del Consiglio dei ministri del Comitato interministeriale per gli scambi di materiali di armamento per la difesa (Cisd), soppresso nel 1993. L’organo si occuperà di formulare gli indirizzi generali per l’applicazione della stessa legge 185, e in generale delle politiche di scambio nel settore della difesa. Una misura che, come riportato dalla legge stessa, segue “l’esigenza dello sviluppo tecnologico e industriale connesso alla politica di difesa e di produzione degli armamenti”.

Faranno parte del Cisd, che sarà presieduto direttamente dal presidente del Consiglio, i ministri degli Affari esteri, dell’Interno, della Difesa, dell’Economia e delle finanze, delle Imprese e del Made in Italy. Le funzioni di segretario saranno svolte dal sottosegretario alla presidenza del Consiglio con funzioni di segretario e alle sue riunioni potranno essere invitati di volta in volta anche altri ministri, qualora interessati al dossier in corso di valutazione.

La misura è stata ripetutamente invocata diverse volte dall’intero settore, con l’obiettivo di portare la responsabilità di una materia delicata come l’import-export militare sotto l’autorità politica più elevata. L’obiettivo di riunire la materia in un comitato di ministri ad hoc è rendere quella che adesso è una responsabilità, anche personale, di una sola figura – nella fattispecie il direttore dell’Uama – una responsabilità invece condivisa a livello politico. Una volta effettuata questa decisione dall’esecutivo, l’Uama potrebbe semplicemente occuparsi di rilasciare le dovute documentazioni e supervisionare la corretta applicazione amministrativa delle misure previste dalla legge.

Al momento, infatti, il ministro plenipotenziario che guida l’Uama ha una responsabilità diretta circa le decisioni da prendere sulla possibilità o meno di esportare (o importare) da un determinato Paese. Spetta a questo funzionario, dunque, una decisione molto delicata e un esame molto approfondito sull’aderenza di potenziali partner commerciali internazionali ai prerequisiti legali previsti dalla legge italiana, primo fra tutto il rispetto dei diritti umani. Compito non facile e potenzialmente foriero di implicazioni enormi.

Una modifica come quella prevista dal nuovo disegno di legge permetterebbe invece di accelerare i procedimenti sui permessi all’esportazione di sistemi d’arma, settore su cui si basa non solo la sostenibilità finanziaria del settore della difesa, ma l’economia stessa del Paese. Quasi il 70% del fatturato industriale del settore, infatti, dipende dall’export, un fatturato che vale 17 miliardi di euro, più o meno un intero punto percentuale di Pil.

L’Italia, inoltre, non è l’unico Paese che sta rivedendo le proprie regole sulle esportazioni della Difesa. Anche Tokyo e Berlino hanno di recente messo mano alle proprie norme, un segnale dell’importanza rivestita dalla materia e, in particolare, dell’impatto che le norme sull’export militare ha sui programmi congiunti internazionali. In particolare, il governo Fumio Kishida ha reso possibile per il Giappone esportare materiale d’armamento, attrezzature militari e tecnologie di difesa prodotte nel Paese del Sol levante sia verso i Paesi proprietari delle licenze, sia verso le Nazioni che si difendono da un’invasione. La decisione ancora non ricomprende il caso di prodotti co-sviluppati con partner internazionali a Paesi terzi, mancando un accordo tra i vari partiti di maggioranza, e in questo senso un progetto come il Global Combat Air Programme per sviluppare, insieme a Italia e Regno Unito, il caccia di sesta generazione resta per ora escluso dalla possibilità di esportazione da parte di Tokyo. Infatti, eliminare il divieto di esportare prodotti co-sviluppati ad altri Paesi rappresenterebbe un boost sostanziale alla sostenibilità dei progetti non solo per il Giappone, ma in generale per lo sviluppo dell’intero programma. Permetterebbe, infatti, al consorzio Gcap di avere nel Giappone un partner cruciale per la sua presenza nell’Indo-Pacifico, diventando una potenziale piattaforma per l’esportazione del sistema a Paesi partner come Australia o Corea del Sud.

Una ratio simile è stata seguita dalla ministra degli Esteri tedesca, Annalena Baerbock, che nel corso della sua visita in Israele aveva rivelato l’intenzione del governo federale di rimuovere il veto che impedisce l’esportazione di Eurofighter all’Arabia Saudita. Una decisione che segnò un importante cambio di passo in generale per il futuro dei progetti congiunti europei. Le restrizioni tedesche, infatti, sono state criticate a lungo dai Paesi partner dei diversi programmi, considerati delle limitazioni all’appetibilità dei sistemi per il timore dei Paesi acquirenti di rischiare di rimanere senza pezzi di ricambio per i propri velivoli, spingendoli potenzialmente ad affidarsi ad altri fornitori. Adesso, con la riapertura da parte di Berlino, i programmi congiunti, a partire dai caccia Eurofighter e Tornado (a cui partecipa anche l’industria italiana), potrebbero vedere allargarsi la lista di ordini, con una nuova spinta sui mercati globali.

Anche in questo caso il tema delle regole sulle esportazioni militari legate ai programmi congiunti riguarda da vicino anche i programmi di prossima generazione, con Berlino che è impegnata, insieme alla Francia, nella realizzazione del caccia di sesta generazione Fcas. Progetti all’avanguardia come Gcap, Fcas o l’Eurofigher richiedono investimenti massicci per essere sviluppati e infine prodotti, e i soli mercati interni dei Paesi partner non basta a ripagare gli investimenti.


formiche.net/2024/01/export-mi…



This Year’s Must-Read Privacy Papers to be Honored at Washington, D.C. Event


The Future of Privacy Forum’s 14th Annual Privacy Papers for Policymakers Award Recognizes Influential Privacy Research Today, the Future of Privacy Forum (FPF) — a global non-profit focused on data protection headquartered in Washington, D.C. — announced

The Future of Privacy Forum’s 14th Annual Privacy Papers for Policymakers Award Recognizes Influential Privacy Research

Today, the Future of Privacy Forum (FPF) — a global non-profit focused on data protection headquartered in Washington, D.C. — announced the winners of its 14th annual Privacy Papers for Policymakers (PPPM) Awards.

The PPPM Awards recognize leading U.S. and international privacy scholarship that is relevant to policymakers in the U.S. Congress, federal agencies, and international data protection authorities. Nine winning papers, two honorable mentions, two student submissions, and a student honorable mention were selected by a diverse group of leading academics, advocates, and industry privacy professionals from FPF’s Advisory Board.

Award winners will have the unique opportunity to showcase their papers. Authors of U.S. focused papers will present their work at the Privacy Papers for Policymakers ceremony on February 27, 2024, in Washington, D.C. Winning papers with an international focus will be presented at a virtual event on March 1, 2024.

“Academic scholarship is an essential resource for legislators and regulators around the world who are grappling with the increasingly complex uses of personal data. Thoughtful policymakers will benefit from the deep analysis and independent thinking provided by these essential publications.” – FPF CEO Jules Polonetsky

FPF’s 2023 Privacy Papers for Policymakers Award winners are:

  • Towards a Latin American Model of Adequacy for the International Transfer of Personal Data by Luca Belli, Fundação Getulio Vargas Law School; Ana Brian Nougrères, Naciones Unidas en el Derecho a la Privacidad; Jonathan Mendoza Iserte, INAI, Mexico; Pablo Palazzi, Centro de tecnología y Sociedad de la Universidad de San Andrés; & Nelson Remolina Angarita, GECTI de la Universidad de los Andes
    • This article analyzes the regulatory regime for international transfers of personal data based on the legislation of several Latin American countries (namely Argentina, Brazil, Colombia, Mexico and Uruguay), its general regime and the different exceptions considered in the existing regulations. Finally, after explaining the divergences, different alternatives and ideas are proposed to create a specific regime to be used within Latin America for international transfers of personal data and recognition of adequacy. On the other hand, an analysis is carried out on the phenomenon of international data collection and solutions are proposed so that the rights of data owners are guaranteed when their information is collected from other countries without the collector being domiciled in the country of the data subject.


  • Less Discriminatory Algorithms by Emily Black, Barnard College–Columbia University; John Logan Koepke, Upturn; Pauline Kim, Washington University in St. Louis – School of Law; Solon Barocas, Microsoft Research and Cornell University; and Mingwei Hsu, Upturn
    • Entities that use algorithmic systems in traditional civil rights domains like housing, employment, and credit should have a duty to search for and implement less discriminatory algorithms (LDAs). Why? Work in computer science has established that, contrary to conventional wisdom, for a given prediction problem, there are almost always multiple possible models with equivalent performance—a phenomenon termed model multiplicity. Model multiplicity has profound ramifications for the legal response to discriminatory algorithms. As a result, the law should place a duty of reasonable search for LDAs on entities that develop and deploy predictive models in covered civil rights domains. The law should recognize this duty in at least two specific ways. First, under the disparate impact doctrine, a defendant’s burden of justifying a model with discriminatory effects should be recognized to include showing that it did a reasonable search for LDAs before implementing the model. Second, new regulatory frameworks for the governance of algorithms should include a requirement that entities search for and implement LDAs as part of the model-building process.


  • Future-Proofing Transparency: Re-Thinking Public Record Governance for the Age of Big Data by Beatriz Botero Arcila, Institut d’Etudes Politiques de Paris (Sciences Po) and Harvard University, Berkman Klein Center for Internet & Society
    • Public records, public deeds, and even open data portals often include personal information that can now be easily accessed online. With Big Data and powerful machine learning algorithms, personal information in public records can easily be used to infer sensitive data about people or aggregated to create a comprehensive personal profile of almost anyone. This information is public and open, however, for many good reasons. Can the interest in record publicity coexist with the growing ease of deanonymizing and revealing sensitive information about individuals? This Article addresses this question from a comparative perspective, focusing on US and EU access to information law. The Article shows that the publicity of records was, in the past and notwithstanding its presumptive public nature, protected because most people would not trouble themselves to go to public offices to review them, and it was practically impossible to aggregate them to draw extensive profiles about people. Drawing from this insight and contemporary debates on data governance, this Article challenges the binary classification of data as either published or not and proposes a risk-based framework that re-inserts that natural friction to public record governance by leveraging techno-legal methods in how information is published and accessed.


  • Experiments with Facial Recognition Technologies in Public Spaces: In Search of an EU Governance Framework by Catherine Jasserand, University of Groningen
    • According to a survey conducted in 2020 by EDRi, at least 15 European countries have already used or experimented with facial recognition technologies (FRTs) in public spaces without much public debate. Yet, these highly intrusive technologies capture the distinctive facial characteristics of individuals to identify them. The systems operate at a distance without people’s cooperation or awareness. Evidence from France and the United Kingdom shows that public authorities (mainly the police) have trialed and used the technologies in public spaces. Drawing insights from these experiments, the chapter assesses whether the applicable data protection frameworks are sufficient to regulate public authorities’ experimentation with FRTs in public spaces. After identifying the regulatory gaps of the existing frameworks, the chapter provides some arguments and tools for a reflection on an experimental approach to test these technologies (such as Data Protection Impact Assessments, experimental legislation, and regulatory sandboxes based on the future AI Act).


  • Do No Harm Guide: Applying Equity Awareness in Data Privacy Methods by Claire McKay Bowen, Urban Institute; and Joshua Snoke, RAND Corporation
    • Researchers and organizations can increase privacy in datasets through methods such as aggregating, suppressing, or substituting random values. But these means of protecting individuals’ information do not always equally affect the groups of people represented in the data. A published dataset might ensure the privacy of people who make up the majority of the dataset but fail to ensure the privacy of those in smaller groups. Or, after undergoing alterations, the data may be more useful for learning about some groups more than others. How entities protect data can have varying effects on marginalized and underrepresented groups of people. To understand the current state of ideas, we completed a literature review of equity-focused work in statistical data privacy (SDP) and conducted interviews with nine experts on privacy-preserving methods and data sharing. These experts include researchers and practitioners from academia, government, and industry sectors with diverse technical backgrounds. We offer an illustrative example to highlight potential disparities that can result from applying SDP methods. We develop an equitable data privacy workflow that privacy practitioners and decisionmakers can utilize to explicitly make equity part of the standard data privacy process.


  • AI Audits: Who, When, How…Or Even If? by Evan Selinger, Rochester Institute of Technology – Department of Philosophy; Brenda Leong, Luminos.Law; and Albert Fox Cahn, Surveillance Technology Oversight Project, Harvard University – Carr Center for Human Rights Policy, Yale Law School
    • Artificial intelligence (AI) tools are increasingly being integrated into decision-making processes in high-risk settings, including employment, credit, health care, housing, and law enforcement. Given the harms that poorly designed systems can lead to, including matters of life and death, there is a growing sense that crafting policies for using AI responsibly must necessarily include, at a minimum, assurances about the technical accuracy and reliability of the model design. Because AI auditing is still in its early stages, many questions remain about how to best conduct them. While many people are optimistic that valid and effective best practice standards and procedures will emerge, some civil rights advocates are skeptical of both the concept and the practical use of AI audits. This chapter aims to explain why AI audits often are regarded as essential tools within an overall responsible governance system and how they are evolving toward accepted standards and best practices. We will focus most of our analysis on these explanations, including recommendations for conducting high-quality AI audits. Nevertheless, we will also articulate the core ideas of the skeptical civil rights position. This intellectually and politically sound view should be taken seriously by the AI community. To be well-informed about AI audits is to comprehend their positive prospects and be prepared to address their most serious challenges.


  • Data Is What Data Does: Regulating Based on Harm and Risk Instead of Sensitive Data by Daniel J. Solove, George Washington University Law School
    • Heightened protection for sensitive data is trendy in privacy laws. Although heightened protection for sensitive data appropriately recognizes that not all situations involving personal data should be protected uniformly, the sensitive data approach is a dead end. The sensitive data categories are arbitrary and lack any coherent theory for identifying them. The borderlines of many categories are so blurry that they are useless. Moreover, it is easy to use nonsensitive data as a proxy for certain types of sensitive data. This Article argues that the problems with sensitive data make it unworkable and counterproductive as well as expose a deeper flaw at the root of many privacy laws. These laws make a fundamental conceptual mistake—they embrace the idea that the nature of personal data is a sufficiently useful focal point. But nothing meaningful for regulation can be determined solely by looking at the data itself. Data is what data does. To be effective, privacy law must focus on harm and risk rather than on the nature of personal data. Privacy protections should be proportionate to the harm and risk involved with the data collection, use, and transfer.


  • The Prediction Society: Algorithms and the Problems of Forecasting the Future by Daniel J. Solove, George Washington University Law School and Hideyuki Matsumi, Vrije Universiteit Brussel (VUB); Keio University
    • Today’s predictions are produced by machine learning algorithms that analyze massive quantities of data, and increasingly, important decisions about people are being made based on these predictions. Algorithmic predictions are a type of inference, but predictions are different from other inferences and raise several unique problems. (1) Algorithmic predictions create a fossilization problem because they reinforce patterns in past data and can further solidify bias and inequality from the past. (2) Algorithmic predictions often raise an unfalsifiability problem. (3) Algorithmic predictions can involve a preemptive intervention problem. (4) Algorithmic predictions can lead to a self-fulfilling prophecy problem. More broadly, the rise of algorithmic predictions raises an overarching concern: Algorithmic predictions not only forecast the future but also have the power to create and control it. Data protection/privacy law do not adequately address these problems. Many laws lack a temporal dimension and do not distinguish between predictions about the future and inferences about the past or present. We argue that the use of algorithmic predictions is a distinct issue warranting different treatment from other types of inference.


  • Beyond Memorization: Violating Privacy Via Inference with Large Language Models by Robin Staab, Mark Vero, Martin Vechev, and Mislav Balunovic, ETH Zurich
    • Current privacy research on large language models (LLMs) primarily focuses on the issue of extracting memorized training data. At the same time, models’ inference capabilities have increased drastically. This raises the key question of whether current LLMs could violate individuals’ privacy by inferring personal attributes from text given at inference time. In this work, we present the first comprehensive study on the capabilities of pretrained LLMs to infer personal attributes from text. As people increasingly interact with LLM-powered chatbots across all aspects of life, we also explore the emerging threat of privacy-invasive chatbots trying to extract personal information through seemingly benign questions. Finally, we show that common mitigations, i.e., text anonymization and model alignment, are currently ineffective at protecting user privacy against LLM inference. Our findings highlight that current LLMs can infer personal data at a previously unattainable scale. In the absence of working defenses, we advocate for a broader discussion around LLM privacy implications beyond memorization, striving for a wider privacy protection.



In addition to the winning papers, FPF selected for Honorable Mentions: The After Party: Cynical Resignation In Adtech’s Pivot to Privacyby Lee McGuigan, University of North Carolina at Chapel Hill; Sarah Myers West, AI Now Institute; Ido Sivan-Sevilla, College of Information Studies, University of Maryland; and Patrick Parham, College of Information Studies, University of Maryland; and Epsilon-Differential Privacy, and a Two-step Test for Quantifying Reidentification Risk by Nathan Reitinger and Amol Deshpande of the University of Maryland.

FPF also selected two papers for the Student Paper Award: The Privacy-Bias Tradeoff: Data Minimization and Racial Disparity Assessments in U.S. Government by Arushi Gupta, Stanford University; Victor Y. Wu, Stanford University; Helen Webley-Brown, Massachusetts Institute of Technology; Jennifer King, Stanford University; and Daniel E. Ho, Stanford Law School; and Estimating Incidental Collection in Foreign Intelligence Surveillance: Large-Scale Multiparty Private Set Intersection with Union and Sum by Anunay Kulshrestha and Jonathan Mayer of Princeton University. A Student Paper Honorable Mention went to Ditching “DNA on Demand”: A Harms-Centered Approach to Safeguarding Privacy Interests Against DNA Collection and Use by Law Enforcement by Emma Kenny-Pessia, J.D. Candidate at Washington University in St. Louis School of Law.

In reviewing the submissions, these winning papers were awarded based on the strength of their research and proposed policy solutions for policymakers and regulators in the U.S. and abroad.

The Privacy Papers for Policymakers event will be held on February 27, 2024, in Washington, D.C., exact location to be announced. The event is free and open to the public.


fpf.org/blog/this-years-must-r…



L'ISAA, Italian Space and Astronautics Association (Associazione Italiana per l’Astronautica e lo Spazio) ha creato un'istanza per i propri associati. Benvenuti nel fediverso!

L'istanza, amministrata da @AstronautiBot, è stata creata a settembre e conta già una decina di utenti tra i quali @astronauticast (podcast di astronautica dell'associazione, in onda ogni giovedì dalle 21:30) e amoroso@social.isaa.it aka Nonno Apollo.

Siamo davvero contenti che un'associazione abbia deciso di mettere a disposizione un'istanza Mastodon per i propri soci!

Diamo loro il benvenuto nel Fediverso e ci auguriamo che vogliano condividere i loro post con la comunità @Astronomia di Lemmy.

social.isaa.it/public/local

in reply to Poliverso - notizie dal Fediverso ⁂

I ragazzi di @astronauticast sono sicuramente i benvenuti su @astronomia e sicuramente spero che il buon @amoroso possa contribuire: un po' di tempo fa ci fu un incrocio di collaborazioni su @eduinaf per un paio di campagne di astrofotografia!
@astronautibot


@Friendica Admins Good morning everyone. I have a problem that has been going on since we updated the instance to the latest release.
As you can see from the image (which is taken from a mastodon screen), from Mastodon, from Misskey, from Pixelfed and from Pleroma it is impossible to see the profile pic of most of the poliverso accounts.
Can anyone give me some suggestions to solve this annoying problem?
Are there any ways to "force" sending or updating images on federated instances?

Friendica Admins reshared this.

in reply to Signor Amministratore ⁂

@Signor Amministratore @Michael Vogel I did some checks: in a mastodon server I found out that friendica's users in the account table have "avatar_remote_url" field empty, so when it refreshs the account information, it does not ask for an updated avatar. I compared the "/.well-known/webfinger?resource=" from a mastodon server and a friendica server and I can read the property "http://webfinger.net/rel/avatar" from both. so we don't know how to proceed further in the troubleshooting.

Friendica Admins reshared this.

in reply to Signor Amministratore ⁂

@Signor Amministratore @Michael Vogel for future reference, the problem was caused by a nginx reverse proxy in front of the apache server.. with these headers it seems to work again, but I am not sure about it..

proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-Host $host;
proxy_set_header X-Forwarded-Port $server_port;
proxy_set_header Host $host;
proxy_set_header Proxy '';

reshared this



Oggi, #24gennaio, si celebra la sesta Giornata Internazionale dell’Educazione, proclamata nel 2018 dall’Assemblea Generale delle Nazioni Unite.


LIBRI. Il “J’accuse” di Francesca Albanese


Il "J’Accuse" di Francesca Albanese non è opera di un’attivista. E' il contributo di una esperta di diritto internazionale che oltre a descrivere e denunciare violazioni e abusi, avverte l'opinione pubblica mondiale della insostenibilità della negazione d

Twitter WhatsAppFacebook LinkedInEmailPrint

della redazione

(foto di Hatim Kaghat, via Le Soir)

Pagine Esteri, 24 gennaio 2024 – Frutto di tre rapporti sulla situazione dei diritti negati ai palestinesi nei Territori occupati da Israele, “J’Accuse” della giurista Francesca Albanese è stato concepito e scritto, con la partecipazione del giornalista Christian Elia, ben prima del 7 ottobre quando prima l’attacco di Hamas nel sud di Israele e poi l’offensiva militare devastante di Israele contro Gaza, hanno riportato l’attenzione mondiale sulla questione palestinese.
Nel volume Albanese, che è Relatrice delle Nazioni Unite per i diritti umani nei Territori palestinesi occupati, sottolinea
l’affermarsi di una condizione di apartheid e di un’occupazione israeliana che dura da decenni e non è più tollerabile.
Il “J’Accuse” di Francesca Albanese non è opera di un’attivista. E’ il contributo di una esperta di diritto internazionale che oltre a descrivere e denunciare violazioni e abusi, avverte l’opinione pubblica mondiale della insostenibilità della negazione dei diritti del popolo palestinese. La filosofa Roberta De Monticelli chiude il libro con un suo saggio. Pagine Esteri ha intervistato Francesca Albanese.

player.vimeo.com/video/9058835…

Twitter WhatsAppFacebook LinkedInEmailPrint

L'articolo LIBRI. Il “J’accuse” di Francesca Albanese proviene da Pagine Esteri.



La Commissione europea è pronta ad adottare una decisione che istituisce l’Ufficio europeo per l’intelligenza artificiale, secondo una bozza di documento ottenuta da Euractiv. L’Ufficio per l’intelligenza artificiale svolgerà un ruolo fondamentale nell’architettura di applicazione della legge europea sull’IA, la...

macfranc reshared this.



Weekly Chronicles #62


Fleximan e altre idee libertarie.

Questo è il numero #62 di Privacy Chronicles, la newsletter che ti spiega l’Era dell’Informazione e come sopravvivere: sorveglianza di massa, privacy, sicurezza dei dati, crypto-anarchia e molto altro.

Nelle Cronache della settimana:

  • Fleximan: un’idea di cui è giunto il momento
  • Arrivano gli atomic swap tra Bitcoin e Monero
  • Sorveglianza biometrica: aggiornamenti sull’IA Act

Nelle Lettere Libertarie:

  • Milei al World Economic Forum ha fatto schiumare proprio tutti

Rubrica OpSec:

  • Telegram hardening: metti in sicurezza la tua app

11977166


Fleximan: un’idea di cui è giunto il momento


Padova, Veronella, Treviso, Cortina… gli autovelox del Veneto sono ormai facile preda di quell’individuo o gruppo di persone che i giornali hanno soprannominato “Fleximan”.

A decine ne sono caduti negli ultimi dieci giorni, e immagino che ancora ne cadranno. Nel frattempo arrivano anche i primi emulatori in Lombardia (Bonate Sotto, Martignana) e Piemonte. A Parma si segnalano invece varchi ZTL oscurati con la vernice spray.

«Non tutti gli eroi hanno il mantello, alcuni hanno il flessibile» scrivono i fan sui social.

Proprio come accadeva per Batman, anche il nostro Fleximan non riceve amore e appoggio dalla pubblica amministrazione: sindaci e procuratori condannano pubblicamente le sue azioni e richiamano tutti all’ordine. I primi, per l’evidente colpo alle loro tasche; i secondi per la manifesta incapacità di arginare il fenomeno.

Questi sono i fatti. Ora passiamo a qualche pensiero personale.

Il fenomeno Fleximan dimostra due cose:

  1. La sorveglianza di massa, autovelox, ZTL o telecamere che siano, non ha alcuna correlazione con la sicurezza delle persone, ma solo con necessità di controllo e flusso di cassa.
  2. Lo stato non esiste: o meglio, cessa di esistere nel momento stesso in cui le persone decidono di riappropriarsi degli spazi che gli vengono tolti grazie alle tecnologie di sorveglianza.

Fleximan è molto più di un uomo con un buon flessibile: è la scintilla di un'idea di cui è giunto il momento. Lo stesso può dirsi per l’analogo UK di Fleximan: i Blade Runner (di cui abbiamo già parlato).

L'Italia è tra i paesi peggiori d'Europa in quanto a incidenti mortali. Le persone muoiono in altri paesi europei molto meno alla guida, nonostante il numero largamente inferiore di autovelox, che in Italia sono ben 11.000 (in Spagna, ad esempio, circa 2.000).

La colpa, come suggeriva l'economista libertario Walter Block, è di chi gestisce le strade, come qualsiasi altra attività umana. In questo caso la colpa è quindi dello Stato. Strade peggiori equivalgono a più incidenti.

Non solo allora lo stato fa cassa sulla nostra vita, ma non usa i soldi rubati con autovelox e ZTL per migliorare le strade e la viabilità. Anzi: incolpa i cittadini e gli rende la vita sempre più difficile, vietando l’uso delle automobili o inventando assurdi limiti di velocità, come a Bologna.

E se qualcuno avesse dubbi circa le reali finalità degli autovelox, per spiegarlo non c’è neanche bisogno di retorica. Ve lo dicono loro:

231712


Arrivano gli atomic swap tra Bitcoin e Monero


Il team di Samourai, il wallet bitcoin-centrico che fa della privacy il suo cavallo di battaglia, ha recentemente rilasciato la versione Beta della piattaforma per lo swap atomico tra BTC (Bitcoin) e XMR (Monero).

Read more

#62


VERSIONE ITALIANA FRANCIA, LA CNIL MULTA AMAZON FRANCE LOGISTIQUE CON UNA MULTA DI 32 MILIONI DI EURO Amazon France Logistique che gestisce i magazzini del gruppo Amazon in Francia utilizza uno scanner per monitorare le prestazioni dei dipendenti durante il loro lavoro. A causa di molteplici reclami dei dipendenti e una serie di articoli comparsi …
in reply to Informa Pirata

Queste sanzioni non fanno bene né alle aziende, né ai lavoratori, né ai cittadini consumatori, perché alla fine sono tutti questi ultimi soggetti a pagarle con l'aumento dei costi dei servizi che inevitabilmente dovranno sostenere. Purtroppo non ci sono alternative se non quelle di eliminare il diritto alla proprietà privata.
in reply to Piero Bosio

Una alternativa alle sanzioni potrebbe essere quella dei premi. Premiare anziché sanzionare. La psicologia del premio, il premio del "paradiso" secondo me fa meno danni della psicologia della sanzione dell' “inferno“.
in reply to Piero Bosio

@Piero Bosio @Informa Pirata ma magari anche no. Sono assolutamente certa che si possa rimanere un'efficiente azienda logistica anche senza invadere la privacy dei dipendenti, e persino consentendo loro di fare pausa normalmente.
in reply to sposadelvento

@deny
Certo, ma certi comportamenti rispettosi della privacy andrebbero incentivati con premi non solo simbolici, premi concreti, fatti di agevolazioni fiscali. Invece si sanziona sempre chi sgarra e non si premia chi rispetta le norme.
in reply to Piero Bosio

@Piero Bosio la privacy è un diritto umano e il suo mancato rispetto DEVE (DEVE, non PUO') essere sanzionato!
Altrimenti dovremmo premiare anche le aziende che non praticano lo schiavismo, quelle che non consentono ai capi di violentare impunemente le dipendenti e quelle che evitano di far morire i dipendenti sul lavoro.

@sposadelvento

Piero Bosio reshared this.



CONTRAFFAZIONE E CRIMINALITÀ ORGANIZZATA. LA RISPOSTA DELL’UNIONE EUROPEA E DI EUROPOL


Immagine/foto
[sequestro di merce contraffatta] ☝️

#EUROPOL richiama l’attenzione (europol.europa.eu/crime-areas/…) sul commercio di merci contraffatte, che rappresenta una “sfida importante in un'economia globale basata sull'innovazione”. Ciò perché i gruppi della criminalità organizzata svolgono un ruolo sempre più importante in queste attività e traggono notevoli vantaggi dalla contraffazione e dalla pirateria.
Europol a tale proposito sostiene o organizza apposite operazioni per contrastare tale commercio, delle quali abbiano parlato nel nostro blog: vi ricordiamo in particolare: - Pangea, un'operazione annuale internazionale condotta dall' #Interpol contro la vendita online illecita di medicinali e dispositivi medici, che da ultimo ha coinvolto circa 193 autorità di polizia, doganali e di regolamentazione sanitaria di 103 paesi (leggi qui => noblogo.org/cooperazione-inter…); - l 'operazione OPSON (leggi qui =>noblogo.org/cooperazione-inter…), che ha riunito una serie di agenzie del settore pubblico e privato per affrontare la minaccia della contraffazione e delle frodi di alimenti e bevande. L'operazione dello scorso anno, guidata da Europol e Interpol, ha avuto una serie di successi, tra cui il sequestro di oltre 10 000 tonnellate e un milione di litri di alimenti e bevande contraffatti pericolosi in operazioni che hanno interessato 57 paesi.

[sequestro di merce contraffatta] 👇
Immagine/foto

Il commercio di prodotti contraffatti è in piena espansione e sta colpendo le vendite e i profitti delle aziende interessate. Ha un impatto sui governi, sulle imprese in generale e sui consumatori. Taglia le entrate e riduce il benessere economico, la salute, la sicurezza.
L'obiettivo è quindi quello di smantellare i gruppi criminali organizzati coinvolti nella produzione e distribuzione di merci contraffatte e scadenti. Si tratta di un illecito che rappresenta il 2, 5 % del commercio mondiale, pari a 461 miliardi di dollari. Così, i detentori dei diritti, i governi e l'economia formale nel suo complesso subiscono enormi perdite ogni anno, mentre le reti criminali che sono dietro il commercio traggono enormi profitti.

[sequestro di merce contraffatta] 👇
Immagine/foto

I prodotti contraffatti spaziano dai beni di consumo di lusso di fascia alta come orologi, profumi o pelletteria, ai prodotti business-to-business come macchinari, prodotti chimici o pezzi di ricambio, fino ai prodotti di consumo comuni come giocattoli, prodotti farmaceutici, cosmetici e alimentari. Infatti, qualsiasi prodotto protetto da IP può essere contraffatto.
Alcuni prodotti contraffatti, come i prodotti farmaceutici, i pezzi di ricambio e i giocattoli, sono di bassa qualità e creano quindi notevoli minacce per la salute e la sicurezza.

Immagine/foto
Logo EUIPO ☝️


Attiva in ambito Unione Europea #UE anche l’ #EUIPO (euipo.europa.eu/en)( Ufficio dell'Unione europea per la proprietà intellettuale) che segnala nel suo ultimo studio come le merci contraffatte continuano a costare all'industria dell'abbigliamento, dei cosmetici e dei giocattoli (per quest’ultimo aspetto leggi qui =>noblogo.org/cooperazione-inter…) la cifra di 16 miliardi di euro di vendite e quasi 200 000 posti di lavoro ogni anno. A sopportare il peso maggiore di questa attività illegale l'industria dell'abbigliamento (5,2 % del fatturato complessivo del settore). Anche l'industria cosmetica e quella dei giocattoli sono gravemente colpite, con perdite rispettivamente pari al 4,8 % delle vendite e 8,7 % delle vendite.
Lo studio, periodo 2018-2021, ha rilevato che le merci contraffatte non solo influiscono sulle vendite, ma portano anche a significative perdite di posti di lavoro. In questi settori, Germania, Francia, Italia, Spagna e Austria hanno subito le perdite maggiori, con quasi 8 miliardi di euro di riduzione delle vendite di beni originali.
La relazione rileva che la contraffazione alimenta la criminalità organizzata, mina la fiducia nello Stato di diritto e incide negativamente sull'ambiente. Inoltre, la contraffazione nei settori dei cosmetici e dei giocattoli comporta notevoli rischi per la salute e la sicurezza dei consumatori. Questi prodotti nocivi rappresentano il 15 % degli articoli contraffatti sequestrati alle frontiere dell'UE.
EUIPO collabora nella lotta alla contraffazione con Europol, con l'Ufficio europeo per la lotta antifrode (#OLAF – leggi qui nel nostro blog =>noblogo.org/cooperazione-inter…) e la #Commissioneeuropea.



Jobs Act. Se la soppressione dei diritti diventa norma legittima l L'Antidiplomatico

"La norma del Governo Renzi non è mai stata messa in discussione dai governi successivi e men che mai da quello del centro destra.
Il jobs act mirava non solo a disincentivare le cause del lavoro ma a favorire i licenziamenti collettivi e oggi la Corte Costituzionale ne conferma l'impianto asserendone la legittimità anche rispetto ai principi della Costituzione. L'indennizzo economico come misura compensativa esclude pertanto ogni possibilità di reintegro al posto del quale arriveranno pochi spiccioli specie per quanti hanno minori anni contributivi."

lantidiplomatico.it/dettnews-j…



Explaining the Crosswalk Between Singapore’s AI Verify Testing Framework and The U.S. NIST AI Risk Management Framework


On October 13, 2023, Singapore’s Infocomm Media Development Authority (IMDA) and the U.S.’s National Institute of Standards and Technology (NIST) published a “Crosswalk” of IMDA’s AI Verify testing framework and NIST’s AI Risk Management Framework (AI RMF

On October 13, 2023, Singapore’s Infocomm Media Development Authority (IMDA) and the U.S.’s National Institute of Standards and Technology (NIST) published a “Crosswalk” of IMDA’s AI Verifyfile.go.gov.sg/aiverify.pdftesting framework and NIST’s AI Risk Management Framework (AI RMF). Developed under the aegis of the Singapore–U.S. Partnership for Growth and Innovation, the Crosswalk is a mapping document that guides users on how adopting one framework can be used to meet the criteria of the other. Similar to other crosswalk initiatives that NIST has done with other leading AI frameworks (such as with the ISO/IEC FDIS 23894 and the proposed EU AI Act, OECD Recommendation on AI, Executive Order 13960 and the Blueprint for an AI Bill of Rights), this Crosswalk aims to harmonize “international AI governance frameworks to reduce industry’s cost to meet multiple requirements.”

The aim of this blog post is to provide further clarity on the Crosswalk and what it means for organizations developing and deploying AI systems. The blog post is structured into four parts.

  • First, the blog post will briefly summarize AI Verify (a fuller summary on which can be found in FPF’s blog post here).
  • Second, the blog post will summarize the NIST AI RMF, what it aims to achieve, and how it works.
  • Third, the blog post will explain the “Crosswalk”, and how users can expect to use the document.
  • Fourth, the blog post will conclude with observations on what the Crosswalk means for international cooperation in the area of AI governance.

AI Verify – Singapore’s AI governance testing framework and toolkit

AI Verify is an AI governance testing framework and toolkit launched by the IMDA and the Personal Data Protection Commission of Singapore (PDPC). First announced in May 2022, AI Verify enables organizations to conduct a voluntary self-assessment of their AI systems through a combination of technical tests and process-based checks. In turn, this allows companies who use AI Verify to objectively and verifiably demonstrate to stakeholders their responsible and trustworthy deployment of AI systems.

At the outset, there are several key characteristics of AI Verify that users should be mindful of.

  • First, while AI Verify is presently in a “Minimum Viable Product” phase, it is designed to provide one-stop AI testing and will therefore evolve going forward.
  • Second, rather than attempting to define ethical or governance standards or thresholds (and providing AI systems with a “pass” or “fail” mark), AI Verify merely provides an objective measure to verify the performance of an AI system. By open-sourcing AI Verify, the IMDA and the PDPC hope that the global AI testing community can gravitate towards workable standards in various industries and use cases.
  • Third, to promote user trust, AI Verify permits organizations to conduct self-testing on premises, and also allows for third-party testing. The AI Verify Foundation, which oversees the development and adoption of AI Verify, also welcomes users to contribute codes and plug-ins to enhance the toolkit.
  • Fourth, and crucially, AI Verify has presently been developed to support supervised learning AI models (e.g. binary classification, multiclass classification, regression models). It has not been designed for generative AI systems, though this is something that the AI Verify Foundation is working on separately through initiatives such as its Generative AI Evaluation Sandbox and the LLM Evaluation Catalogue.

AI Verify comprises two parts: (1) a Testing Framework, which references 11 internationally-accepted AI ethics and governance principles grouped into 5 pillars; and (2) a Toolkit that organizations can use to execute technical tests and to record process checks from the Testing Framework. The 5 pillars and 11 principles under the Testing Framework are:

  1. Transparency on the use of AI and AI systems
    1. Principle 1 – Transparency: Providing appropriate information to individuals impacted by AI systems


  1. Understanding how an AI model reaches a decision
    1. Principle 2 – Explainability: Understanding and interpreting the decisions and output of an AI system
    2. Principle 3 – Repeatability/reproducibility: Ensuring consistency in AI output by being able to replicate an AI system, either internally or through a third party


  1. Ensuring safety and resilience of the AI system
    1. Principle 4 – Safety: Ensuring safety by conducting impact/risk assessments, and ensuring that known risks have been identified / mitigated
    2. Principle 5 – Security: Ensuring the cyber-security of AI systems
    3. Principle 6 – Robustness: Ensuring that the AI system can still function despite unexpected input


  2. Ensuring Fairness
    1. Principle 7 – Fairness: Avoiding unintended bias, ensuring that the AI system makes the same decision even if a certain attribute is changed, and ensuring that the data used to train the model is representative
    2. Principle 8 – Data governance: Ensuring the source and quality of data by adopting good data governance practices when training AI models


  3. Ensuring proper (human) management and oversight of the AI system
    1. Principle 9 – Accountability: Ensuring proper management oversight during AI system development
    2. Principle 10 – Human agency and oversight: Ensuring that the AI system is designed in a way that will not diminish the ability of humans to make decisions
    3. Principle 11 – Inclusive growth, societal and environmental well-being: Ensuring beneficial outcomes for people and the planet.


As mentioned earlier, FPF’s previous blog post on AI Verify provides more detail on the objectives and mechanics of AI Verify’s Testing Framework and Toolkit. This summary merely sets the context for readers to better appreciate how the Crosswalk document should be understood.

AI Risk Management Framework – U.S. NIST’s industry-agnostic voluntary guidance on managing AI risks

The AI RMF was issued by NIST in January 2023. Currently in its first version, the goal of the AI RMF is “to offer a resource to organizations designing, developing, deploying or using AI systems to help manage the many risks of AI and promote trustworthy and responsible development and use of AI systems.”

The AI RMF underscores the perspective that responsible AI risk management tools can assist organizations in cultivating public trust in AI technologies. Intended to be sector-agnostic, the AI RMF is voluntary, flexible, structured (in that it provides taxonomies of risks), measurable and “rights-focused”. The AI RMF outlines mechanisms and processes for measuring and managing AI systems and provides guidance on measuring accuracy.

The AI RMF itself is broken into two parts. The first part outlines various risks presented by AI. The second part provides a framework for considering and managing those risks, with a particular focus on stakeholders involved in the testing, evaluation, verification and validation processes throughout the lifecycle of an AI system.

The AI RMF outlines several AI-related risks

The AI RMF outlines the following risks presented by AI: (1) Harm to people – e.g. harm to an individual’s civil liberties, rights, physical or psychological safety or economic opportunity; (2) Harm to organizations – e.g. harm to an organization’s reputation and business operations; and (3) Harm to an ecosystem – e.g. harm to the global financial system or supply chain. It also notes that AI risk management presents unique challenges for organizations, including system transparency, lack of uniform methods or benchmarks, varying levels of risk tolerance and prioritization, and integration of risk management into organizational policies and procedures.

The AI RMF also provides a framework for considering and managing AI-related risks

The “core” of the AI RMF contains a framework for considering and managing these risks. It comprises four functions: “Govern”, “Map”, “Measure”, and “Manage.” These provide organizations and individuals with specific recommended actions and outcomes to manage AI risks.

  • Governing – This relates to how AI is managed in an organization, such as creating a culture of risk management, outlining processes, documents and organizational schemes that anticipate, identify and manage AI risks, and providing a structure to align with overall organizational principles, policies and strategic priorities. Categories within the “Govern” prong include:
    • Creating and effectively implementing transparent policies, processes and practices across the organization related to the mapping, measuring and managing of AI risks;
    • Maintaining policies and procedures to address AI risks and benefits arising from using third-party software and data; and


  • Mapping – This establishes the context in which an organization can identify and frame the risks of an AI system (such as who the users will be and what their expectations are). Once mapped, organizations should have sufficient contextual knowledge on the impact of the AI system to decide whether to design, develop or deploy that system. Outcomes from this function should form the basis for the measuring and managing functions. Specific categories within this function include:
    • Assessing AI capabilities, targeted usage, goals and expected benefits and costs;
    • Mapping risks and benefits for all components of the AI system, including third-party software and data; and
    • Determining the impact of the system on individuals, groups, communities, organizations and society.


  • Measuring – This function is about using information gathered from the mapping process as well as other tools and techniques to analyze and monitor AI risks. This function may be addressed by implementing software testing and performance assessment methodologies. The “Measure” prong also includes tracking metrics for trustworthy characteristics and impacts of the AI system. It should provide an organization’s management with a basis for making decisions when trade-offs arise. Specific categories include:
    • Identifying and applying appropriate methodologies and metrics;
    • Evaluating AI systems for trustworthiness;
    • Maintaining mechanisms for tracking AI risks; and
    • Gathering feedback about the efficacy of measurements being used.


  • Managing – This function involves allocating resources to address risks identified through the functions above, and on a regular basis. Organizations should use information generated from the Governing and Mapping functions to manage and decrease the risk of AI system failures by identifying and controlling for risks early. Organizations can implement this function by regularly monitoring and prioritizing AI risks based on assessments from the Mapping and Measuring functions. Specific categories within this function include:
    • Planning, preparing, implementing and documenting strategies to maximize AI benefits and minimize negative impacts, including input from relevant AI actors in the design of these strategies; and
    • Ensuring that risks that arise are documented and monitored regularly.



The AI RMF also comes with an accompanying “playbook” that provides additional recommendations and actionable steps for organizations. Notably, NIST has already produced “crosswalks” to ISO/IEC standards, the proposed EU AI Act, and the US Executive Order on Trustworthy AI.

The Crosswalk is a mapping document that guides users on how adopting one framework can be used to meet the criteria of the other

To observers familiar with AI governance documentation, it should be apparent that there is complementarity between both frameworks. For instance, the AI Verify framework contains processes that would overlap with the RMF framework for managing AI risks. Both frameworks also adopt risk-based approaches and aim to strike a pragmatic balance between promoting innovation and managing risks.

Similar to other crosswalk initiatives that NIST has already done with other frameworks, this Crosswalk is aimed at harmonizing international AI governance frameworks to reduce fragmentation, facilitate ease of adoption, and reduce industry costs in meeting multiple requirements. Insiders have noted that at the time when the AI Verify framework was released in 2022, NIST was in the midst of organizing public workgroups for the development of the RMF. From there, the IMDA and NIST began to work together, with a common goal of jointly developing the Crosswalk to meet different industry requirements.

Understanding the methodology of the Crosswalk

Under the Crosswalk, AI Verify’s testable criteria and processes are mapped to the AI RMF’s categories within the Govern, Map, Measure and Manage functions. Specifically, the Crosswalk first lists the individual categories and subcategories under the aforementioned four functions. As these 4 core functions address individual governance/trustworthiness characteristics (such as safety, accountability and transparency, explainability and fairness) collectively, the second column of the Crosswalk – which denotes the AI Verify Testing Framework – sets out the individual principle, testable criteria, and process and/or technical test that correlates to the relevant core function under the AI RMF.

A point worth noting is that the mapping is not “one-to-one”; each NIST AI RMF category may have multiple equivalents. Thus, for instance, AI Verify’s Process 9.1.1 for Accountability (indicated in the Crosswalk as “Accountability 9.1.1”) appears for both “Govern 4” and “Govern 5” under the AI RMF. This is to reflect the differences in nature of both documents – while the AI RMF is a risk management framework for the development and use of AI, AI Verify is a testing framework to assess the performance of an AI system and the practices associated with the development and use of this system. To achieve this mapping, the IMDA and NIST have had to compare both frameworks at a granular level – down to individual elements within the AI Verify Testing Framework – to achieve alignment. This can be seen from the Annex below, which sets out for comparison the “crosswalked” elements, as well as identifies the individual testable criteria and processes in the AI Verify Testing Framework.

Other aspects of understanding the Crosswalk document are set out below (in a Q&A format):

Does the Crosswalk only cover process-based checks or are technical tests within AI Verify (e.g. on fairness and robustness) also covered?

No. These have technically not been mapped. Technical tests on areas like explainability and robustness are performed by the testing algorithm within the AI Verify Testing Toolkit. Given that the AI RMF does not have a technical testing toolkit, there is technically no equivalent in the AI RMF to map to.
However, technical tests provided by AI Verify may still be used to help organizations meet outcomes under the AI RMF. For instance, under AI RMF Measure 2.9, a suggested action is to “Explain systems using a variety of methods, e.g. visualizations, model extraction, feature importance, and others.” In this regard, explainability testing under AI Verify provides information on feature performance.
To use another example, under AI RMF Measure 2.11, one of the suggested actions is to “Use context-specific fairness metrics to examine how system performance varies across groups, within groups, and/or for intersecting groups. Metrics may include statistical parity, error-rate equality, statistical parity difference, equal opportunity difference, average absolute odds difference, standardized mean difference, percentage point differences.” Accordingly, AI Verify’s fairness testing allows system deployers to test the fairness of their models according to these fairness metrics.

Across the Crosswalk, references are made to criteria under AI Verify (e.g. 1.1, 8.3, etc.), while in others, references are made to specific processes (e.g. 3.2.1, 4.3.1, etc.). What is the difference?

Certain testable criteria under AI Verify only contain one testing process, whereas, in others, testable criteria contain multiple testing processes. In the latter case, where only one of these processes has been mapped to the AI RMF, the Crosswalk indicates and maps only that specific testing process.

Where the Crosswalk refers to entire sections of testable criteria (e.g. “7.1 – 7.4”), are organizations expected to adopt all processes under the criteria?

No. Where the Crosswalk refers to entire sections of AI Verify’s Testing Framework, this indicates that all corresponding testing processes in those sections are relevant to achieving the relevant outcome under the AI RMF.

The category of “organizational considerations” (Criteria 12) currently cannot be found in the AI Verify. What does this mean?

This is currently being incorporated into the latest version of the AI Verify testing tool.

The Crosswalk shows that practical international cooperation in AI governance and regulation is possible

The global picture on AI regulation and governance is shifting rapidly. Since the burst of activity around the development of AI ethical principles and frameworks in the late 2010s, the landscape is becoming increasingly complex.

It is now defined within the broad strokes of the development of AI-specific regulation (in the form of legislation, such as the proposed EU AI Act, Canada’s AI and Data Act or Brazil’s AI Bill), the negotiation of an international Treaty on AI under the aegis of the Council of Europe, executive action putting the onus on government bodies when contracting AI systems (with President’s Biden Executive Order as chief example), the provision of AI-specific governance frameworks as self-regulation, and guidance by regulators (such as Data Protection Authorities issuing guidance on how providers and deployers of AI systems can rely on personal data respecting data protection laws). This varied landscape leaves little room for a coherent global approach to govern a quintessentially borderless technology.

In this context, the Crosswalk as a government-to-government effort shows that it is possible to find a common language between prima facie different self-regulatory AI governance frameworks, paving the way to interoperability or a cross-border interchangeable use of frameworks. Its practical relevance for organizations active both in the US and Singapore cannot be overstated.

The Crosswalk also provides a model for future crosswalks or similar mapping initiatives that will support a more coherent approach to AI governance across borders, potentially opening the path for more instances of meaningful and practical international cooperation in this space.

Annex: Crosswork Combined with Description from Individual Elements of the AI Verify Process Checklist


fpf.org/blog/explaining-the-cr…



@Friendica Admins These are the data of the accounts present in my poliverso.org instance.

I don't understand what is meant by blog account. Even if there isn't even one, it's not clear to me what a blog account is and how you can create one.

Can anyone help me understand?

Friendica Admins reshared this.

in reply to Signor Amministratore ⁂

Ah, ok... Thank you for the clarification! 😅

(too bad! I had high expectations for this mysterious blog account...😁)

Friendica Admins reshared this.



Se ti piace seguire qualcuno da mastodon ma pubblica troppi post, puoi disattivare solo i suoi post senza nascondere i suoi post ordinari:

1. Accedi a Mastodon
2. Vai al profilo della persona di cui vuoi nascondere i boost
3. Clicca su ︙o ⋯ in alto e seleziona "Nascondi boost da..." (o "Nascondi reblog" su alcune app)

Se cambi idea, torna al suo profilo e seleziona "Mostra boost da..." (o "Mostra reblog").

Ci sono molte più informazioni sulla disattivazione e sul blocco su Mastodon su fedi.tips/blocking-and-muting-…

@Che succede nel Fediverso?

Il post di @Fedi.Tips
⬇️⬇️⬇️⬇️⬇️


If you like following someone but they boost too much stuff, you can mute just their boosts without hiding their ordinary posts:

1. Log into Mastodon
2. Go to profile of the person whose boosts you want to hide
3. Click on ︙or ⋯ at the top and select "Hide boosts from…" (or "Hide reblogs" on some apps)

If you change your mind, go back to their profile and select "Show boosts from…" (or "Show reblogs").

There's lots more info about muting and blocking on Mastodon at fedi.tips/blocking-and-muting-…




Fieg aderisce all’Osservatorio “Carta, Penna & Digitale”


“Nella Giornata internazionale della scrittura a mano, che ricorre oggi, annunciamo con piacere l’adesione della Federazione italiana editori giornali (Fieg) all’Osservatorio ‘Carta, Penna & Digitale’ della Fondazione Luigi Einaudi”, è quanto afferma il S

“Nella Giornata internazionale della scrittura a mano, che ricorre oggi, annunciamo con piacere l’adesione della Federazione italiana editori giornali (Fieg) all’Osservatorio ‘Carta, Penna & Digitale’ della Fondazione Luigi Einaudi”, è quanto afferma il Segretario generale della Fondazione Einaudi, Andrea Cangini.

“La Fieg si aggiunge ad altre importanti realtà che sono già entrate a far parte del nostro Osservatorio, quali Associazione italiana editori (Aie), Comieco, Federazione Carta e Grafica e Moleskine. E molte altre aderiranno nelle prossime settimane”.

La Fondazione Luigi Einaudi è da tempo in prima linea per promuovere il valore della scrittura a mano, fondamentale per lo sviluppo delle attività cognitive dell’individuo. Scrivere serve a organizzare il pensiero e farlo in corsivo obbliga ad un gesto grafico più raffinato che richiama funzioni neurologiche più complesse. L’Osservatorio, nato di recente, ha l’obiettivo di coinvolgere i maggiori esperti e stakeholder del settore al fine di studiare il giusto equilibrio tra tecnologia digitale e “strumenti tradizionali” e di sensibilizzare le famiglie, il mondo della scuola e il decisore politico sull’importanza proprio della scrittura a mano e della lettura su carta.

L'articolo Fieg aderisce all’Osservatorio “Carta, Penna & Digitale” proviene da Fondazione Luigi Einaudi.



ANTOLOGIA DI SPOON RIVER DI EDGAR LEE MASTERS


RECENSIONE : ANTOLOGIA DI SPOON RIVER DI EDGAR LEE MASTERS
Antologia di Spoon River: “Era superproibito quel libro in Italia. Era tutto quello che il governo non ci permetteva di pensare”. @L’angolo del lettore iyezine.com/antologia-di-spoon…

L’angolo del lettore reshared this.



RECENSIONE : MARIE QUEENIE LYONS – SOUL FEVER


RECENSIONE : MARIE QUEENIE LYONS – SOUL FEVER
Marie Queenie Lyons: quello che rimane è questo tesoro soul funky che si può riscoprire in vinile e digitale, e che farà la gioia di molti. iyezine.com/marie-queenie-lyon… @Musica Agorà

reshared this




L'Europa s'aggrega alla guerra contro gli Houthi l Contropiano

"L’Unione Europa ha ovvio interesse economico a mantenere aperti i corridoi commerciali, dovunque essi passano. Ma è anche inchiodata alle scelte di Stati Uniti ed Israele, ovvero ai dinamitardi principali nel Medio Oriente.
Il che significa, molto semplicemente, subire le conseguenze delle follie altrui senza dire o fare nulla, salvo accodarsi quando le situazioni inevitabilmente esplodono."

contropiano.org/news/internazi…



Liceo #MadeinItaly, 92 gli indirizzi approvati sul territorio nazionale.

📌 Nello specifico, 17 saranno attivati in Sicilia, 12 in Lombardia e nel Lazio, 9 in Puglia, 8 nelle Marche e in Calabria, 6 in Abruzzo, 5 in Toscana, 3 in Liguria, Piemonte e…



La storia delle prime fotografie di Plutone, 94 anni fa l AstroSpace

"Il 23 gennaio 1930, 94 anni fa, il giovane 23enne Clyde Tombaugh scattava per la prima volta una lastra fotografica contenente un oggetto ancora sconosciuto del Sistema Solare. Si trattava di un piccolo corpo in movimento, che Tombaugh scoprì solo il 18 febbraio confrontando quella lastra con una del 29 gennaio. Ulteriori osservazioni confermarono che quell’oggetto era un corpo planetario, notizia che fu telegrafata il 13 marzo 1930."

astrospace.it/2024/01/23/la-st…



Regu(AI)ting Health: Lessons for Navigating the Complex Code of AI and Healthcare Regulations


Authors: Stephanie Wong, Amber Ezzell, & Felicity Slater As an increasing number of organizations utilize artificial intelligence (“AI”) in their patient-facing services, health organizations are seizing the opportunity to take advantage of the new wave o

Authors: Stephanie Wong, Amber Ezzell, & Felicity Slater

As an increasing number of organizations utilize artificial intelligence (“AI”) in their patient-facing services, health organizations are seizing the opportunity to take advantage of the new wave of AI-powered tools. Policymakers, from United States (“U.S.”) government agencies to the White House, have taken heed of this trend, leading to a flurry of agency actions impacting the intersection of health and AI, from enforcement actions and binding rules to advisory options and other, less formal guidance. The result has been a rapidly changing regulatory environment for health organizations deploying artificial intelligence. Below are five key lessons from these actions for organizations, advocates, and other stakeholders seeking to ensure that AI-driven health services are developed and deployed in a lawful and trustworthy manner.

Lesson 1: AI potential in healthcare has evolved exponentially

While AI has been a part of healthcare conversations for decades, recent technological developments have seen exponential growth in potential applications across healthcare professionals and specialties requiring response and regulation of use and application of AI in healthcare.

The Department of Health and Human Services (“HHS”) is the central authority for health sector regulations in the United States. HHS’ Office for Civil Rights (“OCR”) is responsible for enforcement of the preeminent federal health privacy regulatory framework, the Health Insurance Portability and Accountability Act (HIPAA) Privacy, Security, and Breach Notification Rules (“Privacy Rule”). A major goal of the Privacy Rule is to properly protect individuals’ personal health information while allowing for the flow of health data that is necessary to provide quality health care.

In 2023, OCR stated that HIPAA-regulated entities should analyze AI tools as they do other novel technologies; organizations should “determine the potential risks and vulnerabilities to electronic protected health information before adding any new technology into their organization.” While not a broad endorsement of health AI, OCR’s statement suggests that AI has a place in the regulated healthcare sector.

The Food and Drug Administration (“FDA”) has taken an even more optimistic approach toward the use of AI. Also an agency within HHS, the FDA is responsible for ensuring the safety, efficacy, and quality of various pharmacological and medical products used in clinical health treatments and monitoring. In 2023, the FDA published a discussion paper intended to facilitate discussion with stakeholders on the use of AI in drug development. Drug discovery is the complex process of identifying and developing new medications or drugs to treat medical conditions and diseases. Before drugs can be marketed to the public for patient use, they must go through multiple stages of research, testing, and development. This entire process can take around 10 to 15 years, or sometimes longer. According to the discussion paper, the FDA strives to “facilitate innovation while safeguarding public health” and plans to develop a “flexible risk-based regulatory framework that promotes innovation and protects patient safety.”

Lesson 2: Different uses of data may implicate different regulatory structures

While there can be uncertainty regarding whether particular data, such IP address data collected by a consumer-facing website, is covered by HIPAA, HHS and the Federal Trade Commission (“FTC”) have made clear that they are working together to ensure organizations protect sensitive health information. In particular, failure to establish proper agreements or safeguards between covered entities and AI vendors can constitute a violation of the HIPAA Privacy Rule when patient health information is shared without patient consent for purposes other than treatment, payment, and healthcare operations.

However, some data collected by HIPAA-covered entities may not be classified as protected health information (“PHI”) and could be permissibly shared outside HIPAA’s regulatory scope. Examples include data collected by healthcare scheduling apps, wearables devices, and health IoT devices. In these circumstances, the FTC could exercise oversight. The FTC is increasingly focused on enforcement actions involving health privacy and potential bias and has historically enforced laws prohibiting bias and discrimination, including the Fair Credit Reporting Act (“FCRA”) and the Equal Credit Opportunity Act (“ECOA”). In 2021, the FTC underscored the importance of ensuring that AI tools avoid discrimination and called for AI to be used “truthfully, fairly, and equitably,” recommending that AI should do “more good than harm” to avoid violating the FTC’s “unfairness” prong of Section 5 of the FTC Act.

Lesson 3: What’s (guidance in the) past is prologue (to enforcement)

While guidance may not always be a precursor to enforcement, it is a good indicator of an agency’s priorities. For instance, in late 2021, the FTC issued a statement on the Health Breach Notification Rule, followed by two posts in January 2022 (1, 2). The FTC then applied the Health Breach Notification Rule (HBNR) for the first and second time in 2023 enforcement actions.

The FTC has recently honed in on both the health industry and AI. Agency officials published ten blog posts covering AI topics in 2023 alone, including an article instructing businesses to ensure the accuracy and verifiability of advertising around AI in products. In April 2023, the FTC issued a joint statement with the Department of Justice (DOJ), the Consumer Financial Protection Bureau (CFPB), and the Equal Employment Opportunity Commission (EEOC) expressing its intent to prioritize enforcement against discrimination and bias in automated decision-making systems.

The agency has separately been working on enforcement in the health sector, applying the unfairness prong of its authority to cases where the Commission has found that a company’s privacy practices substantially injured consumers in a manner that did not outweigh the countervailing benefits. This focus resulted in major settlements against health companies, including GoodRx and BetterHelp, where the combined total fine neared $10 million. In July, the FTC published a blog post summarizing lessons from its recent enforcement actions in the health sector, underscoring that “health privacy is a top priority” for the agency.

Lesson 4: Responsibility is the name of the game

Responsible use has been the key concept for policymakers looking to be proactive in establishing positive norms for the use of AI in the healthcare arena. In 2022, the White House Office of Science and Technology Policy (OSTP) published the Blueprint for an AI Bill of Rights (“Blueprint”) to support the development of policies and practices that protect and promote civil rights in the development, deployment, and governance of automated systems. In highlighting AI in the health sector, the Blueprint hopes to set up federal agencies and offices to serve as responsible stewards of AI use for the nation. In 2023, the OSTP also updated the National AI Research and Development (R&D) Plan to advance the deployment of responsible AI, which is likely to influence health research. The Plan is intended to facilitate the study and development of AI while also maintaining privacy and security and preventing inequity.

Expanding on the Blueprint, on October 30, 2023, the Biden Administration released its Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence (“EO”). The EO aims to establish new standards for the responsible use, development, and procurement of AI systems across the federal government. Among other directives, the EO directs the Secretary of HHS to establish an “HHS AI Taskforce” in order to create a strategic plan for the responsible use and deployment of AI in the healthcare context. The EO specifies that this strategic plan must establish principles to guide the use of AI as part of the delivery of healthcare, assess the safety and performance of AI systems in the healthcare context, and integrate equity principles and privacy, security and safety standards into the development of healthcare AI systems.

The EO also directs the HHS Secretary to create an AI Safety program to centrally track, catalog, and analyze clinical errors produced by the use of AI in healthcare environments; create and circulate informal guidance to advise on how to avoid these harms from recurring; and develop a strategy for regulating the use of AI and AI-tools for drug-development. The Fact Sheet circulated prior to the release of the EO emphasizes that, “irresponsible uses of AI can lead to and deepen discrimination, bias, and other abuses in justice, healthcare, and housing” and discusses expanded grants for AI research in “vital areas,” including healthcare.

On November 1, 2023, the Office of Management and Budget (“OBM”) released for public comment a draft policy on “Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence,” intended to help implement the AI EO. The OMB guidance, which would govern federal agencies as well as their contractors, would create special requirements for what it deems “rights-impacting” AI, a designation that would encompass AI that “control[s] or meaningfully influence[s]” the outcomes of health and health insurance-related decision-making. These include the requirements for AI impact assessments, testing against real-world conditions, independent evaluation, ongoing monitoring, human training “human in the loop” decision-making, and notice and documentation.

Finally, the National Institute of Standards and Technology (“NIST”) also focused on responsible AI in 2023 with the release of the Artificial Intelligence Risk Management Framework (“AI RMF”). The AI RMF is meant to serve as a “resource to the organizations designing, developing, deploying, or using AI systems to help manage the many risks of AI and promote trustworthy and responsible development and use of AI systems.” The AI RMF provides concrete examples on how to frame risks in various contexts, such as potential harm to people, organizations, or an ecosystem. In addition, prior NIST risk management frameworks have provided the basis for legislative and regulatory models, meaning it may have increased importance for regulated entities in the future.

Lesson 5: Focus and keep eyes on the road ahead

AI regulation is a moving target with significant developments expected in the coming years. For instance, OSTP’s Blueprint for an AI Bill of Rights has already been used to inform state policymakers, with legislators both highlighting and incorporating its requirements into legislative proposals. The Blueprints’ five outlined principles aim to: (i) ensure safety and effectiveness; (ii) safeguard against discrimination; (iii) uphold data privacy; (iv) provide notice and explanation; and (v) enable human review or control. These principles are likely to continue to appear and to inform future health-related AI legislation.

In 2022, the FDA’s Center for Devices and Radiological Health (CDRH) released “Clinical Decision Support Software Guidance for Industry and Food and Drug Administration Staff,” which recommends that certain AI tools be regulated by the FDA under its authority to oversee clinical decision support software. Elsewhere, the FDA has noted that its traditional pathways for medical device regulations were not designed to be applied to AI and that the agency is looking to update its current processes. In 2021, CDRH issued a draft “Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan”, which introduces a framework to manage risks to patients in a controlled manner. The Action Plan includes specific instruction on data management, including a commitment to transparency on how AI technologies interact with people, ongoing performance monitoring, and updates to the FDA on any changes made to the software as a medical device. Manufacturers of medical devices can expect the FDA to play a vital role in the regulation of AI in certain medical devices and drug discovery.

Conclusion

The legislative and regulatory environment governing AI in the U.S. is actively evolving, with the regulation of the healthcare industry emerging as a key priority for regulators across the federal government. Although the implementation and development of AI into healthcare activities may provide significant benefits, organizations must recognize and mitigate privacy, discrimination, and other risks associated with its use. AI developers are calling for the regulation of AI to reduce existential risks and prevent significant global harm, which may help create clearer standards and expectations for AI developers and developers navigating the resources coming from federal agencies. By prioritizing the development and deployment of safe and trustworthy AI systems, as well as following federal guidance and standards for privacy and security, the healthcare industry can harness the power of AI to ethically and responsibly improve patient care, outcomes, and overall well-being.


fpf.org/blog/reguaiting-health…



#NotiziePerLaScuola
È disponibile il nuovo numero della newsletter del Ministero dell’Istruzione e del Merito.
🔶 Scuola, firmato il rinnovo del contratto. Il Ministro: "Un passo concreto per la valorizzazione del personale".


L'Alleanza dei porti europei contro il traffico di cocaina


Di porti italiani e delle infiltrazioni della ciminalità avevamo parlato qui => noblogo.org/cooperazione-inter… .
Evidentemente non si tratta di un allarme solo nazionale, se - come racconta un articolo apparso sul sito Euractiv (in inglese, qui => euractiv.com/section/justice-h…) -, Il ministro dell'Interno belga Annelies Verlinden ha chiesto ai porti marittimi dell'UE di unirsi per combattere le tattiche innovative dei trafficanti di droga.

[Il Quartier generale del Porto di Anversa] 👇
图像/照片

L'Alleanza dei porti europei sarà lanciata il 24 gennaio, con l'inaugurazione che avrà luogo ad Anversa, la porta principale per il traffico di cocaina in Europa. Nonostante l’aumento dei controlli, i sequestri di cocaina ad Anversa ogni anno superano i record e la città è spesso colpita dalla violenza legata alle bande che combattono per il lucroso contrabbando. L’obiettivo dell’alleanza è quello di reprimere sia il contrabbando che l’infiltrazione nei porti da parte di reti criminali. È necessario il consenso del settore privato poiché le misure potrebbero avere un impatto sul commercio legale. La partnership mira ad armonizzare le misure di sicurezza, ridurre la capacità delle bande criminali di cercare porti con controlli più permissivi ed evitare che le società commerciali si trasferiscano verso porti con meno burocrazia e ritardi di sicurezza. L’alleanza mira inoltre a scansionare tutti i container provenienti da paesi a rischio, tra cui l’America Latina e l’Africa occidentale. Anche la comunicazione è fondamentale, poiché il Belgio ha avuto successo violando la rete di comunicazione crittografata Sky ECC nel 2021, conseguendo arresti e un processo per traffico di droga.

[Il ministro dell'interno italiano Piantedosi con l'omologa belga VerLinden]👇
图像/照片

Da rilevare che in Belgio la lotta contro il contrabbando (sopratutto di droga) nei porti, segnatamente quello di Anversa, è iniziata sin dallo scorso anno, quando e stato formato un corpo di sicurezza dedicato per combattere la criminalità organizzata nell'area portuale con 61 agenti di sicurezza.
Il nuovo Corpo di Sicurezza Portuale della Polizia Marittima fu lanciato nel maggio dello scorso anno, con un bando per 70 candidati agenti di sicurezza. Più di 400 candidati si erano candidati per le posizioni. Allo stesso tempo, altri 50 agenti di sicurezza della polizia federale sono stati temporaneamente messi a disposizione nel porto per garantire la presenza della polizia, che lavora a fianco delle unità cinofile della polizia federale. L'escalation di violenza aveva evidenziato l'urgente necessità di rafforzare le forze nel secondo porto più grande d'Europa (il più grande è Rotterdam).

[Immagine di reprtorio di un sequestro record di cocaina nel porto di Gioia Tauro]👇图像/照片

Oltre alla creazione del Corpo di sicurezza portuale, la polizia marittima di Anversa è stata rafforzata in altri modi per un totale di 312 posizioni rispetto alle 100 che contava in precdenza l'Unità.
Un dipartimento investigativo criminale dedicato si occupa di ulteriori indagini per alleggerire la polizia giudiziaria federale di Anversa, mentre sarà istituita una cellula specializzata per la sicurezza marittima. Anche il numero di personale per le squadre di intervento, che operano sia a terra che in acqua – e per i controlli alle frontiere – è in corso di essere «significativamente aumentato nel tempo".



L’austerità fa un’altra vittima: attacco ai consultori l Coniare Rivolta

"Di fronte ad una macelleria sociale meticolosamente programmata per gli anni avvenire e scolpita nella pietra dal nuovo patto di stabilità europeo, un dettaglio rivela con chiarezza l’ipocrisia del mantra della scarsità delle risorse: le spese militari sono e saranno escluse nei prossimi anni dal computo dei limiti della spesa pubblica. Non la sanità, non l’ambiente, non i diritti delle donne, non l’istruzione, non il lavoro, ma le armi."

coniarerivolta.org/2024/01/21/…