Forze di polizia europee a statuto militare: nel vertice ospitato dai carabinieri si è parlato di formazione, tutela ambientale, cyber ed AI
L'Arma dei Carabinieri ha organizzato a Vicenza, presso la Caserma Chinotto, sede del Centro di Eccellenza per le Polizie di Stabilità (CoESPU), una conferenza quadripartita di Vertice (G4) tra le Gendarmerie e Forze di Polizia a statuto militare di Italia, Francia, Spagna e Portogallo.
Hanno partecipato il Comandante Generale dell'Arma dei Carabinieri, Gen. C.A. Salvatore Luongo, il Direttore Generale della Gendarmeria Nazionale francese, Gen. d'Armata Hubert Bonneau, il Comandante Generale della Guardia Nazionale Repubblicana portoghese, Gen. C.A. Rui Alberto Ribeiro Veloso e il Direttore Aggiunto Operativo della Guardia Civil, Gen. C.A. Manuel Llamas Fernàndez.
L'incontro, ha rappresentato un'importante occasione per rafforzare ulteriormente i legami di cooperazione. Le quattro Istituzioni di polizia a competenza generale fanno parte della FIEP (International Association of Gendarmeries and Polices Forces with Military Status), istituita il 12 maggio del 1994 a Madrid, la cui presidenza è stata ceduta lo scorso anno dall'Arma dei Carabinieri alla Gendarmeria Nazionale Francese.
Nel corso del vertice è stato fornito risalto alle tematiche di maggiore rilevanza strategica, quali: la formazione congiunta, la tutela ambientale, il settore cyber e l'Intelligenza Artificiale.
In riferimento alla formazione congiunta è stata sottolineata l'importanza di valorizzare i percorsi formativi del personale quale processo continuo di crescita umana, valoriale e professionale che caratterizza la vita di ogni militare, fornendogli gli strumenti necessari per svolgere efficacemente i propri compiti istituzionali anche nella dimensione della cooperazione interforze nel contesto europeo.
In relazione alla tutela ambientale, settore in cui l'Arma è impegnata con i suoi oltre 7.000 Carabinieri forestali, si è posto l'accento sulla promozione di una comune visione strategica attraverso lo svolgimento di periodiche riunioni finalizzate a condividere e potenziare le conoscenze tecnico-informatiche di settore.
In occasione della trattazione della tematica cyber è stata confermata l'importanza dello scambio di progetti relativi alla prossimità digitale, ovvero delle pratiche di formazione mirate all'aumento di capacità d'intelligence e d'investigazione sulla criminalità informatica, focalizzando l'attenzione anche sul costante aggiornamento dei punti di contatto (PoC) delle 4 Forze di polizia a statuto militare, quale fattore essenziale per assicurare la piena funzionalità di scambi informativi.
Sull'intelligenza artificiale, invece, è stata manifestata la volontà di favorire la condivisione di piani strategici comuni di impiego dell'AI all'interno dei vari asset delle Gendarmerie, dalla logistica, alle procedure amministrative, alla formazione, fino agli aspetti operativi, sempre nel rispetto delle specificità e dei vincoli legali in ambito nazionale ed europeo.
Il Comandante Generale dell'Arma Luongo, dopo aver salutato e ringraziato le massime autorità delle Gendarmerie estere per la convinta partecipazione all'evento, ha illustrato l'elemento distintivo e condiviso tra le stesse: "è il complesso reticolo territoriale delle nostre Forze, indiscutibile valore aggiunto sia per i flussi informativi, sia per la protezione delle infrastrutture critiche sul territorio, caratteristiche che sono codificate nel nostro DNA e costituiscono i presupposti per il successo del nostro modello, quello della Gendarmeria, nel passato come nel presente".
Il Generale ha messo poi in evidenza la solidità dei valori che accomunano l'Arma dei Carabinieri, la Gendarmeria Nazionale francese, la Guardia Civil e la Guardia Nazionale Repubblicana portoghese: "valori radicati nella storia, nelle tradizioni e nel quotidiano sacrificio delle nostre donne e dei nostri uomini. È su queste fondamenta indiscutibili che poggia la nostra capacità di affrontare le sfide di oggi e di domani". Nel concludere si è soffermato sull'importanza di saper affrontare le nuove sfide: "abbiamo il dovere di guardare agli scenari futuri non con timore, ma con l'ambizione e la responsabilità di esserne protagonisti non per subirne i cambiamenti, ma per saperli interpretare e guidare".
Le Istituzioni che si sono riunite a Vicenza collaborano da anni per semplificare, nel rispetto degli accordi internazionali vigenti e delle normative nazionali, la reciproca fruizione di informazioni ed esperienze nei settori delle risorse umane, dell'organizzazione di servizi, della tecnologia, della logistica e degli affari internazionali. I vertici delle quattro Istituzioni hanno espresso la loro piena soddisfazione per i risultati raggiunti durante l'incontro di cooperazione internazionale, sottolineando la comune volontà di proseguire e intensificare la collaborazione in tutti i settori strategici di interesse comune. Al termine della conferenza, è stato ribadito l'impegno a dare seguito alle discussioni attraverso la definizione di piani d'azione concreti e la realizzazione di iniziative congiunte, al fine di garantire una maggiore efficienza delle Forze di Polizia nell'ambito della sicurezza per i cittadini dei rispettivi Paesi.
#cooperazioneinternazionaledipolizia #armadeicarabinieri #gendarmerienationale #guardia civil #guardiarepubblicanaportoghese
#tutelaambientale #cybersecurity #AI
Attualità reshared this.
I cambiamenti nel "DNA" della criminalità organizzata nel Rapporto di EUROPOL
EUROPOL ha pubblicato il Rapporto sulla Minaccia della Criminalità Organizzata e Grave dell'Unione Europea (EU-SOCTA) 2025, che analizza in modo approfondito e prospettico le dinamiche in evoluzione della criminalità organizzata che colpisce l'UE.
Il rapporto evidenzia come la criminalità stia diventando sempre più destabilizzante per la società, sfruttando il mondo online e venendo accelerata dall'intelligenza artificiale e da altre nuove tecnologie. Questi elementi interconnessi ridefiniscono le modalità operative dei network criminali. In questo contesto emerge infatti la "criminalità come servizio"(crime-as-a-service), che si riferisce a network delinquenziali specializzati che offrono competenze specifiche (come riciclaggio di denaro o attacchi informatici) ad altri attori criminali. Questo permette ai malviventi di delegare compiti e distanziarsi dalle attività illecite dirette.
Il testo esamina inoltre le tattiche utilizzate dai gruppi criminali, le aree chiave che rappresentano le maggiori minacce e la dimensione geografica di tali attività illecite.
La criminalità organizzata destabilizza la società minando l'economia attraverso proventi illeciti e riciclaggio di denaro, diffondendo la violenza e normalizzando la corruzione. Inoltre, agisce sempre più come proxy per minacce ibride esterne, contribuendo agli obiettivi politici di questi attori.
Secondo il Rapporto, le strutture legali d'impresa vengono sfruttate dalla criminalità organizzata in vari modi, dall'uso inconsapevole da parte dei malviventi all'infiltrazione ad alto livello o alla creazione di imprese completamente controllate. Questo permette di mascherare attività illecite, riciclare denaro e commettere frodi in diversi settori.
L' Intelligenza Artificiale (#IA #AI) e le nuove tecnologie vengono sfruttate per automatizzare ed espandere le operazioni criminali, rendendole più rapide, efficienti e difficili da rilevare. Ciò include attacchi informatici più sofisticati, frodi online su vasta scala e nuove forme di sfruttamento.
Diverse sono le minacce principali, tra cui gli attacchi informatici e il ransomware, le frodi online (inclusa la compromissione di email aziendali e le truffe “romantiche”), lo sfruttamento sessuale infantile online, il traffico di esseri umani, il contrabbando di migranti e il traffico di droga.
Nel contesto europeo, il traffico di migranti si adatta ai conflitti, alle difficoltà economiche e alle sfide ambientali, con flussi manipolati da attori ibridi. Le tecnologie digitali plasmano sempre più le rotte e i metodi operativi, nonostante la sua base nel mondo fisico.
Anche il traffico di droga ha un impatto significativo sulla società dell'UE a causa della violenza correlata, della corruzione e dell'infiltrazione nell'economia legale. L'alta disponibilità di droghe potenti aumenta i rischi per la salute, e la produzione danneggia l'ambiente.
Il traffico di armi da fuoco alimenta la violenza legata alla criminalità organizzata e altre attività illecite. L'instabilità geopolitica, come la guerra in Ucraina, può esacerbare questa minaccia aumentando la disponibilità di armi illecite.
L'EU-SOCTA 2025 fornisce un'analisi dettagliata e lungimirante delle minacce della criminalità organizzata, aiutando i decisori a stabilire le priorità e le forze dell'ordine ad anticipare le tendenze criminali, allocare le risorse in modo efficace e sviluppare strategie mirate.
GLOSSARIO
#EUSOCTA (European Union Serious and Organised Crime Threat Assessment): La Valutazione della Minaccia della Criminalità Organizzata e Grave dell'Unione Europea, uno studio dettagliato prodotto da #Europol che analizza le minacce della criminalità organizzata che colpiscono l'#UE.
Minaccia ibrida: Una combinazione di attività, sia convenzionali che non convenzionali, utilizzate in modo coordinato da attori statali o non statali per destabilizzare un paese o una regione. Nella relazione, spesso coinvolgono proxy criminali.
Strutture legali d'impresa: Imprese legittime che vengono sfruttate, infiltrate o create da network criminali per facilitare le loro attività illecite, come riciclaggio di denaro o frodi.
Criminalità come servizio (#CaaS - Crime-as-a-Service): Un modello in cui network criminali specializzati forniscono servizi specifici (ad esempio, attacchi informatici, riciclaggio di denaro, trasporto) ad altri attori criminali.
Il documento [en] è reperibile qui europol.europa.eu/cms/sites/de…
@Attualità
Attualità reshared this.
FORZE DI POLIZIA ED ARTIFICIAL INTELLIGENCE (II^ ED ULTIMA PARTE). L' AI TOOLKIT
La I^ parte è qui: poliverso.org/display/0477a01e…
L’AI Toolkit offre una prospettiva equilibrata sull’innovazione responsabile dell’AI fondata sui diritti umani, sull’etica e su solidi principi di polizia consolidati, il tutto contestualizzato attraverso esempi pratici di casi d’uso specifici delle forze dell’ordine.
All'interno del toolkit AI
L’AI Toolkit contiene sette risorse progettate per fornire al personale delle forze dell’ordine le conoscenze e gli strumenti necessari per affrontare le complessità dell’AI e garantirne un utilizzo responsabile nelle attività di polizia. Queste risorse sono integrate con un FILE README, che funge da introduzione all'AI Toolkit, spiegando come esplorarlo e ottenere il massimo dai suoi contenuti.
Il Toolkit AI comprende le seguenti risorse:
• Documenti di orientamento primari
• Strumenti pratici
• Documento giustificativo
• Introduzione all’innovazione responsabile dell’AI
• Principi per l’innovazione responsabile dell’AI
• Roadmap organizzativa
• Questionario di valutazione della preparazione organizzativa
• Questionario sulla valutazione del rischio
• Quaderno di esercizi sull'innovazione responsabile dell'intelligenza artificiale in azione
• Libro di riferimento tecnico
A chi è rivolto il toolkit AI?
L’AI Toolkit è stato creato principalmente per il personale delle forze dell’ordine locali, regionali e nazionali. È adatto sia agli ufficiali che ai civili in diversi dipartimenti e unità, tra cui:
• utenti finali dei sistemi di IA nelle unità operative
• personale nei team di innovazione
• responsabili legali e degli appalti
• il capo della polizia e la loro leadership esecutiva.
Tuttavia, molti altri soggetti interessati non appartenenti alle forze dell’ordine potrebbero trovare utile l’AI Toolkit. Ad esempio, gli sviluppatori di tecnologia nel settore privato o nel mondo accademico, la società civile, il pubblico in generale e altri attori della giustizia penale come magistratura, pubblici ministeri e avvocati possono utilizzare l'AI Toolkit per migliorare la loro conoscenza e consapevolezza sui temi dell'AI responsabile innovazione nelle forze dell’ordine.
Il toolkit AI crea nuovi obblighi?
L'AI Toolkit non è destinato a creare obblighi vincolanti o a limitare o indebolire gli obblighi vincolanti di qualsiasi agenzia ai sensi del diritto nazionale o internazionale. Piuttosto, l’AI Toolkit fornisce indicazioni, considerazioni e raccomandazioni da seguire volontariamente.
L’AI Toolkit non mira a sostituire o integrare alcuna delle strategie, politiche o procedure di gestione già in atto nelle forze dell’ordine. Al contrario, integra i processi e le procedure istituzionali e organizzativi esistenti. È particolarmente utile se utilizzato insieme ad altri strumenti di gestione pertinenti come la gestione dei progetti, l'analisi dei rischi e dei bisogni, la protezione e valutazione dei dati o l'analisi rischi-benefici.
A quali sistemi di intelligenza artificiale si applica l’AI Toolkit?
Le forze dell’ordine utilizzano i sistemi di intelligenza artificiale in molti modi diversi, alcuni più propensi a sollevare problemi rispetto ad altri. Ad esempio, le agenzie potrebbero adottare software con componenti di intelligenza artificiale come filtri antispam per e-mail o app di navigazione. Questi sistemi generalmente non sono stati prodotti o utilizzati esclusivamente in un contesto di applicazione della legge e talvolta sono ampiamente adottati nella società. L’AI Toolkit si applica in questi casi?
Data la loro natura, i principi fondamentali per l’innovazione responsabile dell’AI si applicano a tutti gli usi dei sistemi di AI e in tutte le fasi del ciclo di vita. Si tratta di principi generali progettati per essere adattabili a diversi contesti, indipendentemente dalla natura del caso d'uso stesso o dal fatto che sia stato sviluppato appositamente per il contesto delle forze dell'ordine. Rispettarli contribuirà a promuovere buone pratiche poiché le agenzie sfruttano il potenziale positivo dell’utilizzo dei sistemi di intelligenza artificiale.
Per determinare se si applicano le linee guida, le raccomandazioni e le considerazioni contenute nel resto dell’AI Toolkit, le agenzie dovrebbero considerare le seguenti tre domande:
• l’uso del sistema di intelligenza artificiale riguarda l’esecuzione delle funzioni principali delle forze dell’ordine, vale a dire proteggere la comunità, prevenire e indagare sulla criminalità e garantire la giustizia?
• sono stati identificati rischi medi, alti o estremamente elevati relativi al sistema di AI dopo aver completato il questionario di valutazione dei rischi?
• ci sono altri potenziali effetti sui diritti umani che richiedono di prendere in considerazione l’applicazione completa dell’AI Toolkit?
Se la risposta a una qualsiasi di queste tre domande è sì, le agenzie sono incoraggiate a prendere in considerazione le linee guida, le raccomandazioni e le considerazioni dell’AI Toolkit nella misura più ampia possibile.
#AITOOLKIT #INTERPOL #UNICRI #artificialintelligence #AI
@Intelligenza Artificiale
I link per approfondire e scaricare i manuali:
ai-lawenforcement.org/node/118
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
like this
reshared this
FORZE DI POLIZIA ED ARTIFICIAL INTELLIGENCE (I^ PARTE). UNA SERIE DI MANUALI PER UTILIZZARLA NEL RISPETTO DEI DIRITTI UMANI
L'intelligenza artificiale (AI) sta trasformando le forze dell'ordine in tutto il mondo. L'innovazione responsabile dell'AI aiuta le forze dell'ordine a sfruttare il potenziale dell'AI, salvaguardando al contempo la legge, l'etica e i principi di polizia in materia di diritti umani.
Il Toolkit per l'innovazione responsabile dell'AI nelle forze dell'ordine, di cui parleremo nella II^ Parte, supporta la comunità globale delle forze dell'ordine nel suo percorso verso un'innovazione responsabile dell'AI. Sviluppato da INTERPOL e UNICRI (l'Istituto interregionale delle Nazioni Unite per la ricerca sul crimine e la giustizia) con il sostegno finanziario dell'Unione Europea, il kit di strumenti per l'AI include varie risorse che forniscono una guida completa per consentire alle agenzie di implementare l'innovazione responsabile dell'AI.
Comprendere le basi dell'innovazione dell'AI nelle forze dell'ordine
Nell'AI Toolkit, il termine "innovazione dell'AI" è utilizzato per riferirsi all'ampia gamma di attività che le autorità di contrasto alla criminalità intraprendono nell'implementazione dei sistemi di AI nel loro lavoro. Ciò include tutte le fasi del ciclo di vita dell'AI, dalla pianificazione all'implementazione, all'uso e al monitoraggio e qualsiasi altra cosa possa comportare.
Per sfruttare appieno i vantaggi dell'innovazione dell'AI, le autorità di contrasto hanno bisogno di definizioni comuni dei termini chiave e di una comprensione di concetti di base come l'AI e i sistemi di AI e di come possono essere applicati nel loro contesto.
I sistemi di intelligenza artificiale vengono implementati nelle forze dell'ordine per una varietà di scopi.
Questi sistemi altamente versatili possono essere infatti applicati in diversi campi per raggiungere un'ampia gamma di obiettivi. Con il rapido sviluppo dell'intelligenza artificiale, gli algoritmi stanno diventando sempre più specializzati e sempre più in grado di elaborare diversi tipi di dati e produrre tipi specifici di output. Questa rapida evoluzione può essere vista anche nel contesto delle forze dell'ordine. L'uso dell'AI nelle forze dell'ordine è in continuo aumento e le autorità di contrasto stanno facendo buon uso dei nuovi tipi di sistemi e strumenti di AI che vengono sviluppati regolarmente. Ciononostante, è possibile classificare le applicazioni più comuni dei sistemi di AI nelle forze dell'ordine in base al loro scopo principale. Attualmente, i sistemi di intelligenza artificiale sono più frequentemente applicati nelle forze dell'ordine per:
La necessità di un'innovazione responsabile dell'AI nelle forze dell'ordine
I sistemi di intelligenza artificiale, e in particolare quelli con algoritmi di apprendimento automatico, sono molto bravi ad analizzare rapidamente grandi quantità di informazioni che hanno origini e formati diversi. Possono essere progettati per eseguire un'ampia gamma di attività in base alle informazioni raccolte attraverso tale processo. L'applicazione di queste funzionalità alle forze dell'ordine può avere immensi vantaggi, alcuni dei quali sono elencati di seguito. I sistemi di intelligenza artificiale possono:
• migliorare l’analisi dei dati relativi alla criminalità e l’individuazione, la prevenzione e l’investigazione dei reati.
• svolgere compiti specifici ripetitivi e banali molto più velocemente di quanto potrebbe mai fare qualsiasi ufficiale. Ciò lascia agli agenti più tempo per concentrarsi su altri compiti.
• aiutare a salvaguardare il benessere delle forze dell’ordine riducendo la loro esposizione a materiale impegnativo come quello relativo agli abusi sessuali sui minori.
Sebbene il loro potenziale sia innegabile, i sistemi di intelligenza artificiale hanno dei limiti e possono avere conseguenze negative. Come con qualsiasi tecnologia, i sistemi di intelligenza artificiale non sono intrinsecamente "buoni" o "cattivi". Un'auto, ad esempio, può essere utilizzata per il trasporto o il rapimento: è l'essere umano al volante che rende l'uso dell'auto buono o cattivo. Un'auto può anche essere mal progettata, malfunzionante e priva di dispositivi di sicurezza. Un'auto del genere, anche se viene utilizzata con le migliori intenzioni, può causare danni a causa del modo in cui è progettata. Lo stesso vale per i sistemi di intelligenza artificiale. Proprio come le automobili, è il modo in cui noi, come esseri umani, progettiamo e utilizziamo i sistemi di intelligenza artificiale che determina se il risultato sarà benefico o dannoso. Per massimizzare i benefici e ridurre al minimo i rischi associati ai sistemi di AI, le forze dell'ordine devono adottare un approccio responsabile all'innovazione dell'AI.
L'innovazione responsabile dell'AI consiste nell'integrare i sistemi di AI nel lavoro delle autorità di contrasto in modi che siano in linea con i principi di polizia e che siano eticamente corretti.
Si tratta di un processo continuo che richiede la comprensione dei limiti e dei rischi dei sistemi di AI e l'attuazione di misure per evitare o mitigare sufficientemente le conseguenze negative che possono derivare dalla loro attuazione. Soprattutto, questo processo non dovrebbe essere motivo di preoccupazione per le forze dell'ordine o per il personale che cerca di integrare il sistema di intelligenza artificiale nel proprio lavoro. Al contrario, la comprensione dei limiti e dei rischi dei sistemi di intelligenza artificiale consente agli individui e alle organizzazioni di andare avanti con fiducia. Tale sicurezza di sé è essenziale per controbilanciare la tendenza delle persone a fare troppo affidamento sui risultati di sistemi automatizzati come i sistemi di intelligenza artificiale, nota anche come “bias di automazione”. Un approccio responsabile all'innovazione dell'IA è fondamentale durante l'intero ciclo di vita dell'AI e in tutti i contesti in cui le autorità di contrasto interagiscono con l'AI. Vi è una necessità trasversale di un'innovazione responsabile dell'AI nelle autorità di contrasto, in primo luogo a causa di alcune caratteristiche dei sistemi di AI che richiedono maggiore attenzione e dovuta diligenza in quanto possono creare o esacerbare impatti negativi gravi o irreversibili sugli individui, sulla società e sull'ambiente se non sono comprese e affrontate in modo appropriato. e nel rispetto dei diritti umani.
L'innovazione responsabile dell'IA è un processo continuo, non un obiettivo prefissato. Portare avanti l'innovazione dell'AI in modo responsabile significa aderire ai principi di una buona polizia, seguire e implementare l'etica dell'AI e rispettare la legge sui diritti umani, il tutto con l'obiettivo di massimizzare i benefici e ridurre al minimo i danni derivanti dall'integrazione dei sistemi di AI nelle forze dell'ordine. Richiede il coinvolgimento e l'impegno di tutte le parti interessate, nonché conoscenze, strutture, procedure e misure organizzative e tecniche adeguate per garantire il rispetto degli standard più elevati in materia di buona governance, due diligence e responsabilità. L'AI Toolkit include diverse risorse che mirano a guidare le forze dell'ordine in questo processo. I principi per un'innovazione responsabile dell'AI sono la pietra angolare di questa guida.
A causa delle caratteristiche dei sistemi di AI e delle particolarità del contesto di applicazione della legge, in ogni fase del ciclo di vita dell'AI sorgono questioni etiche e relative ai diritti umani diverse e complesse, indipendentemente dalla misura in cui una specifica agenzia è coinvolta nei sistemi di AI. I principi per l'innovazione responsabile dell'AI forniscono alle forze dell'ordine un quadro che può essere utilizzato per affrontare questi problemi.
Più specificamente, questi principi aiutano le autorità di contrasto – e i portatori di interessi secondari come gli sviluppatori esterni – a garantire che le preoccupazioni etiche e il potenziale impatto negativo sui diritti umani derivanti dai sistemi di AI siano identificati ed eliminati o sufficientemente mitigati in una fase precoce. A tal fine, stabiliscono cinque principi fondamentali in base ai quali le agenzie possono guidare e valutare le loro azioni: legalità, minimizzazione del danno, autonomia umana, equità e buon governo.
La legge sui diritti umani impone alle forze dell'ordine, agli agenti e ad altro personale l'obbligo di proteggere e rispettare i diritti umani degli individui e di astenersi dal violare i diritti umani in tutte le loro attività. Sebbene l'obbligo di perseguire la propria missione in modo conforme ai diritti umani non sia una novità nell'applicazione della legge, l'introduzione di sistemi di intelligenza artificiale aggiunge un livello di rischio che rende ancora più importante attenersi alla legge.
Infatti, le caratteristiche dei sistemi di AI nel contesto delle attività di polizia, come spiegato in precedenza, spesso portano a un'interferenza con i diritti umani. Questo è il motivo per cui è fondamentale integrare le considerazioni relative ai diritti umani nell'uso dei sistemi di AI da parte delle forze dell'ordine.
La legge sui diritti umani può adattarsi alle caratteristiche e alle necessità del contesto delle forze dell'ordine. In determinate circostanze e con il dovuto riguardo per una serie di garanzie essenziali, la legge consente alle agenzie o ai funzionari all'interno di tali agenzie di agire in un modo che interferisce con alcuni di questi diritti umani. Ciò avviene per finalità legittime, quali il rispetto della sicurezza nazionale, dell'ordine pubblico e della sicurezza attraverso l'indagine e la prevenzione di reati o altri compiti di contrasto necessari e proporzionati, al fine di evitare gravi danni.
Cosa sono i diritti umani? I diritti umani e le libertà sono diritti individuali conferiti a tutti, indipendentemente dal loro background. Esse non sono concesse dagli Stati o dalle leggi nazionali, ma derivano invece dalla dignità intrinseca di ogni persona. In altre parole, tutti gli individui hanno diritti e libertà semplicemente perché sono esseri umani. I diritti umani sono caratterizzati come: Universale, nel senso che tutti ne hanno lo stesso diritto, indipendentemente dalla nazionalità, dal sesso, dall'età, dall'origine nazionale o etnica, dal colore, dalla religione, dalla lingua o da qualsiasi altro status. Inalienabile, il che significa che il loro godimento non dovrebbe mai essere precluso se non in circostanze eccezionali e giustificate e seguendo un giusto processo. Indivisibile e interdipendente, il che significa che ogni diritto può essere pienamente goduto solo se sono garantiti anche i diritti rimanenti.
Esistono diversi tipi di diritti umani, ma tutti sono ugualmente importanti. La legge sui diritti umani impone alle forze dell'ordine, agli agenti e ad altro personale l'obbligo di proteggere e rispettare i diritti umani degli individui e di astenersi dal violare i diritti umani in tutte le loro attività. Sebbene l'obbligo di perseguire la propria missione in modo conforme ai diritti umani non sia una novità nell'applicazione della legge, l'introduzione di sistemi di intelligenza artificiale aggiunge un livello di rischio che rende ancora più importante attenersi alla legge.
@Intelligenza Artificiale
#INTERPOL #UNICRI #AI #ARTIFICIALINTELLIGENCE
Intelligenza Artificiale reshared this.
IL GRUPPO "G7 ROMA-LIONE", STRATEGIE INTERNAZIONALI CONTRO TERRORISMO E CRIMINALITA'. NELL'ULTIMA RIUNIONE ANCHE INTELLIGENZA ARTIFICIALE E CRIPTOVALUTE
Il Gruppo G7 Roma-Lione è un gruppo di lavoro che fu creato sotto la Presidenza italiana del G8 nel 2001. Si concentra sulla formulazione di strategie contro il terrorismo e sulla lotta contro i crimini transnazionali. La partecipazione a questo gruppo include esperti e funzionari governativi provenienti da Canada, Francia, Germania, Giappone, Regno Unito, Stati Uniti e Italia.
Il gruppo si riunisce per discutere e affrontare diverse tematiche, tra cui la tutela del patrimonio culturale, la lotta al terrorismo e all’estremismo violento, la prevenzione e il contrasto al commercio clandestino di beni culturali, e la cybersecurity.
Le riunioni del G7 Gruppo Roma-Lione sono organizzate periodicamente per aggiornare il coordinamento tra i Paesi membri e sviluppare progetti condivisi in risposta alle minacce globali.
Da ultimo i lavori del Gruppo si sono svolti nei giorni scorsi di aprile 2024 a Roma.
Sono stati aperti dal vice segretario generale del ministero degli Affari Esteri e della Cooperazione Internazionale, Carlo Lo Cascio, dal direttore centrale sicurezza, Alessandro Azzoni e, per il ministero dell’Interno, dal vice capo della Polizia preposto all’attività di coordinamento e panificazione delle Forze di polizia, Stefano Gambacurta e dal direttore dell’Ufficio di coordinamento e pianificazione delle Forze di polizia, Annunziato Vardé.
Si tratta della prima riunione del Gruppo G7 Roma/Lione sotto Presidenza italiana, nella quale il dipartimento della Pubblica Sicurezza, insieme al ministero degli Affari Esteri e della Cooperazione Internazionale, ha il mandato di coordinare e rafforzare la risposta congiunta dei Paesi G7 in materia di lotta alla criminalità organizzata transnazionale ed al terrorismo.
Al congresso erano presenti anche i servizi diplomatici di Polizia dei Paesi membri e qualificati referenti di importanti organizzazioni internazionali come #Interpol, #Unodc (United Nations Office on Drugs and Crime), #Gcerf (Global Fund for Preventing Violent Extremism), #Unicri (United Nations Interregional Crime and Justice Research Institute).
Sono stati affrontati temi relativi al contrasto del traffico di esseri umani e della tratta di migranti, dell’utilizzo per fini illeciti di criptovalute, del cybercrime, dello sfruttamento e abuso sessuale dei minori con uno sguardo rivolto alle best practices adottate dai Paesi G7 e della frode transnazionale, in particolare sul web.
Approfondimenti specifici sono stati dedicati al ruolo dell'intelligenza artificiale (#AI) nel settore della sicurezza per prevenire i possibili rischi di un uso illecito da parte delle reti criminali e alle droghe sintetiche soprattutto riguardo la crescente ed allarmante diffusione del #Fentanyl.
Riguardo al terrorismo e l’estremismo violento, è emersa l’importanza di garantire una visione globale e condivisa del fenomeno per intervenire immediatamente per l’individuazione di potenziali terroristi nei loro movimenti transfrontalieri. Sono state evidenziate inoltre le ripercussioni sulla sicurezza globale a seguito degli attacchi di #Hamas e del più recente attentato a Mosca e la minaccia legata al riemergere del gruppo #ISIS-K.
Dalla riunione i Paesi partner sono arrivati ad importanti conclusioni: in primo luogo è stato deciso di creare un network specifico attivo 24/7 per lo sviluppo e il rafforzamento della cooperazione strategica e tecnica in materia di uso illecito di #criptovalute. È stato infine deciso anche di affidare all’Italia la Presidenza del sottogruppo di lavoro #Lepsg (Law Enforcement Projects Sub-Group) che gestisce i numerosi progetti attuativi delle misure di cooperazione adottate dal Gruppo Roma/Lyon.
Particolarmente apprezzato dai partecipanti l’approccio italiano sulla prevenzione delle cause che originano i fenomeni criminali per adottare l’idonea strategia di sicurezza.
LA LEGGE EUROPEA SULL'INTELLIGENZA ARTIFICIALE E L'IDENTIFICAZIONE BIOMETRICA DA PARTE DELLE FORZE DI POLIZIA
La legge europea sull’intelligenza artificiale stabilisce norme per l’uso dell’intelligenza artificiale (#AI) nell’Unione europea (#UE) e mira a garantire che i sistemi di intelligenza artificiale non comportino rischi sistemici per l’Unione. Il testo (europarl.europa.eu/doceo/docum…) non verrà promulgato prima di maggio 2024 e le regole dell’AI Act entreranno in vigore a scaglioni.
Il Regolamento si basa sul livello di rischio, con obblighi graduati in base a esso, dalle pratiche inaccettabili, agli usi ad alto rischio, quelli che necessitano di trasparenza (come chatbot, AI generative e deepfakes) e quelli a basso rischio, regolati da principi generali.
Tra le pratiche vietate di AI rientrano la manipolazione o l'inganno a fini di distorsione del comportamento, i sistemi che sfruttano le vulnerabilità, la categorizzazione biometrica che viola i diritti personali, la classificazione di individui o gruppi sulla base di comportamenti o caratteristiche sociali, l'identificazione biometrica remota in tempo reale in pubblico per le forze dell'ordine, profilazione di individui per comportamenti criminali, database di riconoscimento facciale non autorizzati e deduzione di emozioni nelle istituzioni senza ragioni mediche o di sicurezza. In particolare, i sistemi di AI che non presentano rischi significativi per la salute, la sicurezza o i diritti fondamentali delle persone fisiche non saranno considerati ad alto rischio se soddisfano criteri specifici. I modelli di AI per scopi generali devono soddisfare obblighi quali la manutenzione della documentazione e la cooperazione con le autorità. I deep fake, definiti come contenuti ingannevoli generati dall'intelligenza artificiale, richiedono la divulgazione se non legalmente autorizzati o fanno parte di opere artistiche. Inoltre, il watermarking dei contenuti generati dall’intelligenza artificiale è obbligatorio per motivi di trasparenza, per cui i fornitori devono garantire una marcatura efficace e la compatibilità con gli standard tecnici.
Sebbene la legge copra vari aspetti della regolamentazione dell’AI, comprese disposizioni per diversi settori, non delinea specificamente cosa una forza di polizia può o non può fare con l’AI.
Gli aspetti maggiormente critici riguardano l'identificazione biometrica.
A tale riguardo l'art. 26, comma 10, così recita: “ nel quadro di un'indagine per la ricerca mirata di una persona sospettata o condannata per aver commesso un reato, il deployer di un sistema di IA ad alto rischio (elenco nell' Allegato III, ndr) per l'identificazione biometrica remota a posteriori chiede un'autorizzazione, ex ante o senza indebito ritardo ed entro 48 ore, da parte di un'autorità giudiziaria o amministrativa la cui decisione è vincolante e soggetta a controllo giurisdizionale, per l'uso di tale sistema, tranne quando è utilizzato per l'identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. Ogni uso è limitato a quanto strettamente necessario per le indagini su uno specifico reato. Se l'autorizzazione richiesta di cui al primo comma è respinta, l'uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all'uso del sistema di IA ad alto rischio per il quale è stata richiesta l'autorizzazione sono cancellati.” (...) In nessun caso tale sistema di IA ad alto rischio per l'identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa. Occorre garantire che nessuna decisione che produca effetti giuridici negativi su una persona possa essere presa dalle autorità di contrasto unicamente sulla base dell'output di tali sistemi di identificazione biometrica remota a posteriori. (...). Indipendentemente dalla finalità o dal deployer, ciascun uso di tali sistemi di IA ad alto rischio è documentato nel pertinente fascicolo di polizia e messo a disposizione della pertinente autorità di vigilanza del mercato e dell'autorità nazionale per la protezione dei dati, su richiesta, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto“
L’AI Act mira a stabilire un quadro per garantire l’uso etico e responsabile dell’AI, che include la gestione dei potenziali rischi e la garanzia del controllo umano sulle decisioni critiche.
Le limitazioni e le normative specifiche riguardanti l’uso dell’intelligenza artificiale da parte delle forze di polizia possono variare tra i diversi Stati membri dell’UE. La legge sull’intelligenza artificiale fornisce un quadro completo per la regolamentazione dell’IA, ma l’attuazione e l’applicazione di tali regolamenti saranno effettuate a livello nazionale.