Le politiche di Livello Segreto sull'AI
Ciao Livello Segreto, buondì.In queste torride giornate abbiamo pensato bene di tirar fuori un argomento in grado di sollazzare al meglio i nostri freschi cervelli: come gestire i contenuti fatti in AI nel nostro angolo di Fediverso.
Aldilà di quella che è stata poi la decisione presa ci tengo a sottolineare come sia estremamente felice e soddisfatto di questo thread: livellosegreto.it/@ed/11487907…
Non tanto per la posizione delle risposte (beh, un po' sì a dirla tutta), ma soprattutto per il fatto che fossero motivate e con spunti interessantissimi.
Però sì, dai, va detto che si gongola un po' quando in occasioni come queste ci si rende conto che forse un posto popolato da persone con idee e ideali simili siamo riusciti tutt3 insieme a tirarlo in piedi.
Andiamo al sodo.
I contenuti generati con AI non sono in linea con i valori attorno a cui è nato Livello Segreto e vi invitiamo a non postarli.
Questo non significa che chi li pubblica verrà bannato per direttissima, ma che: 1. si scoraggiano le persone a pubblicare qualcosa di simile (lo spazio sul server non è infinito e preferiamo che venga usato per cose umane che da AI) 2. se proprio dovete pubblicare qualcosa di simile (per far passare un punto o per mostrare qualcosa) usate il CW. 3. ci riserviamo di richiedere la rimozione di eventuali contenuti simili qualora lo ritenessimo sensato (lato admin/mod, ma anche lato comunitario: i report funzionano e vi invitiamo nuovamente ad usarli)
I discorsi sull'AI vanno benissimo – anche senza CW –, ma vi chiediamo di usare gli hashtag #ai e #ia così da permettere a chi volesse di silenziarli preventivamente.
È tutto, ora possiamo tornare a parlare di quanto sia bello fare il bagno in un laghetto fresco (o almeno pensarci così da avere un po' di frescura nel cervello).
Dubbi, domande o perplessità: scriveteci. Ed & Kenobit
UNA GUIDA DI EUROPOL SPIEGA ALLE FORZE DELL'ORDINE COME SUPERARE I PREGIUDIZI DELL'INTELLIGENZA ARTIFICIALE
“Pregiudizi dell'intelligenza artificiale nelle forze dell'ordine: una guida pratica”, recente pubblicazione di Europol (Innovation Lab), esplora i metodi per prevenire, identificare e mitigare i rischi nelle varie fasi dell'implementazione dell'intelligenza artificiale. Il rapporto mira a fornire alle forze dell’ordine linee guida chiare su come implementare le tecnologie di intelligenza artificiale salvaguardando i diritti fondamentali.
L’intelligenza artificiale può essere una risorsa importante per le forze dell’ordine, per rafforzare le proprie capacità di combattere le minacce emergenti (amplificate dalla digitalizzazione) attraverso l’integrazione di nuove soluzioni tecniche, quali come la polizia predittiva, l'identificazione automatica di pattern e l'analisi avanzata dei dati. L’intelligenza artificiale può aiutare le forze dell’ordine: a. ad analizzare set di dati ampi e complessi, b. automatizzare compiti ripetitivi e c. supportare un processo decisionale più informato. Impiegata in modo responsabile, può potenziare le capacità operative e migliorare la sicurezza pubblica.
Tuttavia, questi benefici devono essere attentamente valutati rispetto ai possibili rischi posti dai pregiudizi (intesi come una tendenza o inclinazione che si traduce in un giudizio ingiusto o in un pregiudizio a favore o contro una persona, un gruppo o un'idea) sull'utilizzo, che possono apparire in varie fasi di sviluppo e implementazione del sistema di intelligenza artificiale. Questi rischi derivano da pregiudizi insiti nella progettazione, nello sviluppo e nell'implementazione dei sistemi di intelligenza artificiale, che possono perpetuare la discriminazione, rafforzare le disuguaglianze sociali e compromettere l'integrità delle attività delle forze dell'ordine. Tali pregiudizi devono essere controllati per garantire risultati equi, mantenere la fiducia del pubblico e proteggere i diritti fondamentali. Il rapporto fornisce alle autorità di contrasto le intuizioni e le indicazioni necessarie per identificare, mitigare e prevenire pregiudizi nei sistemi di intelligenza artificiale. Questa conoscenza può svolgere un ruolo cruciale nel sostenere l’adozione sicura ed etica dell’intelligenza artificiale per garantire che la tecnologia venga utilizzata in modo efficace, equo e trasparente al servizio della sicurezza pubblica.
Le Raccomandazioni chiave per le forze dell'ordine che emergono dal Rapporto riguardano:
- Documento: mantenere una documentazione dettagliata di tutte le fasi del ciclo di vita dell'IA. Ciò garantisce tracciabilità, responsabilità e aiuta a identificare dove possono verificarsi pregiudizi.
- Valutare: sviluppare un quadro socio-tecnico completo, coinvolgendo un gruppo eterogeneo di parti interessate, per valutare l'accuratezza tecnica e considerare attentamente i contesti storici, sociali e demografici.
- Formare tutto il personale delle forze dell’ordine coinvolto con gli strumenti di intelligenza artificiale per approfondire la propria comprensione delle tecnologie di intelligenza artificiale per enfatizzare il valore della valutazione umana nella revisione dei risultati generati dall’intelligenza artificiale per prevenire pregiudizi.
- Testare le prestazioni, l'impatto e rivedere gli indicatori di potenziale distorsione prima dell'implementazione.
- Eseguire analisi caso per caso e addestrarsi a comprendere i diversi pregiudizi dell’intelligenza artificiale, la loro relazione con i parametri di equità e implementare metodi di mitigazione dei pregiudizi.
- Valutare continuamente attraverso l'implementazione di test regolari e la rivalutazione dei modelli di intelligenza artificiale durante tutto il loro ciclo di vita per rilevare e mitigare i pregiudizi.
- Applicare tecniche di test di equità e di mitigazione dei pregiudizi post-elaborazione sia sugli output del sistema di intelligenza artificiale che sulle decisioni finali prese da esperti umani che si affidano a tali output.
- Valutare il contesto e gli obiettivi di ciascuna applicazione di intelligenza artificiale, allineando le misure di equità con gli obiettivi operativi per garantire risultati sia etici che efficaci.
- Garantire la coerenza contestuale e statistica durante l’implementazione dei modelli di intelligenza artificiale.
- Standardizzare i parametri di equità e le strategie di mitigazione in tutta l’organizzazione per garantire pratiche coerenti nella valutazione dei pregiudizi.
Informazioni sull'Innovation Lab di Europol
Il Lab mira a identificare, promuovere e sviluppare soluzioni innovative concrete a sostegno del lavoro operativo degli Stati membri dell'UE’. Ciò aiuta investigatori e analisti a sfruttare al meglio le opportunità offerte dalle nuove tecnologie per evitare la duplicazione del lavoro, creare sinergie e mettere in comune le risorse.
Le attività del laboratorio sono direttamente collegate alle priorità strategiche stabilite nella strategia Europol Fornire sicurezza in partenariato, in cui si afferma che Europol sarà in prima linea nell'innovazione e nella ricerca delle forze dell'ordine.
Il lavoro del Laboratorio di innovazione Europol è organizzato attorno a quattro pilastri: gestione di progetti al servizio delle esigenze operative della comunità delle forze dell'ordine dell'UE; monitorare gli sviluppi tecnologici rilevanti per le forze dell'ordine; mantenimento di reti di esperti; in qualità di segretariato del polo di innovazione dell'UE per la sicurezza interna.
La pubblicazione [en] è scaricabile qui europol.europa.eu/publications…
#AI #artificialintelligence #intelligenzaartificiale