Se il chatbot crea dipendenza, la colpa è dell’azienda: la nuova linea rossa sull’IA in Cina
Gli chatbot sono ormai ovunque. Ormai tutti abbiamo avuto a che fare con quegli assistenti virtuali che rispondono alle nostre domande, che ci forniscono informazioni e che a volte sembrano davvero troppo intelligenti.
Ma cosa succede quando questi chatbot diventano così avanzati da imitare la personalità umana e da entrare in empatia con noi?
Ecco, in quel caso, le cose potrebbero cambiare davvero. Sì, perché se un chatbot può parlarti come una persona reale, adattarsi al tuo umore e farti sentire capito, beh, potrebbe diventare più di una semplice distrazione, ma un’ abitudine difficile da abbandonare.
E qui casca l’asino. Perché se da un lato questi chatbot possono essere davvero utili e divertenti, dall’altro potrebbero anche creare problemi. Le autorità cinesi, per esempio, sembrano essere preoccupate per la loro sicurezza e per il loro impatto sugli utenti, tant’è che hanno pubblicato una bozza di regolamento per supervisionare questi servizi di intelligenza artificiale.
Il regolamento si applica a tutti i prodotti e servizi disponibili al pubblico in Cina che presentano tratti, modelli di pensiero e stili di comunicazione “umani” e che interagiscono con gli utenti attraverso testo, immagini, audio, video e altri formati. L’autorità di regolamentazione cinese ha infatti sottolineato che questi sistemi richiedono requisiti distinti rispetto a quelli tradizionali, proprio perché possono creare un senso di connessione personale e promuovere l’attaccamento. Insomma, i chatbot non sono più solo strumenti, ma qualcosa di più.
La bozza propone di obbligare gli sviluppatori e i proprietari dei servizi ad avvertire gli utenti dei rischi di un uso eccessivo e a intervenire in caso di comparsa di segnali di dipendenza. Si propone che la responsabilità della sicurezza accompagni un prodotto durante l’intero ciclo di vita, dallo sviluppo e dall’addestramento del modello fino al funzionamento. Il documento include anche requisiti per le procedure interne di verifica degli algoritmi, la protezione dei dati e la protezione delle informazioni personali.
Particolare enfasi è posta sulle potenziali conseguenze psicologiche. Gli operatori potrebbero essere tenuti a valutare lo stato d’animo, le emozioni e il grado di dipendenza dell’utente dal servizio. Se un utente manifesta reazioni emotive estreme o comportamenti coerenti con la dipendenza, il servizio deve adottare le “misure necessarie” per intervenire.
La bozza stabilisce anche restrizioni sul contenuto e sul comportamento di tali sistemi. In particolare, i servizi di intelligenza artificiale non devono generare contenuti che minaccino la sicurezza nazionale, diffondano voci o incoraggino violenza o oscenità. Il documento è attualmente aperto al pubblico e, a seguito del suo esito, le regole potrebbero essere perfezionate prima della loro effettiva attuazione.
L'articolo Se il chatbot crea dipendenza, la colpa è dell’azienda: la nuova linea rossa sull’IA in Cina proviene da Red Hot Cyber.