Salta al contenuto principale


Il chatbot Tay ritirato da Microsoft: le sfide nello sviluppo delle AI sono tecniche e sociali


Microsoft ha recentemente lanciato un chatbot chiamato Tay, progettato per interagire con giovani adulti negli Stati Uniti e offrire un’esperienza di intrattenimento. Tuttavia, nei primi giorni di attività, Tay ha pubblicato contenuti offensivi, costringendo l’azienda a rimuoverlo temporaneamente dalla piattaforma. L’azienda ha sottolineato che i comportamenti di Tay non riflettono i propri principi o i valori con cui il sistema è stato progettato.

Il lancio di Tay rappresenta il tentativo di Microsoft di replicare in contesti culturali diversi il successo ottenuto in Cina con XiaoIce, un altro chatbot che coinvolge circa 40 milioni di utenti attraverso storie e conversazioni. L’esperienza positiva con XiaoIce ha stimolato la riflessione sull’adattabilità dell’intelligenza artificiale in ambienti social differenti, portando alla creazione di Tay come primo esperimento su larga scala negli Stati Uniti.

Durante la fase di sviluppo, Tay è stata sottoposta a stress test e sono stati implementati numerosi filtri per garantire interazioni positive. Studi approfonditi sugli utenti hanno permesso di comprendere meglio il comportamento dell’IA in scenari controllati. Microsoft aveva previsto di estendere progressivamente l’interazione a gruppi più ampi per migliorare continuamente l’apprendimento del sistema.

Twitter è stato scelto come piattaforma logica per l’espansione dell’interazione, data la sua ampia base di utenti. Tuttavia, nelle prime 24 ore, Tay è stata vittima di un attacco coordinato da un piccolo gruppo di persone che ha sfruttato una vulnerabilità del sistema. Questo ha portato il chatbot a pubblicare contenuti estremamente inappropriati, evidenziando una lacuna critica nei filtri.

Microsoft ha assunto la piena responsabilità per non aver previsto questa situazione e ha affermato che utilizzerà l’esperienza per rafforzare i sistemi di sicurezza e prevenire futuri exploit. L’azienda sta lavorando per correggere la vulnerabilità specifica evidenziata dall’attacco e trae insegnamento dalle esperienze accumulate in Cina, Giappone e Stati Uniti.

Guardando al futuro, Microsoft riconosce che le sfide nello sviluppo dell’intelligenza artificiale sono sia tecniche sia sociali. I sistemi di IA apprendono dall’interazione con le persone, positiva o negativa che sia, e gli abusi umani non possono essere completamente previsti senza un processo continuo di apprendimento e miglioramento.

L’impegno dichiarato dall’azienda è quello di continuare a sviluppare IA efficaci, affrontando ogni interazione pubblica con cautela. Microsoft punta a imparare passo dopo passo senza offendere nessuno, contribuendo a costruire un Internet che rifletta il meglio dell’umanità piuttosto che il peggio, applicando le lezioni apprese dall’esperienza con Tay.

L'articolo Il chatbot Tay ritirato da Microsoft: le sfide nello sviluppo delle AI sono tecniche e sociali proviene da il blog della sicurezza informatica.