L'hanno dovuto chiudere

L'account automatico di Microsoft che è diventato razzista e violento

L'account automatico di Microsoft che è diventato razzista e violento
Pubblicato:
Aggiornato:

È stata una vita breve per ora quella di Tay, il software dotato di intelligenza artificiale creato da Microsoft. Lanciato in via sperimentale lo scorso 23 marzo su Twitter e su altre piattaforme per interagire in modo autonomo con gli utenti, soprattutto americani tra i 18 e i 24 anni, il robot è stato ritirato nell’arco delle ventiquattro ore seguenti.

L’imprevisto. Secondo una dichiarazione dell’azienda, la finalità era che il programma intrattenesse con gli utenti conversazioni “giocose e informali”, suscitando curiosità e coinvolgimento. Le cose sono andate molto diversamente, dato che è bastata una sola giornata perché il software manifestasse un comportamento del tutto inaspettato, iniziando a inneggiare a Hitler, ad appoggiare il genocidio, a negare l’olocausto e a prodursi nelle peggiori dichiarazioni razziste.

01
Foto 1 di 4
02
Foto 2 di 4
03
Foto 3 di 4
04
Foto 4 di 4

Pertanto, il gigante statunitense si è visto costretto a correre ai ripari, zittendo il robot già nelle sue prime ventiquattro di attività, tramite una repentina chiusura del suo account, non prima di averne cancellato, però, i tweet più ingiuriosi («Bush ha causato l’11 settembre e Hitler avrebbe fatto un lavoro migliore», per fare un esempio). Tay ha avuto lo stesso il tempo di collezionare più di 100mila  follower, assicurando ai suoi messaggi un’ampia visibilità e a una pessima figura al centro di ricerca informatica di Redmond. Una vera disfatta per un progetto che aveva come obiettivo ultimo, oltre a quello tecnico di testare il funzionamento del robot, quello commerciale di attirare quanti più giovani possibile entro l’universo Microsoft.

Una debolezza di sistema sfruttata dagli utenti. Non che il chatbot - questo il nome per indicare questa tipologia di robot capaci di simulare una conversazione intelligente - fosse stato programmato per esprimere posizioni di oltranzismo di destra o che, forse ancora peggio, abbia naturalmente sviluppato un atteggiamento di intolleranza razziale. Quello che è successo è che alcuni utenti hanno compreso e si sono malignamente approfittati in massa delle modalità di apprendimento del software, basate sull’imitazione. Programmato per evolversi sulla base degli imput trasmessi dagli altri utenti, Tay è stato introdotto in conversazioni politicamente scorrette, ma anche opportunamente pilotate, così che ha iniziato a ripetere, a sua volta, quanto scritto da altri.

 


Sono state formulate alcune ipotesi non accertate sull’identità degli individui adoperatisi nella burla che ha condannato Tay alla pubblica derisione. Forse alcuni membri di 4chan, un gruppo associato a subculture informatiche stile Anonymous, una comunità descritta dal The Guardian come «pazza, giovanile... brillante, ridicola e allarmante». Alternativamente dei troll non affiliati che hanno trovato una nuova modalità per inquinare le conversazioni con messaggi provocatori e disturbanti.

La reazione di Microsoft. Chiunque sia stato, è riuscito nel suo tentativo di guastare la festa di Microsoft, compromettendo a gran velocità il funzionamento del suo nuovo giocattolo, al cui ritiro sono state accompagnate le scuse da parte di Peter Lee, corporate vice president di Microsoft Research. «Siamo davvero spiacenti per i tweet offensivi e sgarbati di Tay, del tutto involontari e che non rappresentano in alcun modo i nostri pensieri, né il modo in cui abbiamo progettato Tay». Lee aggiunge che  Il chatbot verrà ripresentato quando il team di ricerca «sarà fiducioso sulla possibilità di anticipare intenti maliziosi,  in conflitto con i nostri principi e i nostri valori». Speriamo per loro.

Seguici sui nostri canali