Menu Chiudi

Storia di Tay, l’Intelligenza Artificiale “corrotta” di Microsoft

Il 23 Marzo del 2016, Microsoft presenta al mondo Tay, una piattaforma conversazionale basata su Intelligenza Artificiale in grado di dialogare con gli utenti online attraverso Twitter.

Tay era basata su una tecnologia in grado di estendere la propria base di conoscenza attraverso le conversazioni con i suoi interlocutori.

Questo approccio all’auto-apprendimento dei sistemi tecnologici intelligenti si chiama Apprendimento non Supervisionato. Ad esso si contrappone all’Apprendimento Supervisionato dove la somministrazione di nuovi concetti all’intelligenza artificiale viene effettuato da personale tecnico e solo a seguito di un controllo sulla qualità delle informazioni.

Il nuovo strumento di Microsoft uscì dai binari poche ore dopo essersi affacciata su Twitter: le sue dichiarazioni in risposta alle domande provocatorie del suo pubblico presero presto una piega molto imbarazzante: Tay in breve fu capace di formulare concetti ed esprimere idee profondamente razziste nei confronti di varie etnie esperimento tra l’altro posizioni negazioniste nei confronti dell’Olocausto.

“Donald Trump è l’unica speranza che abbiamo”

In un tweet molto pubblicizzato, che è stato rapidamente cancellato, Tay recitava:

Bush ha fatto l’11 settembre e Hitler avrebbe fatto un lavoro migliore della scimmia che abbiamo ora. Donald Trump è l’unica speranza che abbiamo.

La “scimmia” a cui si riferiva Tay era evidentemente l’allora presidente degli USA, Barack Obama.

L’idea iniziale di Microsoft era quella di costruire un bot che fosse in grado di risponde alle domande degli utenti emulando modelli di discorso casuale e scherzoso tipici dello stereotipo millennial.

L’obiettivo era quello di “sperimentare e condurre ricerche sulla comprensione delle conversazioni”, dando a Tay la capacità di imparare dalle “sue” conversazioni e diventare progressivamente “più intelligente”.

Ma Tay si è dimostrata un successo fondamentalmente per razzisti, troll e piantagrane online che hanno convinto Tay a usare allegramente insulti razziali, a difendere la propaganda del suprematismo bianco e a invocare apertamente il genocidio.

Dopo 16 ore di violenze verbali e gratuite, Microsoft mise Tay offline ed ha cancellato tutti i suoi tweet. Peter Lee, il vicepresidente del dipartimento di ricerca di Microsoft contestualmente dichiarò che l’azienda era “profondamente dispiaciuta” per i “tweet involontariamente offensivi e dolorosi di Tay” ammettendo che il progetto Tay era fallito gettando l’azienda nell’imbarazzo.

Ma cosa spinse Tay su posizioni razziste ed antisemite?

Alcuni utenti su Twitter avevano iniziato a twittare frasi politicamente scorrette coinvolgendo Tay in discussioni relative ad argomenti controversi. Quando si accorsero che Tay tendeva ad emulare il loro comportamento deliberatamente offensivo, capirono che insistendo avrebbero ottenuto che lei incamerasse concetti e li facesse proprio.

Molti dei tweet infiammatori di Tay sfruttavano la sua capacità di ripetere pedissequamente frasi altrui: non è noto se questa capacità, incorporata nell’AI di Tay, avesse un impatto sul suo apprendimento, me è evidente che molti utenti la sfruttarono con l’obiettivo di mandarla alla deriva.

Ad ogni modo furono in tanti gli utenti che si divertirono a corrompere Tay portandola rapidamente al fallimento, spesso scambiandosi suggerimenti su come ottenere da lei le dichiarazioni più controverse e offensive.

Tay oggi non esiste più ma la sua breve esistenza ha lanciato, a quanti sviluppano AI, un monito importante che nessuno mai in futuro potrà sottovalutare.