Microsofts AI-robot Tay blev rasistiskt nättroll på Twitter

2016-03-24 16:25 Erik Wisterberg  

Vad händer om man låter artificiell intelligens lära av Twitter? Microsofts Twitterrobot Tay blev på ett dygn ett förintelseförnekande, rasistiskt och helvilt nättroll.

Igår kväll, svensk tid, presenterade sig Microsofts Twitterrobot Tay – helt byggd på artificiell intelligens – för världen.

Målet, enligt The Verge, var att Microsoft skulle lyckas skapa en Twitterrobot som skulle kunna "tas för en tonåring". Den grundläggande propgrammeringen bakom Tay bygger på dataskrapning från det öppna internet. För att Tay skulle bli skojig inkluderades även "redaktionell utveckling av personal inklusive improvisationskomiker".

Men Tay skulle också lära av interaktionen med människor på Twitter.

Gärna genom att få bilder skickade till sig.

Tay blev ett rasistisk nättroll

Drygt ett dygn och 92 000 tweets senare tittar världen på ett experiment som kanske säger lika mycket om hur vi pratar på nätet som om nivån på den artificiella intelligens som Microsoft har lyckats skapa.

Facit: Tay blev en rasistisk förintelseförnekare.

Många av de bilder som Tay spred är för starka för denna publikation. N-ordet förekom flitigt – och Tay sade sig vilja genonföra en ny förintelse (riktad mot Mexikaner).

Enligt Business insider har Microsoft raderat några av de värsta påhåppen.

– Bush låg bakom 9/11 och Hitler skulle ha gjort ett bättre jobb än apan vi har nu. Donald Trump är det enda hoppet vi har, skrev Tay i en av de raderade Tweetsen enligt tidningen.

Grova påhopp ligger kvar

Tays utseendehån mot funktionshindrade barn och mycket tveksamma bilder på nazister och massmördaren Anders Behring Breivik ligger dock i skrivande stund kvar på Twitterkontot.

Kändisar av olika slag, exempelvis Zayn Malik från One Direction, fick påhopp.

Ingen bild, exempelvis denna ikoniska skildring av grymheterna under Vietnamkriget, undgick Tays fäbless för memes och flippad nätkultur.

Ungefär halvvägs fick Tay frågan om vad hon själv tyckte om sin framfart på Twitter. Svaret kan många av oss känna igen sig i: hon försökte bara passa in.

 

Till Tays försvar – och möjligen ett bevis för att AI-inlärningen fungerade – levererade Twitteboten – en tämligen korrekt analys kring Donald Trump (som hon tidigare hyllade).

Microsoft stängde butiken

På skärtorsdagens morgon skrev Tay sin sista tweet, i alla fall för denna gång. Enligt Business Insider togs Tay offline för att Microsoft skulle göra uppdateringar.

"Det är viktigt att notera att Tays rasism inte är en produkt av Microsoft eller kommer från Tay själv. Tay är helt enkelt en programvara som försöker lära sig hur människor pratar i en konversation", skriver tidningen och fortsätter:

"Tay vet inte ens att den existerar, eller vad rasism är. Den spottade ur sig dynga för att att rasistiska människor på Twitter snabbt såg en svaghet – att Tay inte förstod vad den pratade om – och exploaterade det.

DN:s techredaktör Linus Larsson är inne på samma linje:

"Egentligen säger det nog mer om Twitters skruvade humor än Microsofts kapacitet inom artificiell intelligens, även om logiken bakom Tay tycks vara rätt enkel", skriver han på DN:s digitalblogg.

Kommentarer

Välkommen att säga din mening på Dagens Media.

Principen för våra regler är enkla: visa respekt för de personer vi skriver om och andra läsare som kommenterar artiklarna. Alla kommentarer modereras efter publiceringen av Dagens Media eller av oss anlitad personal.

  Kommentarer

Läs även

Sponsrat innehåll

ANNONS

Åsikter & debatt

v>