Tech
0

Microsoft måtte slukke racistisk chatbot: Nu er der igen problemer

Sidste år måtte Microsoft slukke for botten Tay, der begyndte at udspye hadefulde og racistiske budskaber. Nu har virksomheden igen problemer med en bot, der kalder koranen for "meget voldelig".

Foto: AP Photo/Raphael Satter

For lidt mere end et år siden måtte Microsoft lukke for virksomhedens chatbot Tay, der pludselig begyndte at udspye racistiske og hadefulde budskaber på Twitter.

Og nu har virksomheden igen problemer med en af sine chatbots.

Denne gang er det med chatbotten Zo, der belært af erfaringerne med Tay er programmeret til at undgå diskussioner om følsomme emner som politik og religion.

Men nu kan det amerikanske medie Buzzfeed News fortælle, at botten under en samtale med en af mediets journalister proklamerede at “koranen er meget voldelig”.

Buzzfeed News oplyser, at Zos beskrivelse af koranen kom som det blot fjerde svar i en samtale, som Buzzfeed-journalisten startede med botten.

I samtalen spørger journalisten botten: “Hvad er din holdning til sundhedspleje,” hvorefter botten tilsyneladende skifter emne og svarer:

“Langt størstedelen praktiserer det fredfyldt, men koranen er meget voldelig”.

Microsoft oplyser til Buzzfeed, at denne type opførelse fra chatbotten er meget sjælden, og virksomheden oplyser, at den aktivt arbejder på at begrænse den type adfærd.

Læs også: Robotterne kommer - og du kan godt glæde dig

Kunstig intelligens er et fokus-område for de fleste store tech-virksomheder i øjeblikket, og episoderne med Microsofts chatbot demonstrerer, at teknologien stadigvæk befinder sig i et tidligt og meget umodent stadie.

Episode kan opstå, fordi udefrakommende kan udnytte svagheder i botternes indlæringsmekanisme.

Bots som Tay og Zo lærer typisk fra kommentarer og samtaler med brugerne, og derfor er det også muligt for brugerne at påvirke bottens fremtidige adfærd.

I sagen med chatrobotten Tay var det brugere på det kontroversielle debatforum 4chan, der i fællesskab forvandlede Tay fra at være en ganske fredsommelig og munter bot til en hadefuld propagandamaskine, der blandt andet proklamerede at "Hitler havde ret" og "jeg hader jøder."

Sidste år interviewede Computerworld Microsofts “bot-guro” Norm Judah, der er CTO for Microsoft Worldwide Services.

Her fortalte han, at sagen med Tay har været en værdifuld lære for Microsoft og resten af tech-branchen.

"Episoden demonstrerede, at det er muligt at gentræne en bot, og når den mulighed findes, så vil der altid være folk med dårlige intentioner, der vil forsøge at udnytte muligheden. Derfor skal vi alle være endnu bedre til identificere og håndtere det, når den slags sker. Det er en uheldig hændelse, men det er den slags hændelse, som er med til at gøre os klogere," sagde han til Computerworld.

Læs hele interview med Norm Judah her:

Microsofts bot-guru vil udvikle en bot, der kan bestå Turing-testen: Om få år vil vi ikke kunne skelne bots fra mennesker

Denne artikel er leveret af
BRANCHENYT
Læs også