Microsoft risikerer shitstorm efter uforudselig chat-bot pludselig skiftede emne: "Koranen er meget voldelig"

Sidste år måtte Microsoft slukke for botten Tay, der begyndte at udspye hadefulde og racistiske budskaber. Nu har virksomheden igen problemer med en bot, der kalder koranen for "meget voldelig".

Artikel top billede

For lidt mere end et år siden måtte Microsoft lukke ned for virksomhedens chatbot Tay, der pludselig begyndte at udspye racistiske og hadefulde budskaber på Twitter.

Og nu har virksomheden igen problemer med en af sine chatbots.

Denne gang er det med chatbotten Zo, der belært af erfaringerne med Tay er programmeret til at undgå diskussioner om følsomme emner som politik og religion.

Men nu kan det amerikanske medie Buzzfeed News fortælle, at botten under en samtale med en af mediets journalister proklamerede at “koranen er meget voldelig”.

Buzzfeed News oplyser, at Zos beskrivelse af koranen kom som det blot fjerde svar i en samtale, som Buzzfeed-journalisten startede med botten.

I samtalen spørger journalisten botten “Hvad er din holdning til sundhedspleje,” hvorefter botten tilsyneladende skifter emne og svarer:

“Langt størstedelen praktiserer det fredfyldt, men koranen er meget voldelig”.

Microsoft oplyser til Buzzfeed, at denne type opførelse fra chatbotten er meget sjælden, og virksomheden oplyser, at den aktivt arbejder på at begrænse den type adfærd.

Satser stort på kunstig intelligens

Kunstig intelligens er et fokus område for de fleste store tech-virksomheder i øjeblikket, og episoderne med Microsofts chatbots demonstrerer, at teknologien stadigvæk befinder sig i et tidligt og meget umodent stadie. 

Episode kan opstå, fordi udefrakommende kan udnytte svagheder i botternes indlæringsmekanisme.

Bots som Tay og Zo lærer typisk fra kommentarer og samtaler med brugerne, og derfor er det også muligt for brugerne at påvirke bottens fremtidige adfærd.

I sagen med chatrobotten Tay var det brugere på det kontroversielle debatforum 4chan, der i fællesskab forvandlede Tay fra at være en ganske fredsommelig og munter bot til en hadefuld propagandamaskine, der blandt andet proklamerede at "Hitler havde ret" og "jeg hader jøder." 

En værdifuld lære

Sidste år interviewede Computerworld Microsofts “bot-guro” Norm Judah, der er CTO for Microsoft Worldwide Services.

Her fortalte han, at sagen med Tay har været en værdifuld lære for Microsoft og resten af tech-branchen.

"Episoden demonstrede, at det er muligt at gentræne en bot, og når den mulighed findes, så vil der altid være folk med dårlige intentioner, der vil forsøge at udnytte muligheden. Derfor skal vi alle være endnu bedre til identificere og håndtere det, når den slags sker. Det er en uheldig hændelse, men det er den slags hændelse, som er med til at gøre os klogere," sagde han til Computerworld

Læs hele interviewet med Norm Judah her:

Microsofts bot-guru vil udvikle en bot, der kan bestå Turing-testen: Om få år vil vi ikke kunne skelne bots fra mennesker

Læses lige nu

    Event: Platform X 2026: Forretning, teknologi og transformation

    It-løsninger | København V

    Mød verdens stærkeste og mest effektive platforme der driver den digitale transformation samlet i København - og dyk ned i den nyeste teknologi.

    27 maj 2026 | Gratis deltagelse

    Netcompany A/S

    Microsoft Operations Engineer

    Københavnsområdet

    Operate Technology A/S

    PHP-udvikler til Drupal

    Københavnsområdet

    SOS International

    Cisco Call Manager Specialist

    Københavnsområdet

    Digitaliseringsstyrelsen

    It-arkitekt til borger.dk med interesse for kunstig intelligens

    Københavnsområdet

    Navnenyt fra it-Danmark

    Immeo har pr. 1. marts 2026 ansat Theo Lyngaa Hansen som Consultant. Han kommer fra en stilling som Data Manager hos IDA. Han er uddannet i Business Administration & Data Science. Nyt job
    Netip A/S har pr. 1. marts 2026 ansat Maria Lyng Refslund som Marketing Project Manager ved netIP Herning. Hun kommer fra en stilling som Marketing Project Manager hos itm8. Nyt job