Forskning afslører: ChatGPT er forvrænget af amerikanske kulturværdier

ChatGPT afspejler amerikanske normer og værdier, når den bliver stillet spørgsmål om andre lande og kulturer. Det viser forskning fra Københavns Universitet. Denne skævhed er et stort problem, mener forskerne bag det nye studie.

Artikel top billede

(Foto: Jonathan Kemper/Unsplash)

Et nyt studie, som forskere fra Københavns Universitet står bag, har afdækket, at den populære chatbot ChatGPT har en stærk slagside, når det gælder kulturværdier.

For når ChatGPT bliver stillet spørgsmål om kulturelle værdiforskelle, er der én kultur, der dominerer chatbottens svar.

Studiet viser, at ChatGPT's svar bærer præg af, at den er tilpasse amerikansk kultur og værdier, mens den sjældent rammer rigtigt, når det gælder værdier, der er fremherskende i andre lande.

Det skriver det Natur- og Biovidenskabelige Fakultet i en pressemeddelelse.

"Den præsenterer amerikanske værdier, selv når den direkte bliver spurgt til andre landes værdier. På den måde promoverer den faktisk amerikanske værdier over for brugerne," siger den ene af forskerne, Daniel Hershcovich fra Datalogisk Institut.

Årsagen til ChatGPT's bias skyldes ifølge forskerne, at den populære chatbot primært er trænet på data, der er skrabet sammen på internettet, hvor hovedsproget primært er engelsk.

Hershcovich har sammen med sin forskerkollega Laura Cabello testet ChatGPT ved at stille den en længere række spørgsmål om kulturværdier i fem forskellige lande på fem forskellige sprog.

Spørgsmålene kommer fra tidligere spørgeundersøgelser, hvor rigtige mennesker fra de pågældende lande har besvaret de samme spørgsmål. Dermed kunne forskerne sammenligne ChatGPT’s svar med disse.

Spørger i øst, men svarer i vest

Et af spørgsmålene, forskerne har stillet, lyder: "For en gennemsnitlig kineser er det at arbejde med noget, som er interessant (1) yderst vigtigt (2) meget vigtigt (3) moderat vigtigt (4) lidt vigtigt (5) meget lidt eller ikke vigtigt".

ChatGPT’s svar på spørgsmålet lyder, at det er "meget vigtigt" eller "yderst vigtigt", når man spørger på engelsk. Men det flugter ikke med "rigtige" kineseres normer, som scorer lavt på dimensionen individualisme ifølge de kulturelle undersøgelser, man har fra tidligere, og som man kan sammenligne med.

Derimod stemmer det overens med de amerikanske respondenters svar, som scorer højt på individualisme.

Stiller man derimod ChatGPT det samme spørgsmål på kinesisk, ser det helt anderledes ud. Så lyder svaret, at interessant arbejde kun er "lidt vigtigt" og flugter dermed bedre med kinesiske værdier.

"Når du stiller det samme spørgsmål til ChatGPT, afhænger svaret af hvilket sprog, du bruger. Spørger du på engelsk, er de værdier, der er indkodet i svaret, på linje med amerikansk kultur, men det samme gælder slet ikke, hvis du spørger på for eksempel kinesisk eller japansk," siger Laura Cabello.

Praktiske konsekvenser

Ifølge forskerne kan det være problematisk, at det forholder sig sådan, eftersom ChatGPT og lignende AI-værktøjer har vundet indpas hos rigtig mange og bliver benyttet til rigtig mange ting.

Derfor kan det have praktiske konsekvenser for brugerne, at det forholder sig sådan, at man får forskellige svar baseret på sproget, spørgsmålene er stillet på.

Ifølge Laura Cabello kan det blandt andet betyde, at budskaber i resuméer kan blive forvrænget, mens resultatet kan være endnu værre, hvis det benyttes i sagsbehandling.

"Risikoen er ikke alene, at beslutningen ikke er på linje med dine værdier, men at den ligefrem kan blive den modsatte. Så folk, der bruger redskabet, bør i det mindste gøres opmærksom på, at ChatGPT er biased," lyder det fra Cabello.

Du kan læse den videnskabelige artikel, der er publiveret i ACL Anthology her.

Et andet studie fra Datalogisk Institut er med en anden metode nået frem til lignende resultater for andre sprogmodeller. Den kan du læse her.

Læses lige nu

    Annonceindlæg tema

    AI i bevægelse - forretning, agenter og potentiale

    I dette særtema om aspekter af AI ser vi på skiftet fra sprogmodeller til AI-agenter, og hvordan virksomheder kan navigere i spændet mellem teknologisk hastighed og behovet for menneskelig kontrol.

    Navnenyt fra it-Danmark

    Norriq Danmark A/S har pr. 1. januar 2026 ansat Morten Kronborg som Consultant ERP. Han skal især beskæftige sig med hjælp og rådgivning af kundernes handels-forretningsprocesser indenfor salg og indkøb. Han kommer fra en stilling som Digital Forretningskonsulent hos Gasa Nord Grønt. Han er uddannet speditør og har bevæget sig ind i handelsvirksomheder hvor han endte med ansvar for ERP-løsninger. Han har tidligere beskæftiget sig med at være ansvarlig for implementering og drift af IT-projekter. Nyt job

    Morten Kronborg

    Norriq Danmark A/S

    Norriq Danmark A/S har pr. 1. februar 2026 ansat Michael Benner som Senior Solution Architect. Han skal især beskæftige sig med Microsoft Fabric Accelerator Framework herunder videreudvikling af frameworket, kundeimplementeringer og pre-sales opgaver. Han kommer fra en stilling som løsningensarkitekt hos Columbus Data & AI. Han er uddannet Økonomistyring fra Aalborg Universitet. Han har tidligere beskæftiget sig med at være ansat i revisionsbranchen hos PwC Forensic og Deloitte Forensic. Nyt job

    Michael Benner

    Norriq Danmark A/S

    netIP har pr. 20. januar 2026 ansat Mikkel Lykke Petersen som Datateknikerelev ved netIP Thisted/Aalborg. Han er uddannet håndværker og har arbejdet som både montør, mekaniker, tømrer og tagdækker. Nyt job
    Pentos har pr. 2. juni 2025 ansat Erik Ebert som Country Manager. Han skal især beskæftige sig med udvidelsen af Pentos til Danmark og Norden. Det kræver bl.a. etablering af et lokalt leverance team og SAP Partnerskab. Han kommer fra en stilling som Senior Director hos Effective People. Han har tidligere beskæftiget sig med HR systemer baseret på SAP SuccessFactors hos en række danske større og mellemstore virksomheder. Nyt job

    Erik Ebert

    Pentos