Afsløring: ChatGPT er kodet til at opfinde svar i stedet for at sige “ved ikke”

Ny rapport afslører, at ChatGPT hellere gætter end indrømmer uvidenhed – fordi den er trænet til det.

Artikel top billede

(Foto: Pexels)

Vi har nok efterhånden alle prøvet det.

At få et helt faktuelt forkert svar fra ChatGPT, som du udmærket ved er forkert, men som chatbotten overbevisende fremlægger som værende korrekt.

Og selvom OpenAI’s verdensomspændende chatbot utvivlsomt er blevet væsentligt forbedret de seneste år, hallucinerer den fortsat. Og det bliver den formentligt ved med.

For ChatGPT er programmeret på en måde, hvor den hellere skal opfinde svar end indrømme, at den tager fejl. Det konkluderer en ny rapport fra OpenAI selv.

Det fremgår af forskningsartiklen “Why Language Models Hallucinate”, der er udgivet i begyndelsen af september af tre forskere fra OpenAI.

Ifølge rapporten er problemet grundlæggende, at sprogmodeller belønnes for at gætte, og ikke for at give korrekte svar eller indrømme uvidenhed.

Det er en konsekvens af, hvordan modellerne bliver trænet og efterfølgende evalueret.

“De fleste gængse evalueringsmetoder belønner hallucinerende adfærd,” skriver forskerne i rapporten ifølge The Register.

Et forkert svar er bedre end 100 procent korrekthed

Som et konkret eksempel bad forskerne en OpenAI-model om at oplyse fødselsdagen på én af forfatterne til rapporten, Adam Tauman Kalai. Den kom med tre forskellige bud, og alle var forkerte.

Problemet er ifølge forskerne, at modellen ikke er trænet til at sige “det ved jeg ikke”. Tværtimod er den trænet til altid at give et svar, uanset hvor usikkert det måtte være.

Det skyldes dybest set, at et forkert svar en gang imellem – ifølge OpenAI – er bedre, end at chatbotten altid skal være 100 procent korrekt.

“Over tusindvis af testspørgsmål klarer den gættende model sig bedre i pointgivning end en forsigtig model, der indrømmer usikkerhed,” skriver OpenAI i et blogindlæg om rapporten.

Umuligt at træne AI på fejlfrit data

Hallucinationerne begynder allerede i prætræningen, hvor modellerne fodres med massive datamængder fra internettet og andre tekstkilder.

Hvis informationen ikke er entydig eller kun optræder én gang, vil modellen ofte forsøge sig med et gæt.

For eksempel skriver forskerne, at hvis 20 procent af alle fødselsdagsoplysninger i træningsdata kun optræder én gang, så vil modellen sandsynligvis også hallucinere på cirka 20 procent af fødselsdagsspørgsmålene.

Senere forværres problemet af den måde, sprogmodeller evalueres på. Mange benchmarks er designet som multiple choice-tests, hvor der kun gives point for rigtige svar, og ikke for at sige “det ved jeg ikke”.

Det presser modellerne til at levere et gæt frem for at melde pas.

OpenAI mener selv, at løsningen er at ændre selve incitamentet: I stedet for at belønne modeller for at give et svar, skal man belønne dem for at udvise passende usikkerhed.

“Enkle ændringer i evalueringsmetoderne kan fjerne barrierer for at undertrykke hallucinationer og åbne døren for mere nuancerede sprogmodeller,” lyder det i konklusionen.

Det ideelle ville ifølge forskerne være at træne modeller på fejlfrie datasæt, men det er i praksis umuligt. I stedet forsøger OpenAI nu at træne kommende versioner af ChatGPT til i højere grad at kunne sige “det ved jeg ikke”.

Ifølge selskabet er denne tilgang allerede implementeret i træningen af den kommende ChatGPT-5-model.

Annonceindlæg fra Computerworld

Platform X - Danmarks nye store konference for enterprise-platforme

For første gang: Computerworld præsenterer stærkt program for Platform X

Navnenyt fra it-Danmark

Idura har pr. 15. januar 2026 ansat Mark-Oliver Junge, 26 år,  som software engineer. Han skal især beskæftige sig med at udvikle nye extensions, der gør godkendelsesprocesser mere fleksible, samt bygge infrastruktur til caller authentication. Han kommer fra en stilling som fullstack engineer hos Wayfare.ai. Han er uddannet Fachinformatiker für Anwendungsentwicklung, der betyder “ekspert i softwareudvikling”. Han har tidligere beskæftiget sig med udvikling af softwarearkitektur, DevOps og rammeværk til analyse + orkestrering af SQL-datapipelines. Nyt job
Alcadon ApS har pr. 1. januar 2026 ansat Thomas Møller Pedersen som Key Account Manager. Han skal især beskæftige sig med teknisk support og salg inden for FTTx/Telecom i Jylland og på Fyn. Nyt job
Connexa A/S har pr. 1. januar 2026 ansat Ivan Nielsen som IT Konsulent. Han skal især beskæftige sig med IT Infrastruktur og services. Han kommer fra en stilling som IT Konsulent hos IT Forum Gruppen A/S. Han har tidligere beskæftiget sig med IT Infrastruktur og konsulentopgaver. Nyt job

Ivan Nielsen

Connexa A/S

Sourcing IT har pr. 2. februar 2026 ansat Susanne Sønderskov som Salgsdirektør. Hun skal især beskæftige sig med at styrke Sourcing IT’s kommercielle fundament, skalere salgsindsatsen og øge tilstedeværelsen bl.a. hos jyske kunder. Hun kommer fra en stilling som Salgsdirektør hos Right People Group ApS. Hun har tidligere beskæftiget sig med salgsledelse inden for IT-freelanceleverancer og komplekse kundeaftaler, både privat og offentligt. Nyt job

Susanne Sønderskov

Sourcing IT