For tiden er sociale medier som LinkedIn fyldt med opslag om, at AI lyver mere og mere: Men computere og AI lyver aldrig

Klumme: En AI kan ikke lyve. At lyve kræver hensigt, bevidsthed og motivation. Computere vil aldrig have disse egenskaber, fordi de aldrig vil have en bevidsthed.

Artikel top billede

(Foto: Jametlene Reskp / Unsplash)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

For tiden er sociale medier som LinkedIn fyldt med opslag om, at AI lyver mere og mere. Der postes tekniske og ikke-tekniske opslag, hvor eksempelvis ChatGPT er kommet med falske svar og udsagn.

Det får folk til at konkludere, at AI lyver og endda gør det bevidst.

Der er noget paradoksalt i det udsagn, som viser, at vi er begyndt et menneskeliggøre teknologi på en måde, der er både fagligt forkert og skadelig for vores forhold til AI.

Det sprog, vi anvender, betyder noget

Sprogets grænser er min verdens grænser, skrev en berømt tysk filosof engang, og det indsigtsfulde citat gælder fortsat for os mennesker anno 2025.

Når vi i fællesskab forsøger at forstå AI bedre i disse år, så betyder det derfor også meget, hvordan vi taler om det.

Eksempelvis når vi kommer med udsagn som ’AI lyver’ og på den måde får gjort en maskine til et menneske.

En AI kan nemlig ikke lyve. At lyve kræver hensigt, bevidsthed og motivation. Computere vil aldrig have disse egenskaber, fordi de aldrig vil have en bevidsthed.

Hvorfor det er tilfældet, er vel forklaret bedst af verdens førende forsker i bevidsthed og AI – englænderen Anil Seth i hans fremragende TedTalk.

At lyve er en af mange egenskaber ved bevidste væsener som os, og computere har hverken bevidsthed eller intention.

Dog kan en computer selvfølgelig producere falsk eller vildledende information, og det bør vi kalde hallucination – ikke løgn.

Hvorfor? Fordi det ikke skyldes en intention, men derimod fejl i data, dårlige instruktioner eller begrænsninger i træningen. Det er ikke en løgn i etisk eller følelsesmæssig forstand, men en teknisk fejl.

Når det er sagt, hvis et menneske bevidst programmerer en AI til at levere falsk information, så bliver AI’en et værktøj for menneskeligt bedrag. I det tilfælde stammer løgnen fra mennesket – ikke maskinen.

Eksempler på "hallucinationer" - ikke løgne

Forestil dig, at du beder en sprogmodel nævne fem bøger skrevet af en dansk filosof, og den svarer med titler, hvor kun to af dem er ægte, og de andre er opfundet.

Det er ikke fordi modellen prøver at lyve. Den "hallucinerer".

Det sker, fordi den prøver at konstruere et svar, der statistisk ligner det, der kunne være rigtigt, men uden evnen til at verificere det mod en sandhedskilde.

Et andet eksempel er, når en AI foreslår kontaktinformation på en ekspert, som slet ikke eksisterer.

Her opstår fejlen ikke af ond vilje, men fordi modellen ikke har adgang til opdaterede eller validerede kilder og ikke forstår, at det den siger, kan have konsekvenser.

Hvad kan vi gøre - teknisk?

På det tekniske plan er der flere tiltag, der kan mindske dette problem med hallucinationer:

1. Brug af retrieval-augmented generation (RAG): Ved at kombinere en sprogmodel med en database eller en søgemaskine, kan modellen trække på verificerbare kilder i stedet for at "gætte" svar. Det er for eksempel den metode, der anvendes i værktøjer som Bing Chat og ChatGPT med browsing eller tilpassede datakilder.

2. Finetuning og evalueringsmetoder: Det er muligt at træne modeller på domænespecifikke data, hvor præcision og kontekst er vigtig – for eksempel jura, medicin eller offentlig forvaltning. Derudover anvendes evalueringssystemer, der kontinuerligt måler og retter op på fejl.

3. Brugerfeedback: Når brugere aktivt markerer fejlagtige svar, kan det bruges til at forbedre modellen. Det kræver dog, at brugerne er bevidste om, at de ikke interagerer med en "vidende" entitet, men med et avanceret tekstgenereringsværktøj.

Dertil kunne man tilføje, at taler vi specifikt ChatGPT, så bed den altid om at komme med kilder på dens svar og verificer selv, at disse kilder er valide.

På den måde bringer du også din egen menneskelighed og faglighed i spil og stoler ikke blindt på maskinen.

Hvad kan vi gøre - etisk?

Etisk set har både udviklere og brugere et ansvar:

1. Klar kommunikation: Det bør altid være tydeligt for brugere, at de interagerer med en maskine, og at svaret ikke nødvendigvis er sandt. Det er problematisk, når AI-systemer gives menneskelignende navne og stemmer, da det fremmer antropomorfisme.

2. Transparens og kildeangivelse: Når AI anvendes i beslutningsstøtte, skal der være mulighed for at se, hvilke kilder og data grundlaget bygger på. Det gælder især i sårbare situationer som retspleje, sundhed og myndighedsbehandling.

3. Ansvarlig implementering: Organisationer, der bruger AI, bør etablere retningslinjer for, hvor og hvordan AI må anvendes – og især hvor den ikke må anvendes uden menneskelig kontrol.

Mit budskab til dig er altså, at maskiner ikke lyver, men de svarer forkert. Disse forkerte svar skyldes som skrevet tekniske og metodiske begrænsninger, ikke ond hensigt.

At forstå denne forskel er afgørende, hvis vi vil udvikle og anvende teknologien ansvarligt. Jo bedre vi bliver til at kombinere AI med verificerbare data, og jo mere opmærksomme vi er på den etiske rammesætning, desto mere vil AI kunne blive et værdifuldt værktøj i stedet for en upålidelig samtalepartner.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Læses lige nu

    Forsvarsministeriets Materiel- og Indkøbsstyrelse

    Cyberdivisionen søger en IT-supporterelev til lokal IT servicecenter i Ballerup

    Københavnsområdet

    Netcompany A/S

    Linux Operations Engineer

    Midtjylland

    Forsvarsministeriets Materiel- og Indkøbsstyrelse

    Kickstart din IT-karriere som IT-supporterelev på Flyvestation Aalborg

    Nordjylland

    Event: Platform X 2026: Forretning, teknologi og transformation

    It-løsninger | København V

    Mød verdens stærkeste og mest effektive platforme der driver den digitale transformation samlet i København - og dyk ned i den nyeste teknologi.

    27 maj 2026 | Gratis deltagelse

    Navnenyt fra it-Danmark

    Netip A/S har pr. 1. februar 2026 ansat Henrik Mejnhardt Nielsen som ny kollega til Product Sales Teamet i Herlev. Han kommer fra en stilling som Business Development Manager hos Arrow. Nyt job
    Pinksky har pr. 1. maj 2026 ansat Alexander Skou Henkel, 39 år,  som Rådgivende konsulent. Han skal især beskæftige sig med optimering af forretningsprocesser i Microsoft platformen. Han kommer fra en stilling som IT forretningskonsulent hos Evobis ApS. Han har tidligere beskæftiget sig med forretningsudvikling i Microsoft platformen. Nyt job
    Khaled Zamzam, er pr. 1. marts 2026 ansat hos Immeo som Consultant. Han er nyuddannet i Informationsteknologi fra DTU. Nyt job
    IFS Danmark A/S har pr. 2. marts 2026 ansat Marlene Gudman som HR Business Partner. Hun skal især beskæftige sig med HR i Danmark og Norden og lede udvalgte internationale HR-projekter. Hun kommer fra en stilling som Nordic Lead HR Business Partner hos Salesforce. Hun har tidligere beskæftiget sig med international HR med fokus på udvikling af og udfordringer i HR ud fra et forretningsperspektiv. Nyt job

    Marlene Gudman

    IFS Danmark A/S