Artikel top billede

(Foto: Jametlene Reskp / Unsplash)

For tiden er sociale medier som LinkedIn fyldt med opslag om, at AI lyver mere og mere: Men computere og AI lyver aldrig

Klumme: En AI kan ikke lyve. At lyve kræver hensigt, bevidsthed og motivation. Computere vil aldrig have disse egenskaber, fordi de aldrig vil have en bevidsthed.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

For tiden er sociale medier som LinkedIn fyldt med opslag om, at AI lyver mere og mere. Der postes tekniske og ikke-tekniske opslag, hvor eksempelvis ChatGPT er kommet med falske svar og udsagn.

Det får folk til at konkludere, at AI lyver og endda gør det bevidst.

Der er noget paradoksalt i det udsagn, som viser, at vi er begyndt et menneskeliggøre teknologi på en måde, der er både fagligt forkert og skadelig for vores forhold til AI.

Det sprog, vi anvender, betyder noget

Sprogets grænser er min verdens grænser, skrev en berømt tysk filosof engang, og det indsigtsfulde citat gælder fortsat for os mennesker anno 2025.

Når vi i fællesskab forsøger at forstå AI bedre i disse år, så betyder det derfor også meget, hvordan vi taler om det.

Eksempelvis når vi kommer med udsagn som ’AI lyver’ og på den måde får gjort en maskine til et menneske.

En AI kan nemlig ikke lyve. At lyve kræver hensigt, bevidsthed og motivation. Computere vil aldrig have disse egenskaber, fordi de aldrig vil have en bevidsthed.

Hvorfor det er tilfældet, er vel forklaret bedst af verdens førende forsker i bevidsthed og AI – englænderen Anil Seth i hans fremragende TedTalk.

At lyve er en af mange egenskaber ved bevidste væsener som os, og computere har hverken bevidsthed eller intention.

Dog kan en computer selvfølgelig producere falsk eller vildledende information, og det bør vi kalde hallucination – ikke løgn.

Hvorfor? Fordi det ikke skyldes en intention, men derimod fejl i data, dårlige instruktioner eller begrænsninger i træningen. Det er ikke en løgn i etisk eller følelsesmæssig forstand, men en teknisk fejl.

Når det er sagt, hvis et menneske bevidst programmerer en AI til at levere falsk information, så bliver AI’en et værktøj for menneskeligt bedrag. I det tilfælde stammer løgnen fra mennesket – ikke maskinen.

Eksempler på "hallucinationer" - ikke løgne

Forestil dig, at du beder en sprogmodel nævne fem bøger skrevet af en dansk filosof, og den svarer med titler, hvor kun to af dem er ægte, og de andre er opfundet.

Det er ikke fordi modellen prøver at lyve. Den "hallucinerer".

Det sker, fordi den prøver at konstruere et svar, der statistisk ligner det, der kunne være rigtigt, men uden evnen til at verificere det mod en sandhedskilde.

Et andet eksempel er, når en AI foreslår kontaktinformation på en ekspert, som slet ikke eksisterer.

Her opstår fejlen ikke af ond vilje, men fordi modellen ikke har adgang til opdaterede eller validerede kilder og ikke forstår, at det den siger, kan have konsekvenser.

Hvad kan vi gøre - teknisk?

På det tekniske plan er der flere tiltag, der kan mindske dette problem med hallucinationer:

1. Brug af retrieval-augmented generation (RAG): Ved at kombinere en sprogmodel med en database eller en søgemaskine, kan modellen trække på verificerbare kilder i stedet for at "gætte" svar. Det er for eksempel den metode, der anvendes i værktøjer som Bing Chat og ChatGPT med browsing eller tilpassede datakilder.

2. Finetuning og evalueringsmetoder: Det er muligt at træne modeller på domænespecifikke data, hvor præcision og kontekst er vigtig – for eksempel jura, medicin eller offentlig forvaltning. Derudover anvendes evalueringssystemer, der kontinuerligt måler og retter op på fejl.

3. Brugerfeedback: Når brugere aktivt markerer fejlagtige svar, kan det bruges til at forbedre modellen. Det kræver dog, at brugerne er bevidste om, at de ikke interagerer med en "vidende" entitet, men med et avanceret tekstgenereringsværktøj.

Dertil kunne man tilføje, at taler vi specifikt ChatGPT, så bed den altid om at komme med kilder på dens svar og verificer selv, at disse kilder er valide.

På den måde bringer du også din egen menneskelighed og faglighed i spil og stoler ikke blindt på maskinen.

Hvad kan vi gøre - etisk?

Etisk set har både udviklere og brugere et ansvar:

1. Klar kommunikation: Det bør altid være tydeligt for brugere, at de interagerer med en maskine, og at svaret ikke nødvendigvis er sandt. Det er problematisk, når AI-systemer gives menneskelignende navne og stemmer, da det fremmer antropomorfisme.

2. Transparens og kildeangivelse: Når AI anvendes i beslutningsstøtte, skal der være mulighed for at se, hvilke kilder og data grundlaget bygger på. Det gælder især i sårbare situationer som retspleje, sundhed og myndighedsbehandling.

3. Ansvarlig implementering: Organisationer, der bruger AI, bør etablere retningslinjer for, hvor og hvordan AI må anvendes – og især hvor den ikke må anvendes uden menneskelig kontrol.

Mit budskab til dig er altså, at maskiner ikke lyver, men de svarer forkert. Disse forkerte svar skyldes som skrevet tekniske og metodiske begrænsninger, ikke ond hensigt.

At forstå denne forskel er afgørende, hvis vi vil udvikle og anvende teknologien ansvarligt. Jo bedre vi bliver til at kombinere AI med verificerbare data, og jo mere opmærksomme vi er på den etiske rammesætning, desto mere vil AI kunne blive et værdifuldt værktøj i stedet for en upålidelig samtalepartner.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.