Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Forestil dig, at du en dag står i retten, tiltalt for noget alvorligt. Og at du – i en ikke alt for fjern fremtid – får et valg:
1. En menneskelig dommer med mange års erfaring.
2. En generativ AI-sprogmodel, trænet på store mængder moderne juridisk praksis, lovgivning, menneskerettigheder, etik og samfundsdebat, som dommeren aktivt bruger i sin afgørelse.
Hvem/hvad ville du føle dig mest tryg ved?
I dag er svaret for de fleste stadig ret klart: Vi stoler grundlæggende mere på mennesker end på modeller.
Men hvad det egentlig er for forudsætninger, vi bygger den tillid på?
Fri vilje som retsstatens ubeviste fundament
Immanuel Kant mente, at moral kræver fri vilje: Hvis du ikke kunne have handlet anderledes, giver det ingen mening at tale om skyld.
Det paradoksale er, at fri vilje er et metafysisk (åndeligt) begreb. Vi kan ikke bevise den naturvidenskabeligt.
Samtidig peger psykologi, biologi og hjerneforskning i retning af, at vi i meget høj grad er formet af gener, opvækst, miljø og tilfældigheder – altså noget, der ligner determinisme (ideen om at alt der sker ikke kunne være sket anderledes).
Hvis vi tog den determinisme helt alvorligt i retssystemet, ville vi stå med et problem:
Hvordan dømmer man nogen som skyldig, hvis deres handlinger i bund og grund ”bare” er sidste led i en årsagskæde, de aldrig selv har valgt?
I praksis gør retsstaten derfor noget ret interessant: Vi forudsætter, at mennesker kan holdes ansvarlige for deres handlinger.
Vi opfører os som om fri vilje findes, uanset hvor svært det er at bevise eller begrunde filosofisk.
For ellers kan vi ikke tildele skyld og straf.
Når forklaringer ikke fjerner skyld
Tag et ekstremt og ubehageligt eksempel: en voldtægtsforbryder, som selv har været udsat for grov seksuel vold som barn.
Psykologisk kan det forklare meget af adfærden: traumer, forstyrrede grænser, manglende hjælp. Fra et deterministisk perspektiv kunne man sige, at det næsten ville være forventeligt, at personen udvikler destruktive mønstre.
Alligevel vælger vi som samfund at gå helt med på ideen om at forklaring fjerner skyld.
Vi kan godt tage hensyn, tilbyde behandling og se på formildende omstændigheder – men vi stopper ikke helt med at tilskrive ansvar.
Det interessante er, at den samme dobbelte logik gælder begge sider af retssalen:
Hvis vi ser forbryderen som et produkt af årsagskæder, må vi – strengt taget – også se dommeren sådan.
Dommeren som "lille model"
En dommer er ikke en abstrakt, neutral fornuft. En dommer er et menneske med:
• en bestemt social og kulturel baggrund,
• politiske holdninger og værdier,
• personlige erfaringer med bestemte typer sager og mennesker,
• et humør, der kan svinge fra dag til dag.
Forskning fra flere lande viser, at faktorer som race, social baggrund, køn – og endda tidspunktet på dagen – kan påvirke strafudmåling.
Menneskelige dommere er ikke fri for bias. De er – på godt og ondt – formet af deres liv.
Hvis man tænker det funktionel i tekniske billeder, kan man se dommeren som en "lille model", trænet på ét livs erfaringer, et begrænset antal sager.
Over for det har vi så sprogmodellerne.
De kan trænes på store mængder lovtekster, domme, juridiske kommentarer, internationale konventioner, menneskerettighedsdomstolens praksis, fagfællebedømt forskning og samfundsdebat.
Man kan se det som et komprimeret, statistisk udtryk for mange menneskers overvejelser om retfærdighed, skyld og straf inden for de rammer, vi i dag anerkender som acceptable.
Det gør ikke modellen neutral. Men det ændrer skalaen: fra én persons snævre erfaringshorisont til et bredere, men stadig kurateret udsnit af, hvordan vi forstår ret og uret.
AI-bias vs. menneskelig bias
Når man taler om AI i retssystemet, kommer nogle berettigede bekymringer hurtigt frem:
• Historiske data rummer racisme, sexisme og klasseskel – og det kan forplante sig til modellen.
• Visse grupper kan risikere at blive behandlet hårdere.
• Arkitekturen og filtrene ejes og styres af virksomheder eller stater med egne interesser.
Det er netop derfor, moderne AI-systemer til juridisk brug må bygges på opdateret lovgivning, nyere praksis og nutidige menneskerettighedsprincipper.
Alligevel er der en væsentlig forskel på bias i en model og bias hos et menneske:
• En model kan testes på mange tænkte og historiske sager, og er mere robust.
• Man kan måle systematisk, om den ofte dømmer hårdere i bestemte typer sager eller mod bestemte grupper.
• Man kan justere data, regler og målsætninger og se effekten.
En dommers indre bias er sværere at undersøge:
• Man har relativt få sager per dommer.
• Mange faktorer (lovændringer, typer af sager, samfundsklima) blander sig.
• Dommeren kan arbejde med sin egen bevidsthed om bias – men det er svært at ”debugge” systematisk udefra.
Spørgsmålet er derfor ikke, om AI er biased (det er den), men i stedet: Hvad er mest håndterbart?
Bias, der kan måles, dokumenteres og diskuteres – eller bias, der primært findes i et menneskes indre, private vurderinger?
En mulig fremtid: AI som med-dommer
Det betyder ikke, at dommere bør erstattes helt af sprogmodeller. Der er stærke grunde til, at det ville være problematisk, som for eksempel:
• Hvem bærer ansvaret ved fejl?
• Hvordan sikrer vi demokratisk kontrol og legitimitet?
• Vil borgere acceptere domme, der opleves som "afgørelsen fra en black-box"?
En mere realistisk og måske mere holdbar vision er, at AI i fremtiden bliver en med-dommer snarere end en erstatning eller stedfortræder:
• Modellen kan analysere tidligere sager og vise, hvordan lignende sager typisk dømmes i nutidig praksis.
• Den kan afdække, hvis der er systematiske forskelle i straf mellem forskellige grupper.
• Den kan generere argumenter og perspektiver, som dommeren ikke selv ville have tænkt på – som for eksempel fra andre retstraditioner inden for en moderne retsstatsramme eller fra mindretalsperspektiver.
• Den kan bruges til at efterprøve, om en påtænkt dom ligger inden for eller uden for et historisk og statistisk ”normalfelt” i nutidens retssamfund.
Dommeren beholder den rolle, vi i dag tillægger dommeren:
• at tage den konkrete, ansvarlige beslutning.
• at vælge, hvornår det er rigtigt at følge praksis – og hvornår det er rigtigt at bryde den.
• at stå som et menneskeligt, synligt og begrundende ansigt for dommen.
Hvad ville du selv vælge?
Hvis udviklingen fortsætter, er det ikke urealistisk, at fremtidens retssager i højere grad vil kombinere menneskelig dømmekraft, systematisk dataanalyse, og store sprogmodeller som juridiske og etiske "sparringspartnere".
Tilbage står et spørgsmål, som ikke har noget entydigt facit:
Hvis du en dag skulle dømmes for noget – ville du så helst have en dom, der kun bygger på ét menneskes erfaringer og intuition, eller en dom, hvor et menneske tager beslutningen, men i åbent samråd med et statistisk spejl af, hvordan mange mennesker i en moderne retsstat ville have dømt dig?
Det er måske der, den egentlige debat begynder: Ikke i ”menneske vs. maskine”, men gennem forskellige måder at kombinere dem på, når vi taler om noget så følsomt som retfærdighed.
Jeg ser allerede første skridt i dag:
Vi er begyndt at bede sprogmodellen være objektiv og kritisk, og dernæst vurdere en situation hvor vi ønsker at gennemskue vores egen bias som del af en konflikt eller diskussion vi står i- eller måske endda benytte det objektive svar til at overbevise en modpart om deres egen manglende objektivitet.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.