Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Forestil dig, at du åbner Digital Post. Din boligstøtte er blevet genberegnet. Dit skattefradrag er afvist. Din ansøgning om handicapstøtte er markeret til "yderligere automatiseret vurdering".
Og nederst i beskeden møder du denne bemærkning: Denne afgørelse er truffet på baggrund af kunstig intelligens.
Intet navn. Ingen sagsbehandler. Ingen menneskelig underskrift.
Dette er ikke et urealistisk fremtidsscenarie.
Offentlige myndigheder undersøger og implementerer allerede systemer med kunstig intelligens, der kan understøtte sagsbehandling inden for skat, velfærd, beskæftigelse og på udlændingeområdet.
Den politiske logik er til at få øje på: Hurtigere sagsbehandling, styrket opdagelse af svindel og en klogere prioritering af sparsomme offentlige ressourcer.
Danmark har i årtier digitaliseret den offentlige sektor og ligger konsekvent i toppen, når FN rangerer verdens mest digitale offentlige tjenester. AI fremstår naturligt som det næste skridt.
Men når udøvelsen af offentlig myndighed delegeres til algoritmer og kunstig intelligens, skal vi overveje tingene grundigt.
En spænding mellem automatisering af myndighed og demokratisk legitimitet
I min nylige tiltrædelsesforelæsning som professor på Copenhagen Business School satte jeg fokus på det, jeg ser som et af de mest afgørende dilemmaer i offentlig digitalisering, balancen mellem automatisering af myndighedsudøvelse og demokratisk legitimitet.
Spørgsmålet er ikke, om AI kan understøtte den offentlige forvaltning. Det gør den allerede.
Spørgsmålet er, hvad der sker med den demokratiske legitimitet og ansvarlighed, når afgørelser, der påvirker borgeres rettigheder og pligter, formes, filtreres eller ligefrem besluttes af AI-modeller.
Potentialet er reelt. Mange offentlige afgørelser er regelbaserede og gentages igen og igen.
Et system, der er trænet på tusindvis af tidligere sager, kan hurtigt identificere manglende dokumentation, opdage uoverensstemmelser og pege på sandsynlige udfald.
Chatbots, baseret på store sprogmodeller, kan besvare borgerhenvendelser med det samme. Kommuner kan nedbringe lange ventetider. Skattemyndigheder kan afdække komplekse svindelmønstre, som ellers ville forblive skjulte.
Effektiviteten stiger. Konsistensen kan blive bedre. Omkostningerne kan falde.
Men offentlig forvaltning handler ikke kun om gennemstrømning. Det handler om at udøve offentlig myndighed på samfundets og borgernes vegne. Og i et demokrati skal myndighed og ansvar kunne forklares, placeres og anfægtes.
Når en menneskelig sagsbehandler træffer en afgørelse, er ansvaret synligt. Når et AI-system forudsiger manglende berettigelse på baggrund af mønstre i historiske data, bliver ansvaret mere diffust.
Er det udvikleren, der designede modellen? Lederen, der indkøbte den? Myndigheden, der konfigurerede den? Eller de folkevalgte, der godkendte dens anvendelse?
AI-systemer anvender ikke blot loven. De arbejder med sandsynligheder og korrelationer. De lærer af tidligere afgørelser. De indlejrer mønstre.
Dermed indbygger de uundgåeligt tidligere fortolkninger af politik, institutionelle praksisser og samfundsmæssige bias. Skøn forsvinder ikke – det flytter ind i valget af data, modeldesign og fastsættelsen af tærskelværdier.
Politikfortolkning flytter i stigende grad ind i algoritmer. Og algoritmer er ikke demokratisk valgte.
Regulering er ikke nok
Danmarks nationale strategi fremhæver ansvarlig og effektiv anvendelse af AI i den offentlige sektor.
På europæisk plan indfører den nye "AI Act" beskyttelsesmekanismer for såkaldte højrisikosystemer, herunder krav om gennemsigtighed og menneskeligt tilsyn. Den type regulering er afgørende.
Den anerkender, at automatiserede beslutningssystemer inden for eksempelvis velfærd, skat og migration ikke er almindelige it-værktøjer.
De er redskaber til myndighedsudøvelse.
Men regulering alene sikrer ikke legitimitet.
Det grundlæggende spørgsmål er, om borgere oplever AI-baserede afgørelser som en del af et system, de forstår og kan påvirke. Hvis en ansøger om velfærdsydelser modtager et afslag baseret på en automatisk udregnet score, bliver den proceduremæssige retfærdighed afgørende.
Kan vedkommende forstå, hvorfor afgørelsen blev truffet? Kan den udfordres på en meningsfuld måde? Findes der et kompetent menneske med mandat til at genoverveje resultatet?
Vigtigheden af tværfaglige AI-kompetencer
Her bliver debatten ofte for teknisk. Vi diskuterer modelperformance, datakvalitet og compliance-krav. Alt det er vigtigt. Men den centrale udfordring er ikke kun teknologisk – den er institutionel og uddannelsesmæssig.
Nøglen til at håndtere spændingen mellem automatiseret myndighed og demokratisk legitimitet er solide AI-kompetencer. Ikke en snæver forståelse af kompetencer, hvor indsigt reduceres til kodning eller matematisk ekspertise. De kompetencer, vi har brug for, går på tværs af fagområder.
Offentligt ansatte skal ikke kun forstå, hvordan en algoritme genererer et output, men også hvordan dette output ændrer skøn, ansvar og ansvarlighed.
De skal kunne stille kritiske spørgsmål til systemerne, udfordre designvalg og vide, hvornår menneskelig vurdering skal veje tungest.
Ledere skal forstå risici ved indkøb og de styringsmæssige konsekvenser. Beslutningstagere skal kunne se, hvordan regulering spiller sammen med tekniske arkitekturer.
Borgere skal kende deres rettigheder i mødet med automatiserede afgørelser og vide, hvordan de kan gøre indsigelse.
Uden disse bredere kompetencer risikerer automatisering og anvendelse af AI at samle magten hos tekniske eksperter og leverandører, mens den demokratiske kontrol halter bagefter.
Universiteter spiller derfor en langt vigtigere rolle end blot at levere data scientists til arbejdsmarkedet.
De er en del af den demokratiske infrastruktur i den digitale stat. Her kan ingeniører lære om forvaltningsret og etik. Her kan jurister få indsigt i algoritmiske systemer.
Her kan fremtidens offentlige administratorer udvikle de kompetencer, der skal til for at forvalte teknologi ansvarligt.
Det er på uddannelsesinstitutionerne, at danske borgere gennem livslang læring skal tilegne sig og styrke den tværfaglige forståelse, der gør os i stand til at styre AI – frem for at blive styret af den.
Så hvad, hvis din sag behandles af en AI?
Hvis automatisering og AI forankres i stærke institutioner, overvåges af kompetente offentligt ansatte og understøttes af reelle muligheder for begrundelser og klage, kan den styrke velfærdsstaten.
Den kan nedbringe ventetider og øge konsistensen i sagsbehandlingen uden at gå på kompromis med retfærdigheden.
Men hvis den indføres som en ren effektiviseringsopgradering uden investering i kompetencer, tilsyn og demokratisk debat, risikerer den at svække det synlige bånd mellem borger og stat.
Effektivitet kan måles i sekunder sparet pr. sag. Demokratisk legitimitet måles i tillid og er mere usynlig.
Når den offentlige sektor i Danmark træder ind i AI-alderen, bør vi huske, at det afgørende spørgsmål ikke er, om algoritmer kan træffe afgørelser.
Det er, om vi som demokratisk samfund bevarer kontrollen med, hvordan myndighed udøves i vores navn. Det ansvar kan ikke delegeres til maskiner.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.