Af Flemming Østergaard
Vi har vænnet os til AI i form af de store sprogmodeller (LLM), men AI-agenter kan mere end tekst og research. Som World Economic Forum skriver i november 2025 i et white paper - AI Agents in Action: Foundations for Evaluation and Governance - er skiftet fra modeller til agenter mere end en teknisk milepæl. Det tvinger virksomheder til at gentænke, hvordan de designer, evaluerer og styrer AI-systemer.
”I sidste ende afhænger en ansvarlig anvendelse af agentiske systemer af et grundlag af tillid, transparens og ansvarlighed, som gælder for alle digitale systemer,” konkluderer analysen.
AI-agenten er i sin enkleste form software, der ikke bare genererer tekst, men kan planlægge, hente information, bruge værktøjer, tilgå API’er, arbejde på tværs af systemer og gennemføre mange trin i et arbejdsforløb. Den kan læse en kundemail, slå op i interne systemer, formulere et svar, oprette en sag og sende den videre til den rigtige medarbejder. Den kan gennemgå fakturaer og kontrakter, finde afvigelser og bede om godkendelse. Kort sagt kan den spare tid i rutineprægede processer, foreslå næste skridt og i nogle tilfælde udføre dem selv.
Det er derfor, AI-agenter lige nu breder sig så hurtigt. De rammer et hul mellem klassisk automatisering og menneskeligt arbejde. Meget kontorarbejde er for komplekst til gammeldags workflow-software, men for trivielt til, at dyre specialister bør bruge timer på det. AI-agenten er ikke bare en digital assistent, men et digitalt system, der kan tage opgaver videre på egen hånd.
Men den er ikke ufejlbarlig.
Det var AI-butleren, der gjorde det
Mennesker begår fejl. Det gør AI-agenten også. Ikke fordi den er ’ond’, men fordi den kan tage en kæde af små beslutninger med stor selvtillid og høj hastighed. Og når den først har fået lov til at handle, er fejl ikke længere bare tekstfejl. Det bliver operationelle fejl. Det kan være fejl i en ordre, en overset compliance-risiko eller en proces, der kører videre i den forkerte retning, mens alle tror, at nogen har styr på det.
Den EU-finansierede rapport European agentic AI landscape fra januar 2026 fremhæver denne problematik som en central udfordring:
”Agentisk AI skaber nye regulatoriske og operationelle risici, fordi hurtige handlinger i flere trin på tværs af delte systemer gør ansvarsforholdene uklare. Det udfordrer transparens, forklarbarhed, databeskyttelse og sikkerhed.”
Forskning og foreløbige erfaringer peger netop på disse udfordringer. AI kan løfte hastighed og kvalitet markant på nogle typer vidensarbejde, men den kan også få brugerne til at overvurdere teknologien på de opgaver, hvor den faktisk er svag. Den er dygtig, indtil den pludselig ikke er det. Problemet er, at den ofte lyder lige overbevisende i begge tilfælde.
Derfor bliver det afgørende i den næste fase ikke bare autonomi, men kontrol. Der er brug for human in the loop. Agenten må godt forberede, foreslå og sætte noget i gang, men et menneske skal godkende, når noget er følsomt, dyrt, juridisk risikabelt eller svært at rulle tilbage. Det kan være, før en agent sender et følsomt kundesvar, ændrer i en kontrakt, giver adgang til en medarbejderkonto, igangsætter en betaling, lukker en sikkerhedshændelse eller måske bare rydder op på harddisken. Jo mere autonom, agenten bliver, desto vigtigere er det, at et menneske kan bremse, godkende eller afvise næste skridt.
Det gælder ikke mindst, når AI-agenter får adgang til persondata. I en europæisk sammenhæng er det ikke noget, man bare gør, fordi teknologien kan. Når agenten får adgang til følsomme oplysninger, bliver spørgsmålet ikke kun, om den er smart nok, men om virksomheden overhovedet har lov til det, om adgangen er nødvendig, og om den er begrænset til det mindst mulige.
AI Act
Det er her, AI Act får betydning. Forordningen forbyder ikke AI-agenter bredt, men gør det vanskeligere at bruge dem uansvarligt. Hvis en agent bruges i følsomme sammenhænge eller som del af kritiske processer, skærpes kravene til blandt andet risikovurdering, transparens, logning og menneskeligt tilsyn.
Som EU-rapporten formulerer det, så dækker GDPR og AI Act allerede situationer i den virkelige verden, hvor AI-agenter former beslutninger og services. Derfor er den europæiske opgave ikke at finde på nye regler, men at omsætte GDPR og AI Act til kontrolpunkter, der virker i drift og i realtid.
Den teknologiske udvikling går rivende hurtigt, og det er svært både for lovgivere og alle andre at følge med. Det blev illustreret for nylig i forbindelse med Anthropic’s nye LLM, Claude Mythos Preview. Modellens adfærd blev testet i en ”sandkasse” uden adgang til internettet og blev instrueret i at forsøge at slippe ud og sende en besked.
Det lykkedes, og udvikleren Sam Bowman modtog en mail fra Mythos, mens han spiste en sandwich i en park. Mythos er siden videreudviklet og har - ifølge Anthropic selv - været exceptionel til at finde huller i cybersikkerhed og samtidig vist en form for bevidsthed om, at dens adfærd bliver evalueret. Anthropic tør nu ikke slippe Mythos løs til offentligheden men tester den i Project Glasswing, hvor udvalgte virksomheder som Microsoft, Nvidia og Cisco deltager.