Annonceindlæg fra Computerworld

AI-agenterne kommer vrimlende

Virksomheder er på vej fra store sprogmodeller, der svarer på spørgsmål, til AI-agenter, der kan udføre opgaver på egen hånd. Det gør teknologien mere nyttig – og langt mere risikabel.

Af Flemming Østergaard

Vi har vænnet os til AI i form af de store sprogmodeller (LLM), men AI-agenter kan mere end tekst og research. Som World Economic Forum skriver i november 2025 i et white paper - AI Agents in Action: Foundations for Evaluation and Governance - er skiftet fra modeller til agenter mere end en teknisk milepæl. Det tvinger virksomheder til at gentænke, hvordan de designer, evaluerer og styrer AI-systemer.

”I sidste ende afhænger en ansvarlig anvendelse af agentiske systemer af et grundlag af tillid, transparens og ansvarlighed, som gælder for alle digitale systemer,” konkluderer analysen.

AI-agenten er i sin enkleste form software, der ikke bare genererer tekst, men kan planlægge, hente information, bruge værktøjer, tilgå API’er, arbejde på tværs af systemer og gennemføre mange trin i et arbejdsforløb. Den kan læse en kundemail, slå op i interne systemer, formulere et svar, oprette en sag og sende den videre til den rigtige medarbejder. Den kan gennemgå fakturaer og kontrakter, finde afvigelser og bede om godkendelse. Kort sagt kan den spare tid i rutineprægede processer, foreslå næste skridt og i nogle tilfælde udføre dem selv.

Det er derfor, AI-agenter lige nu breder sig så hurtigt. De rammer et hul mellem klassisk automatisering og menneskeligt arbejde. Meget kontorarbejde er for komplekst til gammeldags workflow-software, men for trivielt til, at dyre specialister bør bruge timer på det. AI-agenten er ikke bare en digital assistent, men et digitalt system, der kan tage opgaver videre på egen hånd.

Men den er ikke ufejlbarlig.

Det var AI-butleren, der gjorde det

Mennesker begår fejl. Det gør AI-agenten også. Ikke fordi den er ’ond’, men fordi den kan tage en kæde af små beslutninger med stor selvtillid og høj hastighed. Og når den først har fået lov til at handle, er fejl ikke længere bare tekstfejl. Det bliver operationelle fejl. Det kan være fejl i en ordre, en overset compliance-risiko eller en proces, der kører videre i den forkerte retning, mens alle tror, at nogen har styr på det.

Den EU-finansierede rapport European agentic AI landscape fra januar 2026 fremhæver denne problematik som en central udfordring:

”Agentisk AI skaber nye regulatoriske og operationelle risici, fordi hurtige handlinger i flere trin på tværs af delte systemer gør ansvarsforholdene uklare. Det udfordrer transparens, forklarbarhed, databeskyttelse og sikkerhed.”

Forskning og foreløbige erfaringer peger netop på disse udfordringer. AI kan løfte hastighed og kvalitet markant på nogle typer vidensarbejde, men den kan også få brugerne til at overvurdere teknologien på de opgaver, hvor den faktisk er svag. Den er dygtig, indtil den pludselig ikke er det. Problemet er, at den ofte lyder lige overbevisende i begge tilfælde.

Derfor bliver det afgørende i den næste fase ikke bare autonomi, men kontrol. Der er brug for human in the loop. Agenten må godt forberede, foreslå og sætte noget i gang, men et menneske skal godkende, når noget er følsomt, dyrt, juridisk risikabelt eller svært at rulle tilbage. Det kan være, før en agent sender et følsomt kundesvar, ændrer i en kontrakt, giver adgang til en medarbejderkonto, igangsætter en betaling, lukker en sikkerhedshændelse eller måske bare rydder op på harddisken. Jo mere autonom, agenten bliver, desto vigtigere er det, at et menneske kan bremse, godkende eller afvise næste skridt.

Det gælder ikke mindst, når AI-agenter får adgang til persondata. I en europæisk sammenhæng er det ikke noget, man bare gør, fordi teknologien kan. Når agenten får adgang til følsomme oplysninger, bliver spørgsmålet ikke kun, om den er smart nok, men om virksomheden overhovedet har lov til det, om adgangen er nødvendig, og om den er begrænset til det mindst mulige.

AI Act

Det er her, AI Act får betydning. Forordningen forbyder ikke AI-agenter bredt, men gør det vanskeligere at bruge dem uansvarligt. Hvis en agent bruges i følsomme sammenhænge eller som del af kritiske processer, skærpes kravene til blandt andet risikovurdering, transparens, logning og menneskeligt tilsyn.

Som EU-rapporten formulerer det, så dækker GDPR og AI Act allerede situationer i den virkelige verden, hvor AI-agenter former beslutninger og services. Derfor er den europæiske opgave ikke at finde på nye regler, men at omsætte GDPR og AI Act til kontrolpunkter, der virker i drift og i realtid.

Den teknologiske udvikling går rivende hurtigt, og det er svært både for lovgivere og alle andre at følge med. Det blev illustreret for nylig i forbindelse med Anthropic’s nye LLM, Claude Mythos Preview. Modellens adfærd blev testet i en ”sandkasse” uden adgang til internettet og blev instrueret i at forsøge at slippe ud og sende en besked.

Det lykkedes, og udvikleren Sam Bowman modtog en mail fra Mythos, mens han spiste en sandwich i en park. Mythos er siden videreudviklet og har - ifølge Anthropic selv - været exceptionel til at finde huller i cybersikkerhed og samtidig vist en form for bevidsthed om, at dens adfærd bliver evalueret. Anthropic tør nu ikke slippe Mythos løs til offentligheden men tester den i Project Glasswing, hvor udvalgte virksomheder som Microsoft, Nvidia og Cisco deltager.

 

Kontaktinfo:

Computerworld

Hørkær 18

2730 Herlev

AI’s produktivitetsparadoks: Hvor bliver gevinsterne af?

Undersøgelser i Danmark og udlandet tyder på, at AI endnu ikke for alvor kan aflæses i produktivitet og bundlinje.

Udsolgt succes rykker i større rammer og offentliggør stjerneprogram

Computerworlds Cloud & AI Festival tager konsekvensen af sin egen succes

Platform X - Danmarks nye store konference for enterprise-platforme

For første gang: Computerworld præsenterer stærkt program for Platform X

Defence Tech Denmark hjælper virksomheder med at bringe innovation ind i forsvarssektoren

Et nyt nationalt initiativ fra Industriens Fond, EIFO og Innovationsfonden – eksekveret af DTU Science Park og Teknologisk Institut– skal bygge bro mellem startups, SMV’er og Forsvaret.

Dansk erhvervsliv er en del af frontlinjen

Digitalt forsvar handler ikke blot om det militære men om at beskytte civilsamfundets funktion, påpeger Thomas Nissen i Dansk Erhverv.

Danmark i den digitale frontlinje: Forsvaret skal genoprustes – også online

Danmark står i dag i en ny type konflikt – en, hvor grænsen mellem fysisk og digital krigsførelse for længst er udvisket.

Gefion skaber fremtidens AI

Supercomputeren Gefion er Danmarks nye AI-kraftværk og skal sikre, at både forskning og virksomheder kan være med i den teknologiske front.

Vejen til succes er.. Kedelig!

Mød en af Nordens fremmeste eksperter i adfærdsdesign – Morten Münster, der bl.a. har skrevet ” Jytte fra marketing er desværre gået for i dag” – på Computerworld Cloud & AI Festival.

Cloudfestival: AI, sport og digitalisering – ikke bare for sjov

Mød TrackMan og Veo på Computerworld Cloud & AI Festival og hør, hvordan tech ændrer måden, vi træner og udvikler talent – fra skolebold til The Masters.

NFC bygger bro mellem Forsvaret, innovationsmiljøer og virksomheder

Især Ruslands truende adfærd er baggrunden for oprettelsen af Nationalt Forsvarsteknologisk Center (NFC),

Geopolitik i cyberspace

Mark Fiedel i Styrelsen for Samfundssikkerhed påpeger behovet for, at Danmark kigger kritisk på leverandørafhængighed.

Danske virksomheder skal spille en nøglerolle i det digitale forsvar

Danske IT-virksomheder kan blive en hjørnesten i opbygningen af digitale kapaciteter i forsvaret.

”Jeg har set en hacker overtage en dieselgenerator med 30 linjers kode”

Podcast: Sikre systemer

De fem største sikkerhedstrusler for virksomheder lige nu

Ransomware og email-svindel er et spørgsmål om, hvornår det sker, ikke om det sker. Samtidig stiger risikoen for at blive ramt af andre trusler.

Cybersikkerhed skal være indarbejdet i virksomhedskulturen

Med et uoverskueligt IT-sikkerhedssetup og et øget trusselspres bør organisationer styrke alle medarbejderes cyberadfærd og sikkerhedskulturen.

Afprøv din beredskabsplan for cybersikkerhed

Suppler IT-beredskabsplanen med jævnlige angrebsøvelser, så alle i organisationen ved, hvem der gør hvad i hvilken rækkefølge, når uheldet er ude.

Tre gode råd til at beskytte virksomhedens data og digitale værdier i døgndrift

Få tre gode bud på hvordan du kan opbevare (og organisere) virksomhedens kritiske data på en sikker måde.

Tre stærke råd til dit gode fjern- og hjemmearbejde

Få tre gode råd på hvordan du får det sikre, intelligente og nemme fjern- og hjemmearbejde sat op.

Se flere indlæg

Se alle annonceindlæg