Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Interessen for AI-systemer med kapacitet til at træffe egne beslutninger og handle proaktivt i komplekse miljøer vokser hurtigt.
Ifølge PwC’s globale AI Agent Survey fra maj 2025 planlægger 88 procent af virksomhedsledere at øge deres AI-budgetter i løbet af året, og 79 procent oplyser, at de allerede er begyndt at implementere agentisk AI.
Men ifølge samme rapport har kun et mindretal foretaget ændringer i deres arbejdsgange omkring AI. Det viser et gab mellem teknologiens potentiale og ansvarlig anvendelse af denne. Agentisk AI handler om meget mere end automatisering.
Det er intelligente systemer, som kan ræsonnere, træffe beslutninger og handle på baggrund af data og mål.
Potentialet er stort og spænder vidt – fra finans og sundhed til telekommunikation og industri.
Men for at realisere mulighederne på en langsigtet og bæredygtig måde skal agentisk AI udvikles ud fra klare principper, der sætter menneskelige værdier, etik og gennemsigtighed i centrum, og hvor styring og ansvar er indbygget i systemernes design fra begyndelsen.
Forskellige beslutninger kræver forskellige niveauer af autonomi
Det er vigtigt at forstå, at AI-agenter opererer inden for et spektrum af selvstændighed – fra fuldt selvkørende beslutninger ("human-out-of-the-loop") til beslutninger, der kræver menneskelig gennemgang og kontrol ("human-in-the-loop").
Hvor på denne skala en AI-agent bør placeres, afhænger af flere faktorer, som for eksempel: Hvor kompleks problemstillingen er, hvor hurtigt beslutningen skal træffes, hvilket område teknologien anvendes indenfor, hvilket formål den tjener, samt hvilke lovgivningsmæssige krav der gælder. Formålet har også stor betydning for, hvilken grad af selvstændighed, der er nødvendig.
Man skal derfor se på, hvorvidt det handler om effektivisering, sikkerhed, samfundsnytte eller kundekontakt.
Ved realtidsstyring af netværk eller logistik kan høj grad af selvstændighed både være effektivt og ønskværdigt. I højrisikoområder som kreditvurdering eller anbefalinger af diagnoser er menneskelig kontrol dog ikke længere en mulighed – det er en forudsætning og en etisk forpligtelse.
Transparens er ligeledes et vigtigt grundprincip for at skabe tillid til agentisk AI. Brugere og beslutningstagere skal kunne forstå, hvordan AI-agenter træffer beslutninger, og på hvilket datagrundlag, hvilke begrænsninger der findes, og hvordan systemerne håndterer usikkerhed. Ansvar er et andet afgørende princip.
Det skal være helt klart, hvem der har ansvaret for AI-agentens adfærd – fra udviklere og dataejere til forretningsansvarlige og virksomhedens ledelse.
Stærke styringsrammer er nødvendige for at definere roller og skabe sporbarhed omkring, hvordan beslutninger træffes og gennemføres. Dette er særligt vigtigt ved anvendelse i højrisikoområder.
Design med mennesket i centrum
AI-agenter skal fungere for alle – ikke kun for en privilegeret brugergruppe. Det kræver mangfoldighed og repræsentation i både udviklingsteams, træningsdata og brugertests. En AI, der kun virker for nogle, skaber ikke tillid hos nogen.
skal være udgangspunktet – ikke en eftertanke. Agentisk AI skal styrke og støtte menneskelige beslutninger, ikke erstatte dem.
Det kræver en systematisk vurdering af risiko, kompleksitet og påvirkning allerede fra start.
Robust og sikker AI i praksis: Nøglen til ansvarlig anvendelse
AI-agenter skal være både robuste og pålidelige – også i dynamiske og uforudsigelige miljøer. Systemerne skal kunne håndtere dataskift, uventede input og stressede situationer uden at træffe forkerte eller skadelige beslutninger.
Datasikkerhed og integritet er en anden kritisk faktor. Effektiv styring er ikke en barriere for innovation – det er en forudsætning for langsigtet og bæredygtig anvendelse af agentisk AI.
Ved at tage udgangspunkt i et klart principielt rammeværk med fokus på gennemsigtighed, ansvar, robusthed, sikkerhed, inklusion og med mennesket i centrum, kan virksomheder udvikle AIagenter, der ikke bare fungerer teknisk – men som også fortjener brugernes og samfundets tillid.
AI-agenter, der udvikles med disse principper, kan blive kraftfulde værktøjer, der styrker menneskelige beslutninger, øger effektiviteten og skaber nye konkurrencefordele. Men for at nå dertil kræver det velovervejede og principbaserede valg i hvert eneste led af udviklings- og implementeringsrejsen.
Tjekliste: Sådan bygger du ansvarlig agentisk AI – seks grundlæggende principper
- Gennemsigtighed: Forklar, hvordan beslutninger træffes, hvilke data der anvendes, og hvilke begrænsninger der findes.
- Menneskelig kontrol: Definér tydeligt, hvornår AI må handle selvstændigt, og hvornår menneskelig overvågning er nødvendig.
- Ansvar og roller: Gør det klart, hvem der har ansvar for AI-agentens adfærd og beslutninger – fra udvikling til drift.
- Robusthed: Test AI-systemerne mod uventede scenarier, og sørg for, at de kan håndtere ændringer i data og omgivelser.
- Inklusion: Sørg for at AI-systemet fungerer for alle brugergrupper og ikke forstærker bias.
- Datasikkerhed og integritet: Beskyt følsomme oplysninger, fx gennem datamærkning, adgangskontrol og sporbarhed.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.