Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
De fleste virksomheder, der tester AI-agenter, gør det i sandkasser med begrænset adgang og overskuelig trafik. Men en agent i produktion er noget helt andet.
En AI-agent i netværket er et softwareprogram, der udfører opgaver på vegne af en medarbejder, typisk rutineopgaver eller tidskrævende processer, som ellers ville lægge beslag på menneskelige ressourcer.
Modsat en sprogmodel, der svarer på spørgsmål, handler en agent selvstændigt. Den kalder API’er, henter data fra flere kilder og tager beslutninger uden at vente på et menneske.
I praksis betyder det, at en agent kan køre 10 processer parallelt, vente på svar fra tre systemer og allerede have sat den næste kæde i gang.
Det er øst-vest-trafik i stedet for nord-syd. Og de færreste virksomheders netværk er bygget til det.
Infrastrukturen er ikke på plads
Når vi spørger virksomhedsledere, hvor klar deres infrastruktur er til AI, vurderer kun 15 procent, at deres netværk kan håndtere det — selvom 83 procent planlægger at tage agenter i brug inden for et år.
Syv ud af otte virksomheder er med andre ord ved at forpligte sig til noget, deres fundament ikke kan bære.
Det stiller fundamentalt andre krav til den underliggende infrastruktur. Båndbredde, latency og lokal compute-kapacitet skal dimensioneres til kontinuerlig belastning — også når bygningen er tom, fordi agenter ikke holder fyraften.
Men infrastruktur er kun halvdelen af udfordringen. En agent, der skal udføre sit job, har brug for adgang til data. Ofte følsomme data. Og den adgang skal kontrolleres præcis lige så strengt som adgangen for en medarbejder med den forskel, at en agent kan nå tusindvis af datapunkter på sekunder, hvor et menneske når 10.
Det kræver, at hvert enkelt kald verificeres. Hvem - eller hvad - anmoder om adgang? Har den pågældende agent lov til at tilgå netop disse data? Og gælder den tilladelse stadig, eller er den udløbet?
Det kræver segmentering. Netværket skal opdeles, så en agent kun kan nå de systemer og data, den faktisk har brug for. Uden segmentering kan en kompromitteret agent bevæge sig frit på tværs af netværket og nå data, den aldrig burde have adgang til. Det er det samme princip, vi kender fra zero trust-arkitektur - aldrig at stole blindt på nogen bruger eller enhed - men nu med en ny type aktør.
Agenter bevæger sig hurtigere end menneskelige brugere, de arbejder døgnet rundt, og de følger mønstre, der gør dem både lettere at forudsige og potentielt farligere, hvis de afviger.
Her bliver koblingen mellem AI og netværkssikkerhed afgørende. Når agenter opererer i segmenterede netværk, genererer de trafikmønstre, der kan analyseres i realtid. Afviger en agents adfærd fra det forventede - tilgår den data, den ikke plejer, eller kommunikerer med systemer uden for sit normale mønster - kan netværket selv reagere og isolere truslen.
Den synlighed er nødvendig for hurtig reaktion, men svær at opnå med traditionel monitorering.
Mængden af øst-vest-trafik fra agenter overstiger simpelthen, hvad et menneske kan overskue manuelt.
Netværket skal kunne observere og handle selv.
Bliver 2026 agenternes år?
Mange spår, at 2026 bliver året, hvor AI-agenter for alvor rykker ind i dansk erhvervsliv.
Emnet vil fylde ved direktionsbordene.
Men når det gælder netværkskapacitet og sikkerhedsarkitektur, er CTO’en den eneste ved bordet, der reelt ved, om fundamentet holder.
Det er en blind vinkel, som sjældent er på agendaen, når AI-strategien lægges.
Det burde den være.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.