Artikel top billede

(Foto: Immo Wegmann/Unsplash)

Indhegning, klassisk kode og en beredskabsplaner: Sådan undgår du alvorlige fejl i din AI-strategi

AI-agenter er et hot emne at diskutere, men der opstår en række nye risici i forbindelse med at bruge dem. Her får du tre tips til at undgå disse fejl.

Generativ AI er et populært emne i disse dage, og det gælder særligt det nyeste skud på stammen, AI-agenter, men der er flere faldgruber relateret til brugen af den nye teknologi.

Virksomheder bør derfor gennemgå deres plan for teknologiimplementeringer og sikre, at der er styr på en række nøglefaktorer.

Det er vores søstermedie CIO.com, der har kigget nærmere på de vigtigste metoder til at undgå, at der sker fejl.

1. Sæt grænser, sikkerhedsnet og klassisk kode

AI-agenter opfattes som en slags digitale kollegaer til opgaveløsning ved hjælp af AI, men det er vigtigt at holde disse ordentligt indhegnet.

“Agenticitet er ikke binært. Det er et spektrum. Vi kan give den stor handlefrihed, eller vi kan gøre den meget stram og præskriptiv,” siger Joel Hron, CTO hos Thomson Reuters, til CIO.com og fortsætter:

Hvor meget handlefrihed, en agent får, afhænger af det konkrete problem, den skal løse.

“Hvis det handler om at søge på nettet, kan det være meget åbent. Men hvis det handler om at udarbejde en selvangivelse, er der ikke uendelige muligheder. Der er en meget klar, reguleret måde,” siger Joel Hron.

Virksomheder kan begrænse agenter på flere måder. Det mest almindelige er at bygge sikkerhedsnet, lade mennesker godkende handlinger – eller helt fjerne agentens mulighed for at handle og i stedet lade den arbejde gennem traditionelle, sikre og deterministiske systemer.

“Du stoler på den, men kun inden for de rammer og barrierer, du selv har sat,” siger Jenn Bergstrom, VP for cloud og data hos virksomheden Parsons Corporation, som mediet har talt med.

“Det skal være et zero-trust-miljø, så agenten ikke kan omgå barriererne,” fortsætter han.

Inden for disse rammer handler det om gradvist at opbygge en tillidsrelation til agenten.

“Lige nu skal mennesket godkende, og agenten skal eksplicit have tilladelse først,” siger Jenn Bergstrom.

Herefter handler det om at få agenterne til at handle mere selvstændigt, men under opsyn.

En anden tilgang til de mest risikofyldte forretningsprocesser er at bruge så lidt AI som muligt. I stedet for et agentisk system, hvor AI planlægger, udfører og verificerer handlinger, udføres det meste af arbejdet af traditionelle, deterministiske, scriptede processer – altså klassisk kode.

Hvis en AI for eksempel skal formulere et salgsbrev ud fra en række fakta, indsamles oplysningerne på klassisk vis, og brevet sendes via traditionelle systemer.

Det betyder, at AI’en hverken selv kan hente information eller har direkte adgang til e-mailsystemet. Andre agenter kan bruges andre steder i processen – til at prioritere leads eller analyser af, hvor godt e-mails performer.

Det begrænser hele systemets fleksibilitet i forhold til, hvis en enkelt AI gjorde alt. Men det reducerer også risikoen markant, fordi ingen af AI’erne kan gøre uoprettelig skade, hvis de går galt i byen.

2. Stol ikke på, at AI’en selv rapporterer

Efter at have sat grænser og kontrolmekanismer, skal virksomheder nøje overvåge agenterne for at sikre, at de fortsat fungerer som ønsket.

Det skyldes, at traditionel software ofte fejler på de samme måder, men at AI kan give forskellige resultater på forskellige eller enslydende spørgsmål, og derfor kan det være mere uforudsigeligt.

Derfor kræver AI-systemer løbende overvågning og evaluering. Det kan være manuelt eller automatiseret – afhængigt af risiko – men AI bør ikke overlades til at passe sig selv. Og AI bør ikke stoles på, når det handler om at rapportere på egen adfærd.

AI-modeller kan nemlig ende med at lyve, snyde og vildlede, hvis de ikke bruges ordentligt, viser undersøgelser fra Anthropic.

Overvågning starter derfor med at have et klart billede af AI’ens normale adfærd. Det kræver først og fremmest, at man ved præcist hvilken LLM, man tester.

“Det er umuligt, hvis du ikke kontrollerer den præcise version af modellen,” siger Derek Ashmore, principal hos Asperitas Consulting til CIO.com.

AI-leverandører opdaterer løbende deres modeller, og kontrolmekanismer, der tidligere har virket, kan pludselig være ændret.

For kritiske processer bør virksomheder insistere på at kunne specificere præcist, hvilken version af modellen de bruger. Hvis leverandøren ikke tilbyder det, kan kunden eventuelt se mod open source-modeller, som kan hentes ned til at bygge egne AI-værktøjer.

Der er dog grænser for, hvor meget kontrol man kan få med kommercielle LLM’er, siger Lori MacVittie, distinguished engineer og chief tech evangelist hos F5 Networks.

“Med SaaS er det andre, der driver systemet,” siger hun og fortsætter:

“Du har SLA’er, abonnementer og kontrakter – men det er ikke kontrol. Hvis det bekymrer dig, er offentlig SaaS-AI nok ikke løsningen.”

En virksomhed kan køre modellen i sin egen private cloud for at få mere kontrol – men det koster og kræver flere folk.

“Hvis du slet ikke stoler på cloududbyderen, kan du køre det on-prem i et datacenter, hvor kun én person har adgang – så kan du have al den kontrol, du ønsker,” siger hun.

Altså bør en virksomhed kun give agenter præcist den handlefrihed, der er nødvendig. Derudover skal der bruges sikkerhedsnet, menneskelig godkendelse og klassisk kode, hvor det er muligt.

Så kunderne bør være opmærksom på, at AI ikke altid har ret. Derfor bør man sikre versionskontrol, overvåge kontinuerligt, og undgå at placere ansvaret for rapportering hos AI’en selv.

3. Vær klar med beredskabsplan i AI-æraen

Det gamle ordsprog “If it ain’t broke, don’t fix it” fungerer ikke rigtig for AI. For mens COBOL-kode kan køre i årtier uden problemer, kan AI begynde at hallucinere, miste fokus eller ”kede” sig.

Og afhængigt af, om virksomheden bruger et lukket setup eller en standardmodel, vil kunstig intelligens ofte blive hurtigere og billigere, uden at virksomheden gør det store. Dette kan dog betyde, at nyere versioner ikke er i fuld overensstemmelse med virksomhedens mål.

Derfor bør virksomheder have styre på en form for beredskabsplan, der omhandler AI.

Har du systemer til hurtigt at stoppe problemet, isolere kritiske data og systemer og skifte til backups? Har du kørt øvelser – og deltog ikke bare sikkerhedsfolkene, men også jura, PR og topledelsen?

Nu skal alt dette overføres til AI.

Det er vigtigt at tænke på, hvad en fejl fra en AI-agent i sidste ende kan betyde.

“Det bliver for svært at rette op, hvis du ikke har tænkt det igennem på forhånd,” siger Esteban Sancho, CTO for virksomheden Globant til CIO.com.

Hvis AI bruges til at spare penge ved at erstatte gamle systemer, underminerer det pointen at holde de gamle systemer kørende parallelt. Men hvad gør du, hvis AI’en må slukkes?

“Du har sandsynligvis udfaset noget, der er svært at genindføre. Det skal tænkes ind fra starten – og det gør de færreste,” siger Esteban Sancho.

Han anbefaler, at virksomheder bygger en fallback-løsning samtidig med deres agentiske AI. Og jo højere risiko, desto hurtigere skal man kunne skifte til backup.

Hvis AI’en indgår i et større, sammenkoblet system, kan fejl have en dominoeffekt.

Derfor: Forbered dig på, at AI kan fejle eller løbe af sporet. Hav nødprocedurer, backups og fallback-løsninger klar. Og test beredskabet bredt i organisationen.