Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Vi står over for endnu et markant skifte inden for kunstig intelligens.
I løbet af det seneste år har jeg set en tydelig ændring i, hvordan virksomheder griber AI an.
Jagten på den altomfattende alt-i-en-model er ved at blive erstattet af mere nuancerede strategier, hvor det handler om at vælge det rette værktøj til den rette opgave.
Antagelsen om, at enhver AI-løsning nødvendigvis skal kredse om store generelle sprogmodeller som ChatGPT, Gemini eller Copilot, er i mange sammenhænge forsimplet.
I praksis ser vi i stigende grad, at mindre, specialbyggede sprogmodeller kombineret med heterogent hardware kan være et mere hensigtsmæssigt valg – særligt i løsninger, hvor systemer skal kunne handle selvstændigt og træffe beslutninger med minimal menneskelig indblanding, ofte omtalt som agentisk AI.
Større er ikke nødvendigvis bedre
De store sprogmodeller, som længe har domineret den offentlige debat, har bestemt fortsat deres berettigelse, men for langt de fleste virksomheders anvendelse er de er sjældent den mest effektive løsning.
I stedet ser vi nu en bevægelse mod mindre, specialbyggede modeller, der er optimeret til konkrete opgaver og beregninger.
Denne tilgang kan give hurtigere svartider, lavere driftsomkostninger og mulighed for at køre dér, hvor data faktisk befinder sig, og samtidig reduceres behovet for at sende følsomme data på tværs af infrastrukturer.
Omvendt kræver specialisering også mere planlægning, vedligeholdelse og teknisk modenhed, da flere modeller og komponenter skal spille sammen i et samlet system.
For når det gælder agentisk AI, hvor autonome systemer skal træffe beslutninger og udføre opgaver i realtid, er både hastighed og præcision afgørende.
En specialiseret model, der er trænet til et specifikt domæne, for eksempel kundeservice, dokumentanalyse eller procesautomatisering, vil ofte kunne levere bedre resultater inden for sit felt end en generel, samtidig med at ressourceforbruget holdes nede.
Selvom storskala-implementeringer stadig er i sin spæde begyndelse, peger udviklingen i retning af AI-arkitekturer, der er mere decentraliserede, specialiserede og ressourceeffektive end tidligere generationer.
AI flytter tættere på forretningen
Samtidig med at modellerne bliver mere specialiserede, gennemgår hardwarelandskabet også en forandring.
Mange virksomheder arbejder i dag med heterogene infrastrukturer, hvor forskellige processorer anvendes til forskellige arbejdsbelastninger, som træning, realtidsinferens og batchbehandling, hvilket også kan skabe større diversitet blandt leverandørerne.
Denne diversitet er ikke et mål i sig selv, men et middel til bedre at matche tekniske ressourcer med konkrete behov.
Samtidig øger den kompleksiteten i både drift og arkitektur, hvilket stiller større krav til kompetencer og styring.
Den reelle forretningsværdi opstår derfor ikke blot ved at samle en imponerende samling processorer. Afkastet afhænger af evnen til hurtigt at implementere, evaluere og justere AI-initiativer i tæt samspil med forretningen.
I den forbindelse ser vi en voksende brug af forskellige rammeværk og platforme, der understøtter udvikling og orkestrering af AI-løsninger.
Disse værktøjer kan – afhængigt af kontekst og modenhed – gøre det muligt at gennemføre hurtigere udviklingscyklusser. I stedet for måneders udvikling kan man teste nye use cases på få uger, indsamle feedback fra forretningen og justere løsningerne løbende.
Effekten afhænger dog i høj grad af organisationens evne til at integrere dem hensigtsmæssigt i eksisterende processer og systemlandskaber.
Hurtigere iteration kan føre til flere afprøvede hypoteser, flere identificerede anvendelsesmuligheder og kortere tid fra idé til produktion. Men det forudsætter også klare prioriteringer og governance, så hastighed ikke sker på bekostning af kvalitet, sikkerhed eller langsigtet skalerbarhed.
Effektivitet frem for imponerende demoer
Den første AI-bølge var i høj grad af fokus på modelstørrelse og generel kapacitet.
Den næste bølge, som vi nu træder ind i, handler i stigende grad om præcision, effektiv ressourceudnyttelse og reel forretningsværdi.
For virksomheder betyder det, at AI-strategien bevæger sig fra spørgsmålet “hvilken stor model skal vi bruge?” til “hvordan sammensætter vi den rette kombination af modeller, hardware og processer til vores konkrete udfordringer?”.
Det stiller større krav til en dybere teknisk forståelse og strategiske valg, men åbner samtidig for AI-løsninger, der i højere grad understøtter forretningen og skaber målbar forretningsværdi – frem for blot at demonstrere teknologisk formåen.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.