Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Vi nærmer os stille og roligt en fremtid, hvor kunstig intelligens ikke bare er et smart program, men en hel værktøjskasse af evner.
Store sprogmodeller (LLM'er) får i stigende grad "værktøjer" til rådighed – ekstra hjælpemidler, der gør dem i stand til at gøre mere end blot at snakke.
Samtidig ser vi AI-agenter, der kan bruge hinanden til at løse opgaver, og endda situationer hvor mennesker og AI'er bruger hinanden som værktøjer.
LLM'er får nye værktøjer
En LLM som GPT4.5 eller o3 er trænet til at forstå og generere tekst.
Men hvad nu hvis den får adgang til andre færdigheder?
Det sker faktisk allerede. Lad os sige, at du beder ChatGPT om at lave et billede. Af sig selv kan modellen det ikke, for den genererer kun tekst.
Men ChatGPT kan nu koble sig på et værktøj: billedgeneratoren DALL-E. Resultatet er et samarbejde mellem to AI-systemer:
1. Du beskriver med ord, hvad du ønsker dig. (For eksempel "en hamster i habbit, der laver pandekager".)
2. ChatGPT omformulerer din beskrivelse til en præcis prompt som er optimeret til en anden AI-model (Dall-E) som et værktøj der følger med ChatGPT/Copilot.
3. DALL-E skaber billedet ud fra denne prompt og leverer det tilbage til ChatGPT, som så kan vise dig resultatet.
På den måde fungerer DALL-E som et værktøj for ChatGPT. Og DALL-E er blot ét eksempel.
LLM'er kan også få andre digitale redskaber i hænde, som lader dem:
• Slå information op på internettet for at hente ny viden.
• Foretage beregninger når der skal knuses tal.
• Styre kalendere eller sende e-mails på dine vegne.
• Køre den kode den har skrevet på dine filer og levere resultatet tilbage (Code Interpreter).
Disse værktøjer udvider kraftigt, hvad AI'en kan hjælpe med. I stedet for kun at svare på spørgsmål med eksisterende viden, kan den nu interagere med omverdenen.
Det er lidt som at give en bibliotekar nøglerne til hele værkstedet: Pludselig kan bibliotekaren ikke kun finde bogen om cykelreparation – den kan også hjælpe med at reparere cyklen.
AI-agenter som samarbejdende værktøjer
Idéen om at AI-agenter bruger hinanden som værktøjer lyder måske som robotter, der leger tag-fat, men princippet er ret ligetil.
Forestil dig, at du skal planlægge en ferie ved hjælp af kunstig intelligens. Du kunne have én AI-agent, der er ekspert i flybilletter, og en anden der er skrap til hoteltilbud.
Din "rejseplanlægnings-AI" kunne i virkeligheden være flere agenter bag facaden: En agent spørger en anden om at finde de billigste fly, mens en tredje samler oplysninger om gode hoteller i nærheden af dine foretrukne strande.
Disse agenter bruger hinandens specialer som værktøjer, for til sidst at give dig et samlet svar. Ofte er en agent bare en RAG-arkitektur (se tidligere artikler om RAG) men med særlige Actions/Værktøjer dertil.
I praksis er der allerede eksperimenter med sådanne samarbejdende agenter. Nogle udviklere laver "agent-hold", hvor hver agent har en rolle.
Én sprogmodel kan for eksempel generere en plan, en anden kontrollere planens kvalitet, og en tredje søge efter manglende oplysninger på nettet.
Sammen når de frem til et resultat, som ingen af dem kunne have skabt lige så godt alene.
Det smarte ved at lade agenterne bruge hinanden er, at det minder om, hvordan vi mennesker samarbejder. Vi spørger jo også en kollega om hjælp, hvis de har ekspertise på et område, vi ikke selv mestrer.
På samme måde kan en AI-agent række ud til en anden AI-agent for at få løst en delopgave.
Resultatet er en form for netværk af intelligens, hvor outputtet fra én AI bliver input for en anden. Man kan næsten kalde det et digitalt økosystem af værktøjer, der bruger værktøjer
Mennesker og AI: værktøjer for hinanden
Vi mennesker er vant til at se AI som vores værktøj. Vi bruger GPS-apps til at finde vej, sprogmodeller til at få tekstforslag og digitale assistenter til at sætte en alarm.
Men det lyder nok lidt mere provokerende, at AI også kan bruge mennesker som et slags "værktøj". Ikke desto mindre sker det i små glimt.
Hver gang du klikker "thumbs up" eller "thumbs down" til et AI-svar, agerer du værktøj for AI'ens læring, så den kan justere sig.
Og omvendt bruger vi flittigt AI til alt fra at sortere vores feriebilleder til at foreslå, hvad vi skal se af film. Forholdet mellem menneske og maskine er ved at udvikle sig til en gensidig relation, hvor begge parter giver og tager.
Et andet godt eksempel er ”Deep Research” funktionaliteten som findes i flere LLM-platforme og som består i at en opgave deles op i mange bidder og aktiviteter og kombineres med søgninger og mere, for til sidst at sammenstykke et særdeles gennemført, om end langsomt tilgængeligt resultat.
Den spørger endda tit om nogle ting indledende for at kunne løse opgaven optimalt.
Et fælles sprog for agenter: MCP-standarden
Efterhånden som AI-agenter får flere "kollegaer" og værktøjer at arbejde sammen med, opstår der et behov for, at de kan kommunikere ordentligt indbyrdes.
Her kommer idéen om en standard kaldet MCP (Multi-Agent Communication Protocol) ind i billedet. MCP skal være et fælles sprog eller regelsæt, som gør det let for forskellige AI-systemer at tale sammen og udveksle information.
Tænk på det som en slags "internetprotokol" for AI-agenter, der sikrer, at en agent bygget af én producent kan forstå og arbejde med en agent bygget af en anden.
Der er allerede initiativer i gang med at skabe sådanne fælles rammer. Et eksempel på anvendelsen af MCP-standarden er Microsofts nye open-source-projekt "MarkItDown".
Ved første øjekast er MarkItDown bare et værktøj til at konvertere dokumenter til Markdown-format (en simpel standard for tekstformatering).
Men pointen ved at nævne det her er, at det repræsenterer en åben og standardiseret måde at dele funktionalitet på, som er let for forskellige AI-agenter at læse.
Hvis én agent kan omsætte en PDF eller et billede til klar tekst (Markdown) og dele det via en standardiseret protokol, kan en anden agent hurtigt tage over og bruge den information.
På den måde baner projekter som MarkItDown vejen for, at fremtidens AI-agenter kan samarbejde gnidningsfrit, fordi de har nogle fælles "spilleregler" for kommunikationen.
Når værktøjet kigger tilbage
Filosoffen Martin Heidegger talte om vores forhold til værktøjer – hvordan en hammer for eksempel bliver en forlængelse af hånden, noget vi næsten glemmer er et redskab, når først vi bruger den.
I dag står vi i en situation, hvor både mennesker og AI-løsninger kan være hinandens værktøjer.
Det får én til at overveje: Hvis både menneske og maskine kan være hammeren såvel som den, der svinger den, hvem bruger så hvem?
Måske er svaret, at vi skiftes og når samarbejdet fungerer, bliver grænsen mellem bruger og værktøj mindre vigtig.
I sidste ende er det lidt som et godt makkerskab: Nogle gange holder du stigen for mig, andre gange holder jeg sømmet for dig.
Om det er en AI-agent eller en menneskelig part, der giver hjælpen, ændrer ikke ved, at vi sammen kan nå nye højder.
Og mon ikke Heidegger ville smile lidt af, at hans gamle "værktøjs-ontologi" nu også kan omfatte AI-agenter og AI-modeller?
Det er trods alt en ny tid, hvor selv værktøjerne begynder at kigge tilbage på os og spørge, om vi kan hjælpe med næste trin.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.