Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Jeg har tidligere skrevet om, hvordan sprogmodeller ikke er i stand til at interagere med os på egentligt menneskelige præmisser, helt beviseligt ud fra deres nuværende arkitektur, der kun er beregninger på ord- og fraseniveau, og som derfor ikke inkluderer en egentlig model (ontologi) af verden, også kaldet ”world knowledge”.
Uanset, hvor mennesketro samtaler vi kan have med dem, kan de ikke være med på denne menneskelige præmis – det gælder både de traditionelle large language models (LLMs) og de nye large reasoning models (LRMs).
Det ville i stedet kræve noget lig de world model based agents, vi behandlede i sidste indlæg, men det er ikke noget, der findes eller er tilgængeligt for os endnu.
Men selv med disse nuværende begrænsninger er sprogmodeller så velfungerende på de menneskelige sprog, at det er værd at tale om værdien af den type AI-agenter, der har til formål at fremstå som rigtige mennesker: AI-personaer.
AI-personaer og filosofi/etik
Det piller ved noget særligt for os som mennesker og har historisk altid været en dyb og latent frygt – ideen om at skabe noget, der erstatter og overflødiggør vores unikke plads i verden.
De seneste eksempler på, at man benytter sprogmodeller til at agere en persona for en afdød, man gerne vil kunne interagere med efter deres død, skaber også nye diskussioner og etiske dilemmaer.
Som den danske teolog og filosof K.E. Løgstrup fremhævede, er vores møde med andre mennesker båret af "suveræne livsytringer" som tillid, barmhjertighed og åbenhed - spontane, før-refleksive bevægelser i os, der opstår, når vi står ansigt til ansigt med et andet menneske.
Det gør vi teknisk set ikke med en AI-persona i ren tekst, men fordi sprogmodeller besvarer os med en så menneskelig rytme, varme og overbevisning, vækkes de samme neurale mekanismer i os.
Vi danner en person i vores eget sind. På spejlneuron-niveau reagerer vi på sprogmodellen, som om der sad nogen foran os. Det er ikke nødvendigvis AI’en, der er blevet menneskelig – det er vores hjerner, der gør arbejdet for den.
Forretningsanvendelser i dag
Men er der ikke mindre problematiske og tilgængelige forretningsanvendelser af AI-personaer? Og hvordan sætter man dem bedst op i de nuværende teknologier?
Jo. Der er flere anvendelser i dette spektrum – et oplagt eksempel er en persona, der repræsenterer et specifikt markedssegment af ens kundebase.
Et eksempel kunne være det yngre kundesegment, med deres anderledes kultur og sprogbrug – som den gængse medarbejder i virksomheden måske ikke forstår så godt. Den kan svare på, hvad den synes om forskellige tiltag og ligefrem, hvordan disse tiltag føles.
Med en persona, der er repræsentativ for dette segment, kunne en virksomhed dermed afprøve marketingstrategier, stille spørgsmål i forbindelse med produktudvikling og meget mere.
AI-personaer er fortsat et emne for forskningen, så det er for tidligt med en definitiv how-to, men de første skridt kunne være simple og sikre, at en sådan persona både svarer ud fra den rigtige form og den rigtige viden.
Instructions, RAG og fine-tuning
Instructions eller “pre-prompting” er en begrænset mængde tekst, der konsekvent indsættes før hver samtale med AI-personaen for at guide dens måde/form at svare på (tone, stil, retorik, adfærd, med mere).
Vi kender det fra ”custom instructions” i ChatGPT, ”instructions i Copilot med mere.
Her er det de medarbejdere med dybest kendskab til kundesegmentet, der går antropologisk til værks og beskriver disse som en forhåndsviden og -instruktion for personaen.
Dertil kan den have en vidensbase, såsom det tilhørende produktkatalog, der kan tilbydes kundesegmentet, eller anden mere fast, faktuel information.
Dette sættes op i en RAG-arkitektur, som vi i tidligere indlæg har drøftet og egentlig blot er en vidensbase af faktisk, kontrolleret information for AI-personaen.
Allerede med disse simple greb kan man opsætte en AI-persona, der kan skabe værdi i de førnævnte anvendelsesscenarier.
Men i sidste ende er det stærkeste, mere datatunge svar måske fine-tuning af sprogmodellen, hvor modellens interne mønstergenkendelse formes til at ligne den ønskede persona på et endnu dybere niveau, så den tænker, skriver og reagerer endnu dybere som den ønskede persona.
Dette kræver dog langt mere data med adfærdseksempler og er tungere både i forhold til datamængder, træning, anvendelse og compliance.
Derfor vil jeg anbefale at starte med pre-prompting + RAG.
AI-personaer bliver et konkurrenceparameter, men kun for dem der forstår at kombinere teknik, etik og menneskelig indsigt.
Det handler ikke om at erstatte mennesker, men om at forstærke evnen til at forstå dem.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.