Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
I december indgik regeringen, KL og Danske Regioner en historisk aftale om tre AI-storskalaprojekter i den offentlige sektor.
Et af dem handler om automatiseret dokumentation, der skal frigøre tid fra blandt andet referater af borgersamtaler på socialområdet.
Målet er godt. Vi skal skaffe mere tid til borgerne, mindre tid ved tastaturet. Men hvordan sikrer vi, at AI faktisk styrker den faglige praksis fremfor at udhule den?
Når brugerne selv får ordet
I Digital Welfare har vi netop afholdt en AI-workshop med fagfolk fra det specialiserede socialområde for at forstå, hvordan AI kan understøtte deres daglige arbejde i vores socialfaglige dokumentationssystem, EG Sensum One.
Det mest slående ved workshoppen var ikke, hvad brugerne bad om, men hvad de meget bevidst ikke ønskede: De vil ikke have AI til at skrive for dem.
I stedet efterspørger de hjælp til at navigere komplekse strukturer, kategorisere og organisere indhold og få faglig sparring der udfordrer deres faglighed.
Som en deltager udtrykte det: "Jeg tror faktisk, at vi kan blive rigtig kreative og dygtige, hvis vi har AI som sparringspartner, men ikke som noget der overtager."
Deres bekymringer peger i samme retning: De frygter tab af faglig kompetence, at AI polerer autenticiteten væk, og at de ikke længere kan stå inde for det, der står i deres dokumentation.
En anden deltager formulerede ansvarsproblemet sådan: "Forstår jeg, hvad der står? Forstår andre det? Kan jeg stå inde for det?"
Seks principper fra praksis
Sammen med brugerne formulerede vi seks designprincipper for AI-funktioner på socialområdet.
Måske kan de inspirere andre, der nu står foran implementeringen:
1: Mennesket ved rattet – AI støtter den faglige vurdering, men erstatter den aldrig.
2: Spørgsmål frem for svar – AI, der stiller spørgsmål, bevarer brugerens ejerskab over arbejdet. "Har du overvejet…?" er mere værdifuldt end bare at få tekst serveret.
3: Strukturér, tilføj ikke – hjælp med at organisere tanker og placere information rigtigt. Lad fagpersonen selv formulere indholdet.
4. Bevar den autentiske stemme – brugerens egne ord og forståelse af borgerens virkelighed skal bevares. Poleret AI-sprog kan fjerne væsentlige nuancer.
5. Gør AI's bidrag synligt – alt skal kunne spores. Fagpersonen skal kunne forklare og stå inde for hver eneste sætning i journalen.
6. Kan slås fra – det skal altid være et valg at bruge AI.
Faglighed først – automatisering bagefter
Som leverandør af vertikale softwareløsninger bygger vi ikke generiske værktøjer.
Vi bygger systemer til specifikke fagområder med dyb domæneviden. Den samme domæneekspertise skal definere, hvordan vi designer AI.
En AI-assistent i et socialt fagsystem skal ikke opføre sig som en generisk chatbot.
Den skal forstå den faglige kontekst, stille de rette spørgsmål og hjælpe brugeren med at tænke klarere over deres arbejde.
Nu hvor AI-storskalaprojekterne skal rulles ud, skal vi passe på ikke at fokusere for meget på at automatisere output - altså generere teksten, udfylde skemaet, skrive referatet.
Fagpersonerne fortæller os nemlig noget andet. De vil have AI, der gør dem bedre til deres job, ikke AI der overtager det.
Når 266,7 millioner kroner nu skal investeres i AI-løsninger på tværs af den offentlige sektor, bliver brugerdialogen ikke bare vigtig.
For mig at se bliver den afgørende. For det er først, når vi forstår, hvordan fagfolk faktisk vil bruge AI, at teknologien kan levere den tidsfrigivelse og kvalitetsforbedring, som aftalen lover.
AI skal være sparringspartner, ikke ghostwriter.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.