Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Den 2. februar 2025 trådte de første bestemmelser af EU's AI-forordning i kraft. Det markerer begyndelsen på en omfattende regulering af kunstig intelligens.
Selvom vi har diskuteret AI intensivt, siden ChatGPT blev årets ord i 2023, er vi i Danmark endnu ikke trådt over tærsklen til den transformation, der fundamentalt skulle ændre vores innovation, hverdag og produktivitet.
Men ifølge nye tal fra Digitaliseringsministeriet er Danmark det land i Europa, hvor flest virksomheder, mere konkret 28 procent, benytter AI.
Alligevel tydeliggjorde Boston Consulting Groups seneste rapport, at danske virksomheder alene i 2024 er gået glip af 75 milliarder kroner i AI-gevinster.
Derfor tyder det på, at selvom virksomheder langsomt begynder at se AI’s potentiale, er der stadig lang vej til, at vi for alvor kan udnytte de produktive samt de økonomiske goder, som teknologien bidrager med.
En velbegrundet skepsis
Men selvom jeg skal være den første til at argumentere for de mange fordele, der ligger og venter, hvis vi smider skyklapperne og integrerer AI i vores forretningsmodeller, forstår jeg godt, at AI’s indtog i danske virksomheder er ledsaget af en vis portion sund skepsis.
Ikke mindst i forhold til, hvordan online AI-assistenter påvirker vores datasikkerhed. I den netop offentliggjorte CIO-playbook fra Lenovo og IDC, fremgår det, at op mod 45 procent af virksomhedslederne stadig er skeptiske over for kunstig intelligens.
Den seneste debat i kølvandet på lanceringen af forskellige generative AI-assistenter er et godt eksempel.
Flere virksomheder og offentlige institutioner har allerede indført restriktioner på visse modeller.
Samtidig vinder nye assistenter som Claude, Copilot og Mistral frem – Claude er udviklet af tidligere medarbejdere fra OpenAI, Copilot er efterhånden blevet mainstream-assistenten, som mange bruger, mens Mistral appellerer til dem, der ønsker europæiske alternativer til amerikanske løsninger. Alligevel mødes udviklingen stadig med en vis portion forbeholdenhed.
Og jeg forstår hvorfor. Det handler om at holde sine data tæt til kroppen og gøre sikkerheden robust.
For hvad sker der med den data, vi gennem prompts deler med systemerne, og som ender i skyen.
Opbevares de fortroligt nok, eller ender de som følge af datalæk eller hackerangreb i hænderne på kriminelle, der bruger vores informationer til for eksempel svindelmails?
En af de største udfordringer med cloudbaserede AI-modeller er risikoen for datalæk.
Flere virksomheder har allerede oplevet, at forretningskritiske data er blevet kompromitteret, og det kan være medvirkende til at, at de og andre virksomheder er tilbageholdende med at implementere AI i deres forretning.
Bring Your Own AI
Men svaret er ikke at lukke AI ude af medarbejdernes hverdag. Tværtimod. Som modsvar til virksomheders strikse AI-regler har jeg registreret en ny tendens: Bring Your Own AI (BYOAI).
Et fænomen, hvor medarbejderne aktivt benytter generativ AI til arbejdsrelateret formål, men vel og mærke uden at informere deres arbejdsplads om det.
Og det er et problem. For når det foregår i det skjulte, udenom it-afdelingen, er det ikke muligt at opstille de rette sikkerhedsmæssige rammer for brugen af AI – hvilket gør virksomhederne ekstra sårbare, særligt i forhold til forretningskritiske data.
Samtidig skabes der ikke en kultur, hvor medarbejderne får mulighed for at udforske og dygtiggøre sig i generativ AI og få ind på rygraden, hvordan teknologien kan spille sammenmed deres arbejde og virksomhedens produktivitet og forretning.
For mig at se bør virksomheder derfor – uanset om de ser på AI med skepsis eller som en gamechanger – understøtte eller sågar møde medarbejdernes AI-nysgerrighed ved at skabe mere inkluderende og sikre rammer for daglig brug af generativ AI.
Fundamentet for AI-klar kultur
Der er flere måder at gøre det på. Vi har efterhånden set, at flere virksomheder skaber interne AI-assistenter trænet på virksomhedens egne data, indsigter og værdier, der fungerer godt i et lukket system.
Det kan dog være en massiv investering og derfor ikke en løsning for alle. Men for dem, der har ressourcerne til det, er der mange fordele at hente på – både på effektiviteten og sikkerheden.
For virksomheder, der ikke har kapaciteten til at bygge egne modeller fra bunden, vil klart definerede sikkerhedsregler og uddannelse af medarbejderne i arbejdet med generativ AI være en måde at balancere de mest kendte cloudbaserede AI-modellers fordele og risici.
Endelig er der muligheden for at give medarbejdere adgang til Personal AI. Det vil sige AI, der er integreret på medarbejderens devices og fungerer i et lukket datakredsløb.
Her bliver AI´en trænet i medarbejderens daglige digitale adfærd uden behov for adgang til skyen, hvilket styrker sikkerheden og virksomhedens databeskyttelse.
Og her ligger kulturen ikke i at vælge den ene model, frem for den anden, men om at kunne kombinere de forskellige muligheder på en måde, så teknologisk innovation og sund skepsis kan gå hånd i hånd.
For udviklingen går så stærkt, at vi hverken har råd til give køb på den ene eller den anden.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.