Den usynlige kollega skygge-AI er allerede flyttet ind i din organisation: Er governance fulgt med?

Klumme: Generativ AI er allerede i brug på danske arbejdspladser og ofte helt uden ledelsens overblik. Når medarbejdere anvender AI-værktøjer uden klare rammer, så opstår der en parallel praksis, der udfordrer både sikkerhed, GDPR og ansvar.

Artikel top billede

(Foto: Nguyen Dang Hoang Nhu / Unsplash)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Hvis I ikke styrer generativ AI, får I en parallel praksis, hvor data, ansvar og compliance glider ud af hænderne på jer og samtidig overtræder i AI EU Forordningen ubevidst hvilket kan give bødestraffe.

Forestil dig en helt almindelig situation: En medarbejder skal hurtigt gøre et beslutningsoplæg klar til et kundemøde og kopierer et internt dokument ind i en chatbot for at få det forkortet og skærpet.

Dokumentet indeholder kundens kontaktoplysninger, interne vurderinger og måske et CPR-nummer i et bilag. Opgaven løses hurtigere, men virksomheden har nu mistet kontrol over, hvor data er endt, og hvem der har haft adgang.

Dette er blot et ud af mange eksempler, jeg er stødt på, når jeg - som forsker - har interviewet en række SMV’er i Danmark.

En uofficiel kollega

Generativ AI er allerede blevet en uofficiel kollega i mange danske virksomheder.

Medarbejdere bruger ChatGPT eller andre, lignende værktøjer til at skrive udkast, analysere tekst, opsummere møder og forbedre kundedialog.

Problemet er, at det ofte sker uden klare retningslinjer, risikovurdering og kontrolmiljø.

Det skaber Shadow AI, altså uautoriseret eller uformelt brug af AI uden governance, og det udløser en kombination af cyberrisiko, GDPR-compliance og organisatorisk risiko.

Datatilsynet har direkte opfordret arbejdspladser til aktivt at forholde sig til AI-værktøjer netop for at undgå behandling af personoplysninger i strid med reglerne.

Når medarbejdere indtaster eller uploader interne oplysninger i offentlige AI-tjenester uden godkendelse, kan virksomheden miste kontrol over data, dokumentation og ansvar.

GDPR’s principper om blandt andet dataminimering, formålsbegrænsning, integritet og fortrolighed gælder uanset om behandlingen sker i et regneark eller i en chatbot.

I takt med at EU’s AI Act stiller krav til ansvarlighed, transparens og risikostyring, bliver det sværere at forsvare en praksis, hvor AI bruges spredt, uens og uden dokumenterede kontroller.

Shadow AI skaber også et ledelsesproblem, fordi beslutningsgrundlag og output produceres i et teknologilag, som organisationen ikke kan auditere eller standardisere.

Hvordan og hvorfor opstår Shadow AI?

Shadow AI opstår sjældent af ond vilje.

Men det sker, fordi medarbejdere gerne vil bidrage til arbejdet og nogle gange tyer til metoder eller arbejdsgange, som måske er modstridende virksomhedens praksis eller governance.

1) Produktivitetspres og lav adgangsbarriere

Når en medarbejder kan spare tid på en opgave på få minutter, bliver AI et praktisk værktøj, også selv om det ikke er formelt godkendt.

2) Governance halter efter adoptionen

Mange virksomheder har politikker for it-sikkerhed, men ikke konkrete spilleregler for generativ AI. Det efterlader medarbejdere alene med vurderingen.

3) Manglende enterprise-alternativ

Hvis virksomheden ikke stiller en godkendt AI-løsning til rådighed, flytter brugen over i private konti og uautoriserede workflows. Her bliver dataklassifikation og logning typisk fraværende.

Hvad er de konkrete risici?

Cyber og datalæk

Generativ AI introducerer nye angrebsflader og nye steder, hvor følsomme data kan eksponeres.

Europæiske cybersikkerhedsmiljøer peger på risikoen for datalæk som en central konsekvens ved angreb mod AI-infrastruktur og ved ukontrolleret brug.

GDPR og accountability

Hvis personoplysninger behandles via et AI-værktøj, skal virksomheden kunne forklare formål, behandlingsgrundlag, sikkerhedsforanstaltninger og leverandørrelation.

Hvis organisationen ikke ved, hvilke prompts der bruges, hvilke data der deles, og hvor data behandles, bliver accountability i praksis umulig.

Organisatorisk risiko og kvalitet

Når AI bruges individuelt uden standarder, opstår uensartede output, uklar kildebrug og usynlige fejl.

Det kan påvirke alt fra kundekommunikation til interne analyser, og ledelsen mister overblik over, hvordan viden og beslutningsoplæg produceres.

Hvad kan man gøre for at løse det?

1) Etabler en AI-politik, der kan efterleves i praksis

Definér hvilke datatyper der aldrig må deles, hvilke opgavetyper der er acceptable, og hvilke værktøjer der er godkendte.

Datatilsynet anbefaler konkret awareness og tiltag, der kan forebygge uhensigtsmæssig brug af generativ AI på arbejdspladsen.

2) Giv et godkendt enterprise-setup

Brug enterprise- eller business-løsninger, hvor datakontrol, adgangsstyring og leverandørvilkår er tydelige.

Det er også relevant at kende leverandørens datapraksis. OpenAI beskriver eksempelvis, at de som udgangspunkt ikke træner på data fra ChatGPT Business og Enterprise. Det ændrer ikke jeres GDPR-ansvar, men det er en vigtig del af leverandørvurderingen.

3) Indfør kontrolmiljø og sporbarhed

AI-brug skal ind i samme styringslogik som andre IT-systemer: rettighedsstyring, logging, dokumentation og løbende risikovurdering.

NIST’s AI Risk Management Framework er et brugbart referencepunkt for at strukturere risikostyring på tværs af governance, måling og kontrol.

4) Træn medarbejdere i sikker og ansvarlig brug

Hvis medarbejdere kun får “må ikke”, får du Shadow AI. Hvis de får “sådan gør du det sikkert”, får du kontrolleret adoption.

Træning bør minimum dække dataklassifikation, personoplysninger, kildekritik og håndtering af fortrolige dokumenter.

5) Gør AI til et ledelsesansvar, ikke et individuelt eksperiment

AI skal ind i roadmap, risikoregister og compliance-funktion. Ellers ender det som en usynlig produktionslinje for tekst og beslutningsoplæg.

Shadow AI er et signal om, at teknologiadoption bevæger sig hurtigere end governance. Virksomheder, der handler nu med klare rammer og sikre alternativer, reducerer risiko og får samtidig mere stabil værdi ud af generativ AI.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Læses lige nu

    Annonceindlæg fra Axcess Nordic

    AI i kundeservice kræver mere end ny teknologi

    AI er på vej ind i danske kontaktcentre, men uklare mål, tunge processer og et opsplittet systemlandskab spænder mange steder ben for resultaterne.

    Navnenyt fra it-Danmark

    Khaled Zamzam, er pr. 1. marts 2026 ansat hos Immeo som Consultant. Han er nyuddannet i Informationsteknologi fra DTU. Nyt job
    Jakob Dirksen, SVP, Nordic Customer Delivery & Operations hos GlobalConnect, er pr. 1. maj 2026 forfremmet til EVP, Infrastructure Delivery & Operations. Han skal fremover især beskæftige sig med at lede Infrastructure Delivery & Operations, der har til opgave at drive og udvikle fibernetværket på tværs af virksomheden. Forfremmelse

    Jakob Dirksen

    GlobalConnect

    Sharp Consumer Electronics har pr. 1. april 2026 ansat Daniel Eriksson som salgsdirektør for de nordiske lande. Han skal især beskæftige sig med at accelerere virksomhedens vækst i Norden. Han kommer fra en stilling som nordisk salgsdirektør hos Hisense. Han har tidligere beskæftiget sig med detailhandel, kommerciel strategi og markedsudvidelser med bemærkelsesværdige resultater til følge. Nyt job

    Daniel Eriksson

    Sharp Consumer Electronics