Tør du trygt overlade dine data til DeepSeek?

Klumme: DeepSeek-R1 er blot seneste skud i rækken af åbne AI-modeller, der lokker med enorme muligheder. Men hvad med indholdsregulering, eventuelt misbrug og i sidste ende datasikkerheden?

Artikel top billede

(Foto: Deepseek)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Hvad sker der, når følsomme oplysninger behandles af en åben AI-model? Kan den information ende i de forkerte hænder?

Mange er – naturligt nok – tilbageholdende med at bruge åbne modeller som den kinesiske DeepSeek-R1. Som Head of Customer Solutions Management for Amazon Web Services i Nordeuropa oplever jeg mange af disse bekymringer – og de er reelle nok.

For én ting er sikker: Trygt brug af AI kræver omtanke, forberedelse og robust data governance.

Hvis du vil bruge åbne AI-modeller i din forretning, så gør du klogt i at have en gennemtænkt sikkerhedsstrategi. Data skal beskyttes både under lagring og ved overførsel.

Derudover er det nødvendigt med en sikker netværksinfrastruktur og overvågningssystemer, der hurtigt kan opdage eventuelle brud på sikkerheden.

Sidst, men ikke mindst, skal der defineres tydelige retningslinjer for, hvordan AI-modellen skal bruges; alt fra oplæring af ansatte til information om sikkerhedsrisici.

Der skal desuden etableres klare rutiner for at rapportere afvigelser. En stærk sikkerhedskultur er afgørende.

For nyligt skrev mine AWS-kolleger Satveer Khurpa, Adewale Akinfadering og Antonio Rodriguez et blogindlæg om, hvordan tryg implementering af åbne AI-modeller kan gennemføres – i dette tilfælde ved hjælp af AWS’ egen platform, der lader brugere kryptere lagret data og samtidig styre adgang og overvåge brugen af det.

Med en sikker netværksinfrastruktur og overvågningstjenester kan du kontrollere i realtid, at internationale sikkerhedsstandarder som GDPR, ISO, SOC og HIPAA overholdes.

Få styr på sikkerheden

I indlægget fremhæver de blandt andet, hvor vigtigt det er at have styr på sikkerheden fra start.

Det indebærer blandt andet at filtrere uønsket indhold, sørge for tydelige retningslinjer for adgangsstyring og jævnlig evaluering af modellen for at opdage eventuelle svagheder.

Derudover skal hele infrastrukturen - selve modellen, de behandlede data, og miljøet, modellen køres i - beskyttes.

Det er også vigtigt at etablere rutiner for kontinuerlig overvågning og opdatering af sikkerhedstiltag efterhånden som trusselsbilledet udvikler sig.

Så kan vi trygt bruge DeepSeek-R1?

Svaret er ja. Så længe de rigtige sikkerhedsforanstaltninger er på plads, og de følger gældende praksis for cybersikkerhed, er faren for misbrug og datalæk markant reduceret.

I føromtalte blogindlæg gør valget af en platform med de nødvendige AI-sikkerhedsforanstaltninger mine kolleger i stand til at sikre ansvarligt brug af AI-modellen, inklusiv streng adgangskontrol, netværksbeskyttelse og indholdsfiltrering.

Den type tiltag kombineret med en ansvarlig rammesætning for generel brug af kunstig intelligens gør, at virksomheder og organisationer kan bruge kraftfulde sprogmodeller uden at frygte, at deres data havner i de forkerte hænder.

Når vi bruger avancerede modeller for kunstig intelligens, har vi også at ansvar for at forstå, hvordan de rent faktisk fungerer, deres begrænsninger og mulige faldgruber.

Derfor er det også op til os at stille de rigtige spørgsmål for at teknologien tjener os – og ikke omvendt.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Computerworld Events

Vi samler hvert år mere end 6.000 deltagere på mere end 70 events for it-professionelle.

Ekspertindsigt – Lyt til førende specialister og virksomheder, der deler viden om den nyeste teknologi og de bedste løsninger.
Netværk – Mød beslutningstagere, kolleger og samarbejdspartnere på tværs af brancher.
Praktisk viden – Få konkrete cases, værktøjer og inspiration, som du kan tage direkte med hjem i organisationen.
Aktuelle tendenser – Bliv opdateret på de vigtigste dagsordener inden for cloud, sikkerhed, data, AI og digital forretning.

Sikkerhed | Online

Cyber Briefing: AI kan udnytte dine VPN‑svagheder og lække dine data på sekunder

AI-agenter arbejder konstant og i maskinhastighed. Klassiske VPN-modeller mister overblik, kontrol og sporbarhed. Hør hvordan adgang, handlinger og automatisering sikres i en AI-drevet virkelighed. Tilmeld dig nu

Digital transformation | København

Roundtable: Fra legacy til AI – de strategiske valg for digitale ledere

Legacy-systemer bremser mange AI-ambitioner. Digitale ledere skal vælge platform, tempo og arkitektur. Computerworld samler CIO’er og CTO’er til lukket roundtable om vejen fra legacy til AI-parat forretning. Få perspektiver fra COWI og del...

Digital transformation | København

Executive Conversations: Kina, Trump og AI-ledelse

Kina, USA og AI flytter magt og markeder. Geopolitik rammer leverandørkæder, chips, data og standarder. Lær at koble global risiko med konkret it-ledelse. Få styr på governance, sikkerhed og compliance i AI. Deltag og styrk din handlekraft.

Se alle vores events inden for it

Navnenyt fra it-Danmark

Khaled Zamzam, er pr. 1. marts 2026 ansat hos Immeo som Consultant. Han er nyuddannet i Informationsteknologi fra DTU. Nyt job
Norriq Danmark A/S har pr. 1. januar 2026 ansat Morten Kronborg som Consultant ERP. Han skal især beskæftige sig med hjælp og rådgivning af kundernes handels-forretningsprocesser indenfor salg og indkøb. Han kommer fra en stilling som Digital Forretningskonsulent hos Gasa Nord Grønt. Han er uddannet speditør og har bevæget sig ind i handelsvirksomheder hvor han endte med ansvar for ERP-løsninger. Han har tidligere beskæftiget sig med at være ansvarlig for implementering og drift af IT-projekter. Nyt job

Morten Kronborg

Norriq Danmark A/S