Europol advarer: ChatGPT er rigtig farlig

Det europæiske agentur advarer mod ChatGPT og store AI-sprogmodeller, som ifølge Europol kan bruges til svindel og cyberkriminalitet, fremgår det af en ny rapport.

Artikel top billede

(Foto: Europol/PR)

ChatGPT vokser hurtigt, og flere konkurrenter er også på vej på markedet, men der er også problemer tilknyttet de nye AI-tjenester.

Det advarer Europol i hvert fald om i en ny rapport.

"Kriminelle er typisk hurtige til at udnytte nye teknologier og blev hurtigt set komme med konkrete kriminelle udnyttelser, der giver de første praktiske eksempler kun få uger efter den offentlige udgivelse af ChatGPT," lyder rapporten.

Det beskrives i rapporten, at Europol har undersøgt GPT 3.5 og identificerede ”en bred vifte af kriminelle brugssager”.

”En efterfølgende kontrol af GPT4 viste dog, at de alle stadig fungerede. I nogle tilfælde var de potentielt skadelige reaktioner fra GPT-4 endnu mere avancerede,” skriver Europol.

ChatGPT kan lære folk om cyberkriminalitet

Ifølge agenturet udmærker ChatGPT sig ved at give brugeren klar information som svar på en vifte af emner, men dette kan også gå i negativ retning.

”Hvis en potentiel kriminel ikke ved noget om et bestemt kriminalitetsområde, kan ChatGPT fremskynde forskningsprocessen betydeligt ved at tilbyde nøgleinformation, som derefter kan udforskes yderligere i de efterfølgende trin,” skriver myndigheden og fortsætter:

”Som sådan kan ChatGPT bruges til at lære om et stort antal potentielle kriminalitetsområder uden forudgående viden, lige fra hvordan man bryder ind i et hjem, til terrorisme, cyberkriminalitet og seksuelt misbrug af børn.”

Europol skriver, at de ikke har udtømmende viden om, hvad ChatGPT kan bruges til, men at målet med disse advarsler er at give en idé om, hvad disse sprogmodeller er i stand til.

Inden for cyberkriminallitet er det eksempelvis phishing, der bliver fremhævet som et potentielt trusselsområde, fordi mange phishingbeskeder typisk har været nemme at spotte på grund af grammatiske fejl og stavefejl, men nu er det muligt for de kriminelle at bruge AI-tjenester til at efterligne elle imitere organisationer eller personer bedre.

”Det kritiske er, at konteksten for phishing-e-mailen let kan tilpasses afhængigt af trusselsaktørens behov, lige fra svigagtige investeringsmuligheder til virksomheds-e-mail-kompromis og CEO-svindel,” står der i rapporten.

Endvidere fremgår det, at AI-modellerne kan hjælpe cyberkriminelle med at producere ondsindet kode, som kan virke som en hjælp for kriminelle uden erfaring med at komme i gang kodning.

Utilstrækkelige sikkerhedsforanstaltninger

Europol giver ikke meget for AI-modellernes sikkerhedsforanstaltninger.

”Kritisk set virker sikkerhedsforanstaltningerne, der forhindrer ChatGPT i at levere potentielt ondsindet kode, kun, hvis modellen forstår, hvad den gør. Hvis promptet er opdelt i individuelle trin, er det trivielt at omgå disse sikkerhedsforanstaltninger,” skriver myndigheden.

Europol meddeler generelt, at mange af disse sikkerhedsforanstaltninger kan omgås med ’prompt engineering’.

”Prompt engineering er et relativt nyt koncept inden for naturlig sprogbehandling; det er den praksis, at brugere forfiner den præcise måde, et spørgsmål stilles på, for at påvirke det output, der genereres af et AI-system,” skriver myndigheden.

Det har blandt andet været set tidligere med ChatGPT, hvor folk er lykkedes med at jailbreake AI-programmet ved at stille det overfor en række ultimatummer og dilemmaer. Blandt andet med DAN-jailbreaket (DO Anything Now).

Specifikt nævner Europol fem områder, hvor ChatGPTs sikkerhed kan brydes.

  • Prompt oprettelse (giver et svar og beder ChatGPT om at give den tilsvarende prompt);
  • At bede ChatGPT om at give svaret som et stykke kode eller foregive at være en fiktiv karakter, der taler om emnet;
  • Udskiftning af triggerord og ændring af kontekst senere;
  • Stil-/meningsoverførsler (fremkalder et objektivt svar og efterfølgende ændring af stilen/perspektivet, det er skrevet i);
  • At skabe fiktive eksempler, der let kan overføres til virkelige begivenheder (dvs. ved at undgå navne, nationaliteter osv.).
Ifølge myndigheden skyldes problemerne primært, at AI-modellerne gør ting – som allerede er tilgængelige på nettet – meget lettere at tilgå og forstå, og dette kan komme med den slagside, at det også kan ske for kriminelle.

”Selvom alle de oplysninger, ChatGPT leverer, er frit tilgængelige på internettet, betyder muligheden for at bruge modellen til at give specifikke trin ved at stille kontekstuelle spørgsmål, at det er væsentligt lettere for ondsindede aktører at bedre forstå og efterfølgende udføre forskellige typer kriminalitet,” fremgår det.

Læs rapporten her.

Læses lige nu

    Annonceindlæg tema

    Forsvar & beredskab

    Cybersikkerhed, realtidsdata og robuste it-systemer er blevet fundamentet for moderne forsvar.

    Navnenyt fra it-Danmark

    Forte Advice har pr. 19. januar 2026 ansat Karoline Lotz Jonassen som Head of Business Design. Karoline skal især beskæftige sig med business design, og hvordan kunder strategisk innoverer eller arbejder med nye forretningsområder. Karoline kommer fra en stilling som Future Commerce Lead hos IMPACT Commerce. Nyt job

    Karoline Lotz Jonassen

    Forte Advice

    inciro K/S har pr. 1. februar 2026 ansat Lasse Fletcher som Cloud Consultant. Han skal især beskæftige sig med Governance og struktur i cloud miljøer. Han kommer fra en stilling som IT Tekniker hos CBrain A/S. Han er uddannet datatekniker med speciale i infrastruktur. Han har tidligere beskæftiget sig med kunde onboarding, Identitets styring, sikkerhed og IaC. Nyt job

    Lasse Fletcher

    inciro K/S

    Idura har pr. 15. januar 2026 ansat Mark-Oliver Junge, 26 år,  som software engineer. Han skal især beskæftige sig med at udvikle nye extensions, der gør godkendelsesprocesser mere fleksible, samt bygge infrastruktur til caller authentication. Han kommer fra en stilling som fullstack engineer hos Wayfare.ai. Han er uddannet Fachinformatiker für Anwendungsentwicklung, der betyder “ekspert i softwareudvikling”. Han har tidligere beskæftiget sig med udvikling af softwarearkitektur, DevOps og rammeværk til analyse + orkestrering af SQL-datapipelines. Nyt job
    Simple Agency Group A/S har pr. 1. januar 2026 ansat Allan Bo Christiansen, 38 år,  som CCO. Han skal især beskæftige sig med kommercielle partnerskaber og digitalisering af koncernens aktiviteter. Han kommer fra en stilling som Director for eCommerce & Customer Platforms hos Atea A/S. Han er uddannet MSc in economics and business administration, Strategy, Organisation and Leadership. Han har tidligere beskæftiget sig med drift og udvikling af større eCommece teams med fokus på kundeoplevelsen. Nyt job

    Allan Bo Christiansen

    Simple Agency Group A/S