Artikel top billede

(Foto: Europol/PR)

Europol advarer: ChatGPT er rigtig farlig

Det europæiske agentur advarer mod ChatGPT og store AI-sprogmodeller, som ifølge Europol kan bruges til svindel og cyberkriminalitet, fremgår det af en ny rapport.

ChatGPT vokser hurtigt, og flere konkurrenter er også på vej på markedet, men der er også problemer tilknyttet de nye AI-tjenester.

Det advarer Europol i hvert fald om i en ny rapport.

"Kriminelle er typisk hurtige til at udnytte nye teknologier og blev hurtigt set komme med konkrete kriminelle udnyttelser, der giver de første praktiske eksempler kun få uger efter den offentlige udgivelse af ChatGPT," lyder rapporten.

Det beskrives i rapporten, at Europol har undersøgt GPT 3.5 og identificerede ”en bred vifte af kriminelle brugssager”.

”En efterfølgende kontrol af GPT4 viste dog, at de alle stadig fungerede. I nogle tilfælde var de potentielt skadelige reaktioner fra GPT-4 endnu mere avancerede,” skriver Europol.

ChatGPT kan lære folk om cyberkriminalitet

Ifølge agenturet udmærker ChatGPT sig ved at give brugeren klar information som svar på en vifte af emner, men dette kan også gå i negativ retning.

”Hvis en potentiel kriminel ikke ved noget om et bestemt kriminalitetsområde, kan ChatGPT fremskynde forskningsprocessen betydeligt ved at tilbyde nøgleinformation, som derefter kan udforskes yderligere i de efterfølgende trin,” skriver myndigheden og fortsætter:

”Som sådan kan ChatGPT bruges til at lære om et stort antal potentielle kriminalitetsområder uden forudgående viden, lige fra hvordan man bryder ind i et hjem, til terrorisme, cyberkriminalitet og seksuelt misbrug af børn.”

Europol skriver, at de ikke har udtømmende viden om, hvad ChatGPT kan bruges til, men at målet med disse advarsler er at give en idé om, hvad disse sprogmodeller er i stand til.

Inden for cyberkriminallitet er det eksempelvis phishing, der bliver fremhævet som et potentielt trusselsområde, fordi mange phishingbeskeder typisk har været nemme at spotte på grund af grammatiske fejl og stavefejl, men nu er det muligt for de kriminelle at bruge AI-tjenester til at efterligne elle imitere organisationer eller personer bedre.

”Det kritiske er, at konteksten for phishing-e-mailen let kan tilpasses afhængigt af trusselsaktørens behov, lige fra svigagtige investeringsmuligheder til virksomheds-e-mail-kompromis og CEO-svindel,” står der i rapporten.

Endvidere fremgår det, at AI-modellerne kan hjælpe cyberkriminelle med at producere ondsindet kode, som kan virke som en hjælp for kriminelle uden erfaring med at komme i gang kodning.

Utilstrækkelige sikkerhedsforanstaltninger

Europol giver ikke meget for AI-modellernes sikkerhedsforanstaltninger.

”Kritisk set virker sikkerhedsforanstaltningerne, der forhindrer ChatGPT i at levere potentielt ondsindet kode, kun, hvis modellen forstår, hvad den gør. Hvis promptet er opdelt i individuelle trin, er det trivielt at omgå disse sikkerhedsforanstaltninger,” skriver myndigheden.

Europol meddeler generelt, at mange af disse sikkerhedsforanstaltninger kan omgås med ’prompt engineering’.

”Prompt engineering er et relativt nyt koncept inden for naturlig sprogbehandling; det er den praksis, at brugere forfiner den præcise måde, et spørgsmål stilles på, for at påvirke det output, der genereres af et AI-system,” skriver myndigheden.

Det har blandt andet været set tidligere med ChatGPT, hvor folk er lykkedes med at jailbreake AI-programmet ved at stille det overfor en række ultimatummer og dilemmaer. Blandt andet med DAN-jailbreaket (DO Anything Now).

Specifikt nævner Europol fem områder, hvor ChatGPTs sikkerhed kan brydes.

  • Prompt oprettelse (giver et svar og beder ChatGPT om at give den tilsvarende prompt);
  • At bede ChatGPT om at give svaret som et stykke kode eller foregive at være en fiktiv karakter, der taler om emnet;
  • Udskiftning af triggerord og ændring af kontekst senere;
  • Stil-/meningsoverførsler (fremkalder et objektivt svar og efterfølgende ændring af stilen/perspektivet, det er skrevet i);
  • At skabe fiktive eksempler, der let kan overføres til virkelige begivenheder (dvs. ved at undgå navne, nationaliteter osv.).
Ifølge myndigheden skyldes problemerne primært, at AI-modellerne gør ting – som allerede er tilgængelige på nettet – meget lettere at tilgå og forstå, og dette kan komme med den slagside, at det også kan ske for kriminelle.

”Selvom alle de oplysninger, ChatGPT leverer, er frit tilgængelige på internettet, betyder muligheden for at bruge modellen til at give specifikke trin ved at stille kontekstuelle spørgsmål, at det er væsentligt lettere for ondsindede aktører at bedre forstå og efterfølgende udføre forskellige typer kriminalitet,” fremgår det.

Læs rapporten her.