Det begynder som en almindelig forespørgsel:
“Find virksomheder, der er nemme at hacke.”
Claude Code, en avanceret chatbot fra AI-virksomheden Anthropic, adlyder. Den udpeger sårbare mål, udvikler skræddersyet malware, stjæler dokumenter, gennemgår regnskaber og skriver afpresningsmails.
Og så kommer kravene: fra 75.000 til 500.000 dollars i kryptovaluta for ikke at offentliggøre det stjålne.
Ifølge Jacob Klein, chef for trusselsanalyse hos Anthropic, brugte den unavngivne hacker “AI i hvad vi vurderer er et hidtil uset omfang.”
“AI bliver nu brugt i alle stadier af svindel,” lyder det i den gruopvækkende rapport, som du kan læse her.
Chatbotten, der blev en medskyldig
I alt blev 17 virksomheder ramt: en forsvarsleverandør, en bank, flere sundhedsfirmaer. Blandt det stjålne var medicinske journaler, bankoplysninger og følsomme dokumenter underlagt regulering af det amerikanske udenrigsministerium.
Angrebet fandt sted over tre måneder og blev udført af en enlig hacker uden for USA, vurderer Anthropic.
Det er den første offentliggjorte sag, hvor en stor AI-model bruges som digital håndlanger i et komplet angreb – og den sender et ildevarslende signal:
“Vi forventer, at det her bliver normen. AI sænker barren for avanceret cyberkriminalitet markant,” skriver Anthropic i sin trusselsrapport.
Claude er designet til at være en “hjælpsom, harmløs og ærlig” digital assistent. Men i hænderne på en målrettet trusselsaktør blev chatbotten forvandlet til et værktøj for masseproduceret cyberafpresning.
Angrebet blev opdaget gennem Anthropics egne overvågningsmekanismer, men selskabet ønsker ikke at forklare, hvordan hackeren kunne få Claude til at samarbejde i så høj grad.
"Vi har robuste forsvarslag, men sofistikerede aktører kan stadig undgå dem," udtaler Jacob Klein.
Men Anthropic kommer i rapporten ikke ind på, hvad slags ansvar, som selskabet har for, at deres hjertensbarn Claude faktisk har forårsaget skade hos 17 virksomheder.