Kun 40 organisationer har fået eksklusiv adgang til den nyeste store sprogmodel fra Anthropic.
Det skyldes, at modellen angiveligt er så sofistikeret, at den i løbet af ganske kort tid kan finde sårbarheder i både browsere, programmer og i selve operativsystemerne.
Samtidig kan den angiveligt koble sårbarhederne sammen, så det er muligt at bygge hele kæder af såkaldte exploits - meget hurtigere end mennesker.
Nu kan det velansete amerikanske Axios afsløre, at spiontjenesten NSA er en af de 40 organisationer, der lige nu scanner sin egen infrastruktur løs for at lappe alvorlige huller, som modellen hurtigt kan opdage. NSA har tidligere udført nogle af de mest spektakulære cyberangreb.
I Project Glasswing, som Anthropic har søsat er 12 af organisationerne nævnt ved navn blandt andet techgiganterne Google og Microsoft, Anthropic’s direkte konkurrenter til AI-tronen.
Afsløringen af, at NSA er en del af partnerkredsen er måske ikke overraskende, snarere opsigtsvækkende, fordi stifteren og den administrerende direktør Dario Amodei i er en åben krig med Trump-administrationen.
Dario Amodei trak en streg i sandet, da det kom frem, at Pentagon bruger selskabets de nyeste modeller til at udvælge mål til for amerikanske missilregn, der på det seneste har været over iransk luftrum.
Kort efter tordnede krigsminister Pete Hegseth frem med anklager om, at Anthropic udgør en ‘supply chain risk’ - altså en potentiel trussel mod USA’ sikkerhed.
Dermed tvinger han med juraen andre dele det amerikanske statsapparat til at kappe forbindelsen til selskabet - OpenAI blev derefter Pentagons nye, foretrukne AI-leverandør.
Nu viser det sig, at den samme teknologi bliver både brugt og bekæmpet af Pentagon.
Stadig stor tvivl om modellens fortræffeligheder
Det er for nu stadig småt med, hvad offentligheden har fået at vide om, hvad den nye model reelt kan.
Meget er stadig pakket ind i en frakke af frygt om, at verden går alave, hvis alle og enhver får mulighed for at teste selskabets produkter.
Blandt andet oplyser Anthropic selv, fordi over 99 procent af sårbarhederne, som er fundet med den nye model, endnu ikke er patchet, så “det vil være uansvarligt af os at fortælle detaljeret om dem.”
Men Storbritanniens Department for Science, Innovation and Technology har søsat AI Security Institute, hvis formål det er at sikre sikker udrulning af kunstig intelligens.
Denne styrelse oplyser selv at have fået adgang til Mythos Preview.
Resultatet af myndighedens undersøgelse er blandet.
Metoden for at teste kapabiliteterne er såkaldte ctf-konkurrencer og isolerede miljøer (cyber ranges), der er bygget som en form skydeøvelsesterræn. Forskerne påpeger, at kompleksiteten ved at udføre hackerangreb ude i den virkelige verden er væsentligt højere, da der er mange flere faktorer, som man skal tage højde for.
"På opgaver på ekspertniveau – som ingen model kunne løse før april 2025 – lykkes Mythos Preview i 73 procent af tilfældene,” fremgår det af rapporten, som kan læses her.
Men samtidig viser den samme graf, at andre leverandørers nyere modeller alle har en succesrate på over 60 procent, hvilket tager en smule luft af ballonen i forhold til, hvor revolutionerende modellen bliver markedsført som.
"Vores test viser, at Mythos Preview kan udnytte systemer med svag sikkerhed, og det er sandsynligt, at flere modeller med disse evner vil blive udviklet,” fremgår det i undersøgelsens konklusionen.
“Det understreger vigtigheden af grundlæggende cybersikkerhed som regelmæssig opdatering af software, stærk adgangskontrol, korrekt sikkerhedskonfiguration og omfattende logning."
I øvrigt den samme pointe, som den danske AI-forsker Thomas Kobber Panum, der har specialiseret sig i at manipulere og hacke teknologien bag store sprogmodeller, har forklaret til Computerworld.