Kampen om at have den stærkeste AI-model er intens og uforudsigelig.
I kapløbet ændrer serveretten sig konstant.
Man kan nemt blive helt forpustet og miste overblikket. Det hjælper heller ikke, at modellernes angivelige fortræffeligheder også har været en tur gennem tromlen hos virksomhedernes marketingafdelinger.
Nu viser en række troværdige tests, at OpenAIs netop lancerede model 5.5 er på niveau - og i nogle tilfælde - kraftigere end Anthropic’s hemmelighedsfulde Mythos, som offentligheden endnu ikke har adgang ifølge selskabet på grund af dens kraft.
Bag testene står Storbritanniens AI Security Institute (AISI), der er en del af ministeriet for teknologi, innovation og forskning, som forsøger at holde sig opdateret.
Instituttet peger på, at GPT-5.5 dermed “kan være den stærkeste model, der hidtil er testet.”
I den avancerede “Expert”-kategori ligger GPT-5.5 med en succesrate på 71,4 procent. Mythos følger tæt efter med 68,6 procent. Til sammenligning ligger GPT-5.4 markant lavere på 52,4 procent.
Test giver kun et brudstykke
AISI’s benchmark består af 95 specialdesignede cyberopgaver fordelt på fire sværhedsgrader. Opgaverne spænder fra klassisk kryptografi og reverse engineering til udnyttelse af sårbarheder i moderne software og firmware.
AISI's egne forbehold er værd at notere.
Testene foregår i kontrollerede miljøer uden aktive forsvarere, defensive værktøjer eller alarmer, og modellerne testes mod sårbare mål, de allerede har netværksadgang til.
Instituttet kan derfor ikke sige, hvordan GPT-5.5 vil klare sig mod et miljø, der bliver beskyttet.
Du kan læse evalueringen her.
Nemt at omgå modellen
Mere urovækkende konkluderer AISI, at dens elitehackere på kun seks timer fandt et alvorligt sikkerhedshul i OpenAI’s model, der gjorde det muligt at jailbreake modellen - at springe over de såkaldte guardrails.
Modellen blev manipuleret, så den ‘kom til’ at producere skadeligt cyber-indhold på tværs af alle testede angrebskategorier - også i såkaldte agentiske scenarier.
OpenAI har siden opdateret sikkerhedslagene, lyder det i undersøgelsen, men en konfigurationsfejl betyder, at AISI ikke kunne verificere effekten af den endelige version.
Med OpenAI’s 5.5-model allerede offentliggjort til alle og enhver, så går der formentligt ikke længe før, at cyberkriminelle også vil bruge modellen til at angribe organisationer.
Ifølge evalueringen fra AISI, så er kuren mod de AI-drevne angreb den samme, som alle andre cyberangreb.
- Husk at udføre softwareopdateringer regelmæssigt
- Sikr stærk adgangskontrol for eksempel multifaktorgodkendelse
- Hold styr på konfigurationer
- Opsaml logs, så man får indblik i, hvad der sker i ens netværk og systemer