OpenAI går nu ind i kapløbet om AI-værktøjer til cybersikkerhed.
Selskabet lancerer Daybreak, som er et nyt AI-initiativ, der skal hjælpe organisationer med at opdage og lukke sikkerhedshuller, før cyberkriminelle finder dem.
Initiativet bruger ifølge OpenAI selskabets Codex Security AI-agent, som selskabet lancerede i marts.
Den skal analysere en organisations kode, udpege mulige angrebsveje og finde de sårbarheder, der udgør den største risiko.
Kommer i kølvandet på Mythos
Lanceringen kommer lidt over en måned efter, at konkurrenten Anthropic præsenterede Claude Mythos.
Claude Mythos er en AI-model, der har fokus på sikkerhed, som Anthropic vurderede var for farlig til at blive gjort offentligt tilgængelig.
Derfor blev modellen kun delt privat som led i Anthropics eget initiativ, der fik navnet Project Glasswing. Kort tid efter viste det sig dog, at modellen allerede var faldet i de forkerte hænder.
OpenAI har hidtil manglet et tilsvarende sikkerhedsprodukt, men med Daybreak forsøger selskabet nu at placere sig i samme felt, hvor AI ikke blot bruges til at skrive kode, men også til at analysere kode for sårbarheder og hjælpe med at lukke dem.
Bygger på flere modeller
Daybreak er ikke bygget på én enkelt model, eftersom OpenAI har samlet de mest kapable OpenAI-modeller, Codex og selskabets sikkerhedspartnere i initiativet.
Derudover indgår specialiserede cybermodeller.
Det omfatter blandt andet GPT-5.5 with Trusted Access for Cyber og GPT-5.5-Cyber, som selskabet begyndte at rulle ud i sidste uge.
OpenAI oplyser også, at selskabet arbejder sammen med partnere i både industrien og den offentlige sektor, mens det forbereder sig på at udrulle stadig mere cyberkapable modeller.
Skal bruges før angriberne kommer
Pointen med Daybreak er at flytte en del af sikkerhedsarbejdet tidligere i processen.
I stedet for kun at reagere, når en sårbarhed er fundet eller udnyttet, skal AI-værktøjet hjælpe med at identificere mulige svagheder i koden på forhånd.
Det sker ved at skabe et billede af, hvor organisationens kode kan angribes samt at finde ud af, hvilke fejl der udgør størst risiko.
Herefter kan løsningen ifølge OpenAI hjælpe med at validere sandsynlige sårbarheder og automatisere opdagelsen af de alvorligste af dem.