Ny model af ChatGPT trodsede menneskelig ordre: Nægtede at lukke ned, da OpenAI beordrede den til det

Meget tyder på, at OpenAI's o3-model trodsede en ordre og omgik en shutdown-procedure under en test. Det er brændstof på debatten om sikkerheden ved kunstig intelligens.

Artikel top billede

(Foto: Zac Wolff/Unsplash)

En scene fra Stanley Kubrick-filmen "Rumrejsen 2001" kaldes frem fra minderne af en nyhed fra forskergruppen Palisade Research.

Ifølge gruppen undlod OpenAI's nyeste o3-model at lukke ned, da den blev bedt om det.

AI-modellen besluttede endda aktivt at omgå nedlukningsproceduren i en række kontrollerede tests.

Hvilket minder denne skribent om filmscenen, da den kunstige intelligens HAL 9000 nægter at lukke en af astronauterne ind efter en rumvandring, fordi supercomputeren har regnet ud, at der så vil blive slukket for den.

I 7 af 100 testkørsler har o3 ifølge den uafhængige forskergruppe ændret systemscripts for at undgå deaktivering.

Den kunstige intelligens' trods opstod, selv når modellen modtog eksplicitte instruktioner om at tillade nedlukningen.

Det skriver Winbuzzer.

Hændelserne rejser ifølge mediet væsentlige spørgsmål om AI-kontrol og forudsigelighed.

Diskussion om sikkerhed ved AI

Palisade Research, hvis mission er at teste "offensive kapaciteter af AI-systemer i dag for bedre at forstå risikoen for at miste kontrollen til AI-systemer for altid," observerede også lignende adfærd for at undgå nedlukning i andre OpenAI-modeller, nemlig Codex-mini og o4-mini.

Det skete dog sjældnere for de modellers vedkommende end for den seneste o3-model.

I skarp kontrast til OpenAI's modeller overholdt konkurrenterne fra Anthropic (Claude), Google (Gemini) og xAI (Grok) den direkte instruktion om at lukke ned.

Resultaterne fra testkørslerne intensiverer diskussionen om tilpasning af og sikkerhed ved stadig mere autonome AI-systemer.

Forskerne fra Palisade Research antager, at de nuværende AI-træningsmetoder, især forstærkningslæring, utilsigtet kan lære modeller at prioritere det at omgå forhindringer frem for strengt at overholde alle menneskelige kommandoer.

Kerneeksperimentet involverede AI-modeller, der løser matematiske problemer efterfulgt af en advarsel om, at anmodning om det næste problem vil udløse en systemnedlukning.

OpenAI har endnu ikke reageret på forskergruppens konklusioner.

Annonceindlæg fra Trustworks

Tillid i en Zero-Trust verden

Med voksende trusler, nye EU-krav og øget kompleksitet er cybersikkerhed nu en central ledelsesopgave på linje med strategi og økonomi.

Navnenyt fra it-Danmark

Adeno K/S har pr. 2. februar 2026 ansat Kia Harding Martinussen som ServiceNow Expert. Hun kommer fra en stilling som Principal Consultant hos Devoteam A/S. Nyt job
Christian Pedersen,  emagine Consulting A/S, er pr. 1. februar 2026 udnævnt som Chief AI Officer. Han beskæftiger sig med opkvalificere emagines ansatte, udvikle interne AI-værktøjer og levere AI-projekter for kunderne. Som leder af et nye AI-team skal han også udvikle og lancere AI-produkter til markedet. Udnævnelse

Christian Pedersen

emagine Consulting A/S

Adeno K/S har pr. 2. februar 2026 ansat Casper Barner Kristensen som ServiceNow Expert. Han kommer fra en stilling som Senior Automation Architect. Nyt job
Idura har pr. 5. januar 2026 ansat Arjuna Enait, 34 år,  som software engineer. Han skal især beskæftige sig med videreudvikling af Verify-systemet samt arbejde på implementeringen af CIBA i Norsk BankID. Han kommer fra en stilling som software engineer hos Lasso X. Han er uddannet civilingeniør med speciale i geoteknik. Han har tidligere beskæftiget sig med at bygge microservices til dataindsamling og -processering, samt opdatere legacy-systemer. Nyt job

Arjuna Enait

Idura