OpenAI er i gang med at 'overveje' en stor AI-kontrakt med Nato.
Det sker blot få dage efter, at selskabet landede en aftale med levering af sine AI-teknologier til det amerikanske Forsvarsministerium, Pentagon, som efter en del ballade har sat OpenAI-rivalen Anthropic på porten.
Ifølge Reuters vil Nato-kontrakten betyde, at OpenAI skal udrulle sine AI-teknologier på ikke-klassificerede netværk i Nato.
Wall Street Journal skriver ellers, at OpenAI-topchef Sam Altman har fortalt sine medarbejdere, at aftalen omhandler alle fortrolige og klassificerede netværk i Nato, men dette er senere af OpenAI blevet ændret officielt.
Pentagon-aftalen, som OpenAI har landet, omhandler AI i også Pentagons fortrolige og lukkede netværk.
Pentagon opsagde mandag alle aftaler med Anthropic efter påbud fra Donald Trump, der i et følelsesladet brev betegnede selskabet som 'venstreorienterede tosser' og et 'yderligtgående venstre-orienteret' selskab.
Samtidig meddelte forsvarsminister Pete Hegseth, at Anthropic nu var at regne for en risiko så stor, at virksomheden står til at blive blacklistet i forbindelse med en stribe udbud i den offentlige sektor.
Årsagen til balladen: Anthropic vil ikke have, at Pentagon anvender selskabets AI-løsning Claude til masseovervågning og til understøttelse af fuldt autonome våben.
Anthropic vil ikke levere et produkt, der kan bringe soldater og civile i fare, har selskabet meddelt.
Anthropic-direktør Dario Amodei har forsøgt at forklare sig med, at virksomheden grundlæggende ønsker at hjælpe USA og andre demokratier med at anvende AI til militære forsvars-formål.
Selskabets løsning Claude er hidtil blevet anvendt af de amerikanske myndigheder til blandt andet efterretningsanalyse, modellering og simulation, operationel planlægning, cyberoperationer og den slags.
Men der er en grænse for anvendelsen, har direktøren påpeget. Og den går der, hvor anvendelsen kan underminere demokratiske værdier.
Anthropic-direktøren mener således, at AI-drevet masseovervågning er uforenelig med demokratiske værdier - eksempelvis når AI kan anvendes til at samle ellers spredte datapunkter til et samlet billede af en persons liv.
Om fuldt autonome våben skriver Dario Amodei, at sådanne systemer potentielt kan blive vigtige, men at "frontier"-AI i dag simpelthen ikke er pålidelig nok til at drive våben, der helt fjerner mennesker fra beslutningskæden.