De store offentlige kunder vælter ud af bagdøren hos det amerikanske AI-selskab Anthropic i kølvandet på selskabets store opgør med det amerikanske forsvarsministerium, Pentagon.
Balladen med Pentagon endte med en kontant fyreseddel til Anthropic.
Og nu følger både det amerikanske Udenrigsministerium, Finansministerium og Sundhedsministerium trop.
De sætter nemlig nu alle tre straks Anthropic på porten.
I stedet hiver de nu - som Pentagon - rivalen OpenAI ind som hovedleverandør af AI-løsninger.
Den amerikanske finansminister Scott Bessent meddeler via X, at ministeriet straks dropper al brug af Anthropics løsninger, herunder hovedproduktet Claude.
Det samme gælder det amerikanske Sundhedsministerium, hvor medarbejderne ifølge Reuters har fået besked på at anvende andre AI-platforme end Anthropics - eksempelvis Gemini eller ChatGPT.
Samtidig meddeler det amerikanske Udenrigsministerium, at det skifter til OpenAI og dropper Anthropic som motor under ministeriets chatbot, StateChat.
"Fra nu af vil StateChat køre på GPT 4.1 fra OpenAI," lyder det herfra.
Pentagon opsagde mandag alle aftaler med Anthropic efter påbud fra Donald Trump, der i et følelsesladet brev betegnede selskabet som 'venstreorienterede tosser' og et 'yderligtgående venstre-orienteret' selskab.
Samtidig meddelte forsvarsminister Pete Hegseth, at Anthropic nu var at regne for en risiko så stor, at virksomheden står til at blive blacklistet i forbindelse med en stribe udbud i den offentlige sektor.
Årsagen til balladen: Anthropic vil ikke have, at Pentagon anvender selskabets AI-løsning Claude til masseovervågning og til understøttelse af fuldt autonome våben.
Anthropic vil ikke levere et produkt, der kan bringe soldater og civile i fare, har selskabet meddelt.
Anthropic-direktør Dario Amodei har forsøgt at forklare sig med, at virksomheden grundlæggende ønsker at hjælpe USA og andre demokratier med at anvende AI til militære forsvars-formål.
Selskabets løsning Claude er hidtil blevet anvendt af de amerikanske myndigheder til blandt andet efterretningsanalyse, modellering og simulation, operationel planlægning, cyberoperationer og den slags.
Men der er en grænse for anvendelsen, har direktøren påpeget. Og den går der, hvor anvendelsen kan underminere demokratiske værdier.
Anthropic-direktøren mener således, at AI-drevet masseovervågning er uforenelig med demokratiske værdier - eksempelvis når AI kan anvendes til at samle ellers spredte datapunkter til et samlet billede af en persons liv.
Om fuldt autonome våben skriver Dario Amodei, at sådanne systemer potentielt kan blive vigtige, men at "frontier"-AI i dag simpelthen ikke er pålidelig nok til at drive våben, der helt fjerner mennesker fra beslutningskæden.