AI-selskabet Anthropic opgiver sit centrale løfte om at bremse farlig AI-udvikling – dagen efter at forsvarsminister Pete Hegseth stillede virksomheden et ultimatum: Giv Pentagon fuld adgang til sprogmodellen Claude inden fredag, eller vi river jeres kontrakt til 200 millioner dollar over.
Det amerikanske forsvarsministerium truede samtidig med at stemple Anthropic som en forsyningskæderisiko, hvilket ville sortliste virksomheden fra en lang række udbud – n skæbne som hidtil har været forbeholdt udenlandske virksomheder såsom kinesiske Huawei og russiske Kaspersky Labs.
Samtidig blev Anthropic mindet om, at forsvaret kunne benytte sig ’Defence Production Act’ særloven til at tvinge adgang til teknologien uden samtykke.
Det pres har tilsyneladende virket.
Fokus på vækst
I et blogindlæg forklarer Anthropic, at det politiske miljø ’har drejet mod at prioritere AI's konkurrencedygtighed og økonomisk vækst, mens sikkerhedsorienterede diskussioner endnu ikke har fundet fodfæste på føderalt niveau.’
Selskabet erkender samtidig, at sine frivillige sikkerhedsramme ikke er blevet til den konsensus i branchen, som tilstræbt.
Siden 2023 har Anthropic forpligtet sig til at indstille udviklingen af sine AI-modeller, hvis de vurderes at være farlige – en linje, konkurrenter som OpenAI, Google og xAI aldrig har fulgt.
Fremover vil selskabet tilsidesætte sikkerhedshensyn, hvis konkurrenterne er langt nok foran.
På to specifikke krav fra Pentagon rykker Anthropic sig ifølge amerikanske CNN ikke: AI må ikke bruges til automatiseret udvælgelse af militære mål eller masseovervågning af amerikanske borgere. Ifølge en kilde har selskabet ingen planer om at give efter.
Hvorvidt Anthropic vil holde fast i sine røde linjer, når resten af fundamentet er lempet vil givetvis blive afgjort inden fredag denne uge, som Pentagon har sat som frist.