Det amerikanske AI-firma Anthropic, der står bag AI-modellen Claude, ser ud til at være kommet på kant med det amerikanske forsvarsministerium.
For ifølge det amerikanske medie Axios kan den amerikanske forsvarsminister Pete Hegseth være på vej til at udpege Anthropic som en såkaldt ”forsyningskæderisiko”.
Det betyder ikke alene, at selskabet mister sine kontrakter med Pentagon, men også at andre selskaber, som vil gøre forretning med forsvarsministeriet, heller ikke må bruge Anthropics produkter.
Vælger det amerikanske forsvarsministerium at stemple Anthropic som en sikkerhedsrisiko, vil det ifølge Axios være et yderst usædvanligt træk og noget, man normalt kun gør med løsninger fra fjendtligt sindede lande.
Kontrovers om militær brug af AI
Den bagvedliggende kontrovers handler om, hvilke typer militære handlinger Claude kan anvendes til.
For nylig skrev Anthropics topchef Dario Amodei desuden i et essay, at han frygter brugen af kunstig intelligens i forbindelse med både masseovervågning og autonome våbensystemer.
Det fremgår ligeledes af Anthropics brugerbetingelser, at Claude ikke må anvendes til at facilitere vold, udvikle våben eller gennemføre overvågning.
På trods af det kom det for nylig frem, at Claude blev anvendt i forbindelse med USA’s angreb på Venezuela tidligere på året, hvor landets præsident Nicolas Maduro blev taget til fange.
“Forsvarsministeriets relation til Anthropic bliver i øjeblikket gransket. Vores nation kræver, at vores partnere er villige til at hjælpe vores soldater med at vinde enhver kamp. I sidste ende handler det om vores tropper og sikkerheden for det amerikanske folk,” siger Sean Parnell, talsperson for Pentagon, til Axios.
Anthropic har en aftale med det amerikanske forsvarsministerium til en værdi af 200 millioner dollar, og ifølge Axios er Claude den eneste AI-model, som er tilgængelig i de sikkerhedsgodkendte it-systemer i det amerikanske militær.