Trump-administrationen beslutade på fredagen att förbjuda federala myndigheter att använda produkter från AI-företaget Anthropic, och eskalerade därmed en högriskkonflikt om huruvida privata AI-tillverkare kan begränsa hur det amerikanska militären använder deras system. Bara några timmar senare meddelade Anthropics konkurrent Open AI:s vd, Sam Altman, att hans företag hade nått en överenskommelse om att förse Pentagon med sin teknik, uppenbarligen på samma villkor som militären hade avvisat för Anthropic.
President Donald Trump kallade Anthropic för ”vänstergalningar” och skrev i ett inlägg på Truth Social att han beordrade ”ALLA federala myndigheter” att omedelbart sluta använda Anthropics teknik. Samtidigt förberedde sig Pentagon för att beteckna företaget som en ”risk för leveranskedjan”, en etikett som oftare förknippas med utländska motståndares tekniska produkter, såsom telekomutrustning tillverkad av kinesiska Huawei.
Beslutet följer på en ovanligt offentlig dispyt mellan Anthropic och försvarsminister Pete Hegseth om vad Pentagon kallade ett krav på ”alla lagliga ändamål”, vilket innebär att när militären licensierar en AI-modell måste den vara fri att använda den för alla lagliga uppdrag utan att begränsas av säkerhetspolicyer som påtvingats av leverantören.
På X upprepade försvarsminister Pete Hegseth Trumps kritik och sa: ”Dolda bakom den skenheliga retoriken om ’effektiv altruism’ har [Anthropic och vd Dario Amodei] försökt tvinga det amerikanska militären till underkastelse – en feg handling av företagsmässig dygdssignalering som sätter Silicon Valley-ideologin över amerikanska liv.” Han tillade: ”Deras verkliga mål är uppenbart: att ta veto över det amerikanska militärens operativa beslut. Det är oacceptabelt.”
I ett uttalande sent på kvällen svarade Anthropic Pentagon och sa: ”Vi har ännu inte fått någon direkt kommunikation från krigsdepartementet eller Vita huset om statusen för våra förhandlingar.” Företaget sa också att det anser att beteckningen ”risk i leveranskedjan” både skulle vara juridiskt osund och skapa ett farligt prejudikat för alla amerikanska företag som förhandlar med regeringen.
Sex månader på sig
Enligt Axios skulle försvarsdepartementet enligt planen säga upp ett kontrakt med Anthropic värt upp till 200 miljoner dollar och kräva att försvarsentreprenörer och andra leverantörer intygar att de inte använder Anthropics Claude-modell i arbete som är kopplat till Pentagon. Regeringen ger myndigheter och entreprenörer sex månader på sig att övergå till alternativ.
Den övergången kan bli särskilt störande, eftersom Claude har använts i militärens hemliga system, system som stöder några av Pentagons mest känsliga underrättelsearbete, vapenutveckling och operativa planering.
Försvarstjänstemän har beskrivit Claude som mycket kapabel och erkänt att det skulle vara svårt att skilja den från befintliga arbetsflöden.
Vad konflikten gäller
Anthropic hävdar att vissa användningsområden, särskilt massövervakning inom landet och helt autonoma vapen, bör förbli förbjudna.
Vd Dario Amodei sa i en passionerad essä att företaget inte kan ta bort dessa skyddsräcken ”med gott samvete” och varnade för att dagens AI-system inte är tillräckligt tillförlitliga för helt autonoma dödliga beslut och att storskalig övervakning medför betydande risker för missbruk.
Pentagon hävdar att militären redan verkar enligt sina egna regler och sin egen tillsyn, och att dess uppdrag inte kan begränsas av en leverantörs användarvillkor, särskilt i gråzoner där definitionerna av ”övervakning” och ”autonomi” kan ifrågasättas.
USA:s nationella säkerhet
På kort sikt tvingar administrationens åtgärd Pentagon att hantera en känslig övergång: att ta bort Anthropics modell från klassificerade miljöer samtidigt som man upprätthåller kontinuiteten för underrättelseanalys och planeringsuppgifter som hade börjat införliva generativ AI.
De långsiktiga konsekvenserna är mer omfattande. Förbudet signalerar att tillgången till den federala marknaden, särskilt försvarsmarknaden, kan bero på att man accepterar villkoren för ”all laglig användning”, vilket potentiellt kan minska inflytandet för AI-företag som försöker införa hårda gränser för vissa nationella säkerhetsapplikationer.
Det väcker också praktiska frågor för AI-företag som leverantörer till den amerikanska regeringen. Om regeringen tvingar bort en ledande AI-leverantör från känsliga system kan myndigheter och entreprenörer konsolidera sig kring ett mindre antal alternativ, vilket ökar beroendet av de företag som fortfarande är villiga och kapabla att verka i sekretessbelagda miljöer.
Vissa hävdar att dessa störningar i kritisk militär infrastruktur kan utgöra ett ytterligare hot mot den nationella säkerheten. Den amerikanske demokratiske senatorn Mark R. Warner, vice ordförande i senatens underrättelseutskott, sa att Trumps och minister Hegseths insatser utgör en risk för nationell säkerhet. ”Presidentens direktiv om att stoppa användningen av ett ledande amerikanskt AI-företag inom den federala regeringen, i kombination med uppviglande retorik som attackerar det företaget, väcker allvarliga farhågor om huruvida beslut om nationell säkerhet drivs av noggranna analyser eller politiska överväganden.”
Konkurrenter kan ta över
Beslutet kan omforma konkurrenslandskapet.
Elon Musks xAI har redan undertecknat ett avtal om att införa sin Grok-modell i klassificerade militära system, i en utveckling som positionerar xAI som en potentiell ersättare om Anthropics relation med Pentagon skulle kollapsa.
Det finns dock betydande farhågor om Groks säkerhet och tillförlitlighet som har dykt upp inom delar av den federala regeringen, även om Pentagon har godkänt det för klassificerade miljöer, vilket är en tidig indikation på att ”ersättningen” inte kommer att vara en enkel fråga om att byta ut en modell mot en annan.
Under tiden har Pentagon fört diskussioner med Open AI och Google om att utvidga tillgängligheten för deras modeller från oklassificerade system till mer känsliga miljöer, rapporterade Axios.
Diskussionerna med Open AI bar tydligen frukt, eftersom mindre än sju timmar efter Trumps inlägg på Truth Social postade Open AI:s Altman på X: ”Vi har nått en överenskommelse med krigsdepartementet om att använda våra modeller i deras sekretessbelagda nätverk.”
Här verkade dock Pentagon acceptera samma villkor från Open AI som man avvisat för Anthropic.
”Två av våra viktigaste säkerhetsprinciper är förbud mot inhemsk massövervakning och mänskligt ansvar för användning av våld, inklusive för autonoma vapensystem”, skrev Altman.
”Försvarsdepartementet instämmer i dessa principer, återspeglar dem i lagar och policyer, och vi har infört dem i vårt avtal.”
Sam Altman har också försökt positionera sitt företag i linje med Anthropics centrala etiska invändningar, samtidigt som han fortsätter att sträva efter affärer med Pentagon.
Altman har sagt att Open AI delar ”röda linjer” mot massövervakning av amerikaner och vapen som kan avfyras utan mänsklig övervakning, även om företaget utforskar möjligheter att samarbeta med försvarsdepartementet.
Motreaktion börjar dyka upp
Även bland konkurrenterna väckte Anthropic-konflikten sympati.
Hundratals anställda på Google och OpenAI stödde Anthropic i ett upprop, vilket understryker de interna spänningarna inom AI-branschen när det gäller militära tillämpningar. En faktor som kan omintetgöra förbudet mot Anthropic är ett enat avståndstagande från AI-sektorn.
Peter Madsen, tidigare professor i etik och socialt ansvar vid Carnegie Mellon University och verkställande direktör för Center for the Advancement of Applied Ethics and Political Philosophy, säger:
– Alla andra AI-företag bör förbinda sig att följa samma ideal som Anthropic, så att Trump tvingas anlita ett etiskt AI-företag, inte ett som fruktar hans nycker.
Anthropic har sagt att man kommer att samarbeta med en övergång för att undvika störningar i pågående uppdrag, och att man kommer att bestrida beteckningen ”risk i leveranskedjan” i domstol.
Vad händer härnäst
Administrationens beslut skapar flera omedelbara testfall.
För det första måste myndigheter och entreprenörer avgöra hur djupt Anthropics verktyg är integrerade i deras verksamhet och hur snabbt de kan migrera utan att prestanda eller säkerhet försämras.
För det andra kommer konkurrenterna att ställas inför sin egen balansgång: hur man ska tillgodose Pentagons krav på ”all laglig användning” eller, i fallet med Open AI, balansera mellan sina säkerhetsprinciper och hantera intern och extern granskning av övervakning, autonomi och risken för att AI-system beter sig oförutsägbart i situationer med höga insatser.
Slutligen väcker förbudet en grundläggande politisk fråga som går utöver Anthropic: i kapplöpningen om att implementera banbrytande AI för nationell säkerhet, vem sätter gränserna: regeringen som behöver operativ flexibilitet, eller de privata företag som bygger och kontrollerar tillgången till tekniken?
