Da Pentagon i fredags stemplede Anthropic som en “supply chain risk,” var det allerede en historisk eskalation. Nu har det San Francisco-baserede AI-selskab svaret igen — med to samtidige føderale retssager, der kan få vidtrækkende konsekvenser for forholdet mellem AI-industrien og den amerikanske regering.
To retssager, ét princip: Ytringsfrihed og AI-sikkerhed
Mandag den 9. marts indgav Anthropic søgsmål ved både U.S. District Court i Northern District of California og den føderale appeldomstol i Washington D.C. Selskabet kalder Pentagons handlinger “uden fortilfælde og ulovlige” og hævder, at de “skader Anthropic uopretteligt.”
Kernen i konflikten er enkel, men eksplosiv: Anthropic-CEO Dario Amodei nægtede at fjerne kontraktmæssige begrænsninger, der forhindrer Claude — selskabets AI-model — i at blive brugt til masseovervågning af amerikanske borgere og til autonome våbensystemer uden menneskelig kontrol. Pentagon opfattede det som obstruktion. Anthropic kalder det ytringsfrihed og ansvarlig AI-sikkerhed.
Anthropic hævder, at Trump-embedsmænd “forsøger at ødelægge den økonomiske værdi skabt af en af verdens hurtigst voksende private virksomheder.”
Milliardbeløb på spil — og en præcedens for hele branchen
De økonomiske konsekvenser er allerede mærkbare. Ifølge Anthropics CFO Krishna Rao kan regeringens handlinger reducere selskabets omsætning i 2026 med “adskillige milliarder dollars.” Eksisterende kontrakter med den føderale regering er allerede blevet annulleret, og private kontrakter er i fare, fordi forsvarskontrakter nu kræver certificering af, at leverandører ikke bruger Claude.
Præsident Trump har på Truth Social skrevet, at alle føderale agenturer “øjeblikkeligt skal ophøre” med at bruge Anthropics teknologi, og kaldt selskabet “et ukontrolleret, radikalt venstredrejet AI-firma.” Axios rapporterer desuden, at Trump overvejer en executive order for helt at udrydde Anthropic fra den føderale regering.
Betegnelsen “supply chain risk” har historisk været forbeholdt udenlandske modstandere, der potentielt kunne sabotere amerikanske interesser. Nationale sikkerhedseksperter kalder det yderst usædvanligt at bruge den mod et amerikansk selskab. Juristerne Michael Endrias og Alan Z. Rozenshtein har kaldt udpegningen for “politisk teater — en magtdemonstration, der ikke holder,” og peger på, at regeringen ikke troværdigt kan hævde en akut trussel, mens den samtidig planlægger en seks-måneders udfasning.
Claude i krig — allerede brugt i militære operationer
Ironisk nok har Claude allerede spillet en rolle i amerikanske militæroperationer. Ifølge Wall Street Journal blev modellen brugt under raidet, der førte til anholdelsen af Venezuelas leder Nicolás Maduro, og til efterretningsanalyser og identifikation af mål i den igangværende konflikt med Iran. Anthropic var det første frontier AI-laboratorium, der fik tilladelse til at operere på klassificerede netværk.
Selskabet understreger, at det siden 2024 har samarbejdet med nationale sikkerhedspartnere som Palantir om alt fra hurtig databehandling til dokumentanalyse. Striden handler specifikt om to røde linjer: dødelige autonome våben uden menneskelig kontrol og masseovervågning af amerikanske borgere.
Hvad betyder det for AI-branchen?
Sagen rammer ind i en fundamental debat om, hvem der kontrollerer AI. Pentagon argumenterer for, at private virksomheder ikke kan diktere, hvordan regeringen bruger teknologi i scenarier som krigsførelse. Anthropic holder fast i, at AI-sikkerhed ikke er en nice-to-have, men en grundlæggende del af teknologiens design.
For IT-professionelle og udviklere er implikationerne vidtrækkende. Hvis den føderale regering kan sortliste en AI-leverandør for at håndhæve sikkerhedsgarantier, skaber det en afskrækkende effekt: Hvilken AI-virksomhed tør sætte begrænsninger på sine modeller, hvis konsekvensen er at miste milliarder i omsætning og blive stemplet som en national sikkerhedsrisiko?
Omvendt rejser sagen det modsatte spørgsmål: Kan private virksomheder nægte at levere teknologi til staten, fordi de er uenige i brugen? Det er en ny variant af den gamle tech-vs-stat-debat, der har kørt siden Apples kamp mod FBI om iPhone-kryptering i 2016.
Bemærk i øvrigt, at mens Anthropic sortlistes, har Pentagon allerede godkendt Elon Musks xAI og OpenAIs ChatGPT til brug på klassificerede systemer. Konkurrenterne står klar til at udfylde hullet — og tilsyneladende uden de samme forbehold.
En retssag, vi bør følge tæt
Uanset udfaldet vil Anthropic vs. Pentagon definere rammerne for, hvordan AI-selskaber kan — og skal — sætte grænser for deres teknologi. Det er ikke kun en amerikansk sag. I Europa, hvor AI Act netop er trådt i kraft, vil præcedensen blive studeret nøje. Og for enhver virksomhed, der bygger på eller integrerer frontier AI-modeller, er spørgsmålet konkret: Hvad sker der, hvis din AI-leverandør pludselig bliver blacklistet?
Retssagen forventes at blive behandlet hurtigt, da Anthropic har bedt om et midlertidigt forbud mod at håndhæve udpegningen. Vi følger udviklingen.
Kilder
- Anthropic sues the Trump administration over ‘supply chain risk’ label — NPR, 9. marts 2026
- Anthropic sues Trump administration over Pentagon blacklist — CNBC, 9. marts 2026
- Fortune Tech: Anthropic sues, AWS attacks, Microsoft copilot — Fortune, 10. marts 2026
- Anthropic Sues Department of Defense Over ‘Supply Chain Risk’ Label — The New York Times, 9. marts 2026
Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂