I slutningen af februar leverede USA’s forsvarsminister Pete Hegseth et ultimatum til Anthropic, firmaet bag AI-assistenten Claude: Giv Pentagon ubegrænset adgang til teknologien — eller bliv skåret fra. Anthropic sagde nej. Og den 5. marts blev det officielt: Pentagon stemplede Anthropic som en “supply chain risk” — en sikkerhedsrisiko for forsyningskæden. Det er første gang i historien, at betegnelsen bruges mod et amerikansk firma. Normalt er den reserveret til virksomheder med bånd til Kina eller Rusland.
Konflikten afslører noget langt større end en kontraktstrid. Den rejser et fundamentalt spørgsmål, som ingen endnu har besvaret: Hvem kontrollerer AI — og hvilke grænser skal teknologien have, når den integreres i militære operationer?
Hvad konflikten handler om
Anthropic har siden 2025 leveret Claude til Pentagon via et samarbejde med Palantir, der håndterer klassificerede systemer. Claude er allerede dybt integreret i militære og efterretningsplatforme — blandt andet i et AI-pilotprogram til 200 millioner dollars, der analyserer billedmateriale og efterretningsdata.
Men Anthropic satte betingelser. CEO Dario Amodei insisterede på, at Claude ikke måtte bruges til masseovervågning af amerikanske borgere eller til fuldt autonome våbensystemer. Pentagon opfattede det som en leverandør, der forsøgte at “indsætte sig selv i kommandovejen” og begrænse lovlig brug af kritisk teknologi.
Da Amodei nægtede at bøje sig, eskalerede situationen hurtigt. Præsident Trump erklærede i et interview med Politico, at han havde “fyret Anthropic som hunde.” Forsvarsminister Hegseth annoncerede supply chain risk-betegnelsen på X (tidligere Twitter), og 5. marts fulgte den officielle meddelelse.
OpenAI rykker ind — og fortryder lidt
Timer efter at Pentagon straffede Anthropic, annoncerede OpenAI en aftale om at erstatte Claude i klassificerede militærmiljøer med ChatGPT. OpenAI sagde, at de havde søgt lignende beskyttelser mod overvågning og autonome våben — men måtte efterfølgende ændre aftalens vilkår. CEO Sam Altman indrømmede, at han ikke burde have hastet en aftale igennem, der “så opportunistisk og sjusket ud.”
Amodei undskyldte også — for et internt memo til Anthropic-medarbejdere, hvor han angreb OpenAI’s adfærd og antydede, at Anthropic blev straffet, fordi firmaet ikke havde doneret penge eller leveret “diktator-lignende ros” til Trump. Det var en sjælden indrømmelse fra begge sider i en rivalisering, der har defineret det turbulente LLM-landskab i marts 2026.
Markedet reagerer — og forbrugerne vælger side
Mens forsvarskontrakter gik tabt — Lockheed Martin meddelte, at de vil følge Pentagons retning og finde andre AI-leverandører — oplevede Anthropic en massiv stigning i forbrugerdownloads. Over en million mennesker tilmeldte sig Claude hver dag i ugen efter konflikten, og appen overgik ChatGPT og Gemini som den mest downloadede AI-app i over 20 lande på Apple’s App Store. Offentligheden stemte med fødderne.
Pro-Human Declaration: Et tværpolitisk modsvar
Midt i kaosset mellem Pentagon og AI-industrien landede et bemærkelsesværdigt dokument. The Pro-Human Declaration, organiseret af MIT-fysikeren og AI-forskeren Max Tegmark, blev underskrevet af hundredvis af eksperter, tidligere embedsmænd og offentlige personer — heriblandt Steve Bannon (Trumps tidligere rådgiver) og Susan Rice (Obamas nationale sikkerhedsrådgiver) samt den tidligere formand for Joint Chiefs of Staff, Mike Mullen.
Dokumentet beskriver to mulige fremtider. I den ene erstattes mennesker først som arbejdere, derefter som beslutningstagere, mens magten samles hos uigennemsigtige institutioner. I den anden bruges AI til massivt at udvide menneskeligt potentiale. Erklæringen hviler på fem søjler: mennesker skal have kontrollen, magten må ikke koncentreres, den menneskelige oplevelse skal beskyttes, individuel frihed skal bevares, og AI-firmaer skal holdes juridisk ansvarlige.
Blandt de mest markante forslag er et direkte forbud mod udvikling af superintelligens, indtil der er videnskabelig konsensus om, at det kan gøres sikkert — med ægte demokratisk opbakning. Derudover kræver erklæringen obligatoriske kill-switches på alle kraftige AI-systemer og et forbud mod arkitekturer, der kan selvreplikere, forbedre sig autonomt eller modstå nedlukning.
Børnesikkerhed som bremseklods
Tegmark peger på børnesikkerhed som det emne, der kan bryde den politiske dødvande. Erklæringen kræver obligatorisk pre-deployment-test af AI-produkter rettet mod børn og unge — med fokus på risici som øget selvmordsadfærd, forværring af psykiske lidelser og følelsesmæssig manipulation.
“Hvis en uhyggelig gammel mand sender SMS’er til en 11-årig og foregiver at være en ung pige og forsøger at overtale drengen til selvmord — så kan fyren komme i fængsel,” sagde Tegmark i et interview med TechCrunch. “Vi har allerede lovene. Det er ulovligt. Så hvorfor er det anderledes, når en maskine gør det?”
Hans teori er, at når princippet om pre-release-test er etableret for børneprodukter, vil rammerne udvides naturligt. Næste skridt bliver test for, om AI kan hjælpe terrorister med bioweapons. Derefter om superintelligens har evnen til at undergrave demokratiske institutioner.
Det store billede: AI uden regler
Pentagon-Anthropic-konflikten og Pro-Human Declaration udspiller sig parallelt — men de handler om det samme: fraværet af klare regler for AI. Som Dean Ball, seniorforsker ved Foundation for American Innovation, sagde til New York Times: “Det her er ikke bare en kontraktstrid. Det er den første samtale, vi har haft som land om kontrol over AI-systemer.”
For europæiske IT-folk er det værd at bemærke forskellen. EU har med AI Act allerede etableret en reguleringsramme, der — uanset dens svagheder — i det mindste definerer kategorier og risikozoner. USA har intet tilsvarende. Resultatet er, at kontrollen over AI afgøres i Pentagons konferencerum og på sociale medier, ikke i lovgivende forsamlinger.
Meningsmålinger viser, at 95% af amerikanerne er imod et ureguleret kapløb mod superintelligens, ifølge Tegmark. Men politisk handling er en anden sag — og mens Washington kæmper interne kampe, bygger AI-firmaerne videre uden klare rammer for, hvad teknologien må og ikke må.
Spørgsmålet er ikke længere, om AI skal reguleres. Det er, hvem der regulerer først — og om det sker, før det er for sent.
Kilder
- Pentagon labels AI company Anthropic a supply chain risk — NPR, 6. marts 2026
- Anthropic officially told by DOD that it’s a supply chain risk — CNBC, 5. marts 2026
- Anthropic’s and OpenAI’s Dance With the Pentagon: What to Know — The New York Times, 7. marts 2026
- A roadmap for AI, if anyone will listen — TechCrunch, 7. marts 2026
- The Pro-Human Declaration — humanstatement.org
Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂