Anthropic siger nej til Pentagon — nægter at fjerne sikkerhedsgarantier fra Claude

1 min read

Anthropic har trukket en streg i sandet. Torsdag meddelte AI-virksomheden, at den “ikke med god samvittighed” kan efterkomme Pentagons krav om at fjerne sikkerhedsgarantierne fra sin AI-model Claude — selv om det kan koste virksomheden en kontrakt på $200 millioner og alvorlige økonomiske konsekvenser.

En frist der tikker

Forsvarsminister Pete Hegseth har givet Anthropic-CEO Dario Amodei en ultimativ frist: fredag den 27. februar kl. 17:01 amerikansk tid. Enten fjerner Anthropic sine begrænsninger og giver det amerikanske militær ubegrænset adgang til Claude — eller Pentagon annullerer kontrakten og stempler Anthropic som en “forsyningskæderisiko”, en betegnelse der kan spærre virksomheden ude fra alle fremtidige statslige kontrakter.

Hvad handler konflikten om?

Kernen i konflikten er to specifikke sikkerhedsgarantier, som Anthropic insisterer på at bevare:

  • Ingen autonome våbensystemer: Claude må ikke bruges i systemer der kan dræbe mennesker uden menneskelig godkendelse i beslutningskæden.
  • Ingen masseovervågning: Claude må ikke bruges til systematisk overvågning af amerikanske borgere på amerikansk jord.

Pentagon har afvist begge begrænsninger og kræver, at Anthropic tillader “enhver lovlig brug” af Claude — uden yderligere forbehold fra virksomhedens side.

Anthropic står alene

Det der gør konflikten særlig brisant er, at Claude indtil denne uge var den eneste AI-model der var godkendt til brug på Pentagons klassificerede netværk. Elon Musks xAI indgik tidligere på ugen en aftale om at give militæret adgang til Grok på klassificerede systemer — tilsyneladende uden de samme forbehold.

Anthropic har allerede leveret AI-teknologi til militære operationer. Ifølge Washington Post blev Claude brugt i forbindelse med den amerikanske tilfangetagelse af Venezuelas leder Nicolás Maduro sidste måned.

Hvad betyder det for AI-branchen?

Konflikten er en lakmusprøve for hele AI-industrien. Anthropic har længe profileret sig som den mest sikkerhedsbevidste af de store AI-virksomheder — en position der nu testes under ekstremt pres.

Spørgsmålet er grundlæggende: Kan en privat virksomhed sætte grænser for, hvordan staten bruger dens teknologi? Eller har national sikkerhed altid forrang?

For udviklere og virksomheder der bygger på Claude-platformen rejser situationen også praktiske bekymringer. Hvis Pentagon klassificerer Anthropic som en forsyningskæderisiko, kan det have afsmittende effekter på virksomhedens evne til at tiltrække kapital og indgå partnerskaber.

Amodeis svar

I et offentligt statement sagde Dario Amodei, at brugen af AI til autonome våben og masseovervågning “simpelthen ligger uden for det, som nutidens teknologi kan gøre sikkert og pålideligt.” Han understregede, at Anthropic foretrækker at fortsætte samarbejdet med forsvaret — men med de to sikkerhedsgarantier intakte.

Fristen udløber i dag, fredag.


Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *