Den kinesiske AI-startup DeepSeek har netop løftet sløret for V4-serien, og tallene er svære at ignorere. Med 1,6 billioner parametre i Pro-varianten og en pris der ligger langt under vestlige konkurrenter, sætter DeepSeek igen spørgsmålstegn ved, om frontier-AI nødvendigvis kræver frontier-budgetter. Men bag de imponerende benchmarks lurer spørgsmål om censur, datasikkerhed og statskontrol, som europæiske udviklere og virksomheder bør tage alvorligt.
To modeller, én arkitektur
V4-serien består af to Mixture-of-Experts-modeller (MoE), begge med MIT-licens og tilgængelige på Hugging Face:
- V4-Pro: 1,6 billioner parametre totalt, 49 milliarder aktive. Kontekstvindue på 1 million tokens. Modellen fylder 865 GB og er dermed den største open-weights model på markedet, større end både Kimi K2.6 (1,1T) og GLM-5.1 (754B).
- V4-Flash: 284 milliarder parametre totalt, 13 milliarder aktive. Samme kontekstvindue på 1 million tokens, men kun 160 GB. Tænkt som den hurtige, billige variant til daglig brug.
Begge modeller understøtter to tilstande: en “thinking mode” med udvidet ræsonnering og en hurtigere non-thinking mode til simple opgaver. Det er en designfilosofi vi kender fra DeepSeeks R1-serie, og som nu er standard blandt de fleste frontiermodeller.
Effektivitet som våben
Det mest bemærkelsesværdige ved V4 er ikke rå performance, men hvor lidt compute den bruger til at opnå den. DeepSeek har udviklet en hybrid opmærksomhedsmekanisme, der kombinerer Compressed Sparse Attention (CSA) og Heavily Compressed Attention (HCA). Resultatet er dramatisk:
- V4-Pro bruger kun 27% af de FLOPs og 10% af KV-cachen sammenlignet med DeepSeek V3.2
- V4-Flash er endnu mere effektiv: 10% FLOPs og 7% KV-cache i forhold til V3.2
I praksis betyder det, at V4 kan håndtere 1 million tokens kontekst med en brøkdel af den hardware, som konkurrenterne kræver. For virksomheder, der kører LLM-inferens on-premise, er det en reel besparelse.
Benchmarks: Tæt på toppen, ikke helt der
DeepSeeks egne benchmarks placerer V4-Pro tæt på frontiermodellerne. På SWE-bench Verified scorer V4-Pro 80,6%, kun 0,2 procentpoint bag Claude Opus 4.6. På kodningsspecifikke benchmarks som Terminal-Bench 2.0 (67,9% vs. 65,4%) og LiveCodeBench (93,5% vs. 88,8%) overgår V4-Pro faktisk Claude.
Men konteksten er vigtig: DeepSeek indrømmer selv, at V4-Pro-Max “trails state-of-the-art frontier models by approximately 3 to 6 months.” Med andre ord matcher V4 ikke GPT-5.4 eller Gemini 3.1 Pro endnu. Modellen er i preview, og der vil komme forbedringer.
Det vigtigste argument er ikke rå performance, men forholdet mellem pris og ydeevne. V4-Flash koster $0,14 per million input tokens og $0,28 per million output tokens. V4-Pro ligger på $1,74/$3,48. Til sammenligning koster Claude Opus 4.7 $5/$25. For mange use cases er “95% af frontier-performance til 10% af prisen” et stærkt tilbud.
Censur og datasikkerhed
Og her er vi nødt til at tale om det, som hype-artiklerne ofte springer over. DeepSeek er en kinesisk virksomhed, underlagt kinesisk lovgivning, og det har konkrete konsekvenser.
Censurarkitekturen er veldokumenteret. Når man bruger DeepSeek via deres API eller webapp, filtrerer modellen aktivt svar om emner som Taiwan, Tiananmen, Tibet og andre politisk følsomme områder. CNN og NBC News har begge dokumenteret, hvordan censuren fungerer i realtid. Kører man modellen lokalt fra de downloadede vægte, er censuren mindre udtalt, men træningsdataens bias forsvinder ikke.
Datasikkerheden er et endnu mere presserende problem. DeepSeeks privatlivspolitik siger direkte, at brugerdata opbevares på “secure servers located in the People’s Republic of China.” Den amerikanske kongres’ Select Committee on the CCP har konkluderet, at DeepSeek kanaliserer brugerdata til Kina via infrastruktur forbundet med kinesiske militærvirksomheder. Flere lande, heriblandt Danmark, har allerede indført restriktioner.
For europæiske virksomheder er anbefalingen klar: brug open-weights modellen lokalt hvis I vil eksperimentere, men send ikke forretningskritiske data gennem DeepSeeks cloud-API. Og vær opmærksom på, at selv den lokale model bærer præg af sin træning under kinesiske indholdskrav.
Hvad betyder det for os?
DeepSeek V4 bekræfter en tendens, vi har set accelerere hele 2026: open source-modeller fra kinesiske og internationale labs lukker gabet til de proprietære frontiermodeller. Alibabas Qwen 3.6, Metas Llama 4, og nu DeepSeek V4 giver udviklere reelle alternativer til OpenAI og Anthropic.
Men “open weights” er ikke det samme som “open og uproblematisk.” Når modellerne kommer fra virksomheder under autoritære regimer, følger der et sæt risici med, som vi ikke ser hos Meta eller Mistral. Det er ikke et argument for at ignorere DeepSeek V4. Det er et argument for at bruge den med åbne øjne.
For danske udviklere, der vil teste V4, er den oplagte tilgang at downloade vægtene og køre modellen i eget miljø. V4-Flash kræver kun 160 GB og kan køre på en enkelt node med tilstrækkelig VRAM. Det giver adgang til en ekstremt konkurrencedygtig model uden at sende data til kinesiske servere.
Kilder
- DeepSeek V4 Preview Release – DeepSeek API Docs, 24. april 2026
- DeepSeek V4 – almost on the frontier, a fraction of the price – Simon Willison, 24. april 2026
- China’s DeepSeek unveils latest models – Al Jazeera, 24. april 2026
- DeepSeek Report – U.S. House Select Committee on the CCP