{"id":1317,"date":"2026-04-27T07:58:19","date_gmt":"2026-04-27T05:58:19","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1317"},"modified":"2026-04-27T07:58:20","modified_gmt":"2026-04-27T05:58:20","slug":"deepseek-v4-kinas-stoerste-open-source-model-udfordrer-frontiermodellerne-til-en-broekdel-af-prisen","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/27\/deepseek-v4-kinas-stoerste-open-source-model-udfordrer-frontiermodellerne-til-en-broekdel-af-prisen\/","title":{"rendered":"DeepSeek V4: Kinas st\u00f8rste open source-model udfordrer frontiermodellerne til en br\u00f8kdel af prisen"},"content":{"rendered":"\n<p>Den kinesiske AI-startup DeepSeek har netop l\u00f8ftet sl\u00f8ret for V4-serien, og tallene er sv\u00e6re at ignorere. Med 1,6 billioner parametre i Pro-varianten og en pris der ligger langt under vestlige konkurrenter, s\u00e6tter DeepSeek igen sp\u00f8rgsm\u00e5lstegn ved, om frontier-AI n\u00f8dvendigvis kr\u00e6ver frontier-budgetter. Men bag de imponerende benchmarks lurer sp\u00f8rgsm\u00e5l om censur, datasikkerhed og statskontrol, som europ\u00e6iske udviklere og virksomheder b\u00f8r tage alvorligt.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">To modeller, \u00e9n arkitektur<\/h2>\n\n\n\n<p>V4-serien best\u00e5r af to Mixture-of-Experts-modeller (MoE), begge med MIT-licens og tilg\u00e6ngelige p\u00e5 Hugging Face:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>V4-Pro:<\/strong> 1,6 billioner parametre totalt, 49 milliarder aktive. Kontekstvindue p\u00e5 1 million tokens. Modellen fylder 865 GB og er dermed den st\u00f8rste open-weights model p\u00e5 markedet, st\u00f8rre end b\u00e5de Kimi K2.6 (1,1T) og GLM-5.1 (754B).<\/li>\n\n\n\n<li><strong>V4-Flash:<\/strong> 284 milliarder parametre totalt, 13 milliarder aktive. Samme kontekstvindue p\u00e5 1 million tokens, men kun 160 GB. T\u00e6nkt som den hurtige, billige variant til daglig brug.<\/li>\n<\/ul>\n\n\n\n<p>Begge modeller underst\u00f8tter to tilstande: en &#8220;thinking mode&#8221; med udvidet r\u00e6sonnering og en hurtigere non-thinking mode til simple opgaver. Det er en designfilosofi vi kender fra DeepSeeks R1-serie, og som nu er standard blandt de fleste frontiermodeller.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Effektivitet som v\u00e5ben<\/h2>\n\n\n\n<p>Det mest bem\u00e6rkelsesv\u00e6rdige ved V4 er ikke r\u00e5 performance, men hvor lidt compute den bruger til at opn\u00e5 den. DeepSeek har udviklet en hybrid opm\u00e6rksomhedsmekanisme, der kombinerer Compressed Sparse Attention (CSA) og Heavily Compressed Attention (HCA). Resultatet er dramatisk:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>V4-Pro bruger kun 27% af de FLOPs og 10% af KV-cachen sammenlignet med DeepSeek V3.2<\/li>\n\n\n\n<li>V4-Flash er endnu mere effektiv: 10% FLOPs og 7% KV-cache i forhold til V3.2<\/li>\n<\/ul>\n\n\n\n<p>I praksis betyder det, at V4 kan h\u00e5ndtere 1 million tokens kontekst med en br\u00f8kdel af den hardware, som konkurrenterne kr\u00e6ver. For virksomheder, der k\u00f8rer LLM-inferens on-premise, er det en reel besparelse.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Benchmarks: T\u00e6t p\u00e5 toppen, ikke helt der<\/h2>\n\n\n\n<p>DeepSeeks egne benchmarks placerer V4-Pro t\u00e6t p\u00e5 frontiermodellerne. P\u00e5 <a href=\"https:\/\/vittrup-graversen.dk\/?p=1296\">SWE-bench Verified scorer V4-Pro 80,6%<\/a>, kun 0,2 procentpoint bag Claude Opus 4.6. P\u00e5 kodningsspecifikke benchmarks som Terminal-Bench 2.0 (67,9% vs. 65,4%) og LiveCodeBench (93,5% vs. 88,8%) overg\u00e5r V4-Pro faktisk Claude.<\/p>\n\n\n\n<p>Men konteksten er vigtig: DeepSeek indr\u00f8mmer selv, at V4-Pro-Max &#8220;trails state-of-the-art frontier models by approximately 3 to 6 months.&#8221; Med andre ord matcher V4 ikke GPT-5.4 eller Gemini 3.1 Pro endnu. Modellen er i preview, og der vil komme forbedringer.<\/p>\n\n\n\n<p>Det vigtigste argument er ikke r\u00e5 performance, men forholdet mellem pris og ydeevne. V4-Flash koster $0,14 per million input tokens og $0,28 per million output tokens. V4-Pro ligger p\u00e5 $1,74\/$3,48. Til sammenligning koster Claude Opus 4.7 $5\/$25. For mange use cases er &#8220;95% af frontier-performance til 10% af prisen&#8221; et st\u00e6rkt tilbud.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Censur og datasikkerhed<\/h2>\n\n\n\n<p>Og her er vi n\u00f8dt til at tale om det, som hype-artiklerne ofte springer over. DeepSeek er en kinesisk virksomhed, underlagt kinesisk lovgivning, og det har konkrete konsekvenser.<\/p>\n\n\n\n<p>Censurarkitekturen er veldokumenteret. N\u00e5r man bruger DeepSeek via deres API eller webapp, filtrerer modellen aktivt svar om emner som Taiwan, Tiananmen, Tibet og andre politisk f\u00f8lsomme omr\u00e5der. CNN og NBC News har begge dokumenteret, hvordan censuren fungerer i realtid. K\u00f8rer man modellen lokalt fra de downloadede v\u00e6gte, er censuren mindre udtalt, men tr\u00e6ningsdataens bias forsvinder ikke.<\/p>\n\n\n\n<p>Datasikkerheden er et endnu mere presserende problem. DeepSeeks privatlivspolitik siger direkte, at brugerdata opbevares p\u00e5 &#8220;secure servers located in the People&#8217;s Republic of China.&#8221; Den amerikanske kongres&#8217; Select Committee on the CCP har konkluderet, at DeepSeek kanaliserer brugerdata til Kina via infrastruktur forbundet med kinesiske milit\u00e6rvirksomheder. Flere lande, heriblandt Danmark, har allerede indf\u00f8rt restriktioner.<\/p>\n\n\n\n<p>For europ\u00e6iske virksomheder er anbefalingen klar: brug open-weights modellen lokalt hvis I vil eksperimentere, men send ikke forretningskritiske data gennem DeepSeeks cloud-API. Og v\u00e6r opm\u00e6rksom p\u00e5, at selv den lokale model b\u00e6rer pr\u00e6g af sin tr\u00e6ning under kinesiske indholdskrav.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad betyder det for os?<\/h2>\n\n\n\n<p>DeepSeek V4 bekr\u00e6fter en tendens, vi har set accelerere hele 2026: <a href=\"https:\/\/vittrup-graversen.dk\/?p=1287\">open source-modeller fra kinesiske og internationale labs lukker gabet til de propriet\u00e6re frontiermodeller<\/a>. Alibabas Qwen 3.6, Metas Llama 4, og nu DeepSeek V4 giver udviklere reelle alternativer til OpenAI og Anthropic.<\/p>\n\n\n\n<p>Men &#8220;open weights&#8221; er ikke det samme som &#8220;open og uproblematisk.&#8221; N\u00e5r modellerne kommer fra virksomheder under autorit\u00e6re regimer, f\u00f8lger der et s\u00e6t risici med, som vi ikke ser hos Meta eller Mistral. Det er ikke et argument for at ignorere DeepSeek V4. Det er et argument for at bruge den med \u00e5bne \u00f8jne.<\/p>\n\n\n\n<p>For danske udviklere, der vil teste V4, er den oplagte tilgang at downloade v\u00e6gtene og k\u00f8re modellen i eget milj\u00f8. V4-Flash kr\u00e6ver kun 160 GB og kan k\u00f8re p\u00e5 en enkelt node med tilstr\u00e6kkelig VRAM. Det giver adgang til en ekstremt konkurrencedygtig model uden at sende data til kinesiske servere.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/api-docs.deepseek.com\/news\/news260424\" target=\"_blank\" rel=\"noopener\">DeepSeek V4 Preview Release<\/a> &#8211; DeepSeek API Docs, 24. april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/simonwillison.net\/2026\/Apr\/24\/deepseek-v4\/\" target=\"_blank\" rel=\"noopener\">DeepSeek V4 &#8211; almost on the frontier, a fraction of the price<\/a> &#8211; Simon Willison, 24. april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/www.aljazeera.com\/economy\/2026\/4\/24\/chinas-deepseek-unveils-latest-model-a-year-after-upending-global-tech\" target=\"_blank\" rel=\"noopener\">China&#8217;s DeepSeek unveils latest models<\/a> &#8211; Al Jazeera, 24. april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/chinaselectcommittee.house.gov\/sites\/evo-subsites\/selectcommitteeontheccp.house.gov\/files\/evo-media-document\/DeepSeek%20Final.pdf\" target=\"_blank\" rel=\"noopener\">DeepSeek Report<\/a> &#8211; U.S. House Select Committee on the CCP<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>DeepSeek V4 er Kinas st\u00f8rste open source-model med 1,6 billioner parametre. L\u00e6s om benchmarks, priser, effektivitet og de alvorlige sp\u00f8rgsm\u00e5l om censur og datasikkerhed.<\/p>\n","protected":false},"author":1,"featured_media":1316,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-1317","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1317","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1317"}],"version-history":[{"count":1,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1317\/revisions"}],"predecessor-version":[{"id":1318,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1317\/revisions\/1318"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/1316"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1317"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1317"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1317"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}