{"id":1287,"date":"2026-04-23T07:08:06","date_gmt":"2026-04-23T05:08:06","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1287"},"modified":"2026-04-23T07:08:07","modified_gmt":"2026-04-23T05:08:07","slug":"qwen-3-6-alibabas-open-source-model-slaar-rivaler-ti-gange-sin-stoerrelse","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/23\/qwen-3-6-alibabas-open-source-model-slaar-rivaler-ti-gange-sin-stoerrelse\/","title":{"rendered":"Qwen 3.6: Alibabas open source-model sl\u00e5r rivaler ti gange sin st\u00f8rrelse"},"content":{"rendered":"\n<p>Alibaba har gjort det igen. Den 16. april 2026 udgav Qwen-teamet <a href=\"https:\/\/huggingface.co\/Qwen\/Qwen3.6-35B-A3B\" target=\"_blank\" rel=\"noopener\">Qwen3.6-35B-A3B<\/a> under Apache 2.0-licens, og benchmarks viser en model der konsekvent overg\u00e5r Googles Gemma 4-31B med over 21 point p\u00e5 SWE-bench Verified. Det bem\u00e6rkelsesv\u00e6rdige: modellen aktiverer kun 3 milliarder parametre ad gangen, trods et samlet parametertal p\u00e5 35 milliarder. Det g\u00f8r den til et af de mest effektive Mixture-of-Experts-designs vi har set fra nogen producent.<\/p>\n\n\n\n<p>Fire dage senere fulgte Alibaba op med Qwen3.6-Max-Preview, en propriet\u00e6r API-model der scorer endnu h\u00f8jere p\u00e5 kodnings- og agentbenchmarks. Tilsammen tegner de to udgivelser et billede af en kinesisk AI-producent der ikke bare f\u00f8lger med, men p\u00e5 flere omr\u00e5der s\u00e6tter standarden for hvad open source-modeller kan pr\u00e6stere.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Arkitektur: Mixture-of-Experts med et twist<\/h2>\n\n\n\n<p>Qwen 3.6 bruger en sparse Mixture-of-Experts-arkitektur (MoE), hvor kun en br\u00f8kdel af modellens ekspertnetv\u00e6rk aktiveres for hvert token. Konkret: af de 35 milliarder parametre er kun 3 milliarder aktive under inferens. Det er en tilgang vi kender fra <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/20\/google-gemma-4-lille-open-source-model-med-stor-slagkraft\/\">Googles Gemma 4<\/a> og Metas Llama 4-serie, men Qwen-teamet har implementeret den med nogle tekniske valg der skiller sig ud.<\/p>\n\n\n\n<p>Modellen er bygget op af 40 lag organiseret i blokke af 10. Hver blok bruger tre lag med Gated DeltaNet (en form for line\u00e6r opm\u00e6rksomhed der er billigere at beregne end standard self-attention) fulgt af \u00e9t lag med Grouped Query Attention. GQA-laget bruger 16 opm\u00e6rksomhedshoveder til queries, men kun 2 til key-value-par, hvilket reducerer hukommelsesforbruget markant.<\/p>\n\n\n\n<p>Kontekstvinduet er nativt 262.144 tokens, men kan udvides til over en million tokens via YaRN-skalering. Det er relevant for agentiske workflows, hvor modellen skal holde styr p\u00e5 lange kodehistorikker og dokumenter.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Benchmarks: Tal der er sv\u00e6re at ignorere<\/h2>\n\n\n\n<p>Qwen 3.6-35B scorer 73,4% p\u00e5 SWE-bench Verified, en kodningsbenchmark der tester modellers evne til at l\u00f8se reelle GitHub-issues. Til sammenligning scorer Gemma 4-31B 52%. P\u00e5 Terminal-Bench 2.0, der tester generering af shell-kommandoer, vinder Qwen med 51,5% mod Gemmas 42,9%.<\/p>\n\n\n\n<p>Modellen er ogs\u00e5 nativt multimodal og h\u00e5ndterer billeder, video og dokumenter direkte. P\u00e5 VideoMMMU scorer den 83,7%, hvilket er h\u00f8jest i sin klasse. AIME 2026 (matematik) lander p\u00e5 92,7%, og MMMU (multimodal forst\u00e5else) p\u00e5 81,7%.<\/p>\n\n\n\n<p>Den propriet\u00e6re Qwen3.6-Max-Preview, der blev lanceret 20. april, forbedrer yderligere med +9,9 point p\u00e5 SkillsBench, +10,8 point p\u00e5 SciCode og +5,0 point p\u00e5 NL2Repo. Det er tal der placerer Alibabas bedste model i direkte konkurrence med <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/21\/mistral-medium-3-europas-mest-serioese-bud-paa-en-frontiermodel-til-halv-pris\/\">Mistral Medium 3<\/a> og Anthropics Claude-modeller.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Elefanten i rummet: Kinesisk AI og tillidsproblemet<\/h2>\n\n\n\n<p>Man kan ikke skrive om Qwen uden at adressere det \u00e5benlyse sp\u00f8rgsm\u00e5l: kan man stole p\u00e5 en model udviklet af en kinesisk tech-gigant?<\/p>\n\n\n\n<p>Der er to separate bekymringer. Den f\u00f8rste handler om censur. Qwens officielle API-tjeneste har dokumenterede indholdsbegr\u00e6nsninger omkring politisk f\u00f8lsomme emner. Analyser af tidlige Qwen-modeller har vist at censurfiltre kan resultere i afvisning af helt uskyldige foresp\u00f8rgsler. Den gode nyhed: censuren er ikke bagt ind i de \u00e5bne v\u00e6gte, men implementeret som et separat filtreringslag p\u00e5 den hostede tjeneste. K\u00f8rer du modellen selv, undg\u00e5r du det.<\/p>\n\n\n\n<p>Den anden bekymring er datasikkerhed. Kinas nationale efterretningslov fra 2017 forpligter virksomheder til at &#8220;st\u00f8tte, assistere og samarbejde med statslig efterretningsvirksomhed.&#8221; Det betyder, at brugerdata sendt til Alibabas API potentielt er tilg\u00e6ngeligt for kinesiske myndigheder. Tredjepartsaudits har desuden afsl\u00f8ret sikkerhedshuller i Qwen-\u00f8kosystemet, herunder ukrypteret datatransmission og hardcodede krypteringsn\u00f8gler.<\/p>\n\n\n\n<p>For danske udviklere og virksomheder er anbefalingen klar: brug de \u00e5bne v\u00e6gte med on-premise eller private cloud-deployment. Undg\u00e5 den officielle API til alt der involverer kundedata, intellektuel ejendom eller anden f\u00f8lsom information. Apache 2.0-licensen tillader netop denne brug, og med kun 21 GB i kvantiseret form kan modellen k\u00f8re p\u00e5 forbrugervenlig hardware.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad det betyder for open source-landskabet<\/h2>\n\n\n\n<p>April 2026 har v\u00e6ret den mest intensive m\u00e5ned for LLM-udgivelser nogensinde. Qwen 3.6 kommer oven i Gemma 4, Llama 4, Claude Opus 4 og GPT-5 Turbo, og priserne p\u00e5 god inferens er faldet med omkring 50% siden januar. Gabet mellem propriet\u00e6re og open source-modeller er nu s\u00e5 sm\u00e5t, at valget i mange tilf\u00e6lde handler mere om kontrol og compliance end om r\u00e5 pr\u00e6station.<\/p>\n\n\n\n<p>For Alibaba er Qwen 3.6 et strategisk tr\u00e6k. Ved at udgive modellen under Apache 2.0 opbygger de et udviklerf\u00e6llesskab uden for Kina og positionerer Alibaba Cloud som et seri\u00f8st alternativ til AWS og Azure for AI-workloads. Det er den samme playbook Meta brugte med Llama, f\u00f8r de skiftede kurs med Muse Spark.<\/p>\n\n\n\n<p>Bundlinjen: Qwen 3.6-35B-A3B er en teknisk imponerende model med reelle fordele i effektivitet og pris-ydelse. Men ligesom med alle kinesiske AI-produkter kr\u00e6ver det en bevidst sikkerhedsstrategi. Download v\u00e6gtene, k\u00f8r dem lokalt, og lad v\u00e6re med at sende f\u00f8lsom data til Alibabas servere. S\u00e5 har du en af markedets bedste open source-modeller til r\u00e5dighed, uden de risici der f\u00f8lger med.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/huggingface.co\/Qwen\/Qwen3.6-35B-A3B\" target=\"_blank\" rel=\"noopener\">Qwen3.6-35B-A3B<\/a> &#8211; Hugging Face, april 2026<\/li>\n<li><a href=\"https:\/\/github.com\/QwenLM\/Qwen3.6\" target=\"_blank\" rel=\"noopener\">QwenLM\/Qwen3.6<\/a> &#8211; GitHub repository<\/li>\n<li><a href=\"https:\/\/warontherocks.com\/2026\/04\/chinas-ai-is-spreading-fast-heres-how-to-stop-the-security-risks\/\" target=\"_blank\" rel=\"noopener\">China&#8217;s AI Is Spreading Fast. Here&#8217;s How to Stop the Security Risks<\/a> &#8211; War on the Rocks, april 2026<\/li>\n<li><a href=\"https:\/\/www.thefirewall-blog.com\/2025\/03\/privacy-pitfalls-in-ai-a-closer-look-at-deepseek-and-qwen\/\" target=\"_blank\" rel=\"noopener\">Privacy Pitfalls in AI: DeepSeek and Qwen<\/a> &#8211; The Firewall Blog<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Alibabas Qwen 3.6 sl\u00e5r Gemma 4 med 21 point p\u00e5 SWE-bench og k\u00f8rer med kun 3B aktive parametre. Men datasikkerhed og censur kr\u00e6ver opm\u00e6rksomhed.<\/p>\n","protected":false},"author":1,"featured_media":1286,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-1287","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1287","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1287"}],"version-history":[{"count":1,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1287\/revisions"}],"predecessor-version":[{"id":1288,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1287\/revisions\/1288"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/1286"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1287"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1287"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1287"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}