{"id":643,"date":"2026-03-01T08:15:03","date_gmt":"2026-03-01T06:15:03","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=643"},"modified":"2026-03-28T12:10:38","modified_gmt":"2026-03-28T10:10:38","slug":"alibaba-qwen-3-5-lander-paa-gratis-nvidia-endpoints-397-milliarder-parametre-til-alle","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/01\/alibaba-qwen-3-5-lander-paa-gratis-nvidia-endpoints-397-milliarder-parametre-til-alle\/","title":{"rendered":"Alibaba Qwen 3.5 lander p\u00e5 gratis NVIDIA-endpoints \u2014 397 milliarder parametre til alle"},"content":{"rendered":"\n<p>Alibaba har netop gjort sin mest ambiti\u00f8se <strong>Qwen 3.5 sprogmodel<\/strong> tilg\u00e6ngelig p\u00e5 gratis NVIDIA GPU-accelererede endpoints. Med 397 milliarder parametre \u2014 hvoraf kun 17 milliarder er aktive per token \u2014 er det en af de mest effektive open source-modeller p\u00e5 markedet. Og nu kan alle udviklere teste den uden at betale en krone.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad er Qwen 3.5 \u2014 og hvorfor er den interessant?<\/h2>\n\n\n\n<p>Qwen 3.5 er Alibabas nyeste sprogmodel, udgivet 17. februar 2026. Den bygger p\u00e5 en arkitektur kaldet &#8220;Qwen3-Next&#8221;, som kombinerer to normalt adskilte tilgange: line\u00e6r attention via Gated Delta Networks og et sparsomt Mixture-of-Experts-system (MoE). Resultatet er en model med 397 milliarder parametre totalt, men som kun aktiverer 17 milliarder per token \u2014 hvilket giver dramatisk lavere beregningsomkostninger.<\/p>\n\n\n\n<p>Hastigheden er bem\u00e6rkelsesv\u00e6rdig: Qwen 3.5 afkoder 8,6 gange hurtigere end forg\u00e6ngeren Qwen3-Max ved 32K kontekst og hele 19 gange hurtigere ved 256K kontekst. Det er tal, der g\u00f8r modellen praktisk anvendelig i produktionsmilj\u00f8er, hvor latenstid er afg\u00f8rende.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Native multimodal \u2014 ikke et till\u00e6g<\/h2>\n\n\n\n<p>I mods\u00e6tning til mange konkurrenter, der kobler en vision-encoder oven p\u00e5 en tekstmodel, er Qwen 3.5 sprogmodel tr\u00e6net med tidlig tekst-vision-fusion fra starten. Den h\u00e5ndterer tekst, billeder og video i \u00e9t samlet system. P\u00e5 MathVision-benchmarket scorer den 88,6 \u2014 over GPT-5.2 (83,0) og Gemini 3 Pro (86,6).<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"800\" height=\"1000\" src=\"https:\/\/vittrup-graversen.dk\/wp-content\/uploads\/2026\/03\/qwen-inline.jpg\" alt=\"Qwen 3.5 sprogmodel multimodal AI-agent\" class=\"wp-image-642\" srcset=\"https:\/\/vittrup-graversen.dk\/wp-content\/uploads\/2026\/03\/qwen-inline.jpg 800w, https:\/\/vittrup-graversen.dk\/wp-content\/uploads\/2026\/03\/qwen-inline-240x300.jpg 240w, https:\/\/vittrup-graversen.dk\/wp-content\/uploads\/2026\/03\/qwen-inline-768x960.jpg 768w\" sizes=\"auto, (max-width: 800px) 100vw, 800px\" \/><figcaption class=\"wp-element-caption\">Qwen 3.5 er bygget til autonome multimodale agenter \u2014 fra web-browsing til smartphone-styring.<\/figcaption><\/figure>\n\n\n\n<p>Modellen underst\u00f8tter desuden 201 sprog og dialekter (op fra 119 i Qwen3) med et udvidet vokabularium p\u00e5 250.000 tokens. Det forbedrer kodnings- og afkodningseffektiviteten med 10-60% p\u00e5 tv\u00e6rs af de fleste sprog \u2014 en direkte satsning p\u00e5 markeder i Syd\u00f8stasien, Sydamerika og Afrika.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Gratis NVIDIA-endpoints s\u00e6nker adgangsbarrieren<\/h2>\n\n\n\n<p>Det virkelig interessante ved denne lancering er partnerskabet med NVIDIA. Qwen 3.5 er nu tilg\u00e6ngelig via gratis GPU-accelererede endpoints, hvilket betyder at udviklere kan teste modellen uden at sikre sig GPU-kapacitet eller credits f\u00f8rst. NVIDIA tilbyder desuden <a href=\"https:\/\/developer.nvidia.com\/blog\/develop-native-multimodal-agents-with-qwen3-5-vlm-using-nvidia-gpu-accelerated-endpoints\/\" target=\"_blank\" rel=\"noopener\">NIM microservices og NeMo-v\u00e6rkt\u00f8jer<\/a> til finjustering og deployment.<\/p>\n\n\n\n<p>For mindre teams og startups er det en gamechanger. Man kan g\u00e5 fra id\u00e9 til demo uden at investere i dyr cloud-infrastruktur \u2014 og NIM-microservices pakker modellen bag konsistente API&#8217;er, s\u00e5 deployment kan gentages p\u00e5 tv\u00e6rs af clouds og datacentre.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Bygget til AI-agenter \u2014 ikke bare chat<\/h2>\n\n\n\n<p>Alibaba kalder selv Qwen 3.5 for en &#8220;native multimodal agent&#8221;-model. Det er ikke bare marketing. Modellen er tr\u00e6net med reinforcement learning p\u00e5 tv\u00e6rs af agentmilj\u00f8er, og den underst\u00f8tter tre inferenstilstande: &#8220;Auto&#8221; (adaptiv t\u00e6nkning med v\u00e6rkt\u00f8jsbrug), &#8220;Thinking&#8221; (dyb r\u00e6sonnering) og &#8220;Fast&#8221; (\u00f8jeblikkelige svar uden chain-of-thought).<\/p>\n\n\n\n<p>P\u00e5 BrowseComp \u2014 et benchmark for web-browsing \u2014 scorer Qwen 3.5 hele 78,6 med en aggressiv kontekst-foldningsstrategi, hvilket overg\u00e5r alle amerikanske frontier-modeller. Den er kompatibel med OpenClaw, Claude Code og stort set alle popul\u00e6re agent-frameworks. Alibabas team har desuden demonstreret visuelle agenter, der autonomt kan styre smartphones og udf\u00f8re desktop-workflows.<\/p>\n\n\n\n<p>Hvis du har fulgt med i <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/02\/26\/perplexity-lancerer-computer-et-agent-team-der-arbejder-mens-du-sover\/\">udviklingen af AI-agenter<\/a>, er Qwen 3.5 endnu et tegn p\u00e5, at fremtidens sprogmodeller ikke bare svarer p\u00e5 sp\u00f8rgsm\u00e5l \u2014 de handler selvst\u00e6ndigt.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Open source som konkurrencefordel<\/h2>\n\n\n\n<p>Qwen 3.5 er tilg\u00e6ngelig som open-weight p\u00e5 <a href=\"https:\/\/github.com\/QwenLM\/Qwen3.5\" target=\"_blank\" rel=\"noopener\">GitHub<\/a>, Hugging Face og ModelScope. Den hostede version, Qwen3.5-Plus, k\u00f8rer p\u00e5 Alibaba Cloud Model Studio med 1M kontekstvindue og indbyggede v\u00e6rkt\u00f8jer som s\u00f8gning og kodefortolker.<\/p>\n\n\n\n<p>Med <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/02\/28\/57-af-ai-benchmarks-er-kontamineret-og-det-paavirker-dine-beslutninger\/\">den seneste debat om benchmark-kontaminering<\/a> er det v\u00e6rd at bem\u00e6rke, at Alibaba har prioriteret reinforcement learning og agentbaseret tr\u00e6ning frem for sn\u00e6ver benchmark-optimering. Om det holder i praksis, vil de kommende m\u00e5neder vise.<\/p>\n\n\n\n<p>Qwen 3.5 sprogmodel repr\u00e6senterer et skifte i AI-landskabet: Kina leverer nu modeller, der ikke bare matcher de vestlige giganter p\u00e5 benchmarks, men som er designet til den n\u00e6ste generation af autonome AI-systemer. Og med gratis NVIDIA-endpoints har alle adgang til at pr\u00f8ve dem.<\/p>\n\n\n<hr>\n<p style=\"color:#888888\"><em>Denne artikel er skrevet i samarbejde med AI, og efterf\u00f8lgende redigeret af et rigtigt menneske \ud83d\ude42<\/em><\/p>","protected":false},"excerpt":{"rendered":"<p>Alibaba Qwen 3.5 lander p\u00e5 gratis NVIDIA-endpoints med 397 milliarder parametre. Open source AI til alle uden betaling.<\/p>\n","protected":false},"author":1,"featured_media":641,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-643","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/643","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=643"}],"version-history":[{"count":2,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/643\/revisions"}],"predecessor-version":[{"id":1018,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/643\/revisions\/1018"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/641"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=643"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=643"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=643"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}