Alibaba Qwen 3.5 lander på gratis NVIDIA-endpoints — 397 milliarder parametre til alle

2 min read

Alibaba har netop gjort sin mest ambitiøse Qwen 3.5 sprogmodel tilgængelig på gratis NVIDIA GPU-accelererede endpoints. Med 397 milliarder parametre — hvoraf kun 17 milliarder er aktive per token — er det en af de mest effektive open source-modeller på markedet. Og nu kan alle udviklere teste den uden at betale en krone.

Hvad er Qwen 3.5 — og hvorfor er den interessant?

Qwen 3.5 er Alibabas nyeste sprogmodel, udgivet 17. februar 2026. Den bygger på en arkitektur kaldet “Qwen3-Next”, som kombinerer to normalt adskilte tilgange: lineær attention via Gated Delta Networks og et sparsomt Mixture-of-Experts-system (MoE). Resultatet er en model med 397 milliarder parametre totalt, men som kun aktiverer 17 milliarder per token — hvilket giver dramatisk lavere beregningsomkostninger.

Hastigheden er bemærkelsesværdig: Qwen 3.5 afkoder 8,6 gange hurtigere end forgængeren Qwen3-Max ved 32K kontekst og hele 19 gange hurtigere ved 256K kontekst. Det er tal, der gør modellen praktisk anvendelig i produktionsmiljøer, hvor latenstid er afgørende.

Native multimodal — ikke et tillæg

I modsætning til mange konkurrenter, der kobler en vision-encoder oven på en tekstmodel, er Qwen 3.5 sprogmodel trænet med tidlig tekst-vision-fusion fra starten. Den håndterer tekst, billeder og video i ét samlet system. På MathVision-benchmarket scorer den 88,6 — over GPT-5.2 (83,0) og Gemini 3 Pro (86,6).

Qwen 3.5 sprogmodel multimodal AI-agent
Qwen 3.5 er bygget til autonome multimodale agenter — fra web-browsing til smartphone-styring.

Modellen understøtter desuden 201 sprog og dialekter (op fra 119 i Qwen3) med et udvidet vokabularium på 250.000 tokens. Det forbedrer kodnings- og afkodningseffektiviteten med 10-60% på tværs af de fleste sprog — en direkte satsning på markeder i Sydøstasien, Sydamerika og Afrika.

Gratis NVIDIA-endpoints sænker adgangsbarrieren

Det virkelig interessante ved denne lancering er partnerskabet med NVIDIA. Qwen 3.5 er nu tilgængelig via gratis GPU-accelererede endpoints, hvilket betyder at udviklere kan teste modellen uden at sikre sig GPU-kapacitet eller credits først. NVIDIA tilbyder desuden NIM microservices og NeMo-værktøjer til finjustering og deployment.

For mindre teams og startups er det en gamechanger. Man kan gå fra idé til demo uden at investere i dyr cloud-infrastruktur — og NIM-microservices pakker modellen bag konsistente API’er, så deployment kan gentages på tværs af clouds og datacentre.

Bygget til AI-agenter — ikke bare chat

Alibaba kalder selv Qwen 3.5 for en “native multimodal agent”-model. Det er ikke bare marketing. Modellen er trænet med reinforcement learning på tværs af agentmiljøer, og den understøtter tre inferenstilstande: “Auto” (adaptiv tænkning med værktøjsbrug), “Thinking” (dyb ræsonnering) og “Fast” (øjeblikkelige svar uden chain-of-thought).

På BrowseComp — et benchmark for web-browsing — scorer Qwen 3.5 hele 78,6 med en aggressiv kontekst-foldningsstrategi, hvilket overgår alle amerikanske frontier-modeller. Den er kompatibel med OpenClaw, Claude Code og stort set alle populære agent-frameworks. Alibabas team har desuden demonstreret visuelle agenter, der autonomt kan styre smartphones og udføre desktop-workflows.

Hvis du har fulgt med i udviklingen af AI-agenter, er Qwen 3.5 endnu et tegn på, at fremtidens sprogmodeller ikke bare svarer på spørgsmål — de handler selvstændigt.

Open source som konkurrencefordel

Qwen 3.5 er tilgængelig som open-weight på GitHub, Hugging Face og ModelScope. Den hostede version, Qwen3.5-Plus, kører på Alibaba Cloud Model Studio med 1M kontekstvindue og indbyggede værktøjer som søgning og kodefortolker.

Med den seneste debat om benchmark-kontaminering er det værd at bemærke, at Alibaba har prioriteret reinforcement learning og agentbaseret træning frem for snæver benchmark-optimering. Om det holder i praksis, vil de kommende måneder vise.

Qwen 3.5 sprogmodel repræsenterer et skifte i AI-landskabet: Kina leverer nu modeller, der ikke bare matcher de vestlige giganter på benchmarks, men som er designet til den næste generation af autonome AI-systemer. Og med gratis NVIDIA-endpoints har alle adgang til at prøve dem.


Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *