{"id":766,"date":"2026-03-08T12:31:47","date_gmt":"2026-03-08T10:31:47","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=766"},"modified":"2026-03-28T12:10:25","modified_gmt":"2026-03-28T10:10:25","slug":"glm-5-kinas-744-milliarder-parameter-model-traenet-helt-uden-nvidia-og-open-source-under-mit","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/08\/glm-5-kinas-744-milliarder-parameter-model-traenet-helt-uden-nvidia-og-open-source-under-mit\/","title":{"rendered":"GLM-5: Kinas 744-milliarder-parameter model tr\u00e6net helt uden Nvidia \u2014 og open source under MIT"},"content":{"rendered":"\n<p>Kinas svar p\u00e5 de vestlige AI-giganter hedder GLM-5. Zhipu AI har netop lanceret en sprogmodel med 744 milliarder parametre, tr\u00e6net udelukkende p\u00e5 kinesisk hardware \u2014 100.000 Huawei Ascend 910B-chips. Ikke en eneste Nvidia- eller AMD-chip har v\u00e6ret involveret. Og modellen er udgivet under MIT-licensen, den mest \u00e5bne open source-licens der findes.<\/p>\n\n\n\n<p>Det er en milep\u00e6l, der fortjener opm\u00e6rksomhed \u2014 men ogs\u00e5 kritisk eftertanke.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad er GLM-5 rent teknisk?<\/h2>\n\n\n\n<p>GLM-5 er bygget som en Mixture-of-Experts (MoE) arkitektur med 256 eksperter, hvoraf kun 8 er aktive pr. token. Det betyder, at selvom modellen har 744 milliarder parametre i alt, bruger den kun ca. 44 milliarder parametre ved hvert inference-kald. Det holder beregningsomkostningerne nede trods den enorme skala.<\/p>\n\n\n\n<p>Kontekstvinduet str\u00e6kker sig til 200.000 tokens med et maksimalt output p\u00e5 131.000 tokens. Modellen er tr\u00e6net p\u00e5 28,5 billioner tokens \u2014 et datas\u00e6t af massiv st\u00f8rrelse. To tekniske valg skiller sig ud: Multi-head Latent Attention reducerer hukommelsesforbruget med 33% sammenlignet med standard attention, og DeepSeek Sparse Attention muligg\u00f8r effektiv h\u00e5ndtering af lange kontekster uden den tunge beregningsm\u00e6ssige overhead fra dense attention.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Benchmarks: Imponerende \u2014 men med forbehold<\/h2>\n\n\n\n<p>Tallene er sv\u00e6re at ignorere. GLM-5 scorer 77,8% p\u00e5 SWE-bench Verified (kodningsopgaver), hvor GPT-5.2 ligger p\u00e5 76,2% og Claude Opus 4.5 p\u00e5 80,9%. P\u00e5 Humanity&#8217;s Last Exam \u2014 en test designet til at forblive sv\u00e6r for frontier-modeller \u2014 scorer GLM-5 50,4% med v\u00e6rkt\u00f8jer, hvilket sl\u00e5r b\u00e5de GPT-5.2 (47,8%) og Claude Opus 4.5 (46,2%).<\/p>\n\n\n\n<p>Men billedet er mere nuanceret end overskrifterne antyder. P\u00e5 rene r\u00e6sonneringsopgaver halter GLM-5 efter: AIME 2025 giver den 88,7% mod GPT-5.2&#8217;s perfekte 100%. Og p\u00e5 Terminal-Bench 2.0 ligger den 8-9 procentpoint efter b\u00e5de GPT-5.2 og Claude Opus. Styrken er koncentreret i kodning og agentiske opgaver \u2014 ikke i generel r\u00e6sonnering.<\/p>\n\n\n\n<p>Zhipu h\u00e6vder ogs\u00e5, at de har reduceret hallucinationsraten fra 90% (GLM-4.7) til 34% via deres Slime reinforcement learning-framework. Til sammenligning ligger Claude Sonnet 4.5 omkring 42% og GPT-5.2 omkring 48%. Hvis tallene holder, ville det g\u00f8re GLM-5 til den frontier-model med lavest hallucinationsrate \u2014 men netop her b\u00f8r man v\u00e6re kritisk.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Det store sp\u00f8rgsm\u00e5l: Kan man stole p\u00e5 tallene?<\/h2>\n\n\n\n<p>Her kommer den n\u00f8dvendige kritiske vinkel. De fleste af GLM-5&#8217;s benchmark-resultater kommer fra Zhipu AI&#8217;s egne evalueringer. Uafh\u00e6ngig verifikation fra tredjeparter som Chatbot Arena og LMSYS mangler stadig. I en kinesisk kontekst, hvor statslig st\u00f8tte og teknologisk nationalisme spiller en central rolle, b\u00f8r man behandle producent-rapporterede specifikationer med sund skepsis \u2014 pr\u00e6cis som man ville med enhver anden producent, men med en ekstra bevidsthed om de <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/06\/kinas-nye-femaarsplan-saetter-ai-i-centrum-men-hvem-kontrollerer-teknologien\/\">geopolitiske interesser der driver Kinas AI-strategi<\/a>.<\/p>\n\n\n\n<p>Desuden rejser MIT-licensen et paradoks. GLM-5 er teknisk set \u00e5ben \u2014 v\u00e6gtene ligger p\u00e5 HuggingFace, og man kan self-hoste via vLLM. Men modellen er tr\u00e6net p\u00e5 data, hvis sammens\u00e6tning og kurateringsproces ikke er fuldt gennemsigtig. For en kinesisk model er sp\u00f8rgsm\u00e5let om censur i tr\u00e6ningsdata altid relevant: Hvad har modellen l\u00e6rt at undg\u00e5? Hvad ved vi ikke om de datas\u00e6t, der har formet dens verdensbillede?<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad betyder det for udviklere i praksis?<\/h2>\n\n\n\n<p>Prism\u00e6ssigt er GLM-5 aggressiv. Input koster $1,00 pr. million tokens og output $3,20 \u2014 sammenlignet med ca. $6 og $30 for henholdsvis GPT-5.2 og Claude Opus 4.6. Det er 5-6 gange billigere. For teams der k\u00f8rer store m\u00e6ngder <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/05\/fra-vibe-coding-til-agentic-engineering-karpathys-nye-begreb-aendrer-spillets-regler\/\">agentiske workflows<\/a> med mange API-kald, kan det g\u00f8re en markant forskel p\u00e5 bundlinjen.<\/p>\n\n\n\n<p>Tradeoff&#8217;et er hastighed. GLM-5 producerer 17-19 tokens pr. sekund mod 25-30+ for de vestlige frontier-modeller. Det afspejler b\u00e5de MoE-routing overhead og Ascend-hardwarens lavere per-chip throughput. I interaktive scenarier m\u00e6rkes det. I batch-workflows med kodningsopgaver er det mere acceptabelt.<\/p>\n\n\n\n<p>API-adgang k\u00f8rer via OpenAI-kompatible endpoints hos Z.ai og OpenRouter, hvilket g\u00f8r integration nem for dem, der allerede arbejder med standard-API&#8217;er. Modellen er tilg\u00e6ngelig som download via HuggingFace (zai-org\/GLM-5) og ModelScope.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Det bredere billede<\/h2>\n\n\n\n<p>GLM-5 beviser, at USA&#8217;s chipembargo ikke har forhindret Kina i at n\u00e5 frontier-niveau \u2014 i hvert fald inden for specifikke dom\u00e6ner som kodning og agentiske opgaver. Zhipu har brugt 100.000 Huawei-chips til at tr\u00e6ne en model, der konkurrerer med de bedste vestlige modeller, og har gjort det open source.<\/p>\n\n\n\n<p>For europ\u00e6iske og danske udviklere er budskabet todelt. P\u00e5 den ene side er der nu endnu en konkurrencedygtig model at evaluere \u2014 og den er v\u00e6sentligt billigere. P\u00e5 den anden side b\u00f8r man n\u00f8je overveje datasikkerhed, censur i tr\u00e6ningsdata og de geopolitiske implikationer, f\u00f8r man l\u00e6gger sine produktionsworkflows over p\u00e5 kinesisk infrastruktur.<\/p>\n\n\n\n<p>Sp\u00f8rgsm\u00e5let er ikke l\u00e6ngere, om kinesiske labs kan konkurrere p\u00e5 frontier-niveau. Det kan de. Sp\u00f8rgsm\u00e5let er, om resten af industrien har prissat ind, hvor hurtigt de lukker gabet.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/awesomeagents.ai\/news\/glm-5-china-frontier-model-huawei-chips\/\" target=\"_blank\" rel=\"noopener\">China&#8217;s GLM-5 Rivals GPT-5.2 on Zero Nvidia Silicon<\/a> \u2014 Awesome Agents, 1. marts 2026<\/li>\n<li><a href=\"https:\/\/arxiv.org\/html\/2602.15763v1\" target=\"_blank\" rel=\"noopener\">GLM-5: from Vibe Coding to Agentic Engineering<\/a> \u2014 arXiv (Zhipu AI technical paper)<\/li>\n<li><a href=\"https:\/\/llm-stats.com\/ai-news\" target=\"_blank\" rel=\"noopener\">LLM News Today \u2014 GLM-5 analysis<\/a> \u2014 LLM Stats, marts 2026<\/li>\n<\/ul>\n\n\n\n<p><em>Denne artikel er skrevet i samarbejde med AI, og efterf\u00f8lgende redigeret af et rigtigt menneske \ud83d\ude42<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>GLM-5 er Kinas 744-milliarder-parameter model tr\u00e6net helt uden Nvidia og open source under MIT-licens. Et gennembrud.<\/p>\n","protected":false},"author":1,"featured_media":765,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-766","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/766","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=766"}],"version-history":[{"count":2,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/766\/revisions"}],"predecessor-version":[{"id":999,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/766\/revisions\/999"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/765"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=766"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=766"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=766"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}