{"id":1254,"date":"2026-04-20T10:09:49","date_gmt":"2026-04-20T08:09:49","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1254"},"modified":"2026-04-20T10:09:50","modified_gmt":"2026-04-20T08:09:50","slug":"google-gemma-4-lille-open-source-model-med-stor-slagkraft","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/20\/google-gemma-4-lille-open-source-model-med-stor-slagkraft\/","title":{"rendered":"Google Gemma 4: Lille open source-model med stor slagkraft"},"content":{"rendered":"\n<p>Google DeepMind udgav den 2. april 2026 Gemma 4 &#8211; den fjerde generation af deres open source-modelfamilie. Og denne gang er det ikke bare en inkrementel opdatering. Gemma 4 31B Dense placerer sig som nummer tre p\u00e5 Arena AI&#8217;s tekst-leaderboard blandt alle \u00e5bne modeller og sl\u00e5r rivaler med op til 20 gange flere parametre. Det er en bem\u00e6rkelsesv\u00e6rdig pr\u00e6station for en model, der kan k\u00f8re p\u00e5 en enkelt forbruger-GPU.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fire varianter til fire form\u00e5l<\/h2>\n\n\n\n<p>Gemma 4-familien best\u00e5r af fire modeller: E2B og E4B til edge-enheder (telefoner, Raspberry Pi, IoT), 26B MoE (Mixture of Experts) til effektiv inferens, og 31B Dense til maksimal pr\u00e6cision. Alle fire er multimodale fra bunden &#8211; de h\u00e5ndterer tekst, billeder og lyd i samme prompt &#8211; og underst\u00f8tter kontekstvinduer op til 256.000 tokens. Det er mere end Claudes 200K og p\u00e5 niveau med de st\u00f8rste kommercielle modeller.<\/p>\n\n\n\n<p>Den mindste variant, E2B, k\u00f8rer med blot 2 milliarder parametre og leverer fornuftige resultater p\u00e5 en Raspberry Pi 5 med 133 prefill tokens\/s og 7,6 decode tokens\/s. Med NPU-acceleration p\u00e5 en Qualcomm Dragonwing IQ8 n\u00e5r den op p\u00e5 3.700 prefill og 31 decode tokens\/s. Det \u00e5bner for AI-applikationer p\u00e5 enheder uden internetforbindelse &#8211; noget der har konkret v\u00e6rdi i industrielle IoT-scenarier, sundhedssektoren og situationer med begr\u00e6nset b\u00e5ndbredde.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Benchmarks: David mod Goliat<\/h2>\n\n\n\n<p>Tallene er sv\u00e6re at ignorere. Gemma 4 31B scorer 89,2% p\u00e5 AIME 2026 (matematik), 80,0% p\u00e5 LiveCodeBench v6 og opn\u00e5r en Codeforces ELO p\u00e5 2.150. Sammenlignet med forg\u00e6ngeren Gemma 3 er det et markant spring fremad.<\/p>\n\n\n\n<p>Selvf\u00f8lgelig skal proportionerne holdes i skak. <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/16\/claude-opus-4-7-hvad-er-nyt-og-hvad-betyder-det-for-udviklere\/\">Claude Opus 4.7<\/a> og GPT-5.2 scorer t\u00e6t p\u00e5 perfekt p\u00e5 AIME, men de kaster enormt meget mere compute efter opgaven. Claudes API koster st\u00f8rrelsesordener mere end Gemma 4, der via Lightning AI f\u00e5s til $0,14 per million input-tokens og $0,40 per million output-tokens. For mange udviklere er det netop pointen: Gemma 4 giver 80-90% af pr\u00e6stationen til en br\u00f8kdel af prisen.<\/p>\n\n\n\n<p>Modellen h\u00e5ndterer ogs\u00e5 komplekse tool-use-k\u00e6der og multi-agent-orkestrering, om end den stadig halter efter Claude Sonnet p\u00e5 de mest avancerede orkestreringsopgaver. Men til de fleste agentic workflows &#8211; document parsing, kodegenerering, dataanalyse &#8211; er Gemma 4 31B mere end tilstr\u00e6kkelig.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Apache 2.0: Det vigtige licensskifte<\/h2>\n\n\n\n<p>En af de mest betydningsfulde \u00e6ndringer er licensen. Tidligere Gemma-versioner brugte Googles egen licensmodel med visse begr\u00e6nsninger. Gemma 4 udgives under Apache 2.0 &#8211; den mest liberale standard-licens i open source-verdenen. Det betyder fuld kommerciel brug, modificering og redistribution uden Googles restriktioner. For virksomheder der bygger produkter oven p\u00e5 \u00e5bne modeller, fjerner det en v\u00e6sentlig juridisk usikkerhed.<\/p>\n\n\n\n<p>Det er ogs\u00e5 et strategisk tr\u00e6k fra Google. <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/13\/metas-muse-spark-fra-open-source-til-proprietaer-ai-model\/\">Meta gik den modsatte vej med Muse Spark<\/a> &#8211; fra open source til propriet\u00e6r. Google positionerer sig som det trov\u00e6rdige valg for udviklere, der vil have kontrol over deres AI-stack. Med over 400 millioner downloads af Gemma-familien og mere end 100.000 community-varianter har strategien tydeligvis momentum.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Agentic AI p\u00e5 kanten<\/h2>\n\n\n\n<p>Gemma 4 er bygget specifikt til det, Google kalder &#8220;agentic AI on the edge&#8221;. Det handler om at k\u00f8re autonome AI-agenter direkte p\u00e5 brugerens hardware &#8211; uden cloud-roundtrips, uden latency, uden dataoverf\u00f8rsel. Modellen underst\u00f8tter multi-step planning, tool use og visual chain-of-thought ud af boksen.<\/p>\n\n\n\n<p>Google har samtidig lanceret en ny Python-pakke og CLI-tool (litert-lm), der g\u00f8r det nemt at eksperimentere med Gemma lokalt p\u00e5 Linux, macOS og Raspberry Pi. NVIDIA har ogs\u00e5 annonceret optimeret underst\u00f8ttelse via RTX AI Garage, og Android-teamet har udpeget Gemma 4 som den nye standard for lokal agentic intelligence p\u00e5 Android-enheder.<\/p>\n\n\n\n<p>Det praktiske potentiale er reelt: offline kodegenerering, lokal dokumentanalyse, on-device overs\u00e6ttelse i 140+ sprog, og AI-assistenter der fungerer uden internet. For udviklere i Europa, hvor GDPR stiller krav til databehandling, er en model der aldrig sender data ud af enheden et st\u00e6rkt argument.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad det betyder for udviklere<\/h2>\n\n\n\n<p>Gemma 4 rykker ved forholdet mellem \u00e5bne og lukkede modeller. For et \u00e5r siden var gabet mellem de bedste \u00e5bne og kommercielle modeller markant. Nu leverer en 31B-model resultater, der p\u00e5 mange opgaver matcher det, som 400B+ modeller pr\u00e6sterer. Prisen er en br\u00f8kdel, og med Apache 2.0 er der ingen licensm\u00e6ssige overraskelser.<\/p>\n\n\n\n<p>Det betyder ikke, at Claude eller GPT er overfl\u00f8dige. Til de mest kr\u00e6vende reasoning-opgaver, kreativ skrivning og kompleks multi-agent-orkestrering er frontier-modellerne stadig foran. Men for det store flertal af produktionsworkloads &#8211; RAG-pipelines, kodegenerering, chatbots, dokumentbehandling &#8211; er Gemma 4 et konkurrencedygtigt alternativ med bedre \u00f8konomi og fuld kontrol.<\/p>\n\n\n\n<p>Med 256K kontekstvindue, native multimodal support, Apache 2.0-licens og performance der overrasker i forhold til st\u00f8rrelsen, s\u00e6tter Gemma 4 en ny standard for, hvad open source AI kan levere. Googles besked til markedet er klar: du beh\u00f8ver ikke betale frontier-priser for at f\u00e5 frontier-kvalitet. I hvert fald ikke til de fleste opgaver.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/blog.google\/innovation-and-ai\/technology\/developers-tools\/gemma-4\/\" target=\"_blank\" rel=\"noopener\">Gemma 4: Byte for byte, the most capable open models<\/a> &#8211; Google Blog, april 2026<\/li>\n<li><a href=\"https:\/\/deepmind.google\/models\/gemma\/gemma-4\/\" target=\"_blank\" rel=\"noopener\">Gemma 4<\/a> &#8211; Google DeepMind<\/li>\n<li><a href=\"https:\/\/developers.googleblog.com\/bring-state-of-the-art-agentic-skills-to-the-edge-with-gemma-4\/\" target=\"_blank\" rel=\"noopener\">Bring state-of-the-art agentic skills to the edge with Gemma 4<\/a> &#8211; Google Developers Blog<\/li>\n<li><a href=\"https:\/\/tech-insider.org\/google-gemma-4-open-model-benchmarks-2026\/\" target=\"_blank\" rel=\"noopener\">Gemma 4: How a 31B Model Beats 400B Rivals<\/a> &#8211; Tech Insider, 2026<\/li>\n<li><a href=\"https:\/\/artificialanalysis.ai\/models\/gemma-4-31b\" target=\"_blank\" rel=\"noopener\">Gemma 4 31B &#8211; Intelligence, Performance &#038; Price Analysis<\/a> &#8211; Artificial Analysis<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Google Gemma 4 er en open source AI-model med 31B parametre, der sl\u00e5r rivaler med 400B+ parametre. Apache 2.0-licens, multimodal, 256K kontekst.<\/p>\n","protected":false},"author":1,"featured_media":1253,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-1254","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1254","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1254"}],"version-history":[{"count":1,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1254\/revisions"}],"predecessor-version":[{"id":1261,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1254\/revisions\/1261"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/1253"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1254"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1254"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1254"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}