{"id":1254,"date":"2026-04-20T10:09:49","date_gmt":"2026-04-20T08:09:49","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1254"},"modified":"2026-04-20T10:09:50","modified_gmt":"2026-04-20T08:09:50","slug":"google-gemma-4-lille-open-source-model-med-stor-slagkraft","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/20\/google-gemma-4-lille-open-source-model-med-stor-slagkraft\/","title":{"rendered":"Google Gemma 4: Lille open source-model med stor slagkraft"},"content":{"rendered":"\n<p>Google DeepMind udgav den 2. april 2026 Gemma 4 \u2013 den fjerde generation af deres open source-modelfamilie. Og denne gang er det ikke bare en inkrementel opdatering. Gemma 4 31B Dense placerer sig som nummer tre p\u00e5 Arena AI\u2019s tekst-leaderboard blandt alle \u00e5bne modeller og sl\u00e5r rivaler med op til 20 gange flere parametre. Det er en bem\u00e6rkelsesv\u00e6rdig pr\u00e6station for en model, der kan k\u00f8re p\u00e5 en enkelt forbruger-GPU.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fire varianter til fire form\u00e5l<\/h2>\n\n\n\n<p>Gemma 4-familien best\u00e5r af fire modeller: E2B og E4B til edge-enheder (telefoner, Raspberry Pi, IoT), 26B MoE (Mixture of Experts) til effektiv inferens, og 31B Dense til maksimal pr\u00e6cision. Alle fire er multimodale fra bunden \u2013 de h\u00e5ndterer tekst, billeder og lyd i samme prompt \u2013 og underst\u00f8tter kontekstvinduer op til 256.000 tokens. Det er mere end Claudes 200K og p\u00e5 niveau med de st\u00f8rste kommercielle modeller.<\/p>\n\n\n\n<p>Den mindste variant, E2B, k\u00f8rer med blot 2 milliarder parametre og leverer fornuftige resultater p\u00e5 en Raspberry Pi 5 med 133 prefill tokens\/s og 7,6 decode tokens\/s. Med NPU-acceleration p\u00e5 en Qualcomm Dragonwing IQ8 n\u00e5r den op p\u00e5 3.700 prefill og 31 decode tokens\/s. Det \u00e5bner for AI-applikationer p\u00e5 enheder uden internetforbindelse \u2013 noget der har konkret v\u00e6rdi i industrielle IoT-scenarier, sundhedssektoren og situationer med begr\u00e6nset b\u00e5ndbredde.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Benchmarks: David mod Goliat<\/h2>\n\n\n\n<p>Tallene er sv\u00e6re at ignorere. Gemma 4 31B scorer 89,2% p\u00e5 AIME 2026 (matematik), 80,0% p\u00e5 LiveCodeBench v6 og opn\u00e5r en Codeforces ELO p\u00e5 2.150. Sammenlignet med forg\u00e6ngeren Gemma 3 er det et markant spring fremad.<\/p>\n\n\n\n<p>Selvf\u00f8lgelig skal proportionerne holdes i skak. <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/16\/claude-opus-4-7-hvad-er-nyt-og-hvad-betyder-det-for-udviklere\/\">Claude Opus 4.7<\/a> og GPT-5.2 scorer t\u00e6t p\u00e5 perfekt p\u00e5 AIME, men de kaster enormt meget mere compute efter opgaven. Claudes API koster st\u00f8rrelsesordener mere end Gemma 4, der via Lightning AI f\u00e5s til $0,14 per million input-tokens og $0,40 per million output-tokens. For mange udviklere er det netop pointen: Gemma 4 giver 80-90% af pr\u00e6stationen til en br\u00f8kdel af prisen.<\/p>\n\n\n\n<p>Modellen h\u00e5ndterer ogs\u00e5 komplekse tool-use-k\u00e6der og multi-agent-orkestrering, om end den stadig halter efter Claude Sonnet p\u00e5 de mest avancerede orkestreringsopgaver. Men til de fleste agentic workflows \u2013 document parsing, kodegenerering, dataanalyse \u2013 er Gemma 4 31B mere end tilstr\u00e6kkelig.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Apache 2.0: Det vigtige licensskifte<\/h2>\n\n\n\n<p>En af de mest betydningsfulde \u00e6ndringer er licensen. Tidligere Gemma-versioner brugte Googles egen licensmodel med visse begr\u00e6nsninger. Gemma 4 udgives under Apache 2.0 \u2013 den mest liberale standard-licens i open source-verdenen. Det betyder fuld kommerciel brug, modificering og redistribution uden Googles restriktioner. For virksomheder der bygger produkter oven p\u00e5 \u00e5bne modeller, fjerner det en v\u00e6sentlig juridisk usikkerhed.<\/p>\n\n\n\n<p>Det er ogs\u00e5 et strategisk tr\u00e6k fra Google. <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/13\/metas-muse-spark-fra-open-source-til-proprietaer-ai-model\/\">Meta gik den modsatte vej med Muse Spark<\/a> \u2013 fra open source til propriet\u00e6r. Google positionerer sig som det trov\u00e6rdige valg for udviklere, der vil have kontrol over deres AI-stack. Med over 400 millioner downloads af Gemma-familien og mere end 100.000 community-varianter har strategien tydeligvis momentum.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Agentic AI p\u00e5 kanten<\/h2>\n\n\n\n<p>Gemma 4 er bygget specifikt til det, Google kalder \u201cagentic AI on the edge\u201d. Det handler om at k\u00f8re autonome AI-agenter direkte p\u00e5 brugerens hardware \u2013 uden cloud-roundtrips, uden latency, uden dataoverf\u00f8rsel. Modellen underst\u00f8tter multi-step planning, tool use og visual chain-of-thought ud af boksen.<\/p>\n\n\n\n<p>Google har samtidig lanceret en ny Python-pakke og CLI-tool (litert-lm), der g\u00f8r det nemt at eksperimentere med Gemma lokalt p\u00e5 Linux, macOS og Raspberry Pi. NVIDIA har ogs\u00e5 annonceret optimeret underst\u00f8ttelse via RTX AI Garage, og Android-teamet har udpeget Gemma 4 som den nye standard for lokal agentic intelligence p\u00e5 Android-enheder.<\/p>\n\n\n\n<p>Det praktiske potentiale er reelt: offline kodegenerering, lokal dokumentanalyse, on-device overs\u00e6ttelse i 140+ sprog, og AI-assistenter der fungerer uden internet. For udviklere i Europa, hvor GDPR stiller krav til databehandling, er en model der aldrig sender data ud af enheden et st\u00e6rkt argument.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad det betyder for udviklere<\/h2>\n\n\n\n<p>Gemma 4 rykker ved forholdet mellem \u00e5bne og lukkede modeller. For et \u00e5r siden var gabet mellem de bedste \u00e5bne og kommercielle modeller markant. Nu leverer en 31B-model resultater, der p\u00e5 mange opgaver matcher det, som 400B+ modeller pr\u00e6sterer. Prisen er en br\u00f8kdel, og med Apache 2.0 er der ingen licensm\u00e6ssige overraskelser.<\/p>\n\n\n\n<p>Det betyder ikke, at Claude eller GPT er overfl\u00f8dige. Til de mest kr\u00e6vende reasoning-opgaver, kreativ skrivning og kompleks multi-agent-orkestrering er frontier-modellerne stadig foran. Men for det store flertal af produktionsworkloads \u2013 RAG-pipelines, kodegenerering, chatbots, dokumentbehandling \u2013 er Gemma 4 et konkurrencedygtigt alternativ med bedre \u00f8konomi og fuld kontrol.<\/p>\n\n\n\n<p>Med 256K kontekstvindue, native multimodal support, Apache 2.0-licens og performance der overrasker i forhold til st\u00f8rrelsen, s\u00e6tter Gemma 4 en ny standard for, hvad open source AI kan levere. Googles besked til markedet er klar: du beh\u00f8ver ikke betale frontier-priser for at f\u00e5 frontier-kvalitet. I hvert fald ikke til de fleste opgaver.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/blog.google\/innovation-and-ai\/technology\/developers-tools\/gemma-4\/\" target=\"_blank\" rel=\"noopener\">Gemma 4: Byte for byte, the most capable open models<\/a> \u2013 Google Blog, april 2026<\/li>\n<li><a href=\"https:\/\/deepmind.google\/models\/gemma\/gemma-4\/\" target=\"_blank\" rel=\"noopener\">Gemma 4<\/a> \u2013 Google DeepMind<\/li>\n<li><a href=\"https:\/\/developers.googleblog.com\/bring-state-of-the-art-agentic-skills-to-the-edge-with-gemma-4\/\" target=\"_blank\" rel=\"noopener\">Bring state-of-the-art agentic skills to the edge with Gemma 4<\/a> \u2013 Google Developers Blog<\/li>\n<li><a href=\"https:\/\/tech-insider.org\/google-gemma-4-open-model-benchmarks-2026\/\" target=\"_blank\" rel=\"noopener\">Gemma 4: How a 31B Model Beats 400B Rivals<\/a> \u2013 Tech Insider, 2026<\/li>\n<li><a href=\"https:\/\/artificialanalysis.ai\/models\/gemma-4-31b\" target=\"_blank\" rel=\"noopener\">Gemma 4 31B \u2013 Intelligence, Performance & Price Analysis<\/a> \u2013 Artificial Analysis<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Google Gemma 4 er en open source AI-model med 31B parametre, der sl\u00e5r rivaler med 400B+ parametre. Apache 2.0-licens, multimodal, 256K kontekst.<\/p>\n","protected":false},"author":1,"featured_media":1253,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-1254","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1254","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1254"}],"version-history":[{"count":1,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1254\/revisions"}],"predecessor-version":[{"id":1261,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1254\/revisions\/1261"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/1253"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1254"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1254"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1254"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}