{"id":1337,"date":"2026-04-30T07:35:48","date_gmt":"2026-04-30T05:35:48","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1337"},"modified":"2026-04-30T07:35:48","modified_gmt":"2026-04-30T05:35:48","slug":"google-gemma-4-under-apache-2-0-den-mest-kapable-open-source-model-er-nu-helt-fri","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/30\/google-gemma-4-under-apache-2-0-den-mest-kapable-open-source-model-er-nu-helt-fri\/","title":{"rendered":"Google Gemma 4 under Apache 2.0: Den mest kapable open source-model er nu helt fri"},"content":{"rendered":"\n<p>Da Google den 2. april udsendte Gemma 4-familien under Apache 2.0-licens, skete der noget, som r\u00e6kker langt ud over endnu en model-release. For f\u00f8rste gang stiller en af de store tech-giganter en model til r\u00e5dighed, der rangerer som nummer tre globalt p\u00e5 LMArena-leaderboardet, uden nogen form for brugsbegr\u00e6nsning. Ingen MAU-gr\u00e6nser. Ingen acceptable-use policy dikteret af skaberen. Fuld frihed til at modificere, redistribuere og kommercialisere.<\/p>\n\n\n\n<p>Det er et markant skifte fra den tilgang, vi har set fra Meta med <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/13\/metas-muse-spark-fra-open-source-til-proprietaer-ai-model\/\">Llama<\/a>-licenserne, der teknisk set er open weight men stadig indeholder restriktioner for virksomheder over en vis st\u00f8rrelse. Google har med Gemma 4 valgt den mest permissive vej.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fire modeller til fire scenarier<\/h2>\n\n\n\n<p>Gemma 4 er ikke en model men en familie af fire, designet til at d\u00e6kke hele spektret fra edge til server:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Gemma 4 31B Dense<\/strong> &#8211; flagskibet med 30,7 milliarder parametre, 256K context window og hybrid attention-arkitektur. Kr\u00e6ver minimum 24 GB VRAM (RTX 4090 eller lignende) og scorer 89,2% p\u00e5 AIME 2026 og 85,2% p\u00e5 MMLU Pro.<\/li>\n\n\n\n<li><strong>Gemma 4 26B MoE<\/strong> &#8211; mixture-of-experts med kun 4 milliarder aktive parametre pr. foresp\u00f8rgsel, men en LMArena-score p\u00e5 1441 som n\u00e6sten matcher 31B-modellen. Langt billigere at k\u00f8re.<\/li>\n\n\n\n<li><strong>Gemma 4 E4B<\/strong> &#8211; edge-variant til smartphones og IoT-enheder med 128K context window.<\/li>\n\n\n\n<li><strong>Gemma 4 E2B<\/strong> &#8211; den mindste, designet til at k\u00f8re p\u00e5 Raspberry Pi-klasse hardware med minimal latency.<\/li>\n<\/ul>\n\n\n\n<p>Alle fire modeller er nativt multimodale og processerer b\u00e5de billeder og video i variabel opl\u00f8sning. De er tr\u00e6net p\u00e5 over 140 sprog. Den type bredde ser man normalt kun i propriet\u00e6re modeller.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvorfor Apache 2.0 er den egentlige nyhed<\/h2>\n\n\n\n<p>Benchmarks er vigtige, men licensen er det, der reelt flytter noget. Apache 2.0 er en af de mest velforst\u00e5ede open source-licenser i industrien. Den giver eksplicit patentrettigheder, tillader kommerciel brug uden begr\u00e6nsninger, og stiller ingen krav om at dele afledte v\u00e6rker.<\/p>\n\n\n\n<p>For virksomheder betyder det: du kan fintune Gemma 4 p\u00e5 dine interne data, bygge produkter oven p\u00e5 den, distribuere den til kunder, og du skylder ikke Google noget som helst. Sammenlign det med Metas Llama-licenser, der indtil nu har kr\u00e6vet s\u00e6rskilt aftale for virksomheder med over 700 millioner m\u00e5nedlige brugere, eller Mistrals tidligere licenser med lignende begr\u00e6nsninger.<\/p>\n\n\n\n<p>For den offentlige sektor og europ\u00e6iske organisationer med fokus p\u00e5 digital suver\u00e6nitiet er Apache 2.0 en foruds\u00e6tning. Gemma 4 er dermed den f\u00f8rste frontier-klasse model, der reelt kan deployes i regulerede milj\u00f8er uden juridisk usikkerhed.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Lokal AI er ikke l\u00e6ngere et kompromis<\/h2>\n\n\n\n<p>Den mest interessante konsekvens af Gemma 4-familien er, hvad den g\u00f8r for lokal deployment. 31B Dense k\u00f8rer p\u00e5 en enkelt RTX 4090 med kvantisering. 26B MoE med kun 4B aktive parametre kan k\u00f8re p\u00e5 endnu mere beskedent hardware. Og E2B\/E4B-varianterne bringer reel AI-kapabilitet til offline-scenarier.<\/p>\n\n\n\n<p>Det betyder, at en udvikler med en moderne workstation nu kan k\u00f8re en model, der benchmarker p\u00e5 niveau med det bedste i verden, helt lokalt. Ingen API-kald, ingen latency, ingen dataoverf\u00f8rsel. For kodegenerering, analyse af lange dokumenter (256K context tillader hele repositories i et prompt), og multimodal forst\u00e5else er det et reelt alternativ til cloud-baserede tjenester.<\/p>\n\n\n\n<p>Gemma 4 underst\u00f8ttes allerede af Ollama, llama.cpp, vLLM og de fleste st\u00f8rre inference-frameworks. Ops\u00e6tning er triviel.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Googles strategiske spil<\/h2>\n\n\n\n<p>Hvorfor giver Google en topmodel v\u00e6k gratis og uden begr\u00e6nsninger? Svaret er sandsynligvis det samme som altid: \u00f8kosystem-kontrol. Jo flere udviklere der bygger p\u00e5 Gemma, jo t\u00e6ttere binder de sig til Googles tooling, TPU-infrastruktur og Vertex AI-platform. Open source-modellen er lokkemaden, cloud-tjenesterne er forretningen.<\/p>\n\n\n\n<p>Det er pr\u00e6cis den strategi, Google har brugt med Android, Kubernetes og Chromium. Den virker. Og denne gang har de timing med sig: Metas nylige strategiskifte mod lukkede modeller med <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/20\/meta-muse-spark-da-zuckerberg-droppede-open-source\/\">Muse Spark<\/a> efterlader et vakuum i open source-landskabet, som Google fylder med Gemma 4.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad det betyder for dig<\/h2>\n\n\n\n<p>Hvis du arbejder med AI i produktion, er Gemma 4 v\u00e6rd at evaluere. Ikke fordi den n\u00f8dvendigvis er bedre end Claude eller GPT-6 til din specifikke use case, men fordi den er den mest kapable model, du kan eje fuldst\u00e6ndigt. Ingen vendor lock-in, ingen licens\u00e6ndringer ned ad vejen, ingen bekymringer om datasuver\u00e6nitiet.<\/p>\n\n\n\n<p>For dem der eksperimenterer med edge AI, agentiske workflows eller offline-scenarier, er E2B og E4B-varianterne oplagt startpunkt. De k\u00f8rer p\u00e5 hardware, de fleste allerede har.<\/p>\n\n\n\n<p>April 2026 har leveret en historisk t\u00e6thed af model-releases. Men Gemma 4 skiller sig ud, ikke p\u00e5 grund af benchmarks alene, men fordi den kombinerer frontier-performance med \u00e6gte frihed. Det er sj\u00e6ldent.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/opensource.googleblog.com\/2026\/03\/gemma-4-expanding-the-gemmaverse-with-apache-20.html\" target=\"_blank\" rel=\"noopener\">Gemma 4: Expanding the Gemmaverse with Apache 2.0<\/a> &#8211; Google Open Source Blog, april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/aihaven.com\/news\/gemma-4-launches-april-2026\/\" target=\"_blank\" rel=\"noopener\">Google DeepMind Releases Gemma 4 With Four Model Sizes and Apache 2.0 License<\/a> &#8211; AI Haven, april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/letsdatascience.com\/blog\/google-gemma-4-open-source-apache-community-found-catches\" target=\"_blank\" rel=\"noopener\">Google Gemma 4: Apache 2.0 License, #3 Arena Ranking, and the Speed Problem<\/a> &#8211; Let&#8217;s Data Science<\/li>\n\n\n\n<li><a href=\"https:\/\/nerdleveltech.com\/google-gemma-4-open-model-guide-benchmarks-local-deployment\" target=\"_blank\" rel=\"noopener\">Gemma 4 Review: Apache-2.0 Open AI, 89.2% on AIME 2026<\/a> &#8211; Nerd Level Tech<\/li>\n\n\n\n<li><a href=\"https:\/\/aurigait.com\/blog\/gemma-4-features-benchmarks-guide\/\" target=\"_blank\" rel=\"noopener\">Gemma 4 by Google: Specs, Benchmarks, and How to Run It Locally<\/a> &#8211; Aurigait<\/li>\n<\/ul>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google Gemma 4 er den f\u00f8rste frontier-klasse sprogmodel under Apache 2.0. 31B Dense rangerer nummer 3 globalt og k\u00f8rer lokalt p\u00e5 en RTX 4090.<\/p>\n","protected":false},"author":1,"featured_media":1336,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8],"tags":[31],"class_list":["post-1337","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1337","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1337"}],"version-history":[{"count":6,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1337\/revisions"}],"predecessor-version":[{"id":1343,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1337\/revisions\/1343"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/1336"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1337"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1337"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1337"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}