{"id":1143,"date":"2026-04-05T09:33:23","date_gmt":"2026-04-05T07:33:23","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1143"},"modified":"2026-04-05T09:33:23","modified_gmt":"2026-04-05T07:33:23","slug":"google-gemma-4-endelig-en-open-source-ai-model-der-kan-koere-lokalt-og-du-maa-bruge-den-til-alt","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/05\/google-gemma-4-endelig-en-open-source-ai-model-der-kan-koere-lokalt-og-du-maa-bruge-den-til-alt\/","title":{"rendered":"Google Gemma 4: Endelig en open source AI-model der kan k\u00f8re lokalt \u2014 og du m\u00e5 bruge den til alt"},"content":{"rendered":"\n<p>Google har netop lanceret <strong>Gemma 4<\/strong> \u2014 en ny familie af open source AI-modeller der bygger p\u00e5 samme teknologi som Gemini 3, men som du kan downloade, modificere og k\u00f8re p\u00e5 din egen hardware. Og for f\u00f8rste gang er Gemma-modellerne frigivet under <strong>Apache 2.0-licensen<\/strong>, hvilket betyder fuld kommerciel frihed uden Googles tidligere restriktive vilk\u00e5r.<\/p>\n\n\n\n<p>For udviklere der har holdt sig fra Gemma p\u00e5 grund af den tvivlsomme licens, er det en markant \u00e6ndring. Og med fire modelst\u00f8rrelser \u2014 fra 2B parametre til 31B \u2014 d\u00e6kker Gemma 4 alt fra smartphones til dedikerede GPU-servere.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad er nyt i Gemma 4?<\/h2>\n\n\n\n<p>Gemma 4 kommer i fire varianter, hver designet til et specifikt segment:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>E2B<\/strong> (Effective 2B) og <strong>E4B<\/strong> (Effective 4B): Optimeret til mobiltelefoner og edge-enheder som Raspberry Pi og NVIDIA Jetson. Kontekstvindue p\u00e5 128K tokens.<\/li>\n\n\n\n<li><strong>26B MoE<\/strong> (Mixture of Experts): Aktiverer kun 3,8 mia. af sine 26 mia. parametre under inferens, hvilket giver markant hurtigere tokens-per-sekund end sammenlignelige modeller.<\/li>\n\n\n\n<li><strong>31B Dense<\/strong>: Den kraftigste variant, rangeret som nr. 3 p\u00e5 <a href=\"https:\/\/arena.ai\/leaderboard\/text?license=open-source\" target=\"_blank\" rel=\"noopener\">Arena AIs open source-leaderboard<\/a>. Kontekstvindue p\u00e5 256K tokens.<\/li>\n<\/ul>\n\n\n\n<p>Alle fire modeller underst\u00f8tter avanceret r\u00e6sonnering, native function calling, struktureret JSON-output, og kodegenerering. De underst\u00f8tter over 140 sprog og kan h\u00e5ndtere billeder og video som input. E2B og E4B har desuden native talegenkendelse.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Apache 2.0: Licensen der \u00e6ndrer alt<\/h2>\n\n\n\n<p>Den st\u00f8rste nyhed er m\u00e5ske ikke selve modellerne, men <strong>licensen<\/strong>. Gemma 3 brugte en propriet\u00e6r Google-licens med begr\u00e6nsninger som Google ensidigt kunne \u00e6ndre. Licensen kr\u00e6vede at udviklere h\u00e5ndh\u00e6vede Googles regler i alle Gemma-baserede projekter, og kunne potentielt overf\u00f8re licensvilk\u00e5r til modeller tr\u00e6net med Gemma-genereret syntetisk data.<\/p>\n\n\n\n<p>Med Apache 2.0 er alt det v\u00e6k. Du kan downloade, modificere, redistribuere og bruge Gemma 4 kommercielt \u2014 det eneste krav er attribution. Ingen royalties, ingen restriktioner, ingen overraskelser. Det er samme licens som Linux-kernen, Kubernetes og TensorFlow bruger.<\/p>\n\n\n\n<p>For mange udviklere var den gamle Gemma-licens en dealbreaker. Skiftet til Apache 2.0 fjerner den juridiske usikkerhed og g\u00f8r det langt mere attraktivt at bygge produkter oven p\u00e5 Gemma 4. Google kalder det en indsats for &#8220;digital suver\u00e6nitet&#8221; \u2014 fuld kontrol over data, infrastruktur og modeller.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad betyder det i praksis for udviklere?<\/h2>\n\n\n\n<p>Det mest interessante ved Gemma 4 er den praktiske kombination af <strong>ydeevne, st\u00f8rrelse og licens<\/strong>. Lad mig give nogle konkrete scenarier:<\/p>\n\n\n\n<p><strong>Lokal AI-kodningsassistent:<\/strong> Med 26B MoE-modellen kan du k\u00f8re en AI-kodningsassistent direkte p\u00e5 din workstation med en forbruger-GPU. Google h\u00e6vder at kvaliteten n\u00e6rmer sig cloud-tjenester som Gemini Pro og Claude Code, men helt offline. Ingen data forlader din maskine, og du betaler ikke per token.<\/p>\n\n\n\n<p><strong>Agentiske workflows:<\/strong> Native function calling og JSON-output betyder at du kan bygge autonome AI-agenter der interagerer med API&#8217;er og v\u00e6rkt\u00f8jer uden at bruge tredjeparts-orchestration. Det er en direkte udfordring til frameworks som LangChain \u2014 modellen kan selv h\u00e5ndtere tool-kald struktureret.<\/p>\n\n\n\n<p><strong>Mobil og IoT:<\/strong> E2B og E4B er designet til at k\u00f8re p\u00e5 en Raspberry Pi eller en moderne smartphone. Google har arbejdet med Qualcomm og MediaTek p\u00e5 at optimere modellerne til mobilchips, og den kommende Gemini Nano 4 til Pixel-telefoner er baseret direkte p\u00e5 Gemma 4 E2B\/E4B. Udviklere kan allerede prototype i <a href=\"https:\/\/android-developers.googleblog.com\/2026\/03\/AI-Core-Developer-Preview\" target=\"_blank\" rel=\"noopener\">AICore Developer Preview<\/a> med forward-kompatibilitet.<\/p>\n\n\n\n<p>Det er v\u00e6rd at sammenligne med <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/02\/turboquant-googles-komprimeringsalgoritme-reducerer-ai-hukommelsesforbrug-med-6x\/\">TurboQuant-algoritmen<\/a> som Google ogs\u00e5 lancerede i denne uge. TurboQuant komprimerer store modeller til at k\u00f8re med 6x mindre hukommelse \u2014 og i kombination med Gemma 4s MoE-arkitektur, der kun aktiverer en br\u00f8kdel af parametrene, kan vi se en fremtid hvor frontier-kvalitet AI k\u00f8rer p\u00e5 helt almindelig hardware.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvor godt performer den reelt?<\/h2>\n\n\n\n<p>Google fremh\u00e6ver at 31B Dense-modellen er nr. 3 p\u00e5 Arena AIs open source-leaderboard, kun overg\u00e5et af GLM-5 og Kimi 2.5 \u2014 modeller der er markant st\u00f8rre. 26B MoE er nr. 6 p\u00e5 samme liste. Det er imponerende for modeller i denne st\u00f8rrelse, men det er v\u00e6rd at bem\u00e6rke at cloud-modeller som Gemini 3, Claude Opus og GPT-5 stadig er i en anden liga.<\/p>\n\n\n\n<p>Den reelle test bliver dog fintuning. Med Apache 2.0-licensen og Gemma 4s arkitektur kan virksomheder og forskere nu tage modellen og specialisere den til specifikke dom\u00e6ner. Google fremh\u00e6ver eksempler som INSAITs bulgarske sprogmodel <a href=\"https:\/\/deepmind.google\/models\/gemma\/gemmaverse\/insait\/\" target=\"_blank\" rel=\"noopener\">BgGPT<\/a> og Yale Universitets <a href=\"https:\/\/blog.google\/innovation-and-ai\/products\/google-gemma-ai-cancer-therapy-discovery\/\" target=\"_blank\" rel=\"noopener\">Cell2Sentence-Scale<\/a> til cancerforskning \u2014 begge bygget p\u00e5 Gemma.<\/p>\n\n\n\n<p>Ogs\u00e5 Googles eget <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/30\/googles-gemini-code-assist-faar-agent-mode-en-gratis-ai-kodningsagent-der-udfordrer-claude-code\/\">Gemini Code Assist med Agent Mode<\/a> viser den retning Google bev\u00e6ger sig: AI-modeller der ikke bare besvarer sp\u00f8rgsm\u00e5l, men aktivt udf\u00f8rer opgaver. Gemma 4 giver det samme fundament til lokale deployments.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvordan kommer du i gang?<\/h2>\n\n\n\n<p>Gemma 4 er tilg\u00e6ngelig nu via flere kanaler:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>AI Studio:<\/strong> Test 31B og 26B MoE direkte i browseren via <a href=\"https:\/\/aistudio.google.com\/prompts\/new_chat?model=gemma-4-31b-it\" target=\"_blank\" rel=\"noopener\">Google AI Studio<\/a><\/li>\n\n\n\n<li><strong>Hugging Face:<\/strong> Download alle modelv\u00e6gte fra <a href=\"https:\/\/huggingface.co\/collections\/google\/gemma-4\" target=\"_blank\" rel=\"noopener\">Gemma 4-samlingen<\/a><\/li>\n\n\n\n<li><strong>Ollama:<\/strong> K\u00f8r lokalt med <code>ollama run gemma4<\/code> via <a href=\"https:\/\/ollama.com\/library\/gemma4\" target=\"_blank\" rel=\"noopener\">Ollama<\/a><\/li>\n\n\n\n<li><strong>Kaggle:<\/strong> Eksperimenter med notebooks p\u00e5 <a href=\"https:\/\/www.kaggle.com\/models\/google\/gemma-4\" target=\"_blank\" rel=\"noopener\">Kaggle<\/a><\/li>\n<\/ul>\n\n\n\n<p>Til lokalt brug anbefaler jeg at starte med <strong>Ollama<\/strong>. 26B MoE-varianten er det oplagte valg til daglig brug p\u00e5 en workstation \u2014 den balancerer hastighed og kvalitet bedst.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/blog.google\/innovation-and-ai\/technology\/developers-tools\/gemma-4\/\" target=\"_blank\" rel=\"noopener\">Gemma 4: Byte for byte, the most capable open models<\/a> \u2014 Google Blog, 2. april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/arstechnica.com\/ai\/2026\/04\/google-announces-gemma-4-open-ai-models-switches-to-apache-2-0-license\/\" target=\"_blank\" rel=\"noopener\">Google announces Gemma 4 open AI models, switches to Apache 2.0 license<\/a> \u2014 Ars Technica, 2. april 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/cloud.google.com\/blog\/products\/ai-machine-learning\/gemma-4-available-on-google-cloud\" target=\"_blank\" rel=\"noopener\">Gemma 4 available on Google Cloud<\/a> \u2014 Google Cloud Blog, 2. april 2026<\/li>\n<\/ul>\n\n\n\n<p><em>Denne artikel er skrevet i samarbejde med AI, og efterf\u00f8lgende redigeret af et rigtigt menneske \ud83d\ude42<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Google Gemma 4 er lanceret under Apache 2.0-licens med fire modelst\u00f8rrelser fra 2B til 31B parametre. L\u00e6s hvad det betyder for lokale AI-workflows.<\/p>\n","protected":false},"author":1,"featured_media":1142,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8,7],"tags":[66,31,116],"class_list":["post-1143","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","category-techology","tag-google","tag-language-models","tag-open-source"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1143","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1143"}],"version-history":[{"count":1,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1143\/revisions"}],"predecessor-version":[{"id":1144,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1143\/revisions\/1144"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/1142"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1143"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1143"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1143"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}