Google DeepMind udgav den 2. april 2026 Gemma 4 – den fjerde generation af deres open source-modelfamilie. Og denne gang er det ikke bare en inkrementel opdatering. Gemma 4 31B Dense placerer sig som nummer tre på Arena AI’s tekst-leaderboard blandt alle åbne modeller og slår rivaler med op til 20 gange flere parametre. Det er en bemærkelsesværdig præstation for en model, der kan køre på en enkelt forbruger-GPU.
Fire varianter til fire formål
Gemma 4-familien består af fire modeller: E2B og E4B til edge-enheder (telefoner, Raspberry Pi, IoT), 26B MoE (Mixture of Experts) til effektiv inferens, og 31B Dense til maksimal præcision. Alle fire er multimodale fra bunden – de håndterer tekst, billeder og lyd i samme prompt – og understøtter kontekstvinduer op til 256.000 tokens. Det er mere end Claudes 200K og på niveau med de største kommercielle modeller.
Den mindste variant, E2B, kører med blot 2 milliarder parametre og leverer fornuftige resultater på en Raspberry Pi 5 med 133 prefill tokens/s og 7,6 decode tokens/s. Med NPU-acceleration på en Qualcomm Dragonwing IQ8 når den op på 3.700 prefill og 31 decode tokens/s. Det åbner for AI-applikationer på enheder uden internetforbindelse – noget der har konkret værdi i industrielle IoT-scenarier, sundhedssektoren og situationer med begrænset båndbredde.
Benchmarks: David mod Goliat
Tallene er svære at ignorere. Gemma 4 31B scorer 89,2% på AIME 2026 (matematik), 80,0% på LiveCodeBench v6 og opnår en Codeforces ELO på 2.150. Sammenlignet med forgængeren Gemma 3 er det et markant spring fremad.
Selvfølgelig skal proportionerne holdes i skak. Claude Opus 4.7 og GPT-5.2 scorer tæt på perfekt på AIME, men de kaster enormt meget mere compute efter opgaven. Claudes API koster størrelsesordener mere end Gemma 4, der via Lightning AI fås til $0,14 per million input-tokens og $0,40 per million output-tokens. For mange udviklere er det netop pointen: Gemma 4 giver 80-90% af præstationen til en brøkdel af prisen.
Modellen håndterer også komplekse tool-use-kæder og multi-agent-orkestrering, om end den stadig halter efter Claude Sonnet på de mest avancerede orkestreringsopgaver. Men til de fleste agentic workflows – document parsing, kodegenerering, dataanalyse – er Gemma 4 31B mere end tilstrækkelig.
Apache 2.0: Det vigtige licensskifte
En af de mest betydningsfulde ændringer er licensen. Tidligere Gemma-versioner brugte Googles egen licensmodel med visse begrænsninger. Gemma 4 udgives under Apache 2.0 – den mest liberale standard-licens i open source-verdenen. Det betyder fuld kommerciel brug, modificering og redistribution uden Googles restriktioner. For virksomheder der bygger produkter oven på åbne modeller, fjerner det en væsentlig juridisk usikkerhed.
Det er også et strategisk træk fra Google. Meta gik den modsatte vej med Muse Spark – fra open source til proprietær. Google positionerer sig som det troværdige valg for udviklere, der vil have kontrol over deres AI-stack. Med over 400 millioner downloads af Gemma-familien og mere end 100.000 community-varianter har strategien tydeligvis momentum.
Agentic AI på kanten
Gemma 4 er bygget specifikt til det, Google kalder “agentic AI on the edge”. Det handler om at køre autonome AI-agenter direkte på brugerens hardware – uden cloud-roundtrips, uden latency, uden dataoverførsel. Modellen understøtter multi-step planning, tool use og visual chain-of-thought ud af boksen.
Google har samtidig lanceret en ny Python-pakke og CLI-tool (litert-lm), der gør det nemt at eksperimentere med Gemma lokalt på Linux, macOS og Raspberry Pi. NVIDIA har også annonceret optimeret understøttelse via RTX AI Garage, og Android-teamet har udpeget Gemma 4 som den nye standard for lokal agentic intelligence på Android-enheder.
Det praktiske potentiale er reelt: offline kodegenerering, lokal dokumentanalyse, on-device oversættelse i 140+ sprog, og AI-assistenter der fungerer uden internet. For udviklere i Europa, hvor GDPR stiller krav til databehandling, er en model der aldrig sender data ud af enheden et stærkt argument.
Hvad det betyder for udviklere
Gemma 4 rykker ved forholdet mellem åbne og lukkede modeller. For et år siden var gabet mellem de bedste åbne og kommercielle modeller markant. Nu leverer en 31B-model resultater, der på mange opgaver matcher det, som 400B+ modeller præsterer. Prisen er en brøkdel, og med Apache 2.0 er der ingen licensmæssige overraskelser.
Det betyder ikke, at Claude eller GPT er overflødige. Til de mest krævende reasoning-opgaver, kreativ skrivning og kompleks multi-agent-orkestrering er frontier-modellerne stadig foran. Men for det store flertal af produktionsworkloads – RAG-pipelines, kodegenerering, chatbots, dokumentbehandling – er Gemma 4 et konkurrencedygtigt alternativ med bedre økonomi og fuld kontrol.
Med 256K kontekstvindue, native multimodal support, Apache 2.0-licens og performance der overrasker i forhold til størrelsen, sætter Gemma 4 en ny standard for, hvad open source AI kan levere. Googles besked til markedet er klar: du behøver ikke betale frontier-priser for at få frontier-kvalitet. I hvert fald ikke til de fleste opgaver.
Kilder
- Gemma 4: Byte for byte, the most capable open models – Google Blog, april 2026
- Gemma 4 – Google DeepMind
- Bring state-of-the-art agentic skills to the edge with Gemma 4 – Google Developers Blog
- Gemma 4: How a 31B Model Beats 400B Rivals – Tech Insider, 2026
- Gemma 4 31B – Intelligence, Performance & Price Analysis – Artificial Analysis