Google Gemma 4 under Apache 2.0: Den mest kapable open source-model er nu helt fri

2 min read

Da Google den 2. april udsendte Gemma 4-familien under Apache 2.0-licens, skete der noget, som rækker langt ud over endnu en model-release. For første gang stiller en af de store tech-giganter en model til rådighed, der rangerer som nummer tre globalt på LMArena-leaderboardet, uden nogen form for brugsbegrænsning. Ingen MAU-grænser. Ingen acceptable-use policy dikteret af skaberen. Fuld frihed til at modificere, redistribuere og kommercialisere.

Det er et markant skifte fra den tilgang, vi har set fra Meta med Llama-licenserne, der teknisk set er open weight men stadig indeholder restriktioner for virksomheder over en vis størrelse. Google har med Gemma 4 valgt den mest permissive vej.

Fire modeller til fire scenarier

Gemma 4 er ikke en model men en familie af fire, designet til at dække hele spektret fra edge til server:

  • Gemma 4 31B Dense – flagskibet med 30,7 milliarder parametre, 256K context window og hybrid attention-arkitektur. Kræver minimum 24 GB VRAM (RTX 4090 eller lignende) og scorer 89,2% på AIME 2026 og 85,2% på MMLU Pro.
  • Gemma 4 26B MoE – mixture-of-experts med kun 4 milliarder aktive parametre pr. forespørgsel, men en LMArena-score på 1441 som næsten matcher 31B-modellen. Langt billigere at køre.
  • Gemma 4 E4B – edge-variant til smartphones og IoT-enheder med 128K context window.
  • Gemma 4 E2B – den mindste, designet til at køre på Raspberry Pi-klasse hardware med minimal latency.

Alle fire modeller er nativt multimodale og processerer både billeder og video i variabel opløsning. De er trænet på over 140 sprog. Den type bredde ser man normalt kun i proprietære modeller.

Hvorfor Apache 2.0 er den egentlige nyhed

Benchmarks er vigtige, men licensen er det, der reelt flytter noget. Apache 2.0 er en af de mest velforståede open source-licenser i industrien. Den giver eksplicit patentrettigheder, tillader kommerciel brug uden begrænsninger, og stiller ingen krav om at dele afledte værker.

For virksomheder betyder det: du kan fintune Gemma 4 på dine interne data, bygge produkter oven på den, distribuere den til kunder, og du skylder ikke Google noget som helst. Sammenlign det med Metas Llama-licenser, der indtil nu har krævet særskilt aftale for virksomheder med over 700 millioner månedlige brugere, eller Mistrals tidligere licenser med lignende begrænsninger.

For den offentlige sektor og europæiske organisationer med fokus på digital suverænitiet er Apache 2.0 en forudsætning. Gemma 4 er dermed den første frontier-klasse model, der reelt kan deployes i regulerede miljøer uden juridisk usikkerhed.

Lokal AI er ikke længere et kompromis

Den mest interessante konsekvens af Gemma 4-familien er, hvad den gør for lokal deployment. 31B Dense kører på en enkelt RTX 4090 med kvantisering. 26B MoE med kun 4B aktive parametre kan køre på endnu mere beskedent hardware. Og E2B/E4B-varianterne bringer reel AI-kapabilitet til offline-scenarier.

Det betyder, at en udvikler med en moderne workstation nu kan køre en model, der benchmarker på niveau med det bedste i verden, helt lokalt. Ingen API-kald, ingen latency, ingen dataoverførsel. For kodegenerering, analyse af lange dokumenter (256K context tillader hele repositories i et prompt), og multimodal forståelse er det et reelt alternativ til cloud-baserede tjenester.

Gemma 4 understøttes allerede af Ollama, llama.cpp, vLLM og de fleste større inference-frameworks. Opsætning er triviel.

Googles strategiske spil

Hvorfor giver Google en topmodel væk gratis og uden begrænsninger? Svaret er sandsynligvis det samme som altid: økosystem-kontrol. Jo flere udviklere der bygger på Gemma, jo tættere binder de sig til Googles tooling, TPU-infrastruktur og Vertex AI-platform. Open source-modellen er lokkemaden, cloud-tjenesterne er forretningen.

Det er præcis den strategi, Google har brugt med Android, Kubernetes og Chromium. Den virker. Og denne gang har de timing med sig: Metas nylige strategiskifte mod lukkede modeller med Muse Spark efterlader et vakuum i open source-landskabet, som Google fylder med Gemma 4.

Hvad det betyder for dig

Hvis du arbejder med AI i produktion, er Gemma 4 værd at evaluere. Ikke fordi den nødvendigvis er bedre end Claude eller GPT-6 til din specifikke use case, men fordi den er den mest kapable model, du kan eje fuldstændigt. Ingen vendor lock-in, ingen licensændringer ned ad vejen, ingen bekymringer om datasuverænitiet.

For dem der eksperimenterer med edge AI, agentiske workflows eller offline-scenarier, er E2B og E4B-varianterne oplagt startpunkt. De kører på hardware, de fleste allerede har.

April 2026 har leveret en historisk tæthed af model-releases. Men Gemma 4 skiller sig ud, ikke på grund af benchmarks alene, men fordi den kombinerer frontier-performance med ægte frihed. Det er sjældent.

Kilder

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *