Google Gemma 4: Endelig en open source AI-model der kan køre lokalt — og du må bruge den til alt

2 min read

Google har netop lanceret Gemma 4 — en ny familie af open source AI-modeller der bygger på samme teknologi som Gemini 3, men som du kan downloade, modificere og køre på din egen hardware. Og for første gang er Gemma-modellerne frigivet under Apache 2.0-licensen, hvilket betyder fuld kommerciel frihed uden Googles tidligere restriktive vilkår.

For udviklere der har holdt sig fra Gemma på grund af den tvivlsomme licens, er det en markant ændring. Og med fire modelstørrelser — fra 2B parametre til 31B — dækker Gemma 4 alt fra smartphones til dedikerede GPU-servere.

Hvad er nyt i Gemma 4?

Gemma 4 kommer i fire varianter, hver designet til et specifikt segment:

  • E2B (Effective 2B) og E4B (Effective 4B): Optimeret til mobiltelefoner og edge-enheder som Raspberry Pi og NVIDIA Jetson. Kontekstvindue på 128K tokens.
  • 26B MoE (Mixture of Experts): Aktiverer kun 3,8 mia. af sine 26 mia. parametre under inferens, hvilket giver markant hurtigere tokens-per-sekund end sammenlignelige modeller.
  • 31B Dense: Den kraftigste variant, rangeret som nr. 3 på Arena AIs open source-leaderboard. Kontekstvindue på 256K tokens.

Alle fire modeller understøtter avanceret ræsonnering, native function calling, struktureret JSON-output, og kodegenerering. De understøtter over 140 sprog og kan håndtere billeder og video som input. E2B og E4B har desuden native talegenkendelse.

Apache 2.0: Licensen der ændrer alt

Den største nyhed er måske ikke selve modellerne, men licensen. Gemma 3 brugte en proprietær Google-licens med begrænsninger som Google ensidigt kunne ændre. Licensen krævede at udviklere håndhævede Googles regler i alle Gemma-baserede projekter, og kunne potentielt overføre licensvilkår til modeller trænet med Gemma-genereret syntetisk data.

Med Apache 2.0 er alt det væk. Du kan downloade, modificere, redistribuere og bruge Gemma 4 kommercielt — det eneste krav er attribution. Ingen royalties, ingen restriktioner, ingen overraskelser. Det er samme licens som Linux-kernen, Kubernetes og TensorFlow bruger.

For mange udviklere var den gamle Gemma-licens en dealbreaker. Skiftet til Apache 2.0 fjerner den juridiske usikkerhed og gør det langt mere attraktivt at bygge produkter oven på Gemma 4. Google kalder det en indsats for “digital suverænitet” — fuld kontrol over data, infrastruktur og modeller.

Hvad betyder det i praksis for udviklere?

Det mest interessante ved Gemma 4 er den praktiske kombination af ydeevne, størrelse og licens. Lad mig give nogle konkrete scenarier:

Lokal AI-kodningsassistent: Med 26B MoE-modellen kan du køre en AI-kodningsassistent direkte på din workstation med en forbruger-GPU. Google hævder at kvaliteten nærmer sig cloud-tjenester som Gemini Pro og Claude Code, men helt offline. Ingen data forlader din maskine, og du betaler ikke per token.

Agentiske workflows: Native function calling og JSON-output betyder at du kan bygge autonome AI-agenter der interagerer med API’er og værktøjer uden at bruge tredjeparts-orchestration. Det er en direkte udfordring til frameworks som LangChain — modellen kan selv håndtere tool-kald struktureret.

Mobil og IoT: E2B og E4B er designet til at køre på en Raspberry Pi eller en moderne smartphone. Google har arbejdet med Qualcomm og MediaTek på at optimere modellerne til mobilchips, og den kommende Gemini Nano 4 til Pixel-telefoner er baseret direkte på Gemma 4 E2B/E4B. Udviklere kan allerede prototype i AICore Developer Preview med forward-kompatibilitet.

Det er værd at sammenligne med TurboQuant-algoritmen som Google også lancerede i denne uge. TurboQuant komprimerer store modeller til at køre med 6x mindre hukommelse — og i kombination med Gemma 4s MoE-arkitektur, der kun aktiverer en brøkdel af parametrene, kan vi se en fremtid hvor frontier-kvalitet AI kører på helt almindelig hardware.

Hvor godt performer den reelt?

Google fremhæver at 31B Dense-modellen er nr. 3 på Arena AIs open source-leaderboard, kun overgået af GLM-5 og Kimi 2.5 — modeller der er markant større. 26B MoE er nr. 6 på samme liste. Det er imponerende for modeller i denne størrelse, men det er værd at bemærke at cloud-modeller som Gemini 3, Claude Opus og GPT-5 stadig er i en anden liga.

Den reelle test bliver dog fintuning. Med Apache 2.0-licensen og Gemma 4s arkitektur kan virksomheder og forskere nu tage modellen og specialisere den til specifikke domæner. Google fremhæver eksempler som INSAITs bulgarske sprogmodel BgGPT og Yale Universitets Cell2Sentence-Scale til cancerforskning — begge bygget på Gemma.

Også Googles eget Gemini Code Assist med Agent Mode viser den retning Google bevæger sig: AI-modeller der ikke bare besvarer spørgsmål, men aktivt udfører opgaver. Gemma 4 giver det samme fundament til lokale deployments.

Hvordan kommer du i gang?

Gemma 4 er tilgængelig nu via flere kanaler:

  • AI Studio: Test 31B og 26B MoE direkte i browseren via Google AI Studio
  • Hugging Face: Download alle modelvægte fra Gemma 4-samlingen
  • Ollama: Kør lokalt med ollama run gemma4 via Ollama
  • Kaggle: Eksperimenter med notebooks på Kaggle

Til lokalt brug anbefaler jeg at starte med Ollama. 26B MoE-varianten er det oplagte valg til daglig brug på en workstation — den balancerer hastighed og kvalitet bedst.

Kilder

Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *