LLM-priser halveret på fire uger: April 2026 blev vendepunktet for AI-økonomi

2 min read

LLM-priser falder i april 2026 - illustration af prisfald i AI-markedet

Noget historisk skete i april 2026. Inden for blot fire uger lancerede samtlige store AI-laboratorier nye modeller, og den samlede effekt var et prisfald på omkring 50 procent for “good enough” LLM-inferens sammenlignet med januar. For udviklere og virksomheder, der bygger AI-produkter, er det den vigtigste nyhed denne måned.

Ni store modeller på fire uger

Listen over april-lanceringer ligner en koordineret offensiv. Anthropic åbnede ballet den 2. april med Claude Opus 4.7, der satte nye rekorder på SWE-Bench Verified med 87,6 procent. Samme dag udgav Google Gemma 4-familien som open source under Apache 2.0. Meta fulgte den 5. april med Llama 4 Scout og Maverick, det første store open source Mixture-of-Experts-setup fra Meta. Mistral lagde Medium 3 oveni den 9. april med open weights og særlig styrke i europæiske sprog. Google bragte Gemini 2.5 Pro i general availability den 1. april med 1M token context.

Midt i april kom Kimi K2.6 fra kinesiske Moonshot AI med 300-agent swarming. Alibabas Qwen 3.6 ramte markedet den 22. april. Dagen efter shippede OpenAI GPT-5.5 “Spud” med omnimodale evner og 88,7 procent på SWE-Bench. Og den 24. april rundede DeepSeek af med V4 under Apache 2.0-licens og 1M token context window.

Priserne falder som en sten

Det er ikke bare antallet af modeller, der er bemærkelsesværdigt. Det er prispresset. I januar 2026 betalte du typisk 3-5 dollar pr. million input-tokens for en frontier-model. I slutningen af april ser billedet markant anderledes ud.

DeepSeek V4-Flash koster 0,14 dollar pr. million input-tokens og 0,28 dollar for output. Mistral Medium 3 ligger på 0,40/2,00 dollar. Selv Anthropics Sonnet 4, som stadig hører til de dyrere modeller, koster 3/15 dollar pr. million tokens. OpenAIs GPT-5.5 er den dyreste i feltet med 5/30 dollar, men selv det er konkurrencedygtigt med, hvad frontier-modeller kostede for et halvt år siden.

Den samlede effekt ifølge TokenMix er et fald på cirka 50 procent for “good enough” inferens sammenlignet med januar. Det er drevet primært af konkurrencen fra kinesiske open-weight-modeller, der tvinger vestlige labs til at matche på pris.

Open source lukker hullet

Det mest interessante ved april-bølgen er, at afstanden mellem proprietary og open source-modeller er skrumpet til næsten ingenting på mange benchmarks. DeepSeek V4 med åbne vægte scorer 85 procent på SWE-Bench Verified i Pro-varianten. Det er kun tre procentpoint under det bedste proprietary-resultat. Llama 4 Maverick og Gemma 4 leverer tilsvarende stærke resultater under permissive licenser.

For virksomheder betyder det, at beslutningen mellem hosted API og self-hosted open source ikke længere handler om kvalitet. Det handler om kontrol, compliance og latenstid. En dansk virksomhed med GDPR-krav kan nu køre en model lokalt, der matcher 90+ procent af de bedste lukkede modeller. Det var ikke tilfældet for seks måneder siden.

Hvad det betyder for din tech-stack

Hvis du bygger produkter med LLM-inferens, er der tre konkrete takeaways fra april 2026:

1. Multi-provider er nu en no-brainer. Med ni konkurrerende modeller på markedet er vendor lock-in dyrere end nogensinde. Værktøjer som OpenRouter og LiteLLM, der lader dig skifte mellem providers, er gået fra nice-to-have til kritisk infrastruktur. Hvis GPT-5.5 koster dig 5 dollar pr. million tokens til en opgave, hvor DeepSeek V4-Flash klarer det for 0,14 dollar, taber du penge hver dag du ikke har en routing-strategi.

2. Evaluer dine use cases igen. Den model du valgte i januar er sandsynligvis ikke den optimale i april. Priserne er faldet, men vigtigere endnu: de relative styrker har ændret sig. GPT-5.5 dominerer på omnimodale opgaver, Claude Opus 4.7 på agentisk kodning, DeepSeek V4 på pris-ydelse-forholdet. En systematisk evaluering mod dine specifikke use cases kan spare dig tusindvis af dollars om måneden.

3. Budget for faldende priser. Tendensen fra april peger kun én vej. Hyperscalere pumper milliarder i AI-infrastruktur, og de kinesiske labs presser priserne ned med open source-releases. Hvis du dimensionerer dit AI-budget efter nuværende priser, overvurderer du sandsynligvis dine omkostninger for andet halvår af 2026.

Europæisk vinkel: Mistral og sprogsupport

Et ofte overset aspekt ved april-bølgen er Mistrals position. Medium 3 er den stærkeste open-weight-model for europæiske sprog, inklusiv dansk og de andre nordiske sprog. Med 128.000 tokens context window og Apache 2.0-licens er det et realistisk valg for europæiske virksomheder, der ønsker lokal deployment med stærk flersproget support.

Mistral hævder, at Medium 3 performer på eller over 90 procent af Claude Sonnet 3.7 på tværs af benchmarks. Uafhængig verifikation mangler dog stadig, og community-adoption har været overraskende lav. Men for specifikt europæiske sprogopdatering og GDPR-compliant deployment er Mistral fortsat det mest oplagte europæiske alternativ.

Konklusion: Prisfaldet er bare begyndelsen

April 2026 vil blive husket som den måned, hvor LLM-inferens gik fra dyrt til billigt. Med ni store model-lanceringer på fire uger, et prisfald på 50 procent, og et open source-felt der matcher proprietary-modeller, er markedet fundamentalt ændret. For udviklere er budskabet klart: det har aldrig været billigere at bygge med AI, og priserne falder stadig.

Kilder

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *