OpenAI lancerede i går to nye modeller i GPT-5.4-familien: GPT-5.4 mini og GPT-5.4 nano. Hvor tidligere mini-modeller mest har været en billigere erstatning for flagskibet, markerer disse to et skift i strategi: De er specifikt designet til at fungere som subagenter i større AI-systemer — og de er optimeret til kodning, tool-kald og computer use.
For udviklere der arbejder med AI-agenter i dagligdagen, er det en vigtig nyhed. Det handler ikke bare om lavere pris — det handler om en ny arkitektur, hvor store og små modeller arbejder sammen.
Hvad kan de nye modeller?
GPT-5.4 mini er den mest kapable af de to. Den scorer 54,4% på SWE-Bench Pro — tæt på flagskibets 57,7% — og rammer 72,1% på OSWorld-Verified, som tester computeranvendelse. Til sammenligning scorede den ældre GPT-5 mini kun 45,7% og 42,0% på de samme benchmarks. OpenAI hævder desuden at mini kører mere end dobbelt så hurtigt som sine forgængere.
Nano-modellen er endnu hurtigere og billigere, men naturligvis mindre kapabel. Den er tænkt til simplere opgaver: klassificering, dataekstraktion, ranking og understøttende kodningsopgaver. Med en pris på kun $0,20 pr. million input-tokens og $1,25 pr. million output-tokens er den markant billigere end mini ($0,75 / $4,50) — og langt billigere end flagskibet.
Subagent-arkitekturen: Stor model planlægger, små modeller udfører
Det mest interessante ved denne lancering er ikke selve modellerne — det er den arkitektur, OpenAI nu aktivt promoverer. I deres blogpost beskriver de eksplicit et mønster, hvor GPT-5.4 (flagskibet) håndterer planlægning, koordinering og den endelige vurdering, mens GPT-5.4 mini og nano kører som subagenter, der eksekverer konkrete delopgaver parallelt.
I Codex — OpenAIs kodningsplatform — er det allerede implementeret: GPT-5.4 kan delegere til mini-subagenter, der søger i codebases, gennemgår filer eller bearbejder dokumentation. Mini bruger kun 30% af GPT-5.4’s kvota, så udviklere kan køre tre gange så mange mini-opgaver for samme pris.
Det mønster kender vi fra LangChain Deep Agents, der bruger en lignende tilgang med planlægning og hukommelse. Men OpenAIs version er bygget direkte ind i deres modeludbud — du behøver ikke selv orkestrere det.
Hvad betyder det for din hverdag som udvikler?
Hvis du bruger Codex, Claude Code, JetBrains Air eller andre agentiske kodningsværktøjer, er lektionen klar: Fremtiden er ikke én stor model, der gør alt. Det er et orkester af modeller med forskellige styrker.
I praksis betyder det:
- Lavere latency i kodnings-workflows: Mini og nano er designet til at føles responsive. Targeted edits, codebase-navigation, front-end generering og debugging-loops kører med lav forsinkelse.
- Billigere agentiske pipelines: Når din agent delegerer til subagenter, behøver du ikke betale flagskibspris for hver delopgave. Nano til $0,20/million tokens er billigt nok til at køre i stor skala.
- Bedre computer use: Mini nærmer sig flagskibets niveau på OSWorld-Verified (72,1% vs. 75,0%), hvilket gør den velegnet til screenshots-parsing og UI-interaktion.
- Mere modulære systemer: I stedet for at tune én prompt til én model, kan du designe systemer hvor forskellige modeller håndterer forskellige lag af kompleksitet.
Kontekst: Model-hierarkier bliver normen
OpenAI er ikke alene om denne tilgang. Anthropic har længe haft Claude Haiku som billig, hurtig subagent i Claude Code-workflows. Google har Gemini Flash-varianter. Men OpenAIs lancering af GPT-5.4 mini og nano signalerer, at model-hierarkier — hvor store modeller dirigerer og små modeller udfører — nu er en førsteklasses designpattern, ikke bare en hack for at spare penge.
Det passer også ind i det billede, vi så på NVIDIA GTC 2026 i sidste uge, hvor Jensen Huang erklærede “inferensens tidsalder” og præsenterede systemer, der kombinerer GPU’er og Groq LPU’er til hurtigere token-generering. Hardware og software bevæger sig i samme retning: Flere, hurtigere, billigere inferens-kald — ikke nødvendigvis større modeller.
For udviklere er budskabet: Lær at tænke i model-hierarkier. Lær at designe systemer, hvor den rigtige model håndterer den rigtige opgave. GPT-5.4 mini og nano er OpenAIs bud på byggeklodserne til den fremtid.
Kilder
- Introducing GPT-5.4 mini and nano — OpenAI, 18. marts 2026
- OpenAI Introduces GPT-5.4 Mini, Nano as Faster Models Optimised for Coding and AI Agents — Gadgets 360, 18. marts 2026
Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂