{"id":878,"date":"2026-03-19T07:10:34","date_gmt":"2026-03-19T05:10:34","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=878"},"modified":"2026-03-28T12:10:09","modified_gmt":"2026-03-28T10:10:09","slug":"gpt-5-4-mini-og-nano-openais-nye-modeller-er-bygget-til-kodning-og-ai-subagenter","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/19\/gpt-5-4-mini-og-nano-openais-nye-modeller-er-bygget-til-kodning-og-ai-subagenter\/","title":{"rendered":"GPT-5.4 mini og nano: OpenAIs nye modeller er bygget til kodning og AI-subagenter"},"content":{"rendered":"\n<p>OpenAI lancerede i g\u00e5r to nye modeller i GPT-5.4-familien: <strong>GPT-5.4 mini<\/strong> og <strong>GPT-5.4 nano<\/strong>. Hvor tidligere mini-modeller mest har v\u00e6ret en billigere erstatning for flagskibet, markerer disse to et skift i strategi: De er specifikt designet til at fungere som subagenter i st\u00f8rre AI-systemer \u2014 og de er optimeret til kodning, tool-kald og computer use.<\/p>\n\n\n\n<p>For udviklere der arbejder med AI-agenter i dagligdagen, er det en vigtig nyhed. Det handler ikke bare om lavere pris \u2014 det handler om en ny arkitektur, hvor store og sm\u00e5 modeller arbejder sammen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad kan de nye modeller?<\/h2>\n\n\n\n<p>GPT-5.4 mini er den mest kapable af de to. Den scorer 54,4% p\u00e5 SWE-Bench Pro \u2014 t\u00e6t p\u00e5 flagskibets 57,7% \u2014 og rammer 72,1% p\u00e5 OSWorld-Verified, som tester computeranvendelse. Til sammenligning scorede den \u00e6ldre GPT-5 mini kun 45,7% og 42,0% p\u00e5 de samme benchmarks. OpenAI h\u00e6vder desuden at mini k\u00f8rer mere end dobbelt s\u00e5 hurtigt som sine forg\u00e6ngere.<\/p>\n\n\n\n<p>Nano-modellen er endnu hurtigere og billigere, men naturligvis mindre kapabel. Den er t\u00e6nkt til simplere opgaver: klassificering, dataekstraktion, ranking og underst\u00f8ttende kodningsopgaver. Med en pris p\u00e5 kun $0,20 pr. million input-tokens og $1,25 pr. million output-tokens er den markant billigere end mini ($0,75 \/ $4,50) \u2014 og langt billigere end flagskibet.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Subagent-arkitekturen: Stor model planl\u00e6gger, sm\u00e5 modeller udf\u00f8rer<\/h2>\n\n\n\n<p>Det mest interessante ved denne lancering er ikke selve modellerne \u2014 det er den arkitektur, OpenAI nu aktivt promoverer. I <a href=\"https:\/\/openai.com\/index\/introducing-gpt-5-4-mini-and-nano\/\" target=\"_blank\" rel=\"noopener\">deres blogpost<\/a> beskriver de eksplicit et m\u00f8nster, hvor GPT-5.4 (flagskibet) h\u00e5ndterer planl\u00e6gning, koordinering og den endelige vurdering, mens GPT-5.4 mini og nano k\u00f8rer som subagenter, der eksekverer konkrete delopgaver parallelt.<\/p>\n\n\n\n<p>I Codex \u2014 OpenAIs kodningsplatform \u2014 er det allerede implementeret: GPT-5.4 kan delegere til mini-subagenter, der s\u00f8ger i codebases, gennemg\u00e5r filer eller bearbejder dokumentation. Mini bruger kun 30% af GPT-5.4&#8217;s kvota, s\u00e5 udviklere kan k\u00f8re tre gange s\u00e5 mange mini-opgaver for samme pris.<\/p>\n\n\n\n<p>Det m\u00f8nster kender vi fra <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/16\/langchain-deep-agents-open-source-svar-paa-claude-code-med-planlaegning-hukommelse-og-subagenter\/\">LangChain Deep Agents<\/a>, der bruger en lignende tilgang med planl\u00e6gning og hukommelse. Men OpenAIs version er bygget direkte ind i deres modeludbud \u2014 du beh\u00f8ver ikke selv orkestrere det.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad betyder det for din hverdag som udvikler?<\/h2>\n\n\n\n<p>Hvis du bruger Codex, Claude Code, <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/16\/jetbrains-air-et-nyt-agentisk-udviklingsmiljoe-der-lader-dig-koere-flere-ai-agenter-samtidig\/\">JetBrains Air<\/a> eller andre agentiske kodningsv\u00e6rkt\u00f8jer, er lektionen klar: Fremtiden er ikke \u00e9n stor model, der g\u00f8r alt. Det er et orkester af modeller med forskellige styrker.<\/p>\n\n\n\n<p>I praksis betyder det:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Lavere latency i kodnings-workflows:<\/strong> Mini og nano er designet til at f\u00f8les responsive. Targeted edits, codebase-navigation, front-end generering og debugging-loops k\u00f8rer med lav forsinkelse.<\/li>\n\n\n\n<li><strong>Billigere agentiske pipelines:<\/strong> N\u00e5r din agent delegerer til subagenter, beh\u00f8ver du ikke betale flagskibspris for hver delopgave. Nano til $0,20\/million tokens er billigt nok til at k\u00f8re i stor skala.<\/li>\n\n\n\n<li><strong>Bedre computer use:<\/strong> Mini n\u00e6rmer sig flagskibets niveau p\u00e5 OSWorld-Verified (72,1% vs. 75,0%), hvilket g\u00f8r den velegnet til screenshots-parsing og UI-interaktion.<\/li>\n\n\n\n<li><strong>Mere modul\u00e6re systemer:<\/strong> I stedet for at tune \u00e9n prompt til \u00e9n model, kan du designe systemer hvor forskellige modeller h\u00e5ndterer forskellige lag af kompleksitet.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Kontekst: Model-hierarkier bliver normen<\/h2>\n\n\n\n<p>OpenAI er ikke alene om denne tilgang. Anthropic har l\u00e6nge haft Claude Haiku som billig, hurtig subagent i Claude Code-workflows. Google har Gemini Flash-varianter. Men OpenAIs lancering af GPT-5.4 mini og nano signalerer, at model-hierarkier \u2014 hvor store modeller dirigerer og sm\u00e5 modeller udf\u00f8rer \u2014 nu er en <em>f\u00f8rsteklasses designpattern<\/em>, ikke bare en hack for at spare penge.<\/p>\n\n\n\n<p>Det passer ogs\u00e5 ind i det billede, vi s\u00e5 p\u00e5 <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/17\/nvidia-satser-20-milliarder-paa-groq-chippen-og-erklaerer-inferensens-tidsalder\/\">NVIDIA GTC 2026 i sidste uge<\/a>, hvor Jensen Huang erkl\u00e6rede &#8220;inferensens tidsalder&#8221; og pr\u00e6senterede systemer, der kombinerer GPU&#8217;er og Groq LPU&#8217;er til hurtigere token-generering. Hardware og software bev\u00e6ger sig i samme retning: Flere, hurtigere, billigere inferens-kald \u2014 ikke n\u00f8dvendigvis st\u00f8rre modeller.<\/p>\n\n\n\n<p>For udviklere er budskabet: L\u00e6r at t\u00e6nke i model-hierarkier. L\u00e6r at designe systemer, hvor den rigtige model h\u00e5ndterer den rigtige opgave. GPT-5.4 mini og nano er OpenAIs bud p\u00e5 byggeklodserne til den fremtid.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/openai.com\/index\/introducing-gpt-5-4-mini-and-nano\/\" target=\"_blank\" rel=\"noopener\">Introducing GPT-5.4 mini and nano<\/a> \u2014 OpenAI, 18. marts 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/www.gadgets360.com\/ai\/news\/openai-gpt-5-4-mini-nano-ai-models-released-faster-coding-ai-subagent-optimised-11232839\" target=\"_blank\" rel=\"noopener\">OpenAI Introduces GPT-5.4 Mini, Nano as Faster Models Optimised for Coding and AI Agents<\/a> \u2014 Gadgets 360, 18. marts 2026<\/li>\n<\/ul>\n\n\n\n<p><em>Denne artikel er skrevet i samarbejde med AI, og efterf\u00f8lgende redigeret af et rigtigt menneske \ud83d\ude42<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>GPT-5.4 mini og nano er OpenAIs nye modeller bygget til kodning og AI-subagenter. Billigere, hurtigere og optimeret til agenter.<\/p>\n","protected":false},"author":1,"featured_media":877,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[24,8],"tags":[31,35],"class_list":["post-878","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-agentic-engineering","category-ai","tag-language-models","tag-openai"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/878","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=878"}],"version-history":[{"count":3,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/878\/revisions"}],"predecessor-version":[{"id":977,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/878\/revisions\/977"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/877"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=878"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=878"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=878"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}