{"id":867,"date":"2026-03-17T22:02:35","date_gmt":"2026-03-17T20:02:35","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=867"},"modified":"2026-03-28T12:10:11","modified_gmt":"2026-03-28T10:10:11","slug":"nvidia-satser-20-milliarder-paa-groq-chippen-og-erklaerer-inferensens-tidsalder","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/17\/nvidia-satser-20-milliarder-paa-groq-chippen-og-erklaerer-inferensens-tidsalder\/","title":{"rendered":"NVIDIA satser $20 milliarder p\u00e5 Groq-chippen \u2014 og erkl\u00e6rer inferensens tidsalder"},"content":{"rendered":"\n<p>Da Jensen Huang i g\u00e5r aftes indtog scenen ved NVIDIA GTC 2026 i San Jose, handlede det ikke prim\u00e6rt om den n\u00e6ste GPU-generation. I stedet satte NVIDIA&#8217;s CEO fokus p\u00e5 et fundamentalt skift i AI-industrien: <strong>inferens er nu vigtigere end tr\u00e6ning<\/strong>. Og for at understrege pointen pr\u00e6senterede han Groq 3 LPU \u2014 den f\u00f8rste chip, der er resultatet af NVIDIA&#8217;s opsigtsv\u00e6kkende $20 milliarder-aftale med Groq fra juledag 2025.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fra GPU-kongen til inferensens kejser<\/h2>\n\n\n\n<p>NVIDIA har i \u00e5revis domineret AI-tr\u00e6ning med sine GPU&#8217;er. Men AI-modeller skal ikke kun tr\u00e6nes \u2014 de skal ogs\u00e5 <em>k\u00f8re<\/em>. N\u00e5r ChatGPT svarer p\u00e5 dit sp\u00f8rgsm\u00e5l, n\u00e5r en AI-agent bestiller din flybillet, eller n\u00e5r en autonom bil analyserer trafikken, er det inferens, der arbejder. Og med den eksplosive v\u00e6kst i <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/17\/nemoclaw-nvidia-giver-openclaw-agenter-sikkerhedsskjold-med-openshell-runtime\/\">agentiske AI-systemer<\/a> \u2014 hvor hundredvis af AI-agenter kommunikerer med hinanden i realtid \u2014 er kravene til inferenshastighed eksploderet.<\/p>\n\n\n\n<p>&#8220;AI kan nu udf\u00f8re produktivt arbejde, og derfor er inferensens vendepunkt ankommet,&#8221; sagde Huang i sin to timer lange keynote. Det er ikke bare en teknisk observation \u2014 det er en forretningsanalyse. NVIDIA opjusterede sin prognose for chip-oms\u00e6tning til <strong>mindst $1 billion fra 2025 til 2027<\/strong>, op fra de $500 milliarder, virksomheden fremlagde ved sin seneste kvartalsrapport i februar.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Groq 3 LPU: Specialbygget til hastighed<\/h2>\n\n\n\n<p>Groq har l\u00e6nge v\u00e6ret en outsider i AI-chipmarkedet. Virksomheden, grundlagt af Jonathan Ross (tidligere Google TPU-arkitekt), byggede sine Language Processing Units (LPU&#8217;er) fra bunden med \u00e9t m\u00e5l: lynhurtig inferens. Hvor NVIDIA&#8217;s GPU&#8217;er er generalister, der kan b\u00e5de tr\u00e6ne og k\u00f8re AI-modeller, er Groq&#8217;s LPU&#8217;er specialister, der g\u00f8r \u00e9n ting ekstremt godt.<\/p>\n\n\n\n<p>Hemmeligheden bag Groq&#8217;s hastighed er arkitekturen. I stedet for at flytte data frem og tilbage mellem processor og separat hukommelse \u2014 en flaskehals som plager selv de bedste GPU&#8217;er \u2014 bruger LPU&#8217;en SRAM-baseret on-chip-hukommelse, der fungerer som et software-defineret samleb\u00e5nd. Groq 3-chippen leverer 40 petabyte per sekund i b\u00e5ndbredde, og det nye Groq 3 LPX-serverrack rummer 256 LPU&#8217;er med 128 gigabyte statisk hukommelse.<\/p>\n\n\n\n<p>M\u00e5let er op til <strong>1.500 tokens per sekund<\/strong>. For perspektiv: 100 tokens per sekund f\u00f8les hurtig for et menneske, der l\u00e6ser tekst. Men for AI-agenter, der konstant kommunikerer med hinanden, er 100 tokens decideret langsomt. 1.500 tokens per sekund \u00e5bner d\u00f8ren for de komplekse, flerstrenget AI-arbejdsgange, som industrien kalder <em>agentic AI<\/em>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">En aftale til $20 milliarder \u2014 p\u00e5 tre m\u00e5neder<\/h2>\n\n\n\n<p>NVIDIA annoncerede sin licensaftale med Groq den 24. december 2025. Prisen: $20 milliarder for Groq&#8217;s IP, plus ans\u00e6ttelsen af grundl\u00e6gger Jonathan Ross og pr\u00e6sident Sunny Madra sammen med n\u00f8gleingeni\u00f8rer. Blot tre m\u00e5neder senere st\u00e5r den f\u00f8rste chip klar \u2014 hvilket indikerer, at udviklingen var langt fremme allerede inden aftalen.<\/p>\n\n\n\n<p>Ian Buck, NVIDIA&#8217;s vicepr\u00e6sident for hyperscale-computing, beskrev samarbejdet klart: Groq 3 fungerer som en <em>coprocessor<\/em> til Rubin GPU&#8217;erne og booster ydeevnen p\u00e5 &#8220;hvert lag af AI-modellen ved hver token.&#8221; Groq 3 LPX-racket er designet til at arbejde sammen med det nye <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/03\/13\/nvidia-gtc-2026-vera-rubin-chippen-lover-5x-ydeevne-og-saetter-scenen-for-ai-hardwarens-naeste-kapitel\/\">Vera Rubin NVL72<\/a>, som kombinerer Rubin GPU&#8217;er med NVIDIA&#8217;s nye Vera CPU&#8217;er. Tilsammen lover NVIDIA 35 gange h\u00f8jere throughput per megawatt og ti gange st\u00f8rre oms\u00e6tningsmulighed for datacenteroperat\u00f8rer.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvad det betyder for resten af os<\/h2>\n\n\n\n<p>NVIDIA&#8217;s inferenspivot har konsekvenser langt ud over chipmarkedet. For udviklere og IT-arkitekter signalerer det, at den n\u00e6ste b\u00f8lge af AI-innovation ikke handler om at bygge st\u00f8rre modeller \u2014 men om at k\u00f8re eksisterende modeller hurtigere, billigere og mere effektivt. Det er godt nyt for virksomheder, der vil bruge AI i produktion uden at betale formuer for GPU-tid.<\/p>\n\n\n\n<p>Samtidig intensiverer det konkurrencen. Cerebras, der i samme uge annoncerede et partnerskab med AWS om at levere hurtig AI-inferens via Bedrock, jager det samme marked. Og cloud-udbyderne \u2014 Google, Microsoft, Amazon \u2014 udvikler alle deres egne inferensstacks. NVIDIA&#8217;s svar er at tilbyde hele pakken: GPU&#8217;er til tr\u00e6ning, LPU&#8217;er til inferens, CPU&#8217;er til orkestrering, og software som NemoClaw til sikkerhed. En vertikal integration, der minder om Apple&#8217;s strategi, bare for AI-infrastruktur.<\/p>\n\n\n\n<p>Jensen Huang opsummerede det i sin keynote: &#8220;Vi t\u00e6nker ikke Vera Rubin som en enkelt chip \u2014 vi t\u00e6nker hele systemet, vertikalt integreret, komplet med software, optimeret som \u00e9t k\u00e6mpesystem.&#8221; Det er en ambiti\u00f8s vision. Sp\u00f8rgsm\u00e5let er, om resten af industrien k\u00f8ber pr\u00e6missen \u2014 eller om alternativer som Cerebras og de store cloud-platformes egne chips tager en bid af den $1 billion-kage, NVIDIA har sat sig for at spise.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/blogs.nvidia.com\/blog\/gtc-2026-news\/\" target=\"_blank\" rel=\"noopener\">NVIDIA GTC 2026: Live Updates on What&#8217;s Next in AI<\/a> \u2014 NVIDIA Blog, 16. marts 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/www.techzine.eu\/news\/infrastructure\/139653\/nvidias-groq-3-lpu-targets-agentic-ai-inference-at-gtc-2026\/\" target=\"_blank\" rel=\"noopener\">Nvidia&#8217;s Groq 3 LPU targets agentic AI inference at GTC 2026<\/a> \u2014 Techzine, 17. marts 2026<\/li>\n\n\n\n<li><a href=\"https:\/\/www.techrepublic.com\/article\/news-nvidia-gtc-2026-live-updates\/\" target=\"_blank\" rel=\"noopener\">Nvidia GTC 2026 Live Blog: Jensen Huang&#8217;s Keynote, Hardware Drops, and More AI News<\/a> \u2014 TechRepublic, 16. marts 2026<\/li>\n<\/ul>\n\n\n\n<p><em>Denne artikel er skrevet i samarbejde med AI, og efterf\u00f8lgende redigeret af et rigtigt menneske \ud83d\ude42<\/em><\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>NVIDIA satser $20 milliarder p\u00e5 Groq-chippen og erkl\u00e6rer inferensens tidsalder. En ny \u00e6ra for AI-hardware er p\u00e5 vej.<\/p>\n","protected":false},"author":1,"featured_media":866,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8,7],"tags":[90,31],"class_list":["post-867","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai","category-techology","tag-ai-inference","tag-language-models"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/867","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=867"}],"version-history":[{"count":2,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/867\/revisions"}],"predecessor-version":[{"id":980,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/867\/revisions\/980"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media\/866"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=867"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=867"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=867"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}