{"id":1290,"date":"2026-04-23T17:29:51","date_gmt":"2026-04-23T15:29:51","guid":{"rendered":"https:\/\/vittrup-graversen.dk\/?p=1290"},"modified":"2026-04-23T17:29:51","modified_gmt":"2026-04-23T15:29:51","slug":"google-splitter-tpu-8-i-to-specialbyggede-chips-til-traening-og-inferens-udfordrer-nvidia","status":"publish","type":"post","link":"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/23\/google-splitter-tpu-8-i-to-specialbyggede-chips-til-traening-og-inferens-udfordrer-nvidia\/","title":{"rendered":"Google splitter TPU 8 i to: Specialbyggede chips til tr\u00e6ning og inferens udfordrer Nvidia"},"content":{"rendered":"\n<p>Google Cloud fyrede i g\u00e5r en alvorlig bredside mod Nvidia. P\u00e5 Cloud Next 2026 afsl\u00f8rede Google sin ottende generation af Tensor Processing Units, og for f\u00f8rste gang nogensinde splitter de chippen i to specialiserede varianter: TPU 8t til modeltr\u00e6ning og TPU 8i til inferens. Det er et strategisk skifte, der signalerer enden p\u00e5 one-size-fits-all tilgangen til AI-silicium.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">To chips, to form\u00e5l<\/h2>\n\n\n\n<p>Logikken er enkel: tr\u00e6ning og inferens stiller fundamentalt forskellige krav til hardware. Tr\u00e6ning kr\u00e6ver massiv parallelitet og hukommelsesb\u00e5ndbredde til at bearbejde petabytes af data. Inferens handler om latenstid, genneml\u00f8b og pris pr. foresp\u00f8rgsel. Ved at designe separate chips kan Google optimere hver del af stakken i stedet for at lave kompromiser.<\/p>\n\n\n\n<p>TPU 8t (kodenavn &#8220;Sunfish&#8221;) er designet af Broadcom og byder p\u00e5 to compute-dies med otte stakke 12-high HBM3e. Chippen leverer op til 12,6 petaFLOPS i FP4-beregning, 216 GB HBM med 6,5 TB\/s b\u00e5ndbredde og 128 MB on-chip SRAM. I et superpod-setup n\u00e5r man op p\u00e5 121 exaFLOPS. Google h\u00e6vder 2,8x bedre pris-ydeevne til tr\u00e6ning sammenlignet med forrige generations Ironwood (TPU 7).<\/p>\n\n\n\n<p>TPU 8i (kodenavn &#8220;Zebrafish&#8221;) er MediaTeks bidrag og fokuserer udelukkende p\u00e5 inferens. Her finder man en enkelt compute-die med seks stakke HBM3e, 288 GB hukommelse med 8,6 TB\/s b\u00e5ndbredde og hele 384 MB on-chip SRAM, tre gange s\u00e5 meget som Ironwood. Med 10,1 petaFLOPS i FP4 og et design optimeret til lav latenstid, lover Google 20-30% lavere pris pr. inferens-foresp\u00f8rgsel end tr\u00e6ningsvarianten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Hvorfor splittet giver mening<\/h2>\n\n\n\n<p>For Google handler det om ren \u00f8konomi. N\u00e5r man betjener milliarder af AI-foresp\u00f8rgsler dagligt gennem Search, Gmail, YouTube og Gemini, bliver pris pr. inferens den afg\u00f8rende faktor for hele forretningsmodellen. En chip der er 20-30% billigere pr. foresp\u00f8rgsel repr\u00e6senterer astronomiske besparelser i den skala.<\/p>\n\n\n\n<p>Samtlige store cloud-udbydere k\u00e6mper med den samme udfordring. <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/21\/amazon-pumper-25-milliarder-dollar-i-anthropic-hvad-det-betyder-for-cloud-og-ai\/\">Amazon har netop investeret 25 milliarder dollar i Anthropic<\/a> og satser h\u00e5rdt p\u00e5 deres egne Trainium-chips. Microsoft har Maia-chipsettet. Men Google er den f\u00f8rste, der eksplicit splitter generationerne op i to forskellige chipdesigns fra to forskellige leverand\u00f8rer.<\/p>\n\n\n\n<p>Begge chips targets mod TSMCs 2nm-proces og forventes klar i slutningen af 2027. Det er v\u00e6rd at bem\u00e6rke, at Google allerede har sikret sig designaftaler med Broadcom for tr\u00e6ningschips helt frem til 2031, og at Marvell angiveligt er i forhandlinger om endnu en inferensfokuseret chip.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Nvidias position: stadig dominerende, men under pres<\/h2>\n\n\n\n<p>Google sammenligner bem\u00e6rkelsesv\u00e6rdigt nok ikke direkte med Nvidias chips. Det er diplomatisk, men ogs\u00e5 taktisk. Pointen er ikke at sl\u00e5 Nvidia chip-for-chip. Det kan de formentlig heller ikke. Pointen er at give cloud-kunder et reelt alternativ, der reducerer afh\u00e6ngigheden af Nvidias Blackwell- og kommende Rubin-arkitekturer.<\/p>\n\n\n\n<p>Nvidia har i \u00e5revis kunnet diktere priser og leveringstider, fordi der simpelthen ikke var trov\u00e6rdige alternativer til high-end GPU-tr\u00e6ning. Men med Anthropic l\u00e5st fast p\u00e5 TPU-infrastruktur via Google Cloud, Meta der angiveligt lejer TPU-kapacitet for milliarder, og nu to dedikerede TPU 8-varianter i pipelinen, bliver Nvidias prisforhandlingsposition sv\u00e6kket. K\u00f8en til Blackwell-chips bliver kortere, n\u00e5r kunderne har andre steder at g\u00e5 hen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Den agentiske \u00e6ra kr\u00e6ver ny infrastruktur<\/h2>\n\n\n\n<p>Google kalder selv TPU 8 for &#8220;chips til den agentiske \u00e6ra&#8221;. Det er ikke bare marketing. AI-agenter, der udf\u00f8rer komplekse multi-step workflows autonomt, stiller helt andre krav til inferens end en simpel chatbot-foresp\u00f8rgsel. En agent kan generere hundredvis af API-kald, reasoning-steps og tool-invocations for en enkelt brugerforesp\u00f8rgsel. Det multiplicerer inferens-behovet dramatisk.<\/p>\n\n\n\n<p>Det er pr\u00e6cis her TPU 8i&#8217;s 384 MB on-chip SRAM bliver afg\u00f8rende. SRAM er markant hurtigere end HBM til de hurtige, gentagne lookups som agentiske workflows kr\u00e6ver. Ved at tredoble SRAM-kapaciteten fra Ironwood positionerer Google sig til en fremtid, hvor inferens-volumen eksploderer.<\/p>\n\n\n\n<p>For danske virksomheder og udviklere, der bygger AI-l\u00f8sninger p\u00e5 Google Cloud, betyder det konkret lavere priser og bedre ydeevne for inferens-tunge workloads. Det g\u00e6lder alt fra <a href=\"https:\/\/vittrup-graversen.dk\/index.php\/2026\/04\/23\/qwen-3-6-alibabas-open-source-model-slaar-rivaler-ti-gange-sin-stoerrelse\/\">store sprogmodeller som Qwen 3.6<\/a> til specialiserede dom\u00e6nemodeller. N\u00e5r prisen pr. foresp\u00f8rgsel falder, bliver det muligt at bygge AI-produkter der tidligere var for dyre at drifte.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Konklusion: Siliciumkrigen intensiveres<\/h2>\n\n\n\n<p>Googles TPU 8-split er et signal om, at AI-chipkrigen er g\u00e5et ind i en ny fase. Det handler ikke l\u00e6ngere om at bygge den hurtigste chip. Det handler om at bygge den rigtige chip til det rigtige job. Og i en verden hvor inferens-volumen vokser hurtigere end tr\u00e6ningsbehovet, er en dedikeret inferenschip med lavere pris pr. foresp\u00f8rgsel muligvis vigtigere end r\u00e5 tr\u00e6ningsydelse.<\/p>\n\n\n\n<p>Nvidia er stadig den ubestridte leder inden for AI-silicium. Men med Google, Amazon og en r\u00e6kke andre spillere der bygger specialiseret hardware, er monopolet under erosion. For udviklere og virksomheder er det godt nyt: mere konkurrence betyder lavere priser, bedre tooling og flere valgmuligheder.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Kilder<\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/blog.google\/innovation-and-ai\/infrastructure-and-cloud\/google-cloud\/eighth-generation-tpu-agentic-era\/\" target=\"_blank\" rel=\"noopener\">Our eighth generation TPUs: two chips for the agentic era<\/a> &#8211; Google Blog, april 2026<\/li>\n<li><a href=\"https:\/\/techcrunch.com\/2026\/04\/22\/google-cloud-next-new-tpu-ai-chips-compete-with-nvidia\/\" target=\"_blank\" rel=\"noopener\">Google Cloud launches two new AI chips to compete with Nvidia<\/a> &#8211; TechCrunch, 22. april 2026<\/li>\n<li><a href=\"https:\/\/www.cnbc.com\/2026\/04\/22\/google-launches-training-and-inference-tpus-in-latest-shot-at-nvidia.html\" target=\"_blank\" rel=\"noopener\">Google unveils chips for AI training and inference in latest shot at Nvidia<\/a> &#8211; CNBC, 22. april 2026<\/li>\n<li><a href=\"https:\/\/hyperframeresearch.com\/2026\/04\/22\/google-cloud-next-2026-google-cloud-bifurcates-the-ai-future-specialized-tpu-8t-and-8i-architectures-signal-the-end-of-general-purpose-silicon\/\" target=\"_blank\" rel=\"noopener\">Google Cloud Bifurcates the AI Future<\/a> &#8211; Hyperframe Research, 22. april 2026<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Google splitter TPU 8 i to specialiserede chips: TPU 8t til tr\u00e6ning og TPU 8i til inferens. Hvordan det udfordrer Nvidia og hvad det betyder for AI-infrastruktur.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[8,7],"tags":[135,138,80,139],"class_list":["post-1290","post","type-post","status-publish","format-standard","hentry","category-ai","category-techology","tag-ai-infrastruktur","tag-google-cloud","tag-nvidia","tag-tpu"],"acf":[],"_links":{"self":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1290","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/comments?post=1290"}],"version-history":[{"count":1,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1290\/revisions"}],"predecessor-version":[{"id":1291,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/posts\/1290\/revisions\/1291"}],"wp:attachment":[{"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/media?parent=1290"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/categories?post=1290"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vittrup-graversen.dk\/index.php\/wp-json\/wp\/v2\/tags?post=1290"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}