Kun 14 måneder efter stiftelsen har Mira Muratis AI-startup Thinking Machines Lab landet endnu en milliardaftale. Denne gang med Google Cloud, der stiller sin nyeste infrastruktur til rådighed, baseret på Nvidias GB300-chips. Aftalen blev annonceret på Cloud Next ’26 i Las Vegas den 22. april og understreger, hvor hurtigt kapløbet om AI-compute er eskaleret i 2026.
Fra OpenAI-exit til milliarder på 14 måneder
Mira Murati forlod sin rolle som CTO hos OpenAI i september 2024 og grundlagde Thinking Machines Lab i februar 2025. Det gik stærkt: allerede i juli 2025 lukkede hun en seed-runde på 2 milliarder dollar til en værdiansættelse på 12 milliarder dollar. Investorerne inkluderede Andreessen Horowitz, Nvidia, AMD, Cisco og Jane Street. Det er en af de største seed-runder i tech-historien og signalerer enorm tillid til Muratis vision.
Holdet er ikke tilfældigt sammensat. Med sig har Murati hentet tungvægtere som John Schulman (medstifter af OpenAI, som kort var hos Anthropic), Barret Zoph (tidligere VP of Research hos OpenAI) og Lilian Weng (tidligere VP hos OpenAI). Dog har 2026 også budt på turbulens: Zoph og Luke Metz vendte i januar tilbage til OpenAI, og Meta har headhuntet fem af grundlæggerne. Det vidner om, hvor eftertragtede disse forskere er, men også om den brutale talentkonkurrence i AI-branchen.
Hvad indeholder Google Cloud-aftalen?
Den nye aftale giver Thinking Machines Lab adgang til Googles AI Hypercomputer-platform, specifikt A4X Max virtuelle maskiner med Nvidia Blackwell-arkitektur og GB300 NVL72 GPU’er. Ifølge tidlige tests leverer disse maskiner dobbelt så høj hastighed til træning og inferens sammenlignet med forrige generation.
Infrastrukturen bygger på Googles Jupiter-netværk, der håndterer de hurtige vægtoverførsler, som Thinking Machines’ reinforcement learning-workloads kræver. Derudover indgår Google Kubernetes Engine til orkestrering, Cloud Storage med Anywhere Cache, Spanner til transaktionel metadata og Cluster Director til automatisk fejlhåndtering.
“Ved at udnytte A4X Max og AI Hypercomputer-stacken fik Google Cloud os op at køre i rekordfart med den pålidelighed, vi kræver,” sagde Myle Ott, Founding Researcher hos Thinking Machines Lab, i forbindelse med annonceringen.
Aftalen er ikke eksklusiv. Thinking Machines kan fortsat bruge andre cloud-udbydere sideløbende. I marts 2026 indgik selskabet også en strategisk aftale med Nvidia om en gigawatt Vera Rubin-computekapacitet. Det giver Murati fleksibilitet til at sprede sine workloads og undgå vendor lock-in.
Tinker: produktet bag ambitionerne
Thinking Machines Lab lancerede sit første produkt, Tinker, i oktober 2025 og gjorde det generelt tilgængeligt i december samme år. Tinker er en API til distribueret finjustering af open source-sprogmodeller via LoRA (Low-Rank Adaptation). I praksis betyder det, at udviklere og forskere kan tilpasse modeller som Llama, Qwen og endda 1 billion-parameter modeller som Kimi K2 uden selv at skulle håndtere den underliggende GPU-infrastruktur.
Tinker tilbyder low-level primitiver som forward_backward og sample, der kan bruges til at implementere de fleste gængse post-training metoder. Tilhørende Tinker Cookbook er et open source-bibliotek med moderne implementeringer af finjusteringsmetoder. Prismæssigt afregnes der per million tokens baseret på faktisk computeforbrug.
For cloud-udbyderne er kunder som Thinking Machines Lab guld værd. De store AI-laboratorier driver et enormt forbrug af GPU-timer, og med Google Cloud-aftalen bliver Thinking Machines Lab den tredje frontier AI-udvikler, der stiller sig i kø til Googles Blackwell- og TPU-kapacitet denne måned, efter Anthropic og Meta.
Hvad det betyder for branchen
Aftalen illustrerer tre tendenser, der definerer AI-landskabet i 2026. For det første: compute er den nye valuta. Adgang til topmoderne GPU-klynger er blevet en afgørende konkurrenceparameter, og startups forhandler milliardaftaler, før de overhovedet har et produkt med bred markedspenetration.
For det andet: cloud-udbyderne kæmper benhårdt om AI-kunderne. Google, Amazon og Microsoft overbyder hinanden med favorable vilkår for at tiltrække de mest lovende AI-laboratorier. Det er ikke filantropi; det er en investering i fremtidigt forbrug. Opkøb og mega-deals er blevet hverdagskost.
For det tredje viser Thinking Machines Labs hurtige vækst, at der er plads til nye aktører, selv i et marked domineret af OpenAI, Anthropic og Google DeepMind. Muratis kombination af toptalent, massiv funding og en fokuseret produktstrategi med Tinker positionerer selskabet som en seriøs udfordrer. Spørgsmålet er, om de kan fastholde momentum trods den intense talentdræning fra Meta og OpenAI.
For danske udviklere og IT-professionelle er takeaway’en klar: finjustering af open source-modeller bliver stadig mere tilgængeligt og overkommeligt. Tinkers tilgang med LoRA-baseret finjustering via API fjerner en stor del af den infrastrukturkompleksitet, der hidtil har holdt mange virksomheder fra at bygge tilpassede AI-modeller. Det er værd at holde øje med.
Kilder
- Exclusive: Google deepens Thinking Machines Lab ties with new multibillion-dollar deal – TechCrunch, 22. april 2026
- Thinking Machines Expands Use of Google Cloud AI Hypercomputer – PR Newswire, 22. april 2026
- Thinking Machines Lab’s Mira Murati commits to a gigawatt of Nvidia compute – Axios, 10. marts 2026
- Thinking Machines Lab – Wikipedia