I en opsigtsvækkende vidneforklaring i den føderale domstol i Oakland, Californien, har Elon Musk indrømmet, at hans AI-selskab xAI har brugt OpenAI’s modeller til at træne Grok. Indrømmelsen faldt under retssagen Musk v. Altman, hvor Musk ellers forsøger at tvinge OpenAI tilbage til sin oprindelige nonprofitstruktur. Det rejser fundamentale spørgsmål om model destillation og intellektuel ejendomsret i AI-industrien.
Hvad skete der i retten?
Retssagen mellem Elon Musk og OpenAI’s CEO Sam Altman startede i slutningen af april 2026 i en føderal domstol i Oakland. Musk anklager Altman og medstifter Greg Brockman for at have sveget OpenAI’s oprindelige mission som nonprofit-organisation ved at omdanne den til en profitdrevet virksomhed med tætte bånd til Microsoft.
Under krydsforhøret på dag fire stillede OpenAI’s advokat et direkte spørgsmål: har xAI brugt OpenAI’s modeller til at udvikle eller teste sine egne modeller? Musk svarede, at det var en “standardpraksis i branchen.” Da advokaten pressede på for et konkret ja eller nej, sagde Musk blot: “Partly.”
Det er en bemærkelsesværdig indrømmelse fra en mand, der samtidig sagsøger OpenAI for at have brudt sine løfter. Musk har tidligere udtalt, at han følte sig bedraget af Altman, og i en tekstbesked til sin tidligere samarbejdspartner skrev han angiveligt: “What the hell is going on? This is a bait and switch.”
Hvad er model destillation, og hvorfor er det kontroversielt?
Model destillation er en teknik, hvor et mindre AI-system lærer af output fra en større, mere avanceret model. I praksis fungerer det ved, at man sender forespørgsler til en stor model (som GPT-4 eller lignende), indsamler svarene og bruger dem som træningsdata for en mindre model. Resultatet er en model, der kan opnå næsten samme kvalitet som originalen, men med markant lavere krav til beregningskraft og infrastruktur.
For de store AI-laboratorier er destillation en direkte trussel mod deres forretningsmodel. De har investeret milliarder i computerkraft og data for at træne deres frontier-modeller. Når en konkurrent kan “kopiere” en stor del af den kapacitet ved at destillere fra deres API, underminerer det hele den konkurrencemæssige fordel. Det er derfor, at OpenAI i stigende grad forsøger at beskytte sine modeller, blandt andet med nye sikkerhedsforanstaltninger og adgangsbegrænsninger.
Alle de store AI-udbydere har i dag klausuler i deres brugervilkår, der forbyder brug af deres API-output til at træne konkurrerende modeller. Men praksis i branchen fortæller en anden historie. Musk’s indrømmelse bekræfter, hvad mange har mistænkt: destillation er udbredt, selv blandt de største spillere.
Retssagens bredere kontekst
Musk v. Altman handler om langt mere end destillation. Musk kræver, at domstolen fjerner Altman og Brockman fra deres roller og annullerer OpenAI’s omstrukturering til en profitvirksomhed. Hvis han får medhold, kan det torpedere OpenAI’s planlagte børsnotering, der ventes at værdiansætte selskabet til næsten 1 billion dollar.
Ironien er tydelig: Musk kritiserer OpenAI for at have opgivet sin nonprofitmission, mens hans eget selskab xAI ifølge planen skal børsnoteres allerede i juni 2026 via SpaceX til en værdiansættelse på 1,75 billioner dollar. Begge parter har altså forladt idealistiske principper til fordel for kommercielle ambitioner.
Retssagen forventes at strække sig til slutningen af maj, og flere vidner skal afhøres. Udfaldet kan sætte præcedens for, hvordan AI-selskaber struktureres og reguleres fremover.
Hvad betyder det for AI-branchen?
Musk’s indrømmelse har flere konsekvenser for hele industrien. For det første bekræfter den, at model destillation er så udbredt, at selv topledere betragter det som normal praksis. Det presser de store AI-laboratorier til at investere endnu mere i tekniske beskyttelsesmekanismer og juridiske værktøjer.
For det andet rejser det spørgsmålet om, hvem der egentlig “ejer” en AI-models viden. Hvis Model A genererer tekst, som bruges til at træne Model B, er det så tyveri af intellektuel ejendom? Eller er det bare en naturlig del af teknologisk udvikling? Med LLM-priser der konstant falder, bliver adgangen til at destillere billigere og lettere for alle.
For det tredje sætter det fokus på hykleriet i branchen. OpenAI selv har lige annonceret begrænsninger på deres nye GPT-5.5-Cyber model, få dage efter at Sam Altman kritiserede Anthropic for at begrænse adgangen til deres Mythos-model. Alle taler om åbenhed, men lukker gradvist ned, når det handler om at beskytte deres mest værdifulde modeller.
For udviklere og IT-professionelle er budskabet klart: den tid, hvor man frit kunne bruge store modellers output til egne formål, er ved at rinde ud. Fremtiden bringer strammere vilkår, bedre overvågning og potentielt juridiske konsekvenser for dem, der krydser grænsen mellem lovlig brug og destillation.
Kilder
- Elon Musk testifies that xAI trained Grok on OpenAI models – TechCrunch, 30. april 2026
- Musk v. Altman week 1 – MIT Technology Review, 1. maj 2026
- After dissing Anthropic for limiting Mythos, OpenAI restricts access to Cyber, too – TechCrunch, 30. april 2026