OpenAI fyrer op på alle cylindre: GPT-5.3 Instant og GPT-5.4 lanceret på én uge

2 min read

OpenAI har haft en intens uge. Mandag den 3. marts rullede de GPT-5.3 Instant ud til alle ChatGPT-brugere. Torsdag den 5. marts fulgte GPT-5.4 — i tre varianter: standard, Thinking og Pro. To modellanceringer på to dage. Det er et tempo, der understreger, hvor hård konkurrencen er blevet i LLM-markedet.

GPT-5.3 Instant: Farvel til den belærende tone

GPT-5.3 Instant erstatter GPT-5.2 som standardmodellen i ChatGPT — den model, som de fleste brugere møder i dagligdagen. Opdateringen handler ikke om rå ydeevne, men om brugeroplevelsen. OpenAI adresserer direkte den kritik, som har floreret på Reddit og X i måneder: ChatGPT lød for belærende, for overdrevent forsigtig, og antog konstant, at brugeren var i krise.

“Vi hørte jeres feedback højt og tydeligt, og 5.3 Instant reducerer the cringe,” skrev OpenAI. Den nye model dropper de uopfordrede beroligende svar som “du er ikke i stykker” og “tag en dyb indånding” — fraser der fik mange brugere til at føle sig nedladende behandlet. Enkelte afmeldte endda deres abonnement i frustration over tonen.

Det vigtigste tal: hallucinationer er reduceret med 26,8% ved websøgning og 19,7% på rene vidensspørgsmål sammenlignet med GPT-5.2. Kontekstvinduet er tredoblet fra 128K til 400K tokens. Og modellen er blevet bedre til at syntetisere søgeresultater i sammenhængende svar i stedet for at dumpe lister af links.

GPT-5.4: OpenAI’s mest kapable model til dato

Blot to dage efter GPT-5.3 Instant lancerede OpenAI så GPT-5.4 — beskrevet som “vores mest kapable og effektive frontier-model til professionelt arbejde.” Modellen er tilgængelig i tre varianter: GPT-5.4 (standard), GPT-5.4 Thinking (reasoning) og GPT-5.4 Pro (optimeret til høj ydeevne).

De centrale forbedringer i GPT-5.4 er markante. API-versionen understøtter op til 1 million tokens kontekst — langt det største kontekstvindue fra OpenAI nogensinde. Modellen er 33% mindre tilbøjelig til at lave faktuelle fejl i individuelle påstande sammenlignet med GPT-5.2, og samlede svar indeholder 18% færre fejl.

GPT-5.4 satte nye rekorder på flere benchmarks, herunder OSWorld-Verified og WebArena Verified til computerinteraktion samt 83% på OpenAI’s GDPval-test for vidensarbejde. Mercors APEX-Agents benchmark, der tester professionelle kompetencer inden for jura og finans, viste også topplaceringer. CEO Brendan Foody fremhævede, at modellen “udmærker sig ved at skabe leverancer som slide decks, finansielle modeller og juridisk analyse.”

Ny Tool Search-teknologi sparer tokens

En interessant nyhed for udviklere er Tool Search — et nyt system, der ændrer hvordan GPT-5.4 håndterer funktionskald via API’et. Tidligere skulle alle tilgængelige tool-definitioner lægges ind i system-prompten, hvilket brugte mange tokens, jo flere værktøjer der var tilgængelige. Med Tool Search slår modellen selv definitioner op efter behov. Det gør API-kald hurtigere og billigere i systemer med mange tilgængelige agentiske værktøjer.

For den voksende bølge af AI-agenter, der bevæger sig fra vibe coding til agentic engineering, er det en væsentlig infrastrukturforbedring. Færre tokens per kald betyder lavere latens og lavere omkostninger — begge dele kritiske for produktionsklare agentsystemer.

Sikkerhedsregressionerne, ingen taler om

Men det er ikke kun gode nyheder. OpenAI’s eget safety card for GPT-5.3 Instant viser bekymrende regressioner i sikkerhedscompliance. Sammenlignet med GPT-5.2 Instant faldt compliance med seksuelt indhold fra 92,6% til 86,6%. Grafisk vold faldt fra 85,2% til 78,1% — et fald på over 7 procentpoint. Selvskade-relateret indhold faldt fra 92,3% til 89,5%.

OpenAI forklarede, at de stoler på “systemdækkende beskyttelsesforanstaltninger i ChatGPT” fremfor modelbaserede sikkerhedsværn alene. Men det rejser et legitimt spørgsmål for API-udviklere: Hvis du bruger gpt-5.3-chat-latest via API’et uden ChatGPT’s produktbeskyttelse, er disse sikkerhedshuller så eksponerede? OpenAI har ikke adresseret dette direkte. I en tid, hvor debatten om AI-sikkerhed er mere ophedet end nogensinde, er det en bemærkelsesværdig undladelse.

Hvad det betyder for modellens levetid

GPT-5.2 Instant forbliver tilgængelig som legacy-model for betalende brugere indtil 3. juni 2026. GPT-5.2 Thinking bliver ligeledes udfaset over tre måneder. Tempoet i udskiftningen er bemærkelsesværdigt: LLM-modeller lever kortere end nogensinde, og OpenAI’s dobbeltlancering denne uge understreger tendensen.

Konkurrencen forklarer tempoet. Google lancerede Gemini 3.1 Flash-Lite samme uge. Anthropic har opdateret Claude-modellerne løbende. Og kinesiske modeller som GLM-5 presser markedet fra en helt anden vinkel. OpenAI kan ikke tillade sig at sidde stille.

Perspektiv: Fra benchmarks til brugeroplevelse

Det mest interessante ved denne uges lanceringer er signalet: OpenAI skifter fokus fra rene benchmarktal til den daglige brugeroplevelse. GPT-5.3 Instant handler om tone og tilgængelighed. GPT-5.4 handler om professionel produktivitet og effektivitet. Begge adresserer ting, som faktiske brugere klager over — ikke tal på et leaderboard.

Det er en moden tilgang fra en virksomhed, der i 2024-2025 ofte virkede besat af at toppe benchmarks. Spørgsmålet er, om sikkerhedsregressionerne er prisen for den forbedrede brugeroplevelse — og om den pris er acceptabel, når modellerne i stigende grad bruges i sundhed, jura og finans.

Kilder

Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *