Claude Code Review: Anthropic sender et hold af AI-agenter til at finde bugs i dine pull requests

3 min read

Den 9. marts 2026 lancerede Anthropic Code Review — et multi-agent code review-system bygget ind i Claude Code, der automatisk analyserer pull requests for fejl, som menneskelige reviewere ofte overser. Produktet er tilgængeligt i research preview for Team- og Enterprise-kunder, og det markerer et skifte i, hvordan AI-assisteret kodegennemgang kan fungere i praksis.

Hvor de fleste AI-baserede code review-værktøjer fokuserer på hurtig, overfladisk feedback, går Claude Code Review den modsatte vej: dybde frem for hastighed. Og det er hverken billigt eller hurtigt — men det er tilsyneladende effektivt.

Sådan fungerer multi-agent code review

Når en udvikler åbner en pull request, sender Code Review et team af AI-agenter af sted — parallelt. Hver agent analyserer koden fra et bestemt perspektiv. Derefter krydstjekker agenterne hinandens resultater for at filtrere falske positiver fra, og en endelig agent rangerer de fundne problemer efter alvorlighed. Resultatet lander som én samlet kommentar på PR’en plus inline-annotationer ved specifikke bugs.

Systemet skalerer dynamisk: store, komplekse pull requests får flere agenter og en dybere gennemgang, mens trivielle ændringer håndteres med en lettere scanning. Ifølge Anthropic tager et gennemsnitligt review cirka 20 minutter — langt langsommere end den næsten øjeblikkelige feedback fra værktøjer som GitHub Copilots indbyggede review, men det er bevidst.

Dét, Code Review ikke gør, er at godkende pull requests. Den beslutning forbliver hos mennesker. Systemet fungerer som en forstærker — det finder problemerne, så revieweren kan fokusere på arkitektur og design fremfor at jage logiske fejl i diffs.

Tal fra Anthropics egen brug

Anthropic har brugt systemet internt i flere måneder, og tallene er bemærkelsesværdige. Kodeoutput per ingeniør er vokset 200% det seneste år — primært drevet af AI-assisteret kodning med Claude Code. Før Code Review fik kun 16% af Anthropics interne PR’er substantielle review-kommentarer. Med Code Review er tallet steget til 54%.

På store PR’er med over 1.000 ændrede linjer finder systemet problemer i 84% af tilfældene, med et gennemsnit på 7,5 fundne issues. På små PR’er under 50 linjer falder det til 31% med gennemsnitligt 0,5 issues. Og under 1% af de fundne problemer markeres som forkerte af udviklerne.

I ét konkret tilfælde flagede Code Review en tilsyneladende uskyldig en-linje ændring som kritisk — ændringen ville have brudt autentificeringen for en produktionsservice. Det er præcis den type fejl, der er let at overse i en hurtig diff-gennemgang, men oplagt når den først er påpeget. Og i et open source-projekt fra TrueNAS fandt systemet en præeksisterende type-mismatch-bug i tilstødende kode, som tavst slettede en krypteringsnøgle-cache ved hver synkronisering.

Prisen: 15-25 dollars per review — og debatten raser

Her kommer den kontroversielle del. Code Review faktureres baseret på token-forbrug og koster i gennemsnit 15-25 dollars per review, skalerende med PR-størrelse og kompleksitet. Det er markant dyrere end lettere alternativer som Claude Code GitHub Action, som forbliver open source og gratis at bruge.

Reaktionerne fra udviklermiljøet har været blandede. Softwareingeniør Jean P.D. Meijer spurgte på X: “Hvordan kan Claude Code Review koste 15-25 dollars per PR?! Ét review koster stort set det samme som et ubegrænset abonnement på de fleste code review-apps.” En anden udvikler, Karan Kendre, stillede det logiske spørgsmål: “Hvis Claude Code kan skrive ren kode i et codebase, hvorfor kan den så ikke gøre det fra starten?”

Andre ser det som en direkte trussel mod seniorudvikleres rolle. En udvikler skrev: “Claude har sat en prisseddel på din seniorudvikler. $15-25 per code review. De folk, der beskytter deres $200K-lønninger ved at gatekeepe code reviews, er ved at få et meget dårligt kvartal.” Det er en provokerende påstand, men den rammer en nerve i en branche, der i forvejen diskuterer, hvad der sker med erfarne udvikleres roller, når AI tager mere og mere af det daglige kodningsarbejde.

Hvad betyder det i praksis for udviklere?

For enterprise-teams med høj PR-volumen er Code Review potentielt en game-changer. Når Claude Code alene har genereret en annualiseret omsætning på 2,5 milliarder dollars for Anthropic, er der åbenlyst et massivt markedspress for at løse den flaskehals, som al den AI-genererede kode skaber i review-processen. Virksomheder som Uber, Salesforce og Accenture er ifølge Anthropic allerede i målgruppen.

Administratorer kan kontrollere omkostningerne via månedlige organisatoriske lofter, repository-niveau kontrol, og et analytics-dashboard til at tracke PR’er, accept-rate og samlede review-omkostninger. Det er ikke et “slå til og glem det”-produkt — det kræver bevidst governance, ligesom Anthropics Agent Teams-tilgang generelt gør.

For mindre teams og individuelle udviklere er prisen dog svær at retfærdiggøre. Her er den gratis Claude Code GitHub Action eller et alternativ som OpenAI Codex’ code review sandsynligvis mere realistisk. Det interessante spørgsmål er, om priserne vil falde over tid i takt med, at konkurrencen skærpes — for som investor Chamath Palihapitiya bemærkede, er de stigende token-omkostninger ved AI-kodningsværktøjer allerede ved at få virksomheder til at genoverveje deres forbrug.

Uanset prisdebatten er Code Review et konkret eksempel på, hvor AI-agenter bevæger sig hen i softwareudvikling: fra “skriv kode for mig” til “hjælp mig med at sikre kvaliteten af al den kode, der bliver skrevet.” Det er en modnere og mere realistisk anvendelse af AI — og et tegn på, at vi er ved at komme forbi hype-fasen og ind i den fase, hvor AI skal bevise, at det faktisk fanger de bugs, mennesker overser.

Kilder

Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *