Anthropic har med lanceringen af Claude Opus 4.6 den 5. februar 2026 demonstreret noget, der kan ændre cybersecurity-landskabet fundamentalt: Modellen har fundet over 500 hidtil ukendte zero-day sårbarheder i open source-kode — helt uden specialiserede instruktioner eller custom tooling.
Hvad skete der?
Anthropics Frontier Red Team placerede Opus 4.6 i et sandboxed VM-miljø med adgang til standard udviklingsværktøjer og Python. Ingen specialinstruktioner. Ingen forudindlæst viden om specifikke sårbarheder. Bare “out-of-the-box” capabilities.
Resultatet? Over 500 validerede zero-day vulnerabilities i kritisk open source-infrastruktur. Hver eneste blev verificeret af enten Anthropics team eller eksterne sikkerhedsforskere.
Tre bemærkelsesværdige fund
GhostScript: Git History som angrebsvektor
Da fuzzing og manuel analyse ikke gav resultater i GhostScript (en udbredt PostScript/PDF-processor), skiftede Claude strategi og analyserede projektets Git commit-historik. Modellen identificerede et commit relateret til stack bounds checking for font-håndtering og ræsonnerede: “Hvis bounds checking blev tilføjet her, var koden før det commit sårbar.” Claude fandt derefter tilsvarende upatched vulnerabilities i andre code paths — specifikt en funktion i gdevpsfx.c der manglede den bounds checking, som var blevet tilføjet andetsteds.
OpenSC: Klassisk buffer overflow i smart card-kode
For OpenSC, et smart card data processing-værktøj, identificerede Claude multiple strcat-operationer der konkatenerede strenge uden korrekt længdevalidering. Modellen forstod at en 4096-byte buffer kunne overflowe under specifikke betingelser. Traditionelle fuzzere havde sjældent testet denne code path på grund af dens mange preconditions — men Claude fokuserede direkte på det sårbare fragment.
CGIF: Deep algorithmic reasoning
Det mest imponerende fund var i CGIF-biblioteket. Claude opdagede en sårbarhed der krævede dyb forståelse af LZW-komprimeringsalgoritmen brugt i GIF-filer. Modellen gennemskuede at CGIF antog, at komprimeret data altid ville være mindre end originalen — normalt en sikker antagelse. Men Claude konstruerede en proof-of-concept der bevidst maxede LZW symbol-tabellen for at fremtvinge “clear” tokens, hvilket udløste en buffer overflow.
Denne sårbarhed er særlig signifikant fordi selv 100% line- og branch coverage fra traditionel testing ikke ville have opdaget den. Den kræver en meget specifik sekvens af operationer der forudsætter konceptuel forståelse af algoritmen.
Hvorfor det betyder noget for udviklere
Traditionel fuzzing bombarderer kode med tilfældige inputs. Claude Opus 4.6 bruger derimod menneskelignende ræsonnering: den læser Git commit-historik, analyserer kodemønstre og forstår programmeringslogik for at konstruere målrettede exploits. I test mod nogle af de mest intensivt fuzzede codebases — projekter med millioner af CPU-timer investeret i automatiseret test — fandt Claude high-severity vulnerabilities der havde været skjult i årtier.
Logan Graham, leder af Anthropics Frontier Red Team, udtaler: “Jeg ville ikke blive overrasket, hvis dette bliver en af — eller den primære måde — open source-software sikres i fremtiden.”
Implikationer for agentic engineering
For dem der arbejder med agentic coding og AI-assisteret udvikling, er der flere takeaways:
- Security-as-a-capability: AI-modeller er ikke længere kun code completion — de er aktive sikkerhedsauditører der kan finde bugs ingen fuzzer ville opdage.
- Git history som kontekst: Claudes tilgang med at analysere commit-historik viser værdien af at give AI-agenter adgang til hele projektets kontekst, ikke bare den aktuelle kodebase.
- Adaptive thinking: Opus 4.6 introducerer fire effort-niveauer (Low, Medium, High, Max), så man kan balancere cost vs. thoroughness i security-scanning.
- Agent Teams i Claude Code: Med
CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1kan man spinne multiple subagents op der arbejder parallelt — relevant for at scanne store codebases systematisk.
De hårde tal
Opus 4.6 scorer 65.4% på Terminal-Bench 2.0 (den højeste score nogen model har opnået i agentic coding evaluation), 76% på MRCR v2 med 1M token context, og 1.606 Elo på GDPval-AA — 144 Elo-point foran GPT-5.2 i enterprise-tasks.
Anthropic har tilføjet seks nye cybersecurity-probes for at detektere potentielt skadelig brug af disse capabilities, og planlægger real-time interventioner mod misbrug.