Anthropics nye Project Glasswing er interessant af en grund, som rækker langt ud over endnu et AI-produkt med et dramatisk navn. Det er i virkeligheden et signal om, at de store AI-laboratorier nu mener, at sprogmodeller er blevet så gode til at finde og udnytte softwarefejl, at de ikke længere bør rulles bredt ud uden en defensiv plan først. Det er en markant melding, og den bør især få udviklere, open source-maintainere og sikkerhedsfolk til at spidse ører.
Anthropic lancerer Glasswing sammen med blandt andre AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA og Palo Alto Networks. Kernen i initiativet er Claude Mythos Preview, en unreleased model, som Anthropic beskriver som så stærk på kode og offensiv sikkerhedstænkning, at den allerede har fundet tusindvis af alvorlige sårbarheder, herunder fejl i alle store operativsystemer og webbrowsere. Anthropic siger samtidig direkte, at modellen ikke bliver gjort generelt tilgængelig foreløbig, netop fordi misbrugspotentialet vurderes som for højt.
Det nye er ikke bare flere AI-scannere, men en ny risikoklasse
Vi har længe haft værktøjer til statisk analyse, fuzzing, dependency scanning og automatiske security checks i CI/CD. Men Project Glasswing peger på noget mere ubehageligt og mere kraftfuldt: modeller, der kan læse store kodebaser, opdage svage punkter, kæde flere fejl sammen og i nogle tilfælde udvikle exploits næsten autonomt. Anthropic fremhæver blandt andet en 27 år gammel OpenBSD-fejl, en 16 år gammel fejl i FFmpeg og kædede Linux-kernel-sårbarheder, som modellen skulle have fundet eller operationaliseret i løbet af få uger.
Hvis det holder stik, er det ikke bare endnu et benchmark-hop. Så er vi tættere på et skifte, hvor sårbarhedsjagt ikke længere primært er begrænset af menneskelig specialisttid, men af compute, værktøjsadgang og governance. Det er præcis dér, Glasswing bliver interessant: Anthropic prøver i praksis at lave koordineret disclosure i modelskala, før de mest potente kapabiliteter slipper helt ud.
Andre ser samme historie, men med forskellige vinkler
Det interessante er, at andre, der har skrevet om lanceringen, ikke helt læser den på samme måde. Simon Willison køber grundlæggende præmissen om tilbageholdelse: hvis Mythos virkelig er så god til exploit-udvikling og kædning af sårbarheder, giver det mening at begrænse adgangen og give forsvarere et forspring. Hans vinkel er pragmatisk og teknisk: der er nu så meget røg omkring AI-drevet vulnerability research, at det er svært at tro, at der ikke er ild.
The Verge lægger mere vægt på magtbalancen og den operative konsekvens: at store virksomheder og potentielt myndigheder får adgang til en model, der kan analysere og forbedre egne systemer i stor skala, mens resten af markedet må vente. Det gør Glasswing til mere end en sikkerhedsfortælling, for det handler også om adgang til en ny type defensiv infrastruktur.
WIRED trækker en tredje vinkel frem, som jeg synes er vigtig: Projektet er i sig selv et signal om, at moderne sikkerhedsprincipper kan være på vej til at knække under vægten af næste generation af AI-kapabiliteter. Hvis det bliver normalt, at modeller kan finde exploit-kæder hurtigere end mennesker kan patche, så skal både disclosure-processer, prioritering, patching og softwareudvikling ændres.
Hvad betyder Project Glasswing for udviklere i praksis?
For almindelige udviklingsteams betyder Project Glasswing ikke, at man i morgen får adgang til Claude Mythos Preview. Men det betyder, at man bør forberede sig på en verden, hvor både forsvarere og angribere får langt mere automatiseret hjælp til at læse, forstå og misbruge software. Det flytter fokus fra “har vi en security scan i pipelinen?” til “kan vores udviklingsproces overleve, at en angriber får en model, der er bedre end de fleste mennesker til at finde kæder af fejl?”
- Patch-tempo bliver vigtigere: Tiden mellem fund og misbrug kan falde dramatisk.
- Ældre kode bliver farligere: Gamle C/C++-komponenter og historisk bagage bliver mere attraktive mål.
- Open source får nyt pres: Maintainers kan få bedre værktøjer, men også langt flere rapporter og langt højere forventninger.
- Secure-by-design bliver dyrt at ignorere: Threat modeling, memory safety og reduceret angrebsflade bliver ikke kun “nice to have”.
Netop derfor er donationsdelen i Glasswing også vigtig. Anthropic afsætter op til 100 millioner dollar i modelkreditter og 4 millioner dollar i direkte donationer til open source-sikkerhedsorganisationer. Det lyder generøst, men det er også en indrømmelse af, at hvis infrastrukturen under nettet skal overleve presset fra AI-drevet vulnerability research, så er det ikke nok at give Fortune 500-virksomheder nye værktøjer. Man må også styrke de maintainere, som sidder med de komponenter alle andre bygger på.
Min vurdering er derfor, at Glasswing ikke først og fremmest er en produktnyhed. Det er en governance-nyhed. Anthropic siger i praksis, at frontier-modeller er på vej ind i en kategori, hvor “ship fast and iterate” ikke længere er en ansvarlig standard. Hvis den vurdering er rigtig, vil konkurrenter som OpenAI, Google og andre blive presset til at formulere deres egne modeller for begrænset adgang, defensiv prioritering og ansvarlig udrulning. Og hvis den vurdering er forkert, vil Glasswing ligne et meget elegant stykke strategisk positionering. Uanset hvad er det en historie, udviklere bør følge tæt.
Det ligger også fint i forlængelse af den bredere udvikling, hvor AI ikke kun måles på, om den kan skrive kode hurtigere, men på om den ændrer selve kontrolmekanismerne omkring software. Det var også en del af pointen i mit tidligere indlæg om Codex plugin til Claude Code, hvor den centrale idé var cross-provider review som nyt lag i workflowet. Her er Glasswing den samme bevægelse, bare på sikkerheds- og infrastruktursiden.
Kilder
- Project Glasswing: Securing critical software for the AI era — Anthropic, april 2026
- Anthropic’s Project Glasswing—restricting Claude Mythos to security researchers—sounds necessary to me — Simon Willison, 7. april 2026
- A new Anthropic model found security problems ‘in every major operating system and web browser’ — The Verge, 7. april 2026
- Anthropic Teams Up With Its Rivals to Keep AI From Hacking Everything — WIRED, 7. april 2026
Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂