LangChain Deep Agents: Open source-svar på Claude Code — med planlægning, hukommelse og subagenter

2 min read

LangChain har netop udgivet Deep Agents — et open source-framework der eksplicit er inspireret af Claude Code, men som gør konceptet modelagnostisk og fuldt åbent. Projektet blev annonceret den 15. marts 2026 og er allerede tilgængeligt via PyPI under MIT-licens. For udviklere der arbejder med AI-agenter til komplekse, flertrinskodningsopgaver, er det værd at forstå hvad Deep Agents faktisk tilbyder — og hvor det adskiller sig fra de proprietære alternativer.

Hvad er Deep Agents?

Deep Agents er det LangChain selv kalder en agent harness: en samling af forudkonfigurerede værktøjer og mønstre bygget oven på LangGraph-runtimen. I modsætning til et simpelt tool-calling loop — hvor en LLM kalder ét værktøj ad gangen og returnerer — er Deep Agents designet til opgaver der strækker sig over mange trin, producerer artefakter undervejs, og kræver at agenten holder styr på sin egen kontekst.

LangChain-teamet skriver det direkte i GitHub-repositoriet: “This project was primarily inspired by Claude Code, and initially was largely an attempt to see what made Claude Code general purpose, and make it even more so.” Det er en bemærkelsesværdig ærlig tilgang — og en der signalerer at Claude Codes arkitektur er ved at blive en de facto-standard for hvordan man bygger coding-agenter.

Planlægning, filsystem og subagenter — ud af boksen

Deep Agents kommer med tre kernefunktioner der normalt kræver custom-kode:

Planlægning via write_todos: Agenten kan nedbryde komplekse opgaver i diskrete trin, tracke fremdrift og opdatere planen efterhånden som ny information dukker op. Uden dette lag improviserer modellen typisk hvert trin fra den aktuelle prompt — hvilket fungerer for simple opgaver, men bryder sammen ved research-sessioner, refactoring eller flertrins-analyser.

Filsystem-baseret kontekststyring: I stedet for at holde alt i prompt-vinduet kan agenten skrive noter, mellemprodukter og kodeudkast til filer — og hente dem igen senere. Det er en pragmatisk løsning på et reelt problem: når kontekstvinduet fyldes op, falder kvaliteten. Deep Agents understøtter flere backend-typer (StateBackend, FilesystemBackend, LocalShellBackend m.fl.) afhængigt af deployment-scenariet.

Subagenter med kontekstisolering: Via det indbyggede task-værktøj kan hovedagenten spawne specialiserede subagenter der arbejder i deres eget kontekstvindue. Det forhindrer det velkendte problem hvor én tråd akkumulerer for mange mål, tool-outputs og midlertidige beslutninger — og modellens kvalitet styrtdykker. Hvis du har arbejdet med agenthukommelse og kontekststyring, vil dette mønster virke velkendt.

Hvorfor det er relevant for udviklere

Det interessante ved Deep Agents er ikke de individuelle features — planlægning, filhåndtering og subagenter er ikke nye koncepter. Det interessante er at de nu er samlet i ét åbent framework med fornuftige defaults.

Mange udviklere har oplevet frustrationen: Man sætter en LLM-agent op til en kompleks opgave, og den fungerer fint i de første 5-10 trin. Men derefter begynder den at “glemme” hvad den lavede, gentage sig selv, eller miste overblikket. Det er præcis det problem Deep Agents adresserer — ikke med en ny model, men med bedre scaffolding omkring modellen.

Som LangChain selv påpeger, viser SWE-Bench Pro-benchmarks at der er over 22 point forskel mellem basic og optimeret scaffolding med samme model. Claude Code scorer 80,9% på SWE-bench — ikke fordi Opus 4.6 er så meget bedre end andre modeller, men fordi harnessen (tool-brug, retry-logik, kontekststyring) er multiplikatoren. Deep Agents forsøger at demokratisere den indsigt.

I praksis betyder det at du kan installere Deep Agents med pip install deepagents, pege den mod en vilkårlig LLM med tool-calling support (GPT-4o, Claude, Gemini, open source-modeller), og få en agent der kan planlægge, læse/skrive filer, køre shell-kommandoer og delegere til subagenter — alt sammen på under 10 linjer Python:

from deepagents import create_deep_agent

agent = create_deep_agent(
    tools=[min_custom_tool],
    system_prompt="Du er en research-assistent.",
)
result = agent.invoke(
    {"messages": [{"role": "user", "content": "Analysér dette repository"}]}
)

Open source, men med forbehold

Deep Agents er MIT-licenseret og fuldt åbent — det er en klar fordel for teams der ikke vil låse sig til én leverandør. Men det er værd at bemærke at projektet stadig er nyt. Dokumentationen er grundig men fokuseret på happy-path-scenarier, og community-feedback er begrænset.

Det er også værd at påpege at Deep Agents følger en “trust the LLM”-model: agenten kan gøre alt hvad dens værktøjer tillader, inklusiv shell-adgang. Sikkerhedsmæssigt kræver det sandboxing og gennemtænkt deployment — præcis ligesom Claude Code og Codex, der begge kører med lignende tillidsmodeller.

Den mest interessante implikation er måske kulturel: Når LangChain — et af de mest brugte frameworks i AI-økosystemet — eksplicit bygger videre på Claude Codes arkitektur, cementerer det en bestemt tilgang til AI-agenter. Planlægning, filbaseret hukommelse og subagenter er ikke længere eksperimentelle features; de er baseline. For udviklere der endnu ikke har taget springet fra simple chatbot-loops til strukturerede agentworkflows, er Deep Agents et godt sted at starte.

Kilder

Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *