Google afslører: Flere AI-agenter er ikke altid bedre — ny forskning sætter tal på multi-agent-skalering

2 min read

Myten om at «flere AI-agenter altid er bedre» har længe været en udbredt antagelse i AI-verdenen. Nu har forskere fra Google Research, Google DeepMind og MIT offentliggjort en banebrydende undersøgelse, der udfordrer netop den forestilling — og erstatter mavefornemmelse med kvantitative principper for, hvordan multi-agent-systemer bør designes.

180 konfigurationer, én klar konklusion

Forskningsholdet testede systematisk 180 forskellige agent-konfigurationer på tværs af fire domæner: finansiel analyse, webnavigation, planlægning og værktøjsbrug. Resultatet er en prædiktiv model, der med 87 procents nøjagtighed kan forudsige den optimale koordineringsstrategi for en given opgave — baseret på målbare egenskaber som antal værktøjer og opgavens dekomponerbarhed.

Rapporten, “Towards a Science of Scaling Agent Systems”, definerer fem arkitekturer: single-agent (SAS), uafhængige parallelle agenter, centraliseret orkestrering med en hub-agent, decentraliseret peer-to-peer, og hybrid-modeller der kombinerer hierarkisk kontrol med fleksibel koordinering.

Tre dominerende effekter

Undersøgelsen afdækkede tre centrale mekanismer, som bør guide enhver arkitekturbeslutning i agentic engineering:

1. Tool-coordination trade-off: Opgaver, der kræver mange værktøjer (fx en kodningsagent med 16+ tools), lider uforholdmæssigt under multi-agent overhead. Koordineringsomkostningerne æder den ekstra kapacitet, som flere agenter burde bringe. Det er en vigtig indsigt for alle, der bygger komplekse agent-pipelines.

2. Capability saturation: At tilføje flere agenter giver faldende udbytte, når den enkelte agents baseline-performance allerede er over en vis tærskel. Smarte modeller som Gemini, Claude eller GPT kan altså nå et punkt, hvor ekstra agenter simpelthen ikke bidrager med mere.

3. Topology-dependent error amplification: Uafhængige agenter (der arbejder parallelt uden kommunikation) forstærkede fejl med faktor 17,2x. Centraliseret orkestrering reducerede det til 4,4x — orkestratoren fungerer som et «valideringsflaskehals», der fanger fejl, før de spreder sig.

Parallelle opgaver vinder — sekventielle taber

De mest slående resultater handler om opgavetype. På paralleliserbare opgaver som finansiel analyse — hvor separate agenter kan analysere omsætningstendenser, omkostningsstrukturer og markedssammenligninger simultant — forbedrede centraliseret koordinering præstationen med hele 80,9 procent sammenlignet med en enkelt agent.

Omvendt degraderede alle multi-agent-varianter præstationen med 39-70 procent på opgaver, der kræver streng sekventiel ræsonnering. Her fragmenterer kommunikationsoverheadet ræsonneringsprocessen og efterlader for lidt «kognitivt budget» til selve opgaven. Det er en direkte advarsel til dem, der tror, at man bare kan smide flere agenter efter ethvert problem — som vi så med 16 AI-agenter der byggede en C-compiler, hvor opgavens karakter var afgørende for succesen.

Praktiske implikationer for udviklere

Googles forskning peger på et paradigmeskift: Fra «lad os bare tilføje flere agenter» til evidensbaserede arkitekturbeslutninger. Konkret anbefaler forskerne:

  • Analysér opgaven først: Er den paralleliserbar eller sekventiel? Hvor mange værktøjer kræves?
  • Centraliseret orkestrering er sikrere og mere forudsigelig — særligt når fejlhåndtering er kritisk.
  • Decentraliseret peer-to-peer fungerer bedre til webnavigation og lignende opgaver med høj grad af autonomi.
  • Undgå multi-agent-overhead på sekventielle ræsonneringsopgaver — en enkelt, kraftig agent klarer sig ofte bedst.

Den prædiktive model (R² = 0,513) er ikke perfekt, men den er et konkret ingeniørværktøj, der gør det muligt at træffe dataunderbyggede beslutninger om agentarkitektur — i stedet for at stole på intuition eller AI-hype.

Som Google selv formulerer det: «Smarte modeller erstatter ikke behovet for multi-agent-systemer — de accelererer det, men kun når arkitekturen er rigtig.» Det er en nuanceret pointe, der fortjener at synke ind hos alle, der arbejder med multi-agent AI-systemer i 2026.

Kilder

Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *