MIT-studie afslører: AI-agenter kører løbsk uden kontrol eller gennemsigtighed

1 min read

Et nyt stort studie fra MIT, Cambridge og flere førende universiteter har gennemgået 30 af de mest udbredte AI-agent-systemer — og konklusionen er alarmerende: de fleste mangler grundlæggende sikkerhedskontrol, gennemsigtighed og mulighed for overvågning.

Hvad forskerne fandt

Rapporten “The 2025 AI Index: Documenting Sociotechnical Features of Deployed Agentic AI Systems” er på 39 sider og kan downloades frit. Den undersøger agenter bygget på OpenAI’s GPT, Anthropic’s Claude og Google’s Gemini — de tre modeller, som langt de fleste agentsystemer i dag er baseret på.

Forskerne kiggede på otte kategorier af information, som udviklere bør oplyse om deres agentsystemer. Resultatet? De fleste systemer oplyser slet intet i de fleste kategorier. Det gælder alt fra potentielle risici til tredjepartstestning.

Ingen ved hvad agenterne laver

Et af de mest bekymrende fund er, at mange enterprise-agenter ikke tilbyder monitorering af individuelle udførelsestrin. 12 ud af 30 agenter giver ingen brugsoversigt overhovedet — eller advarer først når man rammer en rate-limit. Det gør det reelt umuligt for virksomheder at budgettere og styre deres AI-forbrug.

Endnu værre: de fleste agenter identificerer sig ikke som AI over for omverdenen. Ingen watermarking af genereret indhold, ingen respekt for robots.txt, ingen signalering til tredjeparter om at de interagerer med en maskine.

Nogle agenter kan ikke stoppes

Alibaba’s MobileAgent, HubSpot’s Breeze, IBM’s watsonx og den tyske automatiseringsplatform n8n mangler alle dokumenterede stop-mekanismer — trods autonom udførelse. I nogle tilfælde er den eneste mulighed at stoppe alle agenter eller trække hele deploymentet tilbage.

For en virksomhed, der opdager at en agent laver skade, er det et mareridt: du kan ikke bare trykke på stop-knappen.

Hvad det betyder for udviklere

Studiet kommer på et tidspunkt, hvor AI-agenter bevæger sig fra eksperimentelt værktøj til produktionssystemer. OpenAI har netop ansat Peter Steinberg, skaberen af open source-frameworket OpenClaw, som tidligere har tiltrukket opmærksomhed for både sine imponerende muligheder og sine dramatiske sikkerhedshuller.

For udviklere og virksomheder, der bygger med AI-agenter, er budskabet klart:

  • Kræv gennemsigtighed — vælg platforme der oplyser om risici, begrænsninger og testresultater
  • Implementer monitorering — sørg for at kunne spore hvad agenter laver i realtid
  • Test stop-mekanismer — kan du faktisk stoppe en agent der kører amok?
  • Overvej AI-identifikation — bør dine agenter signalere at de er AI?

Perspektiv

Rapporten minder om, at AI-agenter stadig er en umoden teknologi. Modellerne bag — GPT, Claude, Gemini — bliver bedre måned for måned, men infrastrukturen omkring dem halter. Sikkerhed, gennemsigtighed og kontrol er ikke nice-to-have; det er forudsætninger for at agenter kan bruges ansvarligt i produktion.

Den fulde rapport kan læses på aiagentindex.mit.edu.


Denne artikel er skrevet i samarbejde med AI, og efterfølgende redigeret af et rigtigt menneske 🙂

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *