Mit der zunehmenden Verbreitung von autonomen KI-Agenten, die koordiniert zusammenarbeiten, entstehen erhebliche neue Sicherheitsrisiken wie Credential-Sprawl und erhöhte Angriffsflächen, die Unternehmen durch strikte Zugriffskontrolle und Überwachung eindämmen müssen.
Die sich schnell entwickelnde KI-Landschaft führt dazu, dass mehrere Sprachmodelle und Agenten zunehmend miteinander interagieren müssen. Diese Form der “Schwarm”-Orchestrierung bringt eine Vielzahl zusätzlicher Sicherheitsherausforderungen mit sich, die gelöst werden müssen, um die Integrität der Unternehmensicherheit zu wahren.
Autonome KI-Agenten sind längst ein fester Bestandteil von LLM-gestützten Geschäftsprozessen geworden. Diese selbstständig arbeitenden Systeme werden für Datenanalysen, Build-Automatisierung, Softwareentwicklung und viele weitere Anwendungen eingesetzt. Mit der wachsenden Akzeptanz dieser Technologie ist es nur eine Frage der Zeit, bis mehrere Agenten für verschiedene Aufgaben miteinander kommunizieren.
Diese Risiken verschärfen sich durch Open-Source-Lösungen wie OpenClaw (auch bekannt als MoltBot). Um diese Herausforderungen zu bewältigen, entstehen spezialisierte Orchestrierungsprodukte wie GitHub’s Agent HQ für die Softwareentwicklung, die Features wie Code-Reviews und zentrale Steuerkonsolen für mehrere Agenten bieten. Auch Anbieter wie Zapier und IBM haben Orchestrierungs-Tools für verschiedene Anwendungsszenarien entwickelt.
Roey Eliyahu, CEO von Salt Security, warnt: Während die Agent-Orchestrierung parallele Aufgabenbearbeitung ermöglicht, führt sie zu erheblichen Sicherheitsrisiken wie Credential-Sprawl und über-privilegiertem Zugriff auf Tools. “Multi-Agent-Orchestrierung ist mächtig, weil sie Arbeiten parallelisiert – aber auch Risiken parallelisiert”, erklärt Eliyahu. “Die Sicherheitsaufgabe besteht darin, jeden Agenten eng begrenzt zu halten, intensiv zu überwachen und von hochriskanten Aktionen ohne explizite Genehmigung abzuhalten.”
KI-Agenten benötigen menschliche Rechte und Zugriffe – einschließlich Token und Credentials für Server und Tools – oft mit erheblichen Berechtigungen. Da Sprachmodelle anfällig für Prompt-Injection sind, stellt jede Integration eine weitere Gelegenheit dar, sensible Daten preiszugeben. Besonders problematisch ist, dass Agenten große Mengen Output in kurzer Zeit generieren können. Ohne angemessene Überwachung können so Secrets in Logs landen oder Fehler häufen sich.
Beim sogenannten “Swarm Coding” – dem gleichzeitigen Einsatz mehrerer Agenten zum Schreiben, Debuggen und Testen von Code – potenzieren sich diese Risiken drastisch. Ram Varadarajan von Acalvio warnt vor der entstehenden “Trust Cascade”: Die Kompromittierung eines einzigen Agenten könnte zur Kompromittierung der gesamten Pipeline führen.
Die Lösung liegt in bewährten Sicherheitspraktiken: vollständige Inventarisierung aller Agenten und Orchestrierungstools, strikte Zugriffskontrolle nach dem Least-Privilege-Prinzip und Isolation der Agenten in separate Ausführungsumgebungen. Eliyahu empfiehlt kurzlebige Credentials, keine gemeinsamen Tokens und eine explizite Whitelist-Strategie. Kritische Aktionen sollten weiterhin von Menschen freigegeben werden.
Collin Chapleau von Darktrace betont die zentrale Bedeutung von Transparenz: “Die Grundlage ist Sichtbarkeit – zu wissen, was jeder Agent tut, und zu erkennen, wenn er von seinem Zweck abweicht.” Dies umfasst Logging, Risikoanalyse von Prompts, Verständnis der Zugriffsgrenzen und Monitoring auf unerwartete Verhaltensweisen.
Rich Mogull von der Cloud Security Alliance hingegen sieht die Risiken differenzierter: Parallele Agenten führten nicht zwangsläufig zu neuen Sicherheitsproblemen – richtig implementiert könnten sie sogar Risiken reduzieren. Seine Empfehlung an Unternehmen ist klar: “Standardisiert auf einer Enterprise-fähigen Plattform und versucht nicht, eure eigenen KI-Agenten von Grund auf zu bauen.”
Quelle: Dark Reading