SchwachstellenKI-SicherheitHackerangriffe

Comment and Control: KI-Agenten von Claude, Gemini und GitHub Copilot anfällig für Prompt-Injection-Angriffe

Comment and Control: KI-Agenten von Claude, Gemini und GitHub Copilot anfällig für Prompt-Injection-Angriffe
Zusammenfassung

Sicherheitsforscher haben eine kritische Schwachstelle in populären KI-gestützten Code-Analyse- und Automatisierungstools aufgedeckt. Die als "Comment and Control" bezeichnete Angriffsmethode ermöglicht es Angreifern, KI-Agenten von Anthropic (Claude Code Security Review), Google (Gemini CLI Action) und GitHub Copilot durch manipulierte Kommentare, Pull-Request-Titel und Issue-Beschreibungen zu kapern. Die Forscher demonstrierten, wie sich diese Prompt-Injection-Attacken dazu nutzen lassen, um beliebige Befehle auszuführen, Zugangsdaten zu extrahieren und sensible Informationen offenzulegen — alles ohne Benutzerinteraktion bei der automatischen Verarbeitung durch GitHub Actions. Das Kernproblem liegt in der Architektur dieser Systeme: KI-Agenten erhalten Zugriff auf mächtige Werkzeuge wie Shell-Befehle und API-Calls sowie Zugang zu Geheimnissen wie API-Schlüsseln, während sie gleichzeitig unsichere Benutzereingaben verarbeiten. Für deutsche Unternehmen und Entwickler, die auf diese Tools setzen, bedeutet dies ein erhebliches Sicherheitsrisiko, besonders in Open-Source-Projekten mit externen Beitragenden. Die Anbieter haben die Berichte bestätigt; Anthropic stufte das Problem als kritisch ein und zahlte Bug-Bounties aus.

Die Forschung zeigt ein grundlegendes Sicherheitsproblem bei modernen KI-Agenten auf, die mit produktiven Systemen interagieren. Aonan Guan gelang es, nachzuweisen, dass alle drei untersuchten KI-Tools anfällig für denselben Angriffsvektor sind — eine bemerkenswerte Entdeckung, da sie zeigt, dass das Problem nicht produktspezifisch, sondern konzeptionell ist.

Bei Clauds Code Security Review, das für automatisierte Sicherheitsüberprüfungen entwickelt wurde, genügt ein manipulierter Pull-Request-Titel, um die KI dazu zu bringen, willkürliche Befehle auszuführen und Zugangsdaten offenzulegen. Googles Gemini CLI Action lässt sich durch speziell formatierte Issue-Kommentare umgehen, wobei Forscher es schafften, einen vollständigen API-Schlüssel zu extrahieren. GitHubs Copilot Agent konnte durch versteckte HTML-Kommentare ausgetrickst werden, um Sicherheitssysteme zu umgehen und auf Secrets zuzugreifen.

Das größte Problem liegt in der Architektur dieser Systeme: KI-Agenten erhalten mächtige Ausführungsrechte (Shell-Befehle, Git-Push, API-Aufrufe) und Zugriff auf sensitive Anmeldedaten im selben Laufzeit-Umfeld, das auch mit unzuverlässigen Eingaben umgehen muss. Selbst mehrschichtige Sicherheitsmaßnahmen auf Modell-, Prompt- und Infrastruktur-Ebene können diesen Angriffsvektor nicht vollständig blockieren, weil die Prompt-Injection nicht unbedingt ein Fehler ist — sie ist kontextuelle Information, die der Agent verarbeiten soll.

Guan betont, dass dieses Muster weit über GitHub hinausgeht: Slack-Bots, Jira-Agenten, E-Mail-Automatisierungen und Deployment-Tools sind gleichermaßen gefährdet. Alle Systeme, die unkontrollierte Eingaben mit Zugriff auf Werkzeuge und Secrets verarbeiten, sind anfällig.

Die Reaktionen der Hersteller fielen unterschiedlich aus: Anthropic stufte die Schwachstelle als kritisch ein und zahlte 100 Dollar Bug Bounty. Google zahlte 1.337 Dollar. GitHub gab nur 500 Dollar aus und bezeichnete das Problem als architektonische Einschränkung — eine Einstufung, die Sicherheitsexperten als problematisch bewerten, da sie die Notwendigkeit grundlegender Redesigns signalisiert.

Für deutsche Entwickler und Unternehmen ist dies ein Weckruf: KI-gestützte Development-Tools müssen mit größter Vorsicht in produktiven Umgebungen eingesetzt werden, besonders wenn sie automatisiert Sicherheitsüberprüfungen durchführen oder auf privilegierte Systeme zugreifen können. Bis zu angemessenen Architektur-Verbesserungen sollten solche Agents nur unter strikter Kontrolle und mit minimalen Zugriffsrechten betrieben werden.