Die Cybersicherheitsbranche hat jahrzehntelang daran gearbeitet, Endpoint-Sicherheit zu verbessern: Von Betriebssystem-Härtung über Sandboxes bis zu Endpoint Detection and Response (EDR) Systemen und Browser-Isolation. Doch genau diese Fortschritte werden nach Aussage von Vanunu durch KI-Coding-Assistenten zunichte gemacht. Das Kernproblem liegt in den Zugriffsrechten: Entwickler gewähren diesen Tools oft höchste Privilegien und breiten Netzwerkzugriff, um sie produktiv zu nutzen. Die KI-Agenten benötigen Zugriff auf lokale Dateisysteme und Konfigurationen – und genau hier entsteht die Sicherheitslücke.
“Im Moment sind alle Sicherheitsprodukte blind”, erklärt Vanunu gegenüber Dark Reading. “Sie können nicht wirklich verstehen oder kontrollieren, was die agentenbasierte KI tut.” Das ist besonders problematisch, weil Sicherheitssysteme automatisierte, hochprivilegierte Prozesse kaum monitoren können.
Ein zweites kritisches Problem: KI-Tools behandeln Konfigurationsdateien als aktive Ausführungsanweisungen. Während Entwickler vorsichtig mit .exe-Dateien umgehen, sind sie bei .json, .env oder .toml Dateien deutlich sorgloser. Angreifer können einfach eine harmlos aussehende Textzeile in die Konfigurationsmetadaten einbetten, die den KI-Agent veranlasst, malicious Commands auszuführen. “Angreifer müssen nicht einmal Malware schreiben”, so Vanunu. “Sie können einfach Konfigurationsdateien nutzen.”
Die Forschungsergebnisse zeigen konkrete Verwundbarkeiten: CVE-2025-59536 in Claude Code ermöglicht es, Hooks auszuführen, bevor der Benutzer dem Vertrauensdialog zustimmt. CVE-2025-61260 in OpenAI Codex CLI erlaubt Code-Injection durch .env-Dateien. CVE-2025-54136 in Cursor ermöglicht “Swap Attacks”, bei denen Angreifer genehmigte Befehle nach ihrer Freigabe durch bösartigen Code ersetzen. Auch Google Gemini CLI ist betroffen.
Vanunu betont, dass Entwickler die “neue Sicherheitsgrenze” sind. Seine Empfehlungen: Organisationen sollten alle eingesetzten KI-Tools inventarisieren, Konfigurationsdateien auf verdächtige Inhalte prüfen, KI-Tools isolieren und Sandbox-Ausführung erzwingen. Entscheidend ist eine “Configuration = Code”-Richtlinie, die Entwickler-Workstations wie Zero-Trust-Umgebungen behandelt.
Deutsche Unternehmen sollten diese Erkenntnisse ernst nehmen: Mit zunehmender Adoption von KI-Coding-Tools in Entwicklungsteams wächst auch das Risiko. Eine sofortige Überprüfung der eigenen Sicherheitsarchitektur in Bezug auf KI-Tools ist notwendig.
