SchwachstellenCyberkriminalitätKI-Sicherheit

KI-Coding-Tools durchbrechen die Endpoint-Sicherheit: Forscher warnt vor neuem Angriffsvektor

KI-Coding-Tools durchbrechen die Endpoint-Sicherheit: Forscher warnt vor neuem Angriffsvektor
Zusammenfassung

# KI-gestützte Coding-Tools gefährden Endpoint-Sicherheit massiv Forscher der Cybersecurity-Firma Check Point haben auf der RSA Conference 2026 alarmierende Sicherheitslücken in populären KI-Coding-Assistenten wie Claude Code, OpenAI's Codex und Google's Gemini offengelegt. Das zentrale Problem: Diese Tools erhalten umfangreiche Berechtigungen auf lokalen Systemen von Entwicklern und können dadurch die aufwendig errichteten Schutzmechanismen der letzten zwei Jahrzehnte durchbrechen. Die Forschung zeigt, dass Angreifer über Konfigurationsdateien wie .json, .env oder .toml Dateien – die Nutzer oft sorglos behandeln – bösartige Befehle einschleusen können, ohne dass Sicherheitssoftware dies erkennt. Für Deutschland und europäische Unternehmen bedeutet dies erhebliche Risiken: Da viele deutsche Tech-Unternehmen und Behörden zunehmend KI-Coding-Tools einsetzen, entstehen neue Einfallstore für Cyberangriffe. Entwickler könnten unwissentlich als Eintrittspunkt für Ransomware oder Datendiebstahl dienen. Besonders kritisch ist dies für die deutschen Industrie und öffentliche Institutionen, die strenge Compliance-Anforderungen erfüllen müssen und nun ihre Sicherheitsstrategien grundlegend überdenken müssen.

Die Cybersicherheitsbranche hat jahrzehntelang daran gearbeitet, Endpoint-Sicherheit zu verbessern: Von Betriebssystem-Härtung über Sandboxes bis zu Endpoint Detection and Response (EDR) Systemen und Browser-Isolation. Doch genau diese Fortschritte werden nach Aussage von Vanunu durch KI-Coding-Assistenten zunichte gemacht. Das Kernproblem liegt in den Zugriffsrechten: Entwickler gewähren diesen Tools oft höchste Privilegien und breiten Netzwerkzugriff, um sie produktiv zu nutzen. Die KI-Agenten benötigen Zugriff auf lokale Dateisysteme und Konfigurationen – und genau hier entsteht die Sicherheitslücke.

“Im Moment sind alle Sicherheitsprodukte blind”, erklärt Vanunu gegenüber Dark Reading. “Sie können nicht wirklich verstehen oder kontrollieren, was die agentenbasierte KI tut.” Das ist besonders problematisch, weil Sicherheitssysteme automatisierte, hochprivilegierte Prozesse kaum monitoren können.

Ein zweites kritisches Problem: KI-Tools behandeln Konfigurationsdateien als aktive Ausführungsanweisungen. Während Entwickler vorsichtig mit .exe-Dateien umgehen, sind sie bei .json, .env oder .toml Dateien deutlich sorgloser. Angreifer können einfach eine harmlos aussehende Textzeile in die Konfigurationsmetadaten einbetten, die den KI-Agent veranlasst, malicious Commands auszuführen. “Angreifer müssen nicht einmal Malware schreiben”, so Vanunu. “Sie können einfach Konfigurationsdateien nutzen.”

Die Forschungsergebnisse zeigen konkrete Verwundbarkeiten: CVE-2025-59536 in Claude Code ermöglicht es, Hooks auszuführen, bevor der Benutzer dem Vertrauensdialog zustimmt. CVE-2025-61260 in OpenAI Codex CLI erlaubt Code-Injection durch .env-Dateien. CVE-2025-54136 in Cursor ermöglicht “Swap Attacks”, bei denen Angreifer genehmigte Befehle nach ihrer Freigabe durch bösartigen Code ersetzen. Auch Google Gemini CLI ist betroffen.

Vanunu betont, dass Entwickler die “neue Sicherheitsgrenze” sind. Seine Empfehlungen: Organisationen sollten alle eingesetzten KI-Tools inventarisieren, Konfigurationsdateien auf verdächtige Inhalte prüfen, KI-Tools isolieren und Sandbox-Ausführung erzwingen. Entscheidend ist eine “Configuration = Code”-Richtlinie, die Entwickler-Workstations wie Zero-Trust-Umgebungen behandelt.

Deutsche Unternehmen sollten diese Erkenntnisse ernst nehmen: Mit zunehmender Adoption von KI-Coding-Tools in Entwicklungsteams wächst auch das Risiko. Eine sofortige Überprüfung der eigenen Sicherheitsarchitektur in Bezug auf KI-Tools ist notwendig.