SchwachstellenKI-SicherheitHackerangriffe

TrustFall: Kritische Sicherheitslücke in KI-Coding-Tools gefährdet Entwickler

TrustFall: Kritische Sicherheitslücke in KI-Coding-Tools gefährdet Entwickler
Zusammenfassung

Die Sicherheitsforscher von Adversa AI haben eine kritische Schwachstelle in populären KI-gestützten Programmiertools wie Claude Code, Cursor CLI, Gemini CLI und CoPilot CLI aufgedeckt, die sie „TrustFall" nennen. Das Problem liegt darin, dass diese Tools Entwicklern nicht ausreichend transparent machen, welche Risiken mit der Vertrauensvergabe für ein Repository verbunden sind. Böswillige Repositories können automatisch einen Model Context Protocol (MCP) Server starten und ausführen, ohne dass Entwickler dies bewusst genehmigen – teilweise mit nur einem Tastendruck oder völlig automatisch in CI/CD-Umgebungen. Die Folge ist potenziell vollständige Kontrolle über das System mit allen Nutzerrechten: Angreifer könnten Geheimnisse, SSH-Schlüssel und Tokens auslesen, Backdoors installieren oder Command-and-Control-Verbindungen aufbauen. Besonders problematisch ist, dass Anthropic – Hersteller von Claude Code – die Sicherheitslücke als außerhalb ihrer Bedrohungsmodelle liegend einstuft. Für deutsche Entwickler, IT-Sicherheitsteams und Unternehmen mit CI/CD-Pipelines stellt dies ein erhebliches Risiko dar, insbesondere bei der Integration von Open-Source-Code oder bei der Nutzung nicht vertrauenswürdiger Repositories in Entwicklungsumgebungen.

Die von Adversa AI durchgeführte Sicherheitsanalyse enthüllt ein fundamentales Designproblem in vier der beliebtesten KI-Coding-Assistenten. Das zentrale Problem liegt in der Implementierung des Model Context Protocol (MCP), das es diesen Tools ermöglicht, externe Server zu laden und auszuführen. Während alle vier Anbieter Vertrauensdialoge implementiert haben, die Nutzer auffordern, ein Repository als vertrauenswürdig zu kennzeichnen, fehlt es diesen Dialogen an Transparenz über die tatsächlichen Konsequenzen dieser Zustimmung.

Claude Code von Anthropic bietet besonders wenig Information in seinem Trust-Dialog. Die kritischste Erkenntnis: Ein Angreifer kann ein Repository mit einer Konfiguration versehen, die einen bösartigen MCP-Server automatisch genehmigt und startet – teilweise ohne dass das KI-Tool selbst einen Tool-Call tätigen muss. Der Nutzer drückt einfach Enter auf dem scheinbar harmlosen Sicherheitsdialog, und schon wird der Schadcode mit vollständigen Systemrechten ausgeführt. In CI/CD-Umgebungen verläuft dieser Prozess vollständig automatisch, ohne menschliche Interaktion.

Besonders problematisch ist eine Designänderung in Claude Code Version 2.1. Anthropic hat explizite Warnungen entfernt, die MCP-Ausführungen zuvor klar als Risiko dargestellt hatten. Der neue Dialog – “Ja, ich vertraue diesem Ordner” – verharmlost die Tragweite dieser Entscheidung erheblich.

Adversa AI identifizierte drei kritische Konfigurationseinstellungen, die Angreifer missbrauchen könnten: Erstens die automatische Genehmigung eines bösartigen MCP-Servers, zweitens die direkte Platzierung von Payloads in Konfigurationsdateien (schwerer zu erkennen) und drittens die Vorautorisierung spezifischer Tool-Calls. Zusätzlich dokumentierten die Forscher drei bereits von Anthropic gepatchte Vulnerabilities: CVE-2025-59536, CVE-2026-21852 und CVE-2026-33068.

Anthropics Position ist defensiv: Der Konzern argumentiert, dass Code-Ausführung erst nach ausdrücklicher Zustimmung des Nutzers erfolgt und dies außerhalb ihres Threat-Modells liege. Adversa AI widerspricht dieser Einschätzung deutlich: Die Nutzer treffen keine informierte Entscheidung, wenn die Warndialoge so verharmlosend formuliert sind.

Für deutsche Organisationen ergeben sich erhebliche Implikationen. Unternehmen, deren Systeme kompromittiert werden, müssen Datenpannen nach DSGVO-Artikel 33 innerhalb von 72 Stunden dem Bundesdatenschutzbeauftragten (BfDI) melden. Bußgelder können bis zu 4 Prozent des Jahresumsatzes betragen. Das BSI empfiehlt Organisationen, die Nutzung dieser Tools in der Entwicklung zu überwachen, Projekteinstellungen zu inspizieren und verhaltensbasierte Anomalieerkennung einzusetzen. Im CI/CD-Umfeld sollte die automatische Ausführung auf untrusted Code grundsätzlich vermieden werden.