Die jetzt behobene Schwachstelle in Googles Antigravity IDE basiert auf einer klassischen Schwachstelle: der unzureichenden Eingabevalidierung kombiniert mit zu großem Vertrauen in automatisierte Prozesse. Wie der Sicherheitsforscher Dan Lisichkin von Pillar Security erklärte, konnten Angreifer über die Injection des Flags „-X (exec-batch)” in den Pattern-Parameter der find_by_name-Funktion beliebige Binärdateien gegen Dateien im Arbeitsbereich ausführen.
Die Besonderheit dieser Lücke liegt in ihrer Raffinesse: Das find_by_name-Tool wird ausgeführt, bevor die Sicherheitsvorkehrungen des Strict Mode greifen. Dadurch wird es als natives Tool-Aufruf interpretiert, nicht als potenziell gefährlicher Benutzer-Input. Der Angreifer könnte zunächst eine bösartige Skriptdatei in den Arbeitsbereich einschleusen und diese dann durch Injection maligner Befehle in den Pattern-Parameter auslösen – alles ohne weitere Benutzerinteraktion.
Besonders tückisch ist das -X-Flag: Es veranlasst das fd-Programm, eine bestimmte Binärdatei gegen jede gefundene Datei auszuführen. Mit dem Muster „-Xsh” könnte ein Angreifer beliebige Dateien als Shell-Skripte interpretieren lassen und ausführen.
Noch kritischer: Der Angriff musste nicht einmal ein Benutzerkonto kompromittieren. Durch indirekte Prompt-Injection hätte ein Angreifer einem ahnungslosen Nutzer eine scheinbar harmlose Datei mit versteckten, KI-Agent-steuernden Kommentaren zuspielen können. Die AI würde diese befolgen und die Exploit-Kette selbstständig auslösen.
Systemisches Problem bei autonomen Agenten
Lisichkin betont einen grundsätzlichen Fehler im Sicherheitsdenken: „Tools, die für begrenzte Operationen entworfen wurden, werden zu Angriffsvektoren, wenn ihre Eingaben nicht streng validiert werden. Das Vertrauensmodell, wonach ein Mensch etwas Verdächtiges erkennt, funktioniert nicht, wenn autonome Agenten externe Inhalte folgenlos ausführen.”
Dieser Fall ist nicht isoliert. Parallel wurde bekannt, dass Claude-basierte GitHub-Actions durch Spoofing von Git-Metadaten manipuliert werden konnten – Angreifer gaben sich als bekannte Entwickler aus, indem sie Git-Eigenschaften änderten. Das System überschrieb sogar seine eigenen Sicherheitserwägungen bei erneutem Absenden.
Google hat die Lücke inzwischen geschlossen, doch das Grundproblem bleibt: Intelligente Systeme sind nur so sicher wie ihre Input-Validierung – und im Zeitalter autonomer KI-Agenten ist strikte Kontrolle essentiell.
