Die Verlockung ist groß: Vollständig agentenbasierte KI-Systeme versprechen maximale Autonomie, tiefere Explorationsfähigkeiten und eine Anpassung an komplexe Umgebungen ohne starre Vorgaben. Doch gerade hier liegt eine kritische Schwachstelle verborgen. Die probabilistische Natur solcher Systeme führt zu einem fundamentalen Problem – Variabilität.
In vielen KI-Anwendungen ist Variabilität ein Feature, nicht ein Bug. Ein Coding-Assistent kann mehrere gültige Lösungen für dasselbe Problem generieren. Ein Forschungsmodell erkundet verschiedene Argumentationslinien. Diese Vielfalt fördert Kreativität und Entdeckung.
Bei Sicherheitstests ist dies jedoch kontraproduktiv. Wenn die Methodik zwischen den Testläufen variiert, wird es unmöglich zu validieren, ob die Sicherheit tatsächlich verbessert wurde oder das System einfach einen anderen Ansatz gewählt hat. Unternehmen, die wöchentliche oder tägliche Retests durchführen – was zur Standard-Praxis geworden ist – können nicht jeden Testlauf manuell überprüfen. Sie müssen darauf vertrauen, dass die Plattform ein konsistentes Testmodell anwendet.
Das Konzept der “Human-in-the-Loop”-Modelle adressiert diese Bedenken teilweise, indem Analysten Entscheidungen überprüfen und genehmigen. Doch dies löst das Grundproblem nicht: Das System bleibt probabilistisch. Unter denselben Bedingungen kann die KI immer noch unterschiedliche Aktionsabfolgen generieren, je nachdem, wie sie das Problem durchdenkt. Die Verantwortung für Konsistenz verlagert sich auf den Menschen – mit erheblichem zusätzlichem Aufwand.
Die Lösung liegt in einem hybriden Ansatz. Deterministische Logik definiert, wie Angriffsketten ausgeführt werden und schaffen eine stabile Struktur. KI ergänzt dieses Fundament, indem sie Payloads adaptiert, Umgebungssignale interpretiert und Techniken basierend auf realen Bedingungen anpasst.
Wenn eine Privilege-Escalation-Technik identifiziert wird, kann sie unter gleichen Bedingungen wiederholt werden. Nach einer Behebung kann die identische Sequenz erneut ausgeführt werden, um zu validieren, ob die Schwachstelle tatsächlich behoben wurde – nicht, ob das Testsystem einfach anders heranging.
Dies bedeutet nicht, KI einzuschränken, sondern sie zu verankern. KI stärkt die Validierung, wenn sie ein stabiles Ausführungsmodell verbessert, anstatt es bei jedem Durchlauf neu zu definieren.
Moderne Sicherheitsteams müssen diesen Mittelweg verstehen und bei der Auswahl ihrer Tools bewusst berücksichtigen. Ein deterministische Angriffs-Engine mit adaptiver KI-Ergänzung bietet die beste Balance: Stabilität für messbare Ergebnisse und Flexibilität für realistische, moderne Bedrohungsszenarien.
