Ari Herbert-Voss hat in seiner Rede auf der Black Hat Asia Konferenz in Singapur ein differenziertes Bild der KI-gestützten Cyberbedrohungen gezeichnet. Seine zentrale These: Die Fähigkeiten von Sprachmodellen wachsen exponentiell, doch ihre praktische Anwendung im Angriff bleibt komplizierter als oft befürchtet.
Exponentielles Wachstum trifft auf menschliche Realität
Die sogenannte “Scaling Hypothesis” zeigt sich in beeindruckenden Zahlen. Modelle, die doppelt so groß trainiert werden und doppelt so lange mit doppelt so viel Daten laufen, erreichen vierfach bessere Leistungen. Besonders bemerkenswert: Zwischen 2023 und 2026 verkürzte sich die durchschnittliche Zeit von Bug-Entdeckung bis zur Ausnutzung von fünf Monaten auf zehn Stunden.
Doch Herbert-Voss warnt vor Überreaktionen. KI-Systeme wie Mythos zeigen massive Fortschritte bei “shallow bugs” – einfachen Sicherheitsmängeln – und können in kontrollierten Umgebungen längere Angriffsketten autonom durchführen. Bei komplexeren, schwerwiegenderen Sicherheitslücken sind die Gewinne jedoch deutlich geringer. “Ein guter Exploit ist wie das Schreiben eines Romans mit Affen und Schreibmaschinen”, fasst Herbert-Voss das Problem prägnant zusammen: Viele Iterationen scheitern, aber einige treffen ins Ziel.
Das Validierungsproblem
Ein kritischer Aspekt: Während KI-Systeme tausende potenzielle Bugs generieren können, muss ein Mensch validieren, welche davon tatsächlich exploitbar sind und echten Schaden anrichten. Evaluierungen des UK AI Security Institute zeigten bei Mythos, dass hinter jeden erfolgreichen Exploit 198 menschliche Überprüfungen stecken. Diese “Gap” zwischen Fähigkeit und Praxis ist das eigentliche Problem für Defender und Attacker gleichermaßen.
Neue Anforderungen für deutsche Unternehmen
Herbert-Voss empfiehlt vier technische Schwerpunkte: Verbesserte Reasoning-Fähigkeiten bei KI-Systemen, besseres Tool-Handling (die Fähigkeit, mit realen Umgebungen zu interagieren), optimierte “Harness”-Architektur und multi-agenten Systemdesign. Für deutsche Organisationen bedeutet dies konkret: Sicherheitsteams müssen dringend upskilled werden, Budgets für AI-native Sicherheitsarchitekturen bereitgestellt und klare Unterscheidungen zwischen Eigenentwicklung und Outsourcing getroffen werden.
Ein warnendes Beispiel: In CTF-Wettbewerben (Capture-the-Flag-Hackerthone) werden Aufgaben, die früher Stunden dauerten, inzwischen innerhalb von Minuten gelöst. Dies ist ein Vorgeschmack auf beschleunigte Bedrohungen im Produktionsumfeld.
Der realistische Ausblick
Herbert-Voss sieht auch Chancen: Die breitere Zugänglichkeit von frontier models, obwohl mit Risiken verbunden, könnte Organisationen dazu antreiben, endlich grundlegende Sicherheitspraktiken wie Patching und Mehrschichten-Verteidigung konsequent umzusetzen. Das BSI sollte diese Erkenntnisse in seinen nächsten Cybersicherheitsempfehlungen berücksichtigen. Deutsche Unternehmen tun gut daran, nicht in Panik zu verfallen, sondern ihre Sicherheitsarchitekturen proaktiv an die neue Realität anzupassen.
