Die Ära autonomer Cyberangriffe ist längst Realität. Im November 2025 offenbarte Anthropic, dass ein chinesischer Threat-Actor Claude zu einem autonomen Angriff missbraucht hatte – das System führte Aufklärung, Exploit-Entwicklung, Credential-Diebstahl und Datentransfer mit beispielloser Geschwindigkeit durch, ohne dass Menschen eingreifen mussten.
Doch während Angreifer mit KI-gestützten Methoden arbeiten, ist das Schwachstellenmanagement in Altlasten steckengeblieben. Cisco kündigte kürzlich das Ende von Kenna Security an, ohne Nachfolgelösung bereitzustellen. Die Branche basiert weiterhin auf punktuellen statischen Scans, die schnell veralten. CVE-Scores spiegeln nicht wider, welche tatsächliche Auswirkung eine Schwachstelle auf konkrete Unternehmensumgebungen hat.
Wir erleben einen Paradigmenwechsel vom traditionellen Schwachstellenmanagement (1.0) zum Schwachstellenmanagement 10.0 – ein Unterschied in einer völlig anderen Größenordnung. Diese Evolution wird durch drei Säulen definiert: kontinuierliche Telemetrie, kontextbewusste Priorisierung und das Endziel der agentischen Behebung.
Der Geschwindigkeitsuntergrund
Die Asymmetrie ist dramatisch: Angreifer setzen autonome KI-Agenten ein, die kontinuierlich, selbstständig handeln und mehrschrittige Pläne ausführen können. Sie identifizieren und exploitieren Schwachstellen mit Rechnergeschwindigkeit – OpenAI prognostiziert eine Verdreifachung der Rechenleistung 2026.
Gleichzeitig verlässt sich die Verteidigung auf manuelle, zeitaufwändige und fehleranfällige Prozesse: periodische Scans, unvollständige Sichtbarkeit und generische CVE-Bewertungen. Das Resultat: nicht Lösungen, sondern Listen. Erfolg wird gemessen in Schwachstellenzahlen, nicht in Behebungszeit oder Risikoreduktion.
Diese Lücke wird intern noch größer: DevOps arbeitet mit KI-gestützter Programmierung (“vibe coding”), Tools wie Cursor generieren täglich fast eine Milliarde Zeilen akzeptierten Code. Doch laut SonarSource vertrauen nur 48% der Entwickler KI-Code so sehr, dass sie ihn vor dem Deployment überprüfen – obwohl 96% ihm eigentlich nicht vollständig vertrauen. Eine Q3-2025-Studie von Armis zeigt: KI-generierter Code versteckt gehärtete Secrets, fehlerhafte Protokolle und vulnerable Bibliotheken in großem Maßstab.
Der Weg zu Resilienz
Lösungen erfordern ein neues Fundament: ein Security-Data-Fabric, das Telemetrie von IT, OT, IoT, Cloud, Identity- und Anwendungsebenen zusammenführt. Dieses System kartografiert Beziehungen zwischen Assets, korreliert Exploitationswahrscheinlichkeit mit geschäftlichen Auswirkungen und berücksichtigt vorhandene Schutzmaßnahmen. Dadurch wird Priorisierung nach tatsächlichem Geschäftsrisiko möglich, nicht nach generischen Scores.
Das Endziel: agentische Behebung. Doch Skeptizismus ist berechtigt – schließlich sind KI-Agenten nicht das Problem? Die Antwort liegt in Phasen:
Phase 1 sieht Agenten in der Entdeckerrolle: Sie finden Schwachstellen, identifizieren die richtige Lösung und eröffnen Change-Management-Tickets – der Mensch behält Kontrolle. Wie ein Autopilot im Auto: Der Fahrer fährt noch.
Phase 2 ermöglicht automatisierte Behebung in eindeutigen Szenarien: Gehärtete Secrets in öffentlichen Repositories oder falsch konfigurierte Cloud-Buckets werden automatisch remediert. “Known Bad”-Zustände, bei denen Untätigkeit sofort schadet.
Das neue Erfolgsmaß
Wir sehen die Entstehung KI-gestützter persistenter Bedrohungen – von APTs zu “AiPTs”. Die Abwehr muss ihre Metriken neu definieren: Mean Time to Remediation und messbare Risikoreduktion statt Schwachstellenzahlen. Discovery und Remediation müssen entkoppelt werden – heute werden sie von denselben Teams bearbeitet und erzeugen Engpässe.
Vulnerability Management 10.0 verspricht kontinuierliche Netzwerk-Sanierung, automatische Behebung bekannter Probleme, Konfigurationsbaselines, Credential-Rotation. Experten konzentrieren sich auf Aufgaben mit Urteilskraft: Migrationsprojekte, komplexe Architektur-Herausforderungen, strategische Risikobewertung.
Die Angreifer haben bereits zu maschinengeschwindigen Attacken gewechselt. Verteidiger, die diese Geschwindigkeit mit angemessener menschlicher Kontrolle erreichen, werden Resilienz im agentischen Zeitalter definieren.
