Die RSAC 2026 zeigte deutlich die Ambivalenz, mit der die Sicherheitsbranche KI begegnet. Einerseits präsentierte die CISO von Exabeam beeindruckende Use-Cases: Ein agentenbasiertes KI-System identifizierte autonom einen nordkoreanischen Insider in einem Security Operations Center (SOC) innerhalb von Minuten nach dessen Anmeldung. Solche Erfolgsgeschichten zeigen das Potenzial von KI, überarbeitete Analysten zu entlasten und Bedrohungen schneller zu erkennen.
Andererseits warnten Sicherheitsforscher von Check Point vor einem verheerenden Rückschritt: KI-Coding-Assistenten würden 20 Jahre investierte Sicherheitsmaßnahmen zunichte machen. Sie schaffen direkte Tunnelverbindungen von ungeschützten Endpoints zu kritischen Systemen und Entwicklungsumgebungen – eine Schwachstelle, die früher nicht existierte. Besonders beunruhigend ist die Ungeduld vieler Organisationen: Sie setzen auf KI-Tools, ohne grundlegende Sicherheitsfragen zu stellen oder Überwachungsmechanismen zu implementieren.
Experten einigten sich auf einen Mittelweg: KI-Agenten sollten repetitive Aufgaben übernehmen, aber unter regelmäßiger menschlicher Aufsicht. Ohne diese Kontrolle entstehen Fehlklassifizierungen und Sicherheitslücken in massivem Ausmaß. Der Druck zur schnellen Rentabilität und Kosteneinsparung überlagert jedoch oft diese Forderung nach Vorsicht.
Ein weiteres kritisches Problem betrifft das CVE-Vulnerability-Management-System: KI-Agenten überfluten die CVE-Datenbank mit Reports – die meisten qualitativ minderwertig oder sogar „halluziniert”. Die ohnehin angespannte Situation des CVE-Programms, das 2024 fast seine Regierungsfinanzierung verlor, verschärft sich dramatisch. Ein GitHub-Vertreter sprach von “staggering”-Zahlen bei der Report-Einreichungsgeschwindigkeit.
Auch die Abwesenheit von US-Regierungsvertretern bei RSAC 2026 sendet beunruhigende Signale. Traditionell nutzt die Regierung die Konferenz, um ihre Cybersecurity-Strategie zu diskutieren und public-private partnerships zu fördern. Dieser Fehler erzeugt ein Vakuum bei KI-Governance und erhöht die Unsicherheit bei Unternehmen und Sicherheitsforschern, die in diesem Bereich orientierungslos werden. Europäische und andere Regierungen haben diesen Raum teilweise gefüllt.
Zusammengefasst zeigt RSAC 2026: KI ist transformativ für die Cybersicherheit, aber unter einer kritischen Voraussetzung – menschliche Intelligenz, Überwachung und Governance dürfen nicht geopfert werden. Model Collapse und KI-Konsumption eigener minderwertiger Inhalte könnten langfristig zu intellektueller Degradation führen. Die Balance zwischen Innovation und Vorsicht muss bewusst gepflegt werden.
