Die Debatte um Künstliche Intelligenz in Cybersecurity-Abteilungen ist längst keine theoretische mehr. Zwei Sicherheitsleiter aus der Fortune-500-Liga haben konkrete Erfahrungen gesammelt und ihre Erkenntnisse auf der RSAC 2026 Conference in San Francisco präsentiert. Ihre Botschaft: KI kann helfen, aber nicht überall und nicht unkontrolliert.
Shilpi Mittal, verantwortlich für die Sicherheit eines Lebensmittelherrstellers, führte ein sechsmonatiges Pilotprojekt durch, bei dem ein großes Sprachmodell (LLM) als Read-Only-Triage-Assistent in den Security Operations Center (SOC) integriert wurde. Die Ergebnisse sind beeindruckend: Die mittlere Erkennungszeit (Mean Time to Discovery, MTD) verbesserte sich um 26 bis 36 Prozent, die Reaktionszeit (Mean Time to Response, MTTR) um 22 Prozent. Gleichzeitig sank die Quote falsch positiver Alarme um 16 Punkte. Ein besonders plastisches Beispiel: Das KI-System entdeckte eine verdächtige .git-Datei an einem Endpunkt, erkannte potenziellen Malware-Code und führte automatisch eine Quarantäne durch.
Doch Vorsicht ist geboten. Ankit Gupta, der ein Finanzunternehmen schützt, ließ die KI in einem Zwei-Wochen-Test auf einem Non-Production-System vollständige Kontrolle über Alert-Management übernehmen. Das Ergebnis war katastrophal: Die KI entfernte Nutzer aus dem System, weil sie Alerts missverstanden hatte. Der Grund liegt in der Realität von SOC-Daten: unvollständige Felder, inkonsistente Bezeichner, mehrdeutige Signale.
Guptas Fazit ist eindeutig: KI kann Analysten bei repetitiven Aufgaben unterstützen, insbesondere bei Dokumentation und Kontextverstehen. Seine Teams verbrachten vorher 10 bis 15 Stunden wöchentlich mit Datensammlung und Berichtserstellung — diese Aufgaben übernimmt die KI nun zuverlässig. Aber endgültige Sicherheitsentscheidungen müssen Menschen treffen.
Mittal betont ein weiteres kritisches Element: In Fertigungsbetrieben führt Ausfallzeit zu direkten Umsatzverlusten und Sicherheitsrisiken. Deshalb wurde die KI bewusst nicht als Kontrollmechanismus über Industriesysteme konzipiert, sondern nur in der Sicherheits-Fall-Management integriert — strikt ohne Zugriff auf Programmable Logic Controller oder SCADA-Systeme.
Für deutsche Unternehmen und kritische Infrastrukturen ist diese Unterscheidung zentral. Besonders in regulierten Bereichen wie Finanzen oder Energie zeigen die Erfahrungen: KI-Deployment erfordert klare Governance, erzwungene Nachweisbarkeit und vor allem menschliche Gatekeeper. Die Effizienzgewinne sind real, aber sie dürfen nicht zu fahrlässiger Automatisierung führen.
