Die Sicherheitskonferenz verdeutlicht ein zentrales Dilemma der modernen IT-Sicherheit: Unternehmen können ihre Systeme noch so gut schützen – sobald sie externe Software integrieren oder mit Drittanbietern zusammenarbeiten, entstehen neue Angriffsflächen. Diese Supply-Chain-Risiken sind nicht neu, gewinnen aber durch die zunehmende Digitalisierung und den Einsatz von KI-Tools an Bedeutung.
Ein Schwerpunkt der Konferenz liegt auf der Operativen Technologie (OT). Während früher häufig von Worst-Case-Szenarien die Rede war, fokussiert sich der aktuelle Diskurs auf die konkrete Mechanik moderner OT-Anfälligkeit. Dies ist für deutsche Industrieunternehmen hochrelevant, die ihre Produktionsanlagen zunehmend vernetzten.
Ein weiterer kritischer Punkt: SIM-Swap-Attacken. Diese Angriffe exploitieren das vermeintlich sichere Medium der Telefonnummer und menschliche Prozesse, um Zwei-Faktor-Authentifizierung zu umgehen und hochwertige Konten zu kapern. Sie zeigen, dass technische Sicherheit allein nicht ausreicht – auch organisatorische und menschliche Faktoren spielen eine zentrale Rolle.
Bei der Schwachstellenverwaltung zeichnet sich ein Paradigmenwechsel ab. Statt einzelne Tools zu evaluieren, fordern Experten einen ganzheitlichen, programmgestützten Validierungsansatz. Die künftige Schwachstellenbewältigung wird durch kontinuierliche Telemetrie, kontextuelle Priorisierung und automatisierte Behebung (“agentic remediation”) geprägt.
Künstliche Intelligenz spielt dabei eine ambivalente Rolle. Entwickler müssen KI-Systeme als Kollaboratoren verstehen, die eng überwacht werden müssen – nicht als autonome Entitäten, die ungezügelt eingesetzt werden. Ohne diese Haltung entsteht erheblicher technischer Schuldenberg.
Abschließend wird betont: Das Ziel besteht nicht darin, jeden Angriff zu verhindern, sondern sicherzustellen, dass das Geschäft weiterläuft, wenn Angriffe trotzdem erfolgen. Diese resiliente Perspektive ist auch für deutsche Regulierungsbehörden und Betreiber kritischer Infrastrukturen relevant.
