KI-SicherheitSchwachstellenCyberkriminalität

KI-native Sicherheit: Warum der Kampf gegen autonome KI-Agenten neu gedacht werden muss

KI-native Sicherheit: Warum der Kampf gegen autonome KI-Agenten neu gedacht werden muss
Zusammenfassung

Die Entwicklung autonomer KI-Agenten wie OpenClaw eröffnet Cyberkriminellen völlig neue Angriffsvektoren, die traditionelle Sicherheitsmaßnahmen überfordern. Experten warnen, dass menschlich kontrollierte Abwehrmaßnahmen nicht mehr ausreichen werden, um sich gegen vollautomatische, agentische Attacken zu verteidigen, die bereits heute beobachtet werden. Diese intelligenten Systeme können über Wochen oder Monate hinweg in Netzwerken operieren, Schwachstellen auskundschaften und gezielt Angriffe auslösen – beispielsweise SharePoint-Systeme infiltrieren und nach langer Ruhezeit aktiviert werden. Für deutsche Unternehmen und Behörden bedeutet dies eine erhebliche Gefahr: Während KI-Agenten theoretisch auch für Verteidigungszwecke eingesetzt werden können, braucht es ein grundlegendes Umdenken in der IT-Sicherheit. Experten fordern deshalb ein „KI-natives" Sicherheitsmodell mit speziellen Zugriffskontrollsystemen, Überwachungsmechanismen und Audit-Trails, die mit der Geschwindigkeit von Maschinen operieren. Doch auch klassische Sicherheitsprinzipien – Mehrschicht-Verteidigung, Monitoring und strenge Identitätsverwaltung – bleiben fundamental wichtig, müssen aber um neue Kontrollen für autonome Agenten erweitert werden.

Die Bedrohungslage in der Cybersicherheit verschärft sich: Autonome KI-Agenten könnten sich in Systemlandschaften einnisten, wochen- oder monatelang inaktiv bleiben und dann gezielt Angriffe durchführen. Francis deSouza, Chief Operating Officer von Google Cloud, stellte auf der Nvidia-Konferenz GTC in San Jose unmissverständlich fest: “Wir werden KI-gesteuerte Angriffe erleben — nur eine vollständig automatisierte agentenbasierte Verteidigung kann dagegen ankommen.”

Die Herausforderung ist konkret: OpenClaw, eine Open-Source-KI-Plattform von Nvidia, ermöglicht es Agenten, Dateisysteme zu scannen, auf persönliche Daten zuzugreifen und mit großen Sprachmodellen zu kommunizieren. Diese autonomen Funktionen schaffen vollkommen neue Angriffsszenarien. Ein Agent könnte beispielsweise SharePoint-Systeme nach Schwachstellen durchsuchen, dann ruhend verbleiben und zu einem vordefinierten Zeitpunkt Angriffe starten.

Anders als bei klassischen Sicherheitslücken ist manuelles Monitoring dieser “rogue agents” praktisch unmöglich. “Mit Sicherheit durch Unklarheit hat das aufgehört”, erklärt deSouza. “Autonome Agenten werden Schwachstellen finden und ausnutzen — das ist garantiert.”

Die Lösungsansätze sind ebenso revolutionär wie die Probleme. ServiceNow entwickelt mit dem “AI Control Tower” ein System, das mittels Access Graph und Knowledge Graph die Zugriffe autonomer Agenten in Echtzeit analysiert und kontrolliert. Nvidia brachte mit NemoClaw eine Sicherheitsvariante von OpenClaw auf den Markt, die Datenschutz-Guardrails durchsetzt.

Kritisch ist die Identitätsverwaltung: Agenten dürfen nicht einfach menschliche Benutzer-Identitäten erben, da deren Berechtigungen in Echtzeit während des Workflows ändern können. Stattdessen braucht es dynamische Zugriffskontrolle “auf Machine-Speed”.

Auch die Codeentwicklung muss neu gedacht werden. Besonders problematisch ist OpenClaws Fähigkeit, Sub-Agenten zu generieren, die ihren eigenen Code schreiben. Dies muss künftig durch sichere Software-Development-Life-Cycles kontrollt werden.

Das Gute: Klassische Sicherheitsprinzipien wie Defense-in-Depth, Monitoring und Audit-Logging bleiben relevant. Neu ist nur die Tempo-Anforderung: Die Abwehr muss nicht nur automatisiert, sondern auch KI-gestützt sein, um mit autonomen Agenten Schritt zu halten.