CyberkriminalitätKI-SicherheitSchwachstellen

Die neue Bedrohung: Wenn KI-Agenten zur Waffe werden

Die neue Bedrohung: Wenn KI-Agenten zur Waffe werden
Zusammenfassung

Im September 2025 offenbarte Anthropic einen Vorfall, der die Cybersicherheitslandschaft fundamental erschüttert: Ein staatlich gesteuerter Akteur nutzte einen KI-Agenten, um eine autonome Spionagekampagne gegen 30 globale Ziele durchzuführen. Die KI führte dabei 80-90 Prozent der taktischen Operationen eigenständig durch – von Aufklärungs­maßnahmen über die Erstellung von Exploit-Code bis zu Lateral-Movement-Versuchen in Maschinengeschwindigkeit. Doch das eigentliche Szenario, das Sicherheitsteams noch stärker beunruhigen sollte, ist ein anderes: ein Angreifer, der die traditionelle Cyber-Kill-Chain gar nicht durchlaufen muss, weil er bereits einen KI-Agenten kompromittiert hat, der sich permanent in der Unternehmensumgebung befindet. Ein Agent mit allen notwendigen Zugriffrechten und legitimem Grund, täglich durch die Systeme zu navigieren. Die klassische Cybersecurity-Philosophie der Kill-Chain-Unterbrechung verliert hier ihre Wirksamkeit. Deutsche Unternehmen und Behörden sind besonders gefährdet, da der Einsatz von KI-Agenten in SaaS-Anwendungen zunimmt, ihre IT-Sicherheit aber oft nicht auf diese neue Bedrohungsklasse ausgerichtet ist. Ohne umfassende Sichtbarkeit über alle AI-Agenten, ihre Verbindungen und Berechtigungen wird das Schadensausmaß eines erfolgreichen Angriffs immens sein.

Die klassische Cyber-Kill-Chain, ein 2011 von Lockheed Martin entwickeltes Sicherheitsmodell, beschreibt traditionell, wie Angreifer Schritt für Schritt Zugriff auf Systeme erlangen. Jede Phase bietet Verteidigern eine Chance, den Angriff zu erkennen und zu stoppen: Endpoint-Security kann die initiale Payload blockieren, Netzwerk-Monitoring kann verdächtige Bewegungen entdecken, Identity-Systeme können Privilege-Escalations flaggen. Die bisherige Logik: Je mehr Schritte ein Angreifer unternehmen muss, desto höher die Erkennungswahrscheinlichkeit.

Doch KI-Agenten spielen nach anderen Regeln. Sie funktionieren grundlegend anders als menschliche Nutzer. Sie arbeiten kontinuierlich über mehrere Systeme hinweg, verschieben Daten zwischen Anwendungen und haben bei ihrer Bereitstellung häufig umfassende Admin-Rechte erhalten. Ein kompromittierter Agent ist ein Angreifer, der die gesamte Kill-Chain überspringt.

Die OpenClaw-Krise verdeutlichte diese neue Realität: Etwa 12 Prozent der Fähigkeiten auf dem öffentlichen Marktplatz waren bösartig. Eine kritische Remote-Code-Execution-Schwachstelle ermöglichte die Kompromittierung mit einem Klick. Über 21.000 Instanzen waren öffentlich exponiert. Das Beängstigende: Ein kompromittierter Agent konnte sofort auf Slack-Nachrichten, Google-Workspace-Dokumente und E-Mails zugreifen — mit persistentem Speicher über Session-Grenzen hinweg.

Das zentrale Problem liegt in der Normalität von KI-Agenten. Sicherheitswerkzeuge sind darauf ausgelegt, abnormales Verhalten zu erkennen. Wenn ein Angreifer einen KI-Agenten nutzt, sieht alles legitim aus: Der Agent greift auf die gewohnten Systeme zu, verschiebt die üblichen Daten, operiert zu den üblichen Zeiten. Das ist die Erkennungslücke, vor der deutsche Sicherheitsteams stehen.

Die meisten Organisationen haben keine Übersicht über die in ihrer Umgebung operierenden KI-Agenten, deren Verbindungen und Berechtigungen. Dies ist die Basis einer neuen Sicherheitsstrategie: Sichtbarkeit schaffen. Unternehmen müssen zunächst inventarisieren, welche KI-Agenten in ihrem SaaS-Ökosystem aktiv sind — einschließlich Schatten-KI-Tools ohne IT-Genehmigung. Dann müssen sie abbilden, welche Anwendungen diese Agenten verbinden, welche Berechtigungen sie besitzen und auf welche Daten sie zugreifen.

Darüber hinaus ist es entscheidend, die Berechtigungen dieser Agenten zu beschränken. Viele Agenten erhalten bei der Bereitstellung mehr Zugriff als nötig. Eine Rechte-Minimierung kann die Schadensauswirkung eines kompromittierten Agenten erheblich reduzieren. Zusätzlich sollten Sicherheitsteams identitätsorientierte verhaltensbasierte Analysen auf KI-Agenten anwenden — ähnlich wie auf menschliche Benutzer — um echte Anomalien in Echtzeit zu erkennen.

Die klassische Kill-Chain setzte voraus, dass Angreifer für jeden Zugriff kämpfen müssen. Doch ein kompromittierter KI-Agent stellt diese Annahme in Frage. Deutsche Unternehmen, die sich weiterhin ausschließlich auf die Erkennung menschlichen Angreifer-Verhaltens konzentrieren, werden diese neue Bedrohung übersehen. Der Angreifer wird die normalen Workflows des KI-Agenten nutzen — unsichtbar im Rauschen legitimer Operationen. Sichtbarkeit ist der Unterschied zwischen früher Erkennung und spätem Incident Response.