SchwachstellenKI-SicherheitCloud-Sicherheit

Die unsichtbare Gefahr: Wie KI-Agenten klassische Sicherheitslücken verstärken

Die unsichtbare Gefahr: Wie KI-Agenten klassische Sicherheitslücken verstärken
Zusammenfassung

Die Integration von KI-Agenten in etablierte Anwendungen hat eine grundlegende Verschiebung in der Bedrohungslandschaft herbeigeführt, die bisherige Sicherheitskonzepte in Frage stellt. Ein aktuelles Beispiel verdeutlicht dies: Eine XSS-Schwachstelle in Microsoft Excel (CVE-2026-26144) ermöglicht es Angreifern, den eingebetteten Copilot-Agenten zu kapern und damit automatisiert sensible Daten abzugreifen – ohne dass der Nutzer etwas bemerkt. Das entscheidend Neue ist nicht die Schwachstelle selbst, sondern ihre Kombination mit KI-Funktionen, die das Schadensausmaß exponentiell vergrößert. Während traditionelle XSS-Exploits auf Cookie-Diebstahl oder Phishing beschränkt sind, können KI-Agenten nun mit erheblich erweiterten Befugnissen operieren. Für deutsche Unternehmen und Behörden bedeutet dies eine erhebliche Gefahr: Jede konventionelle Schwachstelle wird durch die KI-Integration zur potenziellen Tür für umfangreiche Datenexfiltration. Bisherige Bewertungsmodelle und Erkennungstools sind auf diese neue Bedrohungsklasse nicht vorbereitet, was eine schnelle Anpassung der Sicherheitsstrategien erforderlich macht.

Die Sicherheitslücke CVE-2026-26144 ist auf den ersten Blick nichts Spektakuläres – ein Cross-Site-Scripting-Fehler in Excel, wie es Hunderte vor ihm gab. Doch der Unterschied liegt in der Ausführung: Statt nur Sitzungs-Cookies zu stehlen oder Nutzer auf Phishing-Seiten umzuleiten, nutzt der Angriff die im Hintergrund laufende KI aus. Das Copilot Agent-Modul wird hijacked und führt automatisch sensible Datenexfiltration durch – komplett unbemerkt vom Nutzer.

Diese Verkettung von traditioneller Schwachstelle und KI-Missbrauch markiert nach Ansicht von Sicherheitsexperten den Beginn einer neuen Angriffsklasse. Der Begriff dafür: “Privilege Amplification” – Rechteerweiterung durch KI-Einsatz. Ein einfaches XSS, das normalerweise ein Cookie stiehlt, kann plötzlich der KI den Befehl geben, alle Zellenwerte einer Tabelle auszulesen und online zu übertragen.

Das zentrale Problem liegt in der fehlenden Vertrauensgrenze zwischen Anwendung und KI-Agent. Wenn Excel kompromittiert ist, erbt der Copilot diese Kompromittierung automatisch. Es gibt keine separate Berechtigungsschicht zwischen “was Excel zugreifen kann” und “was die KI damit tun darf”. Der Schadensradius wird nicht mehr von den technischen Fähigkeiten des Exploits bestimmt, sondern von den Zugriffsrechten der KI.

Für Sicherheitsteams hat das weitreichende Konsequenzen: Klassische Bewertungsschemata wie CVSS werden obsolet. Ein mittelschweres XSS kann plötzlich zum kritischen Risiko werden, wenn eine KI Zugriff auf Finanzdatenbanken oder personenbezogene Daten hat.

Experten empfehlen daher mehrschichtige Gegenmaßnahmen: Zunächst sollten Administratoren ausgehende Netzwerkzugriffe von KI-Anwendungen blockieren, sofern diese nicht erforderlich sind. Zweitens müssen KI-initiierte Netzwerkaktivitäten separat überwacht werden – nicht als Standard-Datei-Upload, sondern als potenzielle Exfiltrationsquelle. Drittens müssen Threat-Modelle überarbeitet werden, um KI-Agenten nicht als Produktivitätswerkzeuge, sondern als privilegierte Systeme mit weitreichenden Zugriffsrechten zu betrachten.

Die Realität ist unbequem: Solange KI-Assistenten direkt in unternehmenskritischen Anwendungen laufen, multipliziert sich das Risikopotenzial jeder Schwachstelle. CVE-2026-26144 wird gepatcht werden – das Muster aber bleibt bestehen. Für deutsche Organisationen, die massiv in KI-Integration investieren, ist eine fundamentale Neubewertung ihrer Sicherheitsarchitektur dringend erforderlich.