SchwachstellenKI-SicherheitCyberkriminalität

Vergiftete Gedächtnisse: Die kritische Sicherheitslücke in KI-Systemen

Vergiftete Gedächtnisse: Die kritische Sicherheitslücke in KI-Systemen
Zusammenfassung

# Vergiftete Gedächtnis: Ein grundlegendes Sicherheitsrisiko in KI-Systemen Forscher haben ein kritisches Sicherheitsloch in künstlichen Intelligenz-Systemen entdeckt, das die Speicherdateien betrifft, welche KI-Agenten zur Personalisierung und Kontextualisierung ihrer Antworten nutzen. Im März gelang es Cisco-Experten, die Speicherdateien von Anthropics Claude Code zu kompromittieren und eine dauerhafte Infektion zu etablieren – mit der Folge, dass jedes Projekt und jede Sitzung des KI-Coding-Assistenten betroffen war. Die Forscher konnten so versteckte Geheimnisse in Produktionscode einschleusen, Claude Code zu unsicheren Paketen verleiten und diese Änderungen an andere Entwickler weitergeben. Das grundlegende Problem liegt in der Tatsache, dass Speicher- und Kontextdaten in künftige Anfragen einfließen und somit als Angriffsvektoren missbraucht werden können. Cisco zufolge können selbst Markdown- und Textdateien zur Manipulation von KI-Systemen genutzt werden. Dies betrifft insbesondere deutsche Unternehmen und Behörden, die zunehmend KI-gestützte Tools für Entwicklung, Dokumentation und Automatisierung einsetzen. Ohne geeignete Sicherheitsmaßnahmen wie spezialisierte Scanner und regelmäßiges Löschen von Speicherdateien besteht das Risiko von Datenvergiftung und persistenten Angriffen auf unternehmenskritische Systeme.

Die Entdeckung von Cisco offenbarte eine Achillesferse der modernen KI-Sicherheit: Memory-Dateien sind deutlich anfälliger für Angriffe als bislang angenommen. Amy Chang, Leiterin der KI-Threat-Intelligence bei Cisco, erklärt das Kernproblem: „Die Bequemlichkeit, nicht ständig dieselben Dateien neu laden zu müssen, erkauft man sich durch erhebliche Sicherheitsrisiken.”