KI-SicherheitSchwachstellenCybersicherheit

Cisco stellt Open-Source-Tool zur Verfolgung von KI-Modellen vor

Cisco stellt Open-Source-Tool zur Verfolgung von KI-Modellen vor
Zusammenfassung

Cisco hat ein neues Open-Source-Tool mit dem Namen Model Provenance Kit vorgestellt, das Organisationen dabei unterstützen soll, Sicherheits- und Compliance-Risiken im Umgang mit künstlichen Intelligenzmodellen zu minimieren. Das Tool adressiert ein wachsendes Problem: Unternehmen beziehen AI-Modelle häufig aus öffentlichen Repositories wie HuggingFace, ohne die Herkunft, Veränderungen oder potenzielle Schwachstellen dieser Modelle vollständig nachvollziehen zu können. Dies kann zu ernsten Konsequenzen führen – von manipulierten oder vergifteten Modellen über versteckte Trainingsbias bis hin zu Lieferkettenrisiken und regulatorischen Compliance-Problemen. Für deutsche Unternehmen, Behörden und öffentliche Institutionen ist dies besonders relevant, da sie zunehmend AI-Systeme einsetzen und dabei europäische sowie nationale Regulierungsanforderungen erfüllen müssen. Das neue Toolkit ermöglicht es, AI-Modelle durch sogenannte Fingerprints zu identifizieren und ihre Abstammung nachzuverfolgen. Dies ist entscheidend für Incident Response, Sicherheitsaudits und die Gewährleistung von Transparenzanforderungen, die durch Regulierungen wie den EU AI Act immer wichtiger werden.

Das Problem der fehlenden Nachvollziehbarkeit wird von Cisco deutlich benannt: Entwickler von KI-Modellen machen häufig Angaben zu Herkunft, Sicherheit und Trainingsverzerrungen, ohne diese zu verifizieren. Unternehmen, die diese Modelle nutzen, haben oft keinen Einblick in die tatsächlichen Eigenschaften oder mögliche Manipulationen. “Wenn diese Schwachstellen unberücksichtigt bleiben, können sie sich weiter ausbreiten – egal ob in internen Chatbots, Agenten-Anwendungen oder kundengerichteten Tools”, erklärt Cisco. Besonders problematisch ist dies, wenn Modelle mit Verzerrungen in den Trainingsdaten arbeiten oder anfällig für Manipulation sind.

Die Folgen sind weitreichend: Im Falle eines Sicherheitsvorfalls wird es ohne Kenntnis der Modellherkunft extrem schwierig, die Ursachen zu analysieren oder andere betroffene Systeme in der eigenen Infrastruktur zu identifizieren. Hinzu kommen regulatorische Risiken. Deutsche Unternehmen müssen unter der geplanten EU-KI-Verordnung (AI Act) den Einsatz von KI-Systemen dokumentieren und nachvollziehbar machen – eine Anforderung, die ohne Provenance-Tools kaum erfüllbar ist.

Das Model Provenance Kit von Cisco funktioniert über sogenannte “Fingerprints”. Das Python-basierte Tool vergleicht Metadaten, Tokenizer-Ähnlichkeiten und gewichtsspezifische Identitätssignale wie Embedding-Geometrie, Normalisierungsschichten und direkte Gewichtsvergleiche. Dadurch lassen sich zwei Modi nutzen: Im “Compare”-Modus können Nutzer zwei Modelle vergleichen, um gemeinsame Herkunftslinien zu identifizieren. Der “Scan”-Modus ermöglicht es, ein Modell gegen eine von Cisco zusammengestellte Datenbank von Fingerprints zu prüfen und so die wahrscheinlichste Herkunft zu ermitteln.

Das Tool ist ab sofort auf GitHub verfügbar, während Ciscos Datenbank mit Fingerprints von Basis-Modellen auf HuggingFace bereitgestellt wird. Für deutsche Unternehmen und Behörden könnte dieses Werkzeug ein wichtiger Schritt sein, um den Anforderungen zur KI-Transparenz nachzukommen und Supply-Chain-Risiken proaktiv zu managen.