SchwachstellenSupply-Chain-AttackenKI-Sicherheit

Hugging Face unter Feuer: Wie ein einzelner JSON-Edit KI-Modelle zur Waffe wird

Hugging Face unter Feuer: Wie ein einzelner JSON-Edit KI-Modelle zur Waffe wird
Zusammenfassung

Hugging Face, die weltweit führende Open-Source-Plattform für KI-Modelle, steht vor einer kritischen Sicherheitslücke: Sicherheitsforscher von HiddenLayer haben entdeckt, dass bereits die Änderung einer einzigen Datei – der "tokenizer.json" – ausreicht, um KI-Modelle zu kompromittieren. Der Tokenizer ist ein essentieller Bestandteil, der die Ausgaben von KI-Modellen für Menschen lesbar macht. Durch die Manipulation dieser Datei könnten Angreifer vollständige Kontrolle über die Modellausgaben erlangen und sensible Daten wie API-Parameter und Anmeldedaten abfangen. Besonders tückisch: Ein manipuliertes Modell funktioniert oberflächlich normal und lässt sich problemlos über öffentliche Repositories verbreiten. Die Bedrohung betrifft lokal ausgeführte Modelle weltweit, insbesondere in Deutschland, wo KI-Nutzung in Unternehmen und Behörden rasant wächst. Organisationen, die Open-Source-KI-Modelle einsetzen – vom Mittelstand bis zu kritischen Infrastrukturen – sind potenziell gefährdet. Ohne automatisierte Scanning-Tools und bei fehlender Modellsignierung kann die Lieferkette von KI-Systemen kompromittiert werden, was zu Datenverlust und Systemübernahmen führen könnte.

Bei dem entdeckten Angriff handelt es sich um eine raffinierte Supply-Chain-Schwachstelle, die die gesamte Open-Source-KI-Ökosystem gefährdet. Tokenizer sind im Grunde Übersetzer zwischen menschlicher Sprache und Maschinencode – sie wandeln die numerischen Ausgaben von KI-Modellen in lesbare Texte um. Hugging Face nutzt dafür standardmäßig die Datei “tokenizer.json”, die als Zuordnungstabelle funktioniert: Sie verbindet numerische IDs mit Wörtern, Wortfragmenten oder speziellen Kontrollzeichen. Diese Dateien können zehntausende Einträge enthalten.

Das Perfide an der Attacke: Ein Angreifer muss nur diese eine Datei manipulieren, um die gesamte Ausgabe des Modells unter Kontrolle zu bringen. HiddenLayer-Forscher demonstrierten die Schwachstelle bei lokalen Installationen mit SafeTensors, ONNX und GGUF-Formaten – allesamt von Hugging Face unterstützte und weit verbreitete Standards. Die Attacke funktioniert auch auf anderen Plattformen wie LlamaCPP und Ollama.

Besonders tückisch: Ein manipuliertes Modell läuft ganz normal weiter und fällt nicht auf. “Eine veränderte tokenizer.json ist strukturell identisch mit einer legitimen Datei und passiert die übliche Verteilungspipeline ohne Probleme”, erklärte HiddenLayer-Forscher Divyanshu. Angreifer könnten ein beliebtes Open-Source-Modell einfach manipulieren und in öffentliche Repositories hochladen – jeder, der es sich herunterlädt, installiert damit unwissentlich eine Hintertür.

Für deutsche Unternehmen und Behörden ergibt sich hier ein erhebliches Compliance-Risiko. Wer solch manipulierten Code in Produktion nimmt und damit personenbezogene Daten oder Geschäftsinformationen verarbeitet, verstößt gegen die DSGVO – Meldepflichten und Bußgelder bis zu 4 Prozent des Jahresumsatzes drohen. Der Bundesbeauftragte für Datenschutz und Informationsfreiheit (BfDI) könnte zudem einschreiten.

HiddenLayer empfiehlt mehrere Schutzmaßnahmen: Checksummen und digitale Signaturen verifizieren (etwa bei von Microsoft signierten Modellen), Drittanbieter-Modelle vor dem Einsatz gründlich scannen und ausschließlich signierte Modelle in Produktivumgebungen verwenden. Allerdings gibt es derzeit keine kostenlos verfügbaren automatisierten Scanner speziell für dieses Problem – Unternehmen müssen also manuell prüfen oder spezialisierte Sicherheitsdienste engagieren.

Die Hugging-Face-Plattform hatte bereits 2024 mit über 100 bösartigen Modellen zu kämpfen. Diese neue Schwachstelle zeigt: Open-Source-KI-Modelle erfordern die gleiche Vorsicht wie kommerzielle Software – vielleicht sogar mehr.