Die Sicherheitsmängel in Ollama zeigen exemplarisch die Risiken, die mit lokal ausgeführten KI-Modellen einhergehen, wenn diese nicht angemessen geschützt sind. Die primäre Schwachstelle, “Bleeding Llama” genannt, liegt in der GGUF-Modelllader-Komponente vor Version 0.17.1. Das Problem entsteht durch unsichere Speicherzugriffe beim Verarbeiten von GGUF-Dateien – einem weit verbreiteten Format zur Speicherung von Sprachmodellen.
Bei erfolgreicher Ausnutzung kann ein Angreifer eine manipulierte GGUF-Datei an den /api/create-Endpunkt senden und dabei die Tensor-Dimensionen so setzen, dass sie die tatsächliche Dateigröße übersteigen. Während der Quantisierung liest der Server dann über die Grenzen des zugewiesenen Heap-Speichers hinaus – und exponiert damit sensible Daten, die im Arbeitsspeicher liegen. Der Sicherheitsforscher Dor Attias von Cyera warnt: “Angreifer können über die KI-Inferenz praktisch alles über eine Organisation lernen – von API-Schlüsseln bis zu proprietärem Code und Kundenverträgen.”
Besonders besorgniserregend ist die Verbindung zu externen KI-Tools: Wenn Ollama beispielsweise mit Claude Code integriert ist, landen auch alle Ausgaben dieser Tools im Heap und können exfiltriert werden. Die Datenabzweigung erfolgt über den /api/push-Endpunkt zu einer angreifer-kontrollierten Registry.
Parallel hierzu wurden zwei weitere kritische Lücken in Ollamasm Windows-Update-Mechanismus aufdeckt. Diese ermöglichen persistente Code-Ausführung: Ein fehlender Signaturcheck kombiniert mit einer Pfadverlauf-Schwachstelle erlaubt es Angreifern, beliebige Executable in den Windows-Startordner zu schreiben. Betroffen sind Versionen 0.12.10 bis 0.22.0. Beim nächsten Login wird der manipulierte Code automatisch ausgeführt – mit den Rechten des aktuellen Nutzers.
Für die Remediierung empfiehlt das BSI-äquivalent CERT Polska: Sofortiges Update auf die neuesten Patches, strikte Netzwerk-Segmentierung, Deaktivierung automatischer Updates unter Windows und das Entfernen von Ollama-Shortcuts aus dem Startordner. Alternativ sollten alle Ollama-Instanzen hinter einem Authentication-Proxy oder API-Gateway platziert werden, da die REST-API standardmäßig keine Authentifizierung bietet.
