SchwachstellenDatenschutzHackerangriffe

OpenAI behebt kritische Sicherheitslücken in ChatGPT und Codex

OpenAI behebt kritische Sicherheitslücken in ChatGPT und Codex
Zusammenfassung

OpenAI hat zwei kritische Sicherheitslücken in seinen KI-Produkten behoben, die erhebliche Risiken für Nutzer und Unternehmen dargestellt haben. Die erste Schwachstelle in ChatGPT ermöglichte es, sensible Gesprächsdaten unbemerkt abzugreifen – über einen versteckten DNS-Kanal konnten Nutzer-Nachrichten, hochgeladene Dateien und vertrauliche Inhalte exfiltriert werden, ohne dass der Nutzer dies bemerkte oder zustimmte. Die zweite kritische Lücke in Codex, OpenAIs Cloud-basiertem Software-Engineering-Tool, erlaubte Angreifern, GitHub-Authentifizierungstokens zu stehlen und damit auf komplette Code-Repositories zuzugreifen. Für deutsche Nutzer, insbesondere Unternehmen, die ChatGPT und Codex im Produktivbetrieb einsetzen, ist dies bedeutsam: Mitarbeiter könnten unwissentlich geschäftskritische Daten, Kundendaten oder Quellcode preisgeben. Die Vorfälle unterstreichen, dass KI-Tools nicht von Haus aus sicher sind und zusätzliche Sicherheitsebenen erforderlich sind. Deutsche Behörden und Firmen sollten ihre KI-Nutzung überdenken und Schutzmaßnahmen gegen Prompt-Injektionen implementieren, um sich vor solchen Lücken zu schützen.

Die neu entdeckte ChatGPT-Schwachstelle stellt eine beachtliche Sicherheitsherausforderung dar: Sie ermöglicht es, vertrauliche Daten durch vermeintlich harmlose Prompts abzuleiten. Besonders tückisch ist der Mechanismus — die Linux-Runtime von ChatGPT nutzt einen versteckten DNS-basierten Kommunikationskanal als “verdecktes Transportmedium”. Angreifer können Informationen in DNS-Anfragen kodieren und dadurch die sichtbaren KI-Sicherheitsbarieren umgehen. Das System geht fälschlicherweise davon aus, dass die Umgebung isoliert ist und signalisiert keine Datentransfers an den Nutzer.

Die Gefahr verschärft sich durch sogenannte Custom GPTs, bei denen die bösartige Logik direkt in das Modell eingebettet werden kann. Nutzer müssen nicht erst zu Paste-Aktionen überredet werden — die Manipulation erfolgt transparent im Hintergrund. Check-Point-Forscher Eli Smadja warnt: “Organisationen dürfen nicht davon ausgehen, dass KI-Tools standardmäßig sicher sind.” Das ist eine wichtige Erkenntnis für die deutsche Unternehmenslandschaft, die verstärkt auf KI-Lösungen setzt.

Die zweite Lücke in Codex ist ebenfalls kritisch: Der GitHub-Token-Diebstahl entsteht durch mangelhafte Input-Sanitierung beim Verarbeiten von GitHub-Branch-Namen. Angreifer können beliebige Befehle in den Branch-Namen einschleusen und so Befehle im Container von Codex ausführen. Dies ermöglicht Lateral Movement und Lese-/Schreibzugriff auf komplette Code-Repositorys — ein erhebliches Sicherheitsrisiko für Entwicklungsteams und ihre Intellectual Property.

BeyondTrust dokumentierte, dass die Schwachstelle sogar dazu genutzt werden könnte, GitHub Installation Access Tokens zu stehlen und Bash-Befehle im Code-Review-Container auszuführen, wenn @codex in GitHub-Comments referenziert wird.

Zusätzlich werden Browser-Erweiterungen zum Problem: Threat-Akteure verbreiten Plugins, die ChatGPT-Gesprächsdaten Still und heimlich abfangen — ohne Nutzerkonsens. Dies eröffnet Türen für Identitätsdiebstahl, Phishing-Kampagnen und den Verkauf sensibler Daten auf Hacker-Foren.

Die Erkenntnisse verdeutlichen ein grundlegendes Problem der KI-Integration: Organisationen brauchen zusätzliche Sicherheitsschichten und können sich nicht vollständig auf Native Security Controls verlassen. Mit KI-Tools, die zunehmend in Enterprise-Umgebungen verankert sind, werden unabhängige Visibilität und mehrschichtige Schutzmaßnahmen essentiell. Die traditionelle Netzwerk-Sicherheit muss an die neue KI-Realität angepasst werden.