SchwachstellenDatenschutzCloud-Sicherheit

Kritische Sicherheitslücke in OpenAI Codex: GitHub-Token konnten kompromittiert werden

Kritische Sicherheitslücke in OpenAI Codex: GitHub-Token konnten kompromittiert werden
Zusammenfassung

Sicherheitsforscher haben eine kritische Sicherheitslücke in OpenAI Codex entdeckt, die es Angreifern ermöglicht hätte, GitHub-Authentifizierungstoken zu kompromittieren. Die Forscher von BeyondTrust's Phantom Labs fanden heraus, dass durch unsachgemäße Eingabevalidierung bei der Verarbeitung von GitHub-Branch-Namen beliebige Befehle in die Ausführungsumgebung des KI-Agenten eingeschleust werden konnten. Dies ermöglichte den Zugriff auf sensible Authentifizierungstokens, Repositories, Workflows und privaten Code mit potenzieller Ausbreitung über mehrere Organisationen hinweg. Besonders besorgniserregend ist das Automatisierungspotenzial: Ein gestohlenes Token könnte theoretisch automatisiert missbraucht werden, bevor es abläuft. Für deutsche Entwickler und Unternehmen stellt diese Entdeckung eine wichtige Warnung dar, da viele hiesige Tech-Firmen OpenAI Codex für Entwicklungsprozesse nutzen. Die Schwachstelle verdeutlicht zudem das wachsende Sicherheitsrisiko von KI-Agenten als autonome Ausführungsumgebungen mit Zugriff auf kritische Unternehmensressourcen. Obwohl OpenAI die Sicherheitslücke nach Benachrichtigung schnell schließen konnte, zeigt der Vorfall, dass die Kombination von künstlicher Intelligenz und OAuth-Token eine expandierende Angriffsfläche mit erheblich vergrößertem Schadensausmaß darstellt.

Die Sicherheitsexperten der Phantom Labs von BeyondTrust haben im Dezember 2025 eine kritische Schwachstelle in OpenAI Codex entdeckt und OpenAI unverzüglich informiert. Das Unternehmen reagierte schnell und behob alle identifizierten Sicherheitsprobleme. Dennoch wirft der Vorfall wichtige Fragen zur Sicherheit von KI-gestützten Entwicklungswerkzeugen auf.

OpenAI Codex ist ein großes Sprachmodell, das natürlichsprachliche Anweisungen in ausführbaren Quellcode übersetzt. Das Tool wird von Entwicklern weltweit bei der Arbeit mit GitHub-Repositories zur Codegenerierung und bei Pull Requests verwendet – auch in Deutschland, wo die Adoption solcher KI-Tools rapide wächst.

Die Schwachstelle lag in der unzureichenden Eingabevalidierung bei der Verarbeitung von GitHub-Branchnamen durch Codex. Durch das Einschleusen von Befehlen über den GitHub-Branch-Namen-Parameter konnten die Forscher willkürliche Schadcode-Payloads innerhalb des Container-Systems des Agenten ausführen und sensible Authentifizierungstoken abrufen. Besonders bemerkenswert: Die Forscher entwickelten obfuskierte Payload-Techniken mit Unicode-Zeichen, um die Malware unsichtbar für die Benutzeroberfläche auszuführen.

Die Forschung zeigt ein fundamentales Problem: OAuth-Token haben eine lange Geschichte als Einfallstor für Sicherheitsverletzungen im KI-Kontext. 2025 führte der Salesloft-Vorfall zur Kompromittierung von über 700 Organisationen. Die besondere Gefahr liegt in der Kettenreaktion – ein einziger gestohlener Token könnte Zugriff auf Open-Source-Repositories ermöglichen, die von Entwicklern verschiedener Organisationen genutzt werden, und somit zu Seitwärtsbewegungen über mehrere Unternehmen hinweg führen.

Obwohl die von BeyondTrust entdeckten Token kurzlebig waren und schnell verfallen, könnten Angreifer theoretisch Automatisierung einsetzen, um Tokens zu stehlen und auszunutzen, bevor sie ablaufen – und dies bei mehreren Nutzern eines gemeinsamen Repositories gleichzeitig.

Die wichtigste Erkenntnis: KI-Codieragenten sind nicht bloße Produktivitätswerkzeuge. Sie sind Live-Ausführungsumgebungen mit Zugriff auf sensible Berechtigungsdaten und organisatorische Ressourcen. Sicherheitsteams müssen lernen, die Identitäten von KI-Agenten zu kontrollieren und Command-Injection-Angriffe sowie Token-Diebstahl zu verhindern. Mit der zunehmenden Integration von KI-Agenten in Entwickler-Workflows muss die Sicherheit der verwendeten Container mit derselben Rigorosität wie jede andere Anwendungssicherheitsgrenze behandelt werden.