Die Cybersicherheitslandschaft entwickelt sich rasant weiter – insbesondere im Bereich der künstlichen Intelligenz. Mit der Ankündigung des neuen Safety-Bug-Bounty-Programms reagiert OpenAI auf die wachsenden Herausforderungen, die mit autonomen KI-Systemen verbunden sind. Das Programm richtet sich speziell an Szenarien, die klassische Sicherheitsdefinitionen überschreiten.
Das neue Programm akzeptiert Meldungen zu mehreren kritischen Risikokategorien. Dazu gehören Prompt-Injection-Angriffe von Drittanbietern, Techniken zur Datenexfiltration, sowie unerwünschte Aktionen, die durch agentenbasierte OpenAI-Produkte im großen Maßstab ausgelöst werden. Besondere Aufmerksamkeit erhalten auch Meldungen über Mängel in der Kontointegrität und Lücken in den Sicherheitsvorkehrungen gegen Missbrauch.
Die Sicherheitsforschergemeinde wird gezielt dazu aufgefordert, Missbrauchsrisiken in agentengesteuerten OpenAI-Produkten zu identifizieren – besonders in Tools wie Atlas Browser, Codex, dem neu eingeführten Operator, sowie in Connectors und ChatGPT-Erweiterungen. Diese Systeme führen Aktionen im Namen des Nutzers durch oder greifen auf dessen Daten zu, was erhebliche Sicherheitsrisiken birgt.
Vulnerabilitäten in Connectoren und MCP-Integratoren, die zu materiellem Schaden führen können, fallen ebenfalls in den Geltungsbereich des Programms. OpenAI betont dabei, dass Forscher konkrete, reproduzierbare Probleme mit klaren Lösungsvorschlägen einreichen sollten. Besonders hochschwere Funde mit detaillierten Mitigationsmaßnahmen können mit bis zu 7.500 Dollar belohnt werden.
Das Programm wird über die etablierte Plattform Bugcrowd abgewickelt und folgt ähnlichen Regelwerken wie OpenAIs bestehendes Security-Bounty-Programm. Die Triagierung erfolgt durch OpenAI’s Safety- und Security-Teams, die Meldungen bei Bedarf zwischen den beiden Programmen weiterleiten.
Für deutsche Sicherheitsforscherinnen und -forscher sowie IT-Sicherheitsexperten stellt dieses Programm eine Gelegenheit dar, aktiv zur Verbesserung von KI-Sicherheit beizutragen. Angesichts der zunehmenden Integration von KI-Systemen in Geschäftsprozesse und der regulatorischen Anforderungen durch den EU AI Act könnte die Identifikation solcher Schwachstellen auch für hiesige Unternehmen von strategischer Bedeutung sein.
