KI-SicherheitSchwachstellenCyberkriminalität

OpenAI startet Sicherheitsprogramm für KI-spezifische Missbrauchsfälle

OpenAI startet Sicherheitsprogramm für KI-spezifische Missbrauchsfälle
Zusammenfassung

OpenAI hat ein neues Bug-Bounty-Programm gestartet, das speziell auf KI-spezifische Missbrauchsfälle und Sicherheitsrisiken abzielt. Das Programm ergänzt das bestehende Sicherheits-Bug-Bounty-Angebot und akzeptiert Berichte über Design- und Implementierungsfehler, die zu erheblichem Schaden führen können, aber nicht als klassische Sicherheitslücke einzuordnen sind. Im Fokus stehen Szenarien wie Prompt-Injection-Angriffe, Datendiebstahl, missbräuchliche Nutzung autonomer KI-Produkte wie ChatGPT-Tools und Atlas Browser sowie Schwachstellen in der Accountsicherheit. Forscher können für hochwertige, reproduzierbare Berichte mit klaren Lösungsvorschlägen bis zu 7.500 Dollar verdienen. Das Programm wird über die Plattform Bugcrowd verwaltet. Für deutsche Unternehmen und Behörden ist diese Initiative relevant, da OpenAI-Produkte zunehmend in deutschen Organisationen eingesetzt werden und damit auch die potenziellen Risiken von KI-Missbrauch und Datenverlust wachsen. Das Programm signalisiert gleichzeitig Openness gegenüber der Sicherheitsforschergemeinde und trägt dazu bei, kritische Schwachstellen frühzeitig zu identifizieren, bevor sie ausgenutzt werden können.

Die Cybersicherheitslandschaft entwickelt sich rasant weiter – insbesondere im Bereich der künstlichen Intelligenz. Mit der Ankündigung des neuen Safety-Bug-Bounty-Programms reagiert OpenAI auf die wachsenden Herausforderungen, die mit autonomen KI-Systemen verbunden sind. Das Programm richtet sich speziell an Szenarien, die klassische Sicherheitsdefinitionen überschreiten.

Das neue Programm akzeptiert Meldungen zu mehreren kritischen Risikokategorien. Dazu gehören Prompt-Injection-Angriffe von Drittanbietern, Techniken zur Datenexfiltration, sowie unerwünschte Aktionen, die durch agentenbasierte OpenAI-Produkte im großen Maßstab ausgelöst werden. Besondere Aufmerksamkeit erhalten auch Meldungen über Mängel in der Kontointegrität und Lücken in den Sicherheitsvorkehrungen gegen Missbrauch.

Die Sicherheitsforschergemeinde wird gezielt dazu aufgefordert, Missbrauchsrisiken in agentengesteuerten OpenAI-Produkten zu identifizieren – besonders in Tools wie Atlas Browser, Codex, dem neu eingeführten Operator, sowie in Connectors und ChatGPT-Erweiterungen. Diese Systeme führen Aktionen im Namen des Nutzers durch oder greifen auf dessen Daten zu, was erhebliche Sicherheitsrisiken birgt.

Vulnerabilitäten in Connectoren und MCP-Integratoren, die zu materiellem Schaden führen können, fallen ebenfalls in den Geltungsbereich des Programms. OpenAI betont dabei, dass Forscher konkrete, reproduzierbare Probleme mit klaren Lösungsvorschlägen einreichen sollten. Besonders hochschwere Funde mit detaillierten Mitigationsmaßnahmen können mit bis zu 7.500 Dollar belohnt werden.

Das Programm wird über die etablierte Plattform Bugcrowd abgewickelt und folgt ähnlichen Regelwerken wie OpenAIs bestehendes Security-Bounty-Programm. Die Triagierung erfolgt durch OpenAI’s Safety- und Security-Teams, die Meldungen bei Bedarf zwischen den beiden Programmen weiterleiten.

Für deutsche Sicherheitsforscherinnen und -forscher sowie IT-Sicherheitsexperten stellt dieses Programm eine Gelegenheit dar, aktiv zur Verbesserung von KI-Sicherheit beizutragen. Angesichts der zunehmenden Integration von KI-Systemen in Geschäftsprozesse und der regulatorischen Anforderungen durch den EU AI Act könnte die Identifikation solcher Schwachstellen auch für hiesige Unternehmen von strategischer Bedeutung sein.