KI-SicherheitSchwachstellenCyberkriminalität

OpenAI startet GPT-5.4-Cyber: KI-Modell für Cybersecurity-Profis jetzt breiter verfügbar

OpenAI startet GPT-5.4-Cyber: KI-Modell für Cybersecurity-Profis jetzt breiter verfügbar
Zusammenfassung

OpenAI hat sein Programm für vertrauenswürdigen Zugang zu Cybersicherheitstools deutlich erweitert und bietet nun tausenden verifizierten Sicherheitsexperten und Hunderten von Sicherheitsteams Zugriff auf GPT-5.4-Cyber, eine speziell für Verteidiger optimierte Variante des Sprachmodells GPT-5.4. Dieses Modell lockert die üblichen Sicherheitsvorkehrungen für legitime Cybersicherheitsarbeit und ermöglicht erstmals Fähigkeiten wie binäres Reverse Engineering zur Analyse von Schadsoftware. Der Schritt folgt auf Anthropics Ankündigung des Claude-Mythos-Modells, das tausende Zero-Day-Schwachstellen autonom aufdecken kann, weshalb Anthropic dessen Zugang streng limitiert. Für deutsche Unternehmen und Behörden bedeutet dies sowohl Chancen als auch Herausforderungen: Während Sicherheitsverantwortliche von fortgeschrittenen defensiven KI-Tools profitieren können, steigt gleichzeitig das Risiko von Missbrauch durch Angreifer. OpenAI verfolgt dabei eine breitere Zugangsstrategie als sein Konkurrent und argumentiert, dass viele legitime Verteidiger Zugriff auf solche Technologien benötigen. Deutsche Organisationen können sich über identity verification und OpenAI-Kontakte für das Programm registrieren und damit ihre Cybersicherheitskapazitäten erheblich ausbauen.

Der Wettbewerb um KI-Modelle für Cybersecurity wird intensiver. Nachdem Anthropic Anfang des Jahres mit Claude Mythos – einem KI-System, das autonome Zero-Day-Schwachstellenerkennung ermöglicht – für Furore sorgte und dessen Freigabe restriktiv handhabte, reagiert OpenAI mit einer gegensätzlichen Strategie: Breite, verifizierte Verfügbarkeit statt zentralisierte Kontrolle.

Das neue Modell GPT-5.4-Cyber ist eine speziell angepasste Variante von GPT-5.4, die neue Fähigkeiten bietet – insbesondere Binary Reverse Engineering. Diese Technologie ermöglicht es Sicherheitsexperten, kompilierte Software-Binärdateien zu analysieren, um Sicherheitslücken und Malware-Verhalten zu erkennen. Das ist ein erheblicher Fortschritt für defensive Cybersecurity-Arbeiten.

OpenAI hat sein Trusted Access for Cyber-Programm massiv skaliert. Individuelle Defender können sich über chatgpt.com/cyber anmelden und müssen sich dabei verifizieren. Enterprise-Teams arbeiten direkt mit ihrem OpenAI-Vertreter zusammen. Das Programm startet begrenzt und iterativ – mit verifizierten Security-Anbietern, Organisationen und Forschern.

Die Philosophie dahinter unterscheidet sich grundlegend von Anthropics Ansatz. OpenAI argumentiert: „Wir denken nicht, dass es praktisch oder angemessen ist, zentral zu entscheiden, wer sich selbst verteidigen darf. Stattdessen wollen wir so vielen legitimen Defendern wie möglich Zugang ermöglichen – verankert in Verifikation, Vertrauenssignalen und Verantwortlichkeit.”

Das Unternehmen verfolgt drei Grundprinzipien: demokratisierter Zugang (objektive Verifikation statt manueller Gatekeeping), iterative Implementierung (Lernen aus echten Anwendungen) und Ökosystem-Resilienz (Unterstützung durch Zuschüsse und Open-Source-Beiträge). Ein Beispiel für letzteres ist die Codex Security-Plattform, die automatisch Codebäsen scannt und Fixes vorschlägt – sie hat bereits über 3.000 kritische und hochgradige Schwachstellen im Open-Source-Ökosystem identifiziert.

Für deutsche Unternehmen und Sicherheitsforscher bedeutet dies konkrete Chancen: Sie können jetzt auf fortgeschrittene KI-Tools zugreifen, um ihre Abwehrstärke zu verbessern. Der Schlüssel ist die Verifikation und ein sauberes Identity-Verification-Verfahren.

Doch während beide Unternehmen den defensiven Einsatz priorisieren, bleibt das Dual-Use-Risiko präsent. Solche mächtigen Modelle könnten auch von Angreifern missbraucht werden. OpenAI und Anthropic arbeiten daran, diese Risiken durch Zugangskontrollen und Accountability-Mechanismen zu minimieren.