Der Wettbewerb um KI-Modelle für Cybersecurity wird intensiver. Nachdem Anthropic Anfang des Jahres mit Claude Mythos – einem KI-System, das autonome Zero-Day-Schwachstellenerkennung ermöglicht – für Furore sorgte und dessen Freigabe restriktiv handhabte, reagiert OpenAI mit einer gegensätzlichen Strategie: Breite, verifizierte Verfügbarkeit statt zentralisierte Kontrolle.
Das neue Modell GPT-5.4-Cyber ist eine speziell angepasste Variante von GPT-5.4, die neue Fähigkeiten bietet – insbesondere Binary Reverse Engineering. Diese Technologie ermöglicht es Sicherheitsexperten, kompilierte Software-Binärdateien zu analysieren, um Sicherheitslücken und Malware-Verhalten zu erkennen. Das ist ein erheblicher Fortschritt für defensive Cybersecurity-Arbeiten.
OpenAI hat sein Trusted Access for Cyber-Programm massiv skaliert. Individuelle Defender können sich über chatgpt.com/cyber anmelden und müssen sich dabei verifizieren. Enterprise-Teams arbeiten direkt mit ihrem OpenAI-Vertreter zusammen. Das Programm startet begrenzt und iterativ – mit verifizierten Security-Anbietern, Organisationen und Forschern.
Die Philosophie dahinter unterscheidet sich grundlegend von Anthropics Ansatz. OpenAI argumentiert: „Wir denken nicht, dass es praktisch oder angemessen ist, zentral zu entscheiden, wer sich selbst verteidigen darf. Stattdessen wollen wir so vielen legitimen Defendern wie möglich Zugang ermöglichen – verankert in Verifikation, Vertrauenssignalen und Verantwortlichkeit.”
Das Unternehmen verfolgt drei Grundprinzipien: demokratisierter Zugang (objektive Verifikation statt manueller Gatekeeping), iterative Implementierung (Lernen aus echten Anwendungen) und Ökosystem-Resilienz (Unterstützung durch Zuschüsse und Open-Source-Beiträge). Ein Beispiel für letzteres ist die Codex Security-Plattform, die automatisch Codebäsen scannt und Fixes vorschlägt – sie hat bereits über 3.000 kritische und hochgradige Schwachstellen im Open-Source-Ökosystem identifiziert.
Für deutsche Unternehmen und Sicherheitsforscher bedeutet dies konkrete Chancen: Sie können jetzt auf fortgeschrittene KI-Tools zugreifen, um ihre Abwehrstärke zu verbessern. Der Schlüssel ist die Verifikation und ein sauberes Identity-Verification-Verfahren.
Doch während beide Unternehmen den defensiven Einsatz priorisieren, bleibt das Dual-Use-Risiko präsent. Solche mächtigen Modelle könnten auch von Angreifern missbraucht werden. OpenAI und Anthropic arbeiten daran, diese Risiken durch Zugangskontrollen und Accountability-Mechanismen zu minimieren.
