Die Reaktion Japans auf Anthropics neues KI-Modell Mythos offenbart ein grundsätzliches Dilemma der modernen Cybersicherheit: Wie bewertet man eine Technologie, deren tatsächliche Bedrohung noch ungeklärt ist?
Bei den Tests des Mythos-Modells identifizierte die KI Schwachstellen in jedem getesteten Browser und Betriebssystem. Besonders bemerkenswert: Das Modell kettet in mindestens einem Fall vier verschiedene Sicherheitslücken zu einer exploitbaren Angriffskette zusammen. Diese Fähigkeiten ließen japanische Bankmanager befürchten, dass ein massiver Cyberangriff zum Kollaps ihrer IT-Systeme führen könnte.
Doch Sicherheitsexperten wie Ryan Kalember von Proofpoint und Alex Orleans von Sublime Security äußern sich skeptischer. Kalember weist darauf hin, dass die bisherige Datenlage beruhigend ist: In gezielten Cyberangriffen werden derzeit durchschnittlich nur zwei CVEs (Common Vulnerabilities and Exposures) ausgenutzt – und keine davon wurde von Mythos entdeckt. “Die überwiegende Mehrheit erfolgreicher Cyberangriffe benötigt gar keine Exploits, weil Angreifer diese gar nicht brauchen”, erklärt der CSO.
Ein weiteres Problem ist die ungleiche Verteilung des Zugangs zu Mythos. Anthropic hat das Modell bislang nur einem kleinen, ausgewählten Kreis zur Verfügung gestellt. Dies hat zu Frustration bei ausgeschlossenen Institutionen geführt, allen voran bei deutschen Zentralbankvertretern, die öffentlich forderten, europäischen Finanzinstituten denselben Zugang zu gewähren wie ihren amerikanischen Pendants.
Kalember betont dabei einen wichtigen Aspekt speziell für japanische Banken: Diese nutzen historisch relativ wenig Open-Source-Software und veröffentlichen selten ihren Quellcode. Das macht sie weniger anfällig für Exploits, die auf öffentlich bekanntem Code basieren.
Die größere Sorge besteht laut Experten nicht in neuen KI-gestützten Vulnerabilities, sondern in der zunehmenden Konsolidation im Bankensektor. Diese schafft systemische Risiken, die durch technologische Lösungen allein nicht gelöst werden können. Kalember rät daher: Nicht in Panik verfallen, sondern solide Sicherheitspraktiken verstärken und die Entwicklung konkurrierender KI-Modelle abwarten.
