KI-SicherheitCyberkriminalitätHackerangriffe

Britische Regierung warnt vor KI-gestützten Cyberangriffen – Mythos-Modell sorgt für Besorgnis

Britische Regierung warnt vor KI-gestützten Cyberangriffen – Mythos-Modell sorgt für Besorgnis
Zusammenfassung

Die britische Regierung hat Unternehmen in einem offenen Brief vor wachsenden Cyberrisiken gewarnt, die durch fortschrittliche künstliche Intelligenz entstehen könnten. Der Anlass: Das KI-Unternehmen Anthropic präsentierte kürzlich sein Modell Mythos, das demonstriert, wie automatisiert Softwareschwachstellen entdeckt und ausgenutzt werden könnten – schneller und effizienter als bislang möglich. Dies hat Besorgnis ausgelöst, nicht nur in der Technologiebranche, sondern auch bei Zentralbankern wie Andrew Bailey von der Bank of England, die vor systemischen Cyberrisiken warnen. Während einige Experten die unmittelbare Bedrohung skeptischer sehen und auf frühere überoptimistische KI-Prognosen verweisen, zeigen Auswertungen des britischen AI Security Institute, dass Mythos tatsächlich bemerkenswerte offensive Fähigkeiten besitzt – allerdings unter idealisierten Testbedingungen. Auch deutsche Unternehmen und Behörden sollten diese Entwicklung ernst nehmen, denn der Trend zeigt: Organisationen ohne robuste Cybersicherheitsmaßnahmen werden zunehmend vulnerabel. Die zentrale Botschaft ist eindeutig: Grundlegende Sicherheitspraktiken wie regelmäßige Updates, Netzwerküberwachung und funktionierende Notfallpläne müssen Priorität haben – eine Mahnung, die für deutschen Mittelstand und kritische Infrastruktur gleichermaßen gilt.

Die Ankündigung von Anthropics KI-Modell Mythos hat eine internationale Sicherheitsdebatte ausgelöst, die auch Deutschland nicht ignorieren sollte. Das britische AI Security Institute kam zu dem Ergebnis, dass Mythos bei Cyberangriffen leistungsfähiger ist als jedes bisher bewertete Modell. Gleichzeitig verdeutlicht die offizielle Warnung aus London, wie ernst Regierungen die Bedrohung durch KI-gestützte Hacking-Methoden nehmen.

Das AISI-Gutachten zeigt ein differenziertes Bild: Mythos ist demnach „autonom in der Lage, kleine, schlecht verteidigte und anfällige Unternehmenssysteme anzugreifen, sofern Netzwerkzugang besteht”. Allerdings wurden diese Tests unter vereinfachten Bedingungen durchgeführt – ohne aktive Sicherheitsteams, ohne Monitoring-Tools und ohne Entdeckungsrisiko. Richard Horne, Geschäftsführer des britischen National Cyber Security Centre, warnt deshalb, dass sich KI-Fähigkeiten für Verteidiger und Angreifer gleichermaßen nutzen lassen.

Die Warnung trifft auf ein bekanntes Problem: Während Sicherheitsexperten wie Bruce Schneier vor Überreaktionen warnen und darauf hinweisen, dass ähnliche Prognosen bei früheren KI-Generationen gestellt wurden, bleiben grundlegende Sicherheitsmaßnahmen in vielen Organisationen unterimplementiert. Patches, Netzwerk-Monitoring und Incident-Response-Pläne sind seit Jahren empfohlen – doch die Umsetzung bleibt ungleich verteilt.

Besonders bemerkenswert: Chinesische Regierungsdokumente deuten darauf hin, dass staatlich gestützte Programme bereits an KI-Systemen arbeiten, die verteidigte Netzwerke durchdringen und Erkennung vermeiden können. Das geht über die im Labor getesteten Fähigkeiten hinaus.

Professor Ciaran Martin von der University of Oxford vergleicht die Situation passend mit dem Fußball: Mythos sei wie ein Torschütze, der brillant gegen ein Team ohne Torwart spielt, aber noch nicht gegen professionelle Abwehr getestet wurde. Der Fokus muss auf der Stärkung der Verteidigung liegen – und zwar sofort.

Für Deutschland bedeutet dies konkret: Die Warnung sollte endlich zu konkreten Investitionen in Basis-Sicherheitsmaßnahmen führen. Kritische Infrastrukturen, Finanzinstitute und mittelständische Unternehmen müssen ihre Schwachstellen systematisch adressieren, bevor KI-gestützte Angreifer diese ausnutzen können.