Die Gefahren durch KI-gestützte Cyberangriffe werden konkreter. Googles Threat Intelligence Group (GTIG) dokumentiert in ihrer neuesten Analyse, wie Cyberkriminelle von der breiten Verfügbarkeit großer Sprachmodelle profitieren – nicht nur für oberflächliche Aktivitäten wie Phishing-Köder oder Malware-Kodierung, sondern für tiefgreifende Exploit-Entwicklung und Angriffsautomatisierung.
Besonders bemerkenswert ist der identifizierte Zero-Day-Exploit in einer Python-Implementierung. Die Analyse deutet stark darauf hin, dass ein KI-Modell bei dessen Entdeckung und “Bewaffnung” eine zentrale Rolle spielte. Das Exploit-Skript enthält zahlreiche dokumentierende Docstrings, einen halluzinierten CVSS-Score und folgt einem strukturierten, lehrbuchartigen Python-Format – alles charakteristische Merkmale von LLM-Trainingsdaten.
Besorgniserregend ist die geografische Dimension. Chinesische Aktoren wie UNC2814 verwenden Gemini explizit zur Schwachstellenforschung bei Embedded-Geräten wie TP-Link-Firmware. Der nordkoreanische Akteur Silent Chollima (APT45) sendet Tausende repetitiver Prompts, um verschiedene CVEs rekursiv zu analysieren und Proof-of-Concept-Exploits zu validieren. Besonders raffiniert: Angreifer trainieren spezialisierte KI-Modelle mit “wooyun-legacy”, einem Repository mit über 85.000 realen Schwachstellen aus der chinesischen Bug-Bounty-Plattform WooYun.
Ein Paradigmenwechsel zeigt sich bei der Angriffsorchestrierung. Das Android-Backdoor “PromptSpy” nutzt Gemini zur Angriffsautomatisierung – es navigiert die Android-Benutzeroberfläche autonom, interpretiert Nutzeraktivitäten in Echtzeit und kann sogar biometrische Daten erfassen und abspielen, um Authentifizierung zu umgehen.
Chinesische Aktoren setzten agentic Tools wie Hextrike und Strix gegen japanische Technologieunternehmen und ostasiatische Cybersecurity-Plattformen ein, um Persistenz zu wahren und Schwachstellen automatisiert zu validieren. Google fasst es treffend zusammen: “Die Kombination aus autonomer Aufklärung und automatisierter Validierung deutet auf einen Übergang zu KI-getriebenen Frameworks hin, die Entdeckungsaktivitäten mit minimalem menschlichem Eingriff skalieren können.”
Für deutsche Sicherheitsverantwortliche bedeutet dies einen fundamentalen Wandel: Während Abwehr-Teams noch über menschlich gesteuerte KI diskutieren, verschieben sich Angriffe bereits zu autonomen, KI-orchestrierten Kampagnen. Die Automatisierung ist kein theoretisches Szenario mehr – sie ist bereits Realität.
