KI-SicherheitSchwachstellenHackerangriffe

Hacker nutzen KI für Exploit-Entwicklung und Angriffsautomatisierung

Hacker nutzen KI für Exploit-Entwicklung und Angriffsautomatisierung
Zusammenfassung

# KI-gestützte Angriffe werden zur wachsenden Bedrohung für deutsche Systeme Cyberkriminelle missbrauchen künstliche Intelligenz zunehmend für die Entwicklung von Exploits und die Automatisierung von Angriffen – eine Erkenntnis, die Google in aktueller Sicherheitsforschung dokumentiert hat. Seit Large Language Models wie Gemini und Claude öffentlich verfügbar sind, nutzen Bedrohungsakteure diese Tools nicht mehr nur für Phishing oder Malware-Codierung, sondern auch zur Anfälligkeit-Forschung und Exploit-Entwicklung. Besonders bemerkenswert: Google identifizierte erstmals einen KI-entwickelten Zero-Day-Exploit, der möglicherweise gegen Web-Admin-Tools eingesetzt wurde. Vor allem Akteure mit Verbindungen zu China und Nordkorea zeigen intensives Interesse an dieser Technologie – sie trainieren KI-Modelle auf Millionen von Vulnerability-Daten, um automatisiert Sicherheitslücken zu finden. Noch alarmierender ist der Einsatz von autonomen KI-Agenten, die komplette Angriffskampagnen mit minimaler menschlicher Kontrolle orchestrieren. Für deutsche Unternehmen und Behörden bedeutet dies eine qualitativ neue Bedrohungslage: Angreifer können nun gezielt deutsche Infrastruktur, Softwaresysteme und Cloud-Plattformen schneller und skalierbarer angreifen. Deutschland muss seine Cybersecurity-Strategien dringend an diese KI-getriebene Angriffslandschaft anpassen.

Die Gefahren durch KI-gestützte Cyberangriffe werden konkreter. Googles Threat Intelligence Group (GTIG) dokumentiert in ihrer neuesten Analyse, wie Cyberkriminelle von der breiten Verfügbarkeit großer Sprachmodelle profitieren – nicht nur für oberflächliche Aktivitäten wie Phishing-Köder oder Malware-Kodierung, sondern für tiefgreifende Exploit-Entwicklung und Angriffsautomatisierung.

Besonders bemerkenswert ist der identifizierte Zero-Day-Exploit in einer Python-Implementierung. Die Analyse deutet stark darauf hin, dass ein KI-Modell bei dessen Entdeckung und “Bewaffnung” eine zentrale Rolle spielte. Das Exploit-Skript enthält zahlreiche dokumentierende Docstrings, einen halluzinierten CVSS-Score und folgt einem strukturierten, lehrbuchartigen Python-Format – alles charakteristische Merkmale von LLM-Trainingsdaten.

Besorgniserregend ist die geografische Dimension. Chinesische Aktoren wie UNC2814 verwenden Gemini explizit zur Schwachstellenforschung bei Embedded-Geräten wie TP-Link-Firmware. Der nordkoreanische Akteur Silent Chollima (APT45) sendet Tausende repetitiver Prompts, um verschiedene CVEs rekursiv zu analysieren und Proof-of-Concept-Exploits zu validieren. Besonders raffiniert: Angreifer trainieren spezialisierte KI-Modelle mit “wooyun-legacy”, einem Repository mit über 85.000 realen Schwachstellen aus der chinesischen Bug-Bounty-Plattform WooYun.

Ein Paradigmenwechsel zeigt sich bei der Angriffsorchestrierung. Das Android-Backdoor “PromptSpy” nutzt Gemini zur Angriffsautomatisierung – es navigiert die Android-Benutzeroberfläche autonom, interpretiert Nutzeraktivitäten in Echtzeit und kann sogar biometrische Daten erfassen und abspielen, um Authentifizierung zu umgehen.

Chinesische Aktoren setzten agentic Tools wie Hextrike und Strix gegen japanische Technologieunternehmen und ostasiatische Cybersecurity-Plattformen ein, um Persistenz zu wahren und Schwachstellen automatisiert zu validieren. Google fasst es treffend zusammen: “Die Kombination aus autonomer Aufklärung und automatisierter Validierung deutet auf einen Übergang zu KI-getriebenen Frameworks hin, die Entdeckungsaktivitäten mit minimalem menschlichem Eingriff skalieren können.”

Für deutsche Sicherheitsverantwortliche bedeutet dies einen fundamentalen Wandel: Während Abwehr-Teams noch über menschlich gesteuerte KI diskutieren, verschieben sich Angriffe bereits zu autonomen, KI-orchestrierten Kampagnen. Die Automatisierung ist kein theoretisches Szenario mehr – sie ist bereits Realität.