SchwachstellenKI-SicherheitHackerangriffe

KI-gestützte Zero-Day-Exploits: Google warnt vor neuer Angriffswelle durch maschinelles Lernen

KI-gestützte Zero-Day-Exploits: Google warnt vor neuer Angriffswelle durch maschinelles Lernen
Zusammenfassung

Googles Threat Intelligence Group hat erstmals einen Zero-Day-Exploit dokumentiert, der mit künstlicher Intelligenz entwickelt wurde. Die Sicherheitslücke betraf ein populäres, namentlich nicht genanntes Open-Source-Verwaltungswerkzeug für Webadministration und ermöglichte es potenziellen Angreifern, die Zwei-Faktor-Authentifizierung zu umgehen. Google identifizierte die Gefahr anhand charakteristischer Merkmale des Python-Codes – wie ausführliche Dokumentationen und eine erfundene CVSS-Bewertung – die typischerweise von großen Sprachmodellen generiert werden. Der Angriff wurde rechtzeitig gestoppt, bevor es zu massiven Ausbeutungsversuchen kam. Für deutsche Unternehmen und Behörden ist diese Entwicklung besonders besorgniserregend, da sie zeigt, dass Cyberkriminelle – darunter chinesische, nordkoreanische und russische Akteure – verstärkt KI-Systeme zur Vulnerabilitätserkennung und Exploit-Entwicklung einsetzen. Dies bedeutet, dass Angreifer schneller und effizienter neue Sicherheitslücken finden und ausnutzen können. Besonders kritisch ist die Industrialisierung des Zugriffs auf Premium-KI-Modelle durch automatisierte Kontoerstellung und Proxy-Systeme, die Sicherheitstools umgehen. Deutsche Organisationen müssen ihre Verteidigungsstrategien entsprechend anpassen und verstärkt auf zeitnahe Sicherheitsupdates sowie AI-gestützte Anomalieerkennung setzen.

Die Analyse der Python-Exploit-Code zeigt charakteristische Merkmale maschineller Generierung: Das Skript enthält zahlreiche pädagogische Dokumentationen, einen „halluzinierten” CVSS-Score und folgt einem strukturierten, lehrbuchmäßigen Format, das typisch für Large Language Models (LLM) ist. Google betont, dass die entdeckte Schwachstelle — ein hochstufiger semantischer Logik-Fehler — genau die Art von Vulnerabilität darstellt, die KI-Systeme aufspüren können, nicht aber klassische Fuzzing- oder Static-Analysis-Tools.

Besonders bemerkenswert ist die Natur des Angriffs: Das eingesetzte KI-Modell bleibt identifizieren, wobei Google Googles eigenes Gemini ausschließt. Stattdessen deuten die Beweise darauf hin, dass Threat-Actor-Gruppen weltweit Zugang zu verschiedenen LLM-Plattformen haben und diese systematisch zur Vulnerability-Discovery missbrauchen.

Die globale Dimension dieser Bedrohung ist erheblich: APT27, APT45 und weitere chinesisch-nordkoreanische Gruppen sowie russische Akteure setzen KI-Modelle routinemäßig für Exploit-Entwicklung ein. Besonders innovativ ist die russische Operation “Overload”, bei der Social-Engineering-Angreifer KI-gestützte Stimmenklonierung nutzen, um sich als Journalisten auszugeben — eine Technologie, die auch in Deutschland zu Desinformationskampagnen missbraucht werden könnte.

Ein weiteres warnendes Beispiel ist die PromptSpy-Malware für Android, die Gemini-APIs integriert und eigenständig mit dem Gerät interagiert. Das Malware-Modul “GeminiAutomationAgent” nutzt fest einprogrammierte Prompts, um Sicherheits-Features des LLM zu umgehen und UI-Grenzen zu manipulieren — beispielsweise um Authentifizierungen zu obskurieren.

Google warnt, dass Threat-Actor zunehmend Premium-KI-Modelle durch automatisierte Kontoerstellung und Account-Pooling-Infrastruktur industrialisieren. Dies bedeutet, dass Angreifer nicht mehr auf einzelne Exploits angewiesen sind, sondern KI-Pipelines aufbauen, die kontinuierlich nach verwertbaren Schwachstellen suchen.

Für deutsche Unternehmen und Behörden hat dies mehrere Konsequenzen: Zum einen müssen Vulnerability-Management-Prozesse aktualisiert werden, um KI-generierte Exploits schneller zu erkennen. Zum anderen verstärkt sich die Meldepflicht nach DSGVO bei Datenschutzverletzungen, da solche Angriffe sensitive Daten gefährden können. Das BSI sollte entsprechende Richtlinien zur Härtung von Verwaltungstools und zur KI-Sicherheit aktualisieren.