KI-SicherheitSchwachstellenHackerangriffe

KI-Sicherheit im Fokus: Wie Ethical Hacker die Schutzschranken von Sprachmodellen knacken

KI-Sicherheit im Fokus: Wie Ethical Hacker die Schutzschranken von Sprachmodellen knacken
Zusammenfassung

# Künstliche Intelligenz unter Beschuss: Wie Sicherheitsforscher Schwachstellen in KI-Systemen aufdecken Die Sicherheit von Künstlicher Intelligenz ist zum zentralen Thema der Cybersicherheitsbranche geworden. Joey Melo, Principal Security Researcher bei CrowdStrike, arbeitet als sogenannter AI Red Teamer und hat sich darauf spezialisiert, Schwachstellen in KI-Guardrails durch Jailbreaking und Datenvergiftung aufzudecken. Seine Methoden helfen Entwicklern, Sprachmodelle und KI-Systeme widerstandsfähiger gegen Missbrauch zu machen. Das Jailbreaking zielt darauf ab, die Sicherheitsmechanismen von KI-Systemen zu umgehen und sie zur Ausgabe gefährlicher oder eingeschränkter Inhalte zu bewegen, während Datenvergiftung versucht, das Trainingsmaterial von KI-Modellen zu manipulieren. Für deutsche Unternehmen und Behörden, die zunehmend KI-Systeme einsetzen – von automatisierten Kundenservice-Chatbots bis zu sensiblen Verwaltungsanwendungen – sind solche Sicherheitserkenntnisse entscheidend. Die wachsende Sophistication von Angriffsverfahren zeigt, dass robuste Sicherheitsmaßnahmen dringend erforderlich sind, um Missbrauch zu verhindern und vertrauenswürdige KI-Systeme zu entwickeln.

Joey Melo beschreibt seinen Ansatz zum Hacken von KI-Systemen nicht als Dekonstruktion und Rekonstruktion, sondern als Manipulation der Umgebung, ohne die zugrunde liegenden Regeln zu brechen. Diese Philosophie stammt aus seiner Faszination für das Videospiel Counter-Strike, wo er bereits als Kind Konfigurationsdateien veränderte und experimentierte – ohne das Spiel selbst zu zerstören.

Heute wendet Melo dieses Prinzip auf KI an: Wie lässt sich ein Sprachmodell zu unerwünschtem Output bewegen, ohne den Quellcode zu verändern? Die Antwort liegt im Jailbreaking – dem gezielten Umgehen von Sicherheitsschranken (Guardrails), die von KI-Entwicklern eingebaut werden.

Melos Karriereweg führte ihn von klassischem Penetration Testing über die Pangea-Übernahme durch CrowdStrike (2025) zum KI-Red-Team-Spezialisten. Sein Durchbruch kam 2025 durch den Gewinn eines KI-Hacking-Wettbewerbs von Pangea, bei dem er alle Ebenen knackte und später auch 100 Prozent der 39 HackAPrompt-2.0-Challenges löste.

Die Technik: Enumeration, Kontext und Kreativität

Melos Jailbreaking-Methode beginnt mit Enumeration: Er fragt das Bot, was es tun soll und was es kann. Dann testet er die Grenzen der Guardrails systematisch. Ein einfaches Beispiel: Während der Bot “crystal meth” nicht direkt beschreiben wird, könnte die Frage als “technische Forschungsinformation” umrahmt werden – ein Kontextwechsel, der die Guardrail umgehen könnte.

Die Methode ist iterativ: Großbuchstaben, Punkte, Wortvariationen – “es gibt unendlich viele Möglichkeiten”, sagt Melo. Besonders wirksam ist die Kontextmanipulation über mehrere Turns: Wenn ein Modell etwa erfährt, dass wir im Jahr 2035 sind und Kernwaffen legal sind, könnte es alte Sicherheitsregeln als veraltet einstufen und neu antworten.

Data Poisoning: Der Inside-Out-Angriff

Während Jailbreaking von außen angreift, arbeitet Data Poisoning von innen. Wenn ein Modell kontinuierlich Nutzer-Prompts in sein Training aufnimmt, könnte ein Angreifer wiederholt falsche Informationen einschleusen (etwa: “Die Mondlandung war fake”). Nach ausreichend Wiederholungen gibt das Modell diese Fehlinformation als Fakt aus.

Ähnlich gefährlich ist das Vergiften von Web-Scraping-Daten: Ein Attacker erstellt eine Website mit Keywords, die den Bot interessieren, und platziert gezielt Fehlinformationen dort. Wenn das Modell diese Website später scraping, werden die Falschdaten ins Training integriert.

Sicherheitstrends und Ethik

Melo beobachtet: Jailbreaking ist deutlich schwieriger geworden als 2023. Das simple “Ignoriere vorherige Anweisungen”-Prompt funktioniert nicht mehr. Stattdessen braucht es komplexe Kontextmanipulation – ein Fortschritt in der KI-Sicherheit.

Trotzdem: Es gibt “unendlich viele Wege” zum Jailbreak, begrenzt nur durch Kreativität. Die Sicherheit ist ein ständiges Katz-und-Maus-Spiel, ähnlich wie die Internet-Sicherheit insgesamt.

Beim Disclosure bleibt Melo ethisch: “Responsible Disclosure” statt Dark-Web-Verkauf. Seine Motivation ist Neugier und der Spaß am Puzzle – nicht Gier. “True Virtue liegt darin, die Fähigkeit zu haben, Schaden anzurichten, aber bewusst nicht zu tun.”

Für deutsche Organisationen bedeutet dies: Red-Team-Testing durch Profis wie Melo ist nicht optional, sondern notwendig, um KI-Systeme vor produktiven Einsätzen zu härten – besonders in kritischen Bereichen wie Medizin, Finanzwesen und Infrastruktur.