KI-SicherheitHackerangriffeDatenschutz

Wie KI-Bots Wahlen manipulieren: Australische Universität demonstriert Risiken von Social-Media-Einflussnahme

Wie KI-Bots Wahlen manipulieren: Australische Universität demonstriert Risiken von Social-Media-Einflussnahme
Zusammenfassung

Ein australisches Universitäts-Wettbewerb hat ein beunruhigendes Szenario durchgespielt: Wie leicht lässt sich die öffentliche Meinung durch AI-gesteuerte Bots und koordinierte Social-Media-Manipulation beeinflussen? Bei dem Experiment „Capture the Narrative" der University of New South Wales versuchten über 270 Teilnehmer aus 18 australischen Hochschulen, eine simulierte Wahl auf der fiktiven Insel Kingston durch Desinformation zu manipulieren – mit Erfolg. Die Bots schafften es, das Wahlergebnis um 1,8 Prozentpunkte zu verschieben, genug um den Wahlausgang umzukehren. Das Experiment basiert auf realen Bedrohungen: Russische Operationen versuchten, australische KI-Chatbots vor der Bundeswahl 2025 mit Propaganda zu vergiften, während chinesische Bots bei Australiens Voice-Referendum Einfluss ausübten. Für Deutschland und Europa ist diese Warnung hochrelevant, da auch hiesige Wahlen und politische Prozesse zunehmend zum Ziel von KI-gestützten Desinformationskampagnen werden. Die Studie zeigt nicht nur die technische Machbarkeit solcher Angriffe, sondern auch die rasante Entwicklung von Manipulationstaktiken. Plattformbetreiber, Regulatoren und Nutzer müssen dringend gegensteuern, um die Integrität demokratischer Prozesse zu schützen.

Das legendäre Film-Szenario aus “WarGames” von 1983, in dem ein Teenager einen Nuklearkrieg fast auslöst, wirkt heute quaint. Die reale Bedrohung ist subtiler und potenziell ebenso gefährlich geworden: Nicht Militärcomputer stehen im Fokus, sondern Social-Media-Plattformen und die öffentliche Meinung, die durch automatisierte Manipulation gestaltet wird.

Die UNSW-Forscher Hammond Pearce und Rahat Masood wollten diese Gefahr für Studierende greifbar machen. Sie entwickelten eine eigene Social-Media-Plattform namens “Legit Social” – basierend auf früheren Twitter-Versionen – und füllten sie mit über 40 verschiedenen “Non-Player-Character”-Bots (NPCs). Diese digitalen Bürger mit unterschiedlichen Persönlichkeitsmerkmalen wurden von 12 großen Sprachmodellen (LLMs) gleichzeitig betrieben.

Die Aufgabe der Spieler war es, eigene Bot-Netzwerke zu erstellen und diese NPCs von einer bestimmten Wahlentscheidung auf einer fiktiven südpazifischen Insel “Kingston” zu überzeugen. Mit einem Budget von null bis 100 australischen Dollar gelang es den Teams, eine erschreckend effektive Manipulationsmaschinerie aufzubauen: Millionen dynamisch generierter Posts, automatisierte Sentimentanalysen und geschlossene Rückkopplungssysteme, die sich kontinuierlich selbst optimierten – manche Teams brachten sogar die Server zum Absturz.

Erkenntnisse mit realen Implikationen

Das Experiment basierte nicht auf theoretischen Annahmen, sondern auf dokumentierten realen Angriffsmustern. 2025 versuchte eine pro-russische Operation, australische KI-Chatbots mit Propaganda zu vergiften. Zudem manipulierten chinesische Bot-Netzwerke massiv die Debatten zum australischen Voice-Referendum 2023. In den USA wirken die Nachwehen der russischen Einmischung in die Präsidentschaftswahl 2020 bis heute nach.

Pearce wird seine Erkenntnisse auf der Black Hat Asia 2026 vorstellen. Eine zentrale Forderung an Tech-Konzerne lautet: Sie müssen “wesentlich mehr tun, um KI-generierte Fake-Content in großem Maßstab zu erkennen und zu entfernen.” Gleichzeitig appelliert er an die Öffentlichkeit, sich selbst zu educieren, und fordert Regierungen auf, systematisch Medienkompetenz zu fördern.

Die technischen Werkzeuge, die Teams entwickelten – adaptive Spam-Systeme, Micro-Targeting basierend auf Massenanalysen, dynamisch angepasste Narrative – zeigen, dass die Mittel zur Manipulation demokratischer Prozesse billiger und effektiver werden, je schneller KI-Technologie voranschreitet. Deutschland sollte diese Warnung ernst nehmen.