Das legendäre Film-Szenario aus “WarGames” von 1983, in dem ein Teenager einen Nuklearkrieg fast auslöst, wirkt heute quaint. Die reale Bedrohung ist subtiler und potenziell ebenso gefährlich geworden: Nicht Militärcomputer stehen im Fokus, sondern Social-Media-Plattformen und die öffentliche Meinung, die durch automatisierte Manipulation gestaltet wird.
Die UNSW-Forscher Hammond Pearce und Rahat Masood wollten diese Gefahr für Studierende greifbar machen. Sie entwickelten eine eigene Social-Media-Plattform namens “Legit Social” – basierend auf früheren Twitter-Versionen – und füllten sie mit über 40 verschiedenen “Non-Player-Character”-Bots (NPCs). Diese digitalen Bürger mit unterschiedlichen Persönlichkeitsmerkmalen wurden von 12 großen Sprachmodellen (LLMs) gleichzeitig betrieben.
Die Aufgabe der Spieler war es, eigene Bot-Netzwerke zu erstellen und diese NPCs von einer bestimmten Wahlentscheidung auf einer fiktiven südpazifischen Insel “Kingston” zu überzeugen. Mit einem Budget von null bis 100 australischen Dollar gelang es den Teams, eine erschreckend effektive Manipulationsmaschinerie aufzubauen: Millionen dynamisch generierter Posts, automatisierte Sentimentanalysen und geschlossene Rückkopplungssysteme, die sich kontinuierlich selbst optimierten – manche Teams brachten sogar die Server zum Absturz.
Erkenntnisse mit realen Implikationen
Das Experiment basierte nicht auf theoretischen Annahmen, sondern auf dokumentierten realen Angriffsmustern. 2025 versuchte eine pro-russische Operation, australische KI-Chatbots mit Propaganda zu vergiften. Zudem manipulierten chinesische Bot-Netzwerke massiv die Debatten zum australischen Voice-Referendum 2023. In den USA wirken die Nachwehen der russischen Einmischung in die Präsidentschaftswahl 2020 bis heute nach.
Pearce wird seine Erkenntnisse auf der Black Hat Asia 2026 vorstellen. Eine zentrale Forderung an Tech-Konzerne lautet: Sie müssen “wesentlich mehr tun, um KI-generierte Fake-Content in großem Maßstab zu erkennen und zu entfernen.” Gleichzeitig appelliert er an die Öffentlichkeit, sich selbst zu educieren, und fordert Regierungen auf, systematisch Medienkompetenz zu fördern.
Die technischen Werkzeuge, die Teams entwickelten – adaptive Spam-Systeme, Micro-Targeting basierend auf Massenanalysen, dynamisch angepasste Narrative – zeigen, dass die Mittel zur Manipulation demokratischer Prozesse billiger und effektiver werden, je schneller KI-Technologie voranschreitet. Deutschland sollte diese Warnung ernst nehmen.
