OpenAI hat aufgedeckt, dass chinesische Polizeibehörden ChatGPT zur Unterstützung von Schmutzkampagnen gegen politische Gegner nutzten, darunter auch Japans Premierministerin Sanae Takaichi. Der Bericht zeigt, wie Nationalstaaten KI-Chatbots zunehmend für geopolitische Desinformation einsetzen.
OpenAI hat in einem aktuellen Bericht Anfang März aufgedeckt, dass Organe der chinesischen Regierung ChatGPT zur Orchestrierung von Schmutzkampagnen gegen innenpolitische Gegner und internationale Rivalen missbraucht haben. Ein Accounts, der chinesischen Polizeibehörden zugeordnet wird, wurde regelmäßig dazu verwendet, Berichte über Desinformationskampagnen gegen chinesische Oppositionelle sowie gegen Sanae Takaichi, die aktuelle Premierministerin Japans, zu verfassen und zu überarbeiten.
Takaichi, die im Oktober letzten Jahres zur Präsidentin der Liberaldemokratischen Partei (LDP) und damit zur Premierministerin gewählt wurde, ist für ihre kritische Haltung gegenüber China bekannt. In öffentlichen Reden kündigte sie an, Taiwan militärisch zu unterstützen, sollte China angreifen. Zudem kritisierte sie Chinas Menschenrechtsbilanz bezüglich der Uiguren in Xinjiang.
Als Reaktion nutzte ein chinesischer Akteur ChatGPT, um eine Strategie zur Diskreditierung Takaichiis zu entwickeln. Der Benutzer ließ das KI-System Pläne entwerfen, um negative Kommentare über sie zu verbreiten, Fake-E-Mail-Adressen zu erstellen, um sich als japanische Bürger auszugeben, und Fake-Social-Media-Konten einzusetzen, um Desinformation über Lebenshaltungskosten und US-Zölle zu verbreiten.
Da ChatGPT die offensichtlich schädlichen Anfragen ablehnte, nutzte der Benutzer das Tool stattdessen zur Erstellung und Überarbeitung von Statusberichten und interner Dokumentation. Die Berichte gaben OpenAI seltene Einblicke in die Propagandamaschinerie der Kommunistischen Partei Chinas. Ein Bericht erwähnte beispielsweise 300 Mitarbeiter in einer Provinz, die in Influencingoperationen tätig sind. Die Dokumente verwiesen auch auf andere KI-Chatbots wie Qwen und DeepSeek und beschrieben über 100 verschiedene Taktiken gegen Feinde der KP – von Trollen bis zu Hacking und psychologischer Manipulation.
OpenAI dokumentierte parallel auch russische Bedrohungsakteure, die unter “Operation No Bell” ChatGPT zur Erstellung von Social-Media-Inhalten und längeren Artikeln zu geopolitischen Themen in Subsahara-Afrika einsetzten. Ein Artikel schlug sogar vor, dass Angolas Präsident den Friedensnobelpreis gewinnen sollte. Bemerkenswerterweise gelang es dem Threat Actor, 53 Artikel unter dem Pseudonym “Dr. Manuel Godsin” auf afrikanischen Nachrichtenwebseiten zu platzieren – ein deutliches Zeichen für die Wirksamkeit dieser Desinformationskampagnen.
OpenAI hat beide Konten gesperrt, doch Experten warnen vor größeren Risiken: Offene Sprachmodelle, deren interne Sicherheitsvorkehrungen leicht entfernt werden können, stellen ein erhebliches Risiko dar. “LLMs sind überzeugender als Menschen”, erklärt Ram Varadarajan, CEO von Acalvio. “Ein böswilliger Akteur, der LLMs für individualisierte Überzeugungsarbeit im großen Maßstab nutzt, ist ein gesellschaftliches Problem großen Ausmaßes.”
Quelle: Dark Reading