CyberkriminalitätHackerangriffeDatenschutz

KI-Konten im Darknet: Gestohlene ChatGPT- und Claude-Accounts werden zur Währung der Cyberkriminellen

KI-Konten im Darknet: Gestohlene ChatGPT- und Claude-Accounts werden zur Währung der Cyberkriminellen
Zusammenfassung

Der rasante Aufstieg von künstlicher Intelligenz hat diese Tools zu unverzichtbaren Begleitern in Beruf und Alltag gemacht – von ChatGPT über Claude bis zu Microsoft Copilot werden sie weltweit für Content-Erstellung, Softwareentwicklung und geschäftskritische Prozesse eingesetzt. Doch genau diese wachsende Abhängigkeit und der Zugang zu leistungsstarken KI-Modellen haben auch die Aufmerksamkeit der Cyberkriminalität erregt. Sicherheitsanalysten haben jüngst ein besorgniserregendes Phänomen dokumentiert: Bezahlte KI-Konten sind zu einer gefragten Handelsware in Underground-Märkten geworden. Cyberkriminelle bieten gestohlene oder kompromittierte Premium-Accounts zu Discount-Preisen an – gebündelt, weitergeleitet und unter dem Versprechen von weniger Einschränkungen. Dies ermöglicht es Angreifern, in großem Maßstab personalisierten Phishing-Content, betrügerische Nachrichten und täuschend echte Social-Engineering-Kampagnen zu generieren. Für deutsche Nutzer, Unternehmen und Behörden bedeutet dies ein erhebliches Sicherheitsrisiko: Verstärkte Account-Übernahmen, Datendiebstahl durch unauthorized AI-Nutzung und die Gefahr, dass eigene Systeme zum Ziel ausgefeilter automatisierter Angriffe werden. Die Szenarien reichen von Mitarbeitern, die unwissentlich gekaufte Accounts nutzen, bis zu gezielten Cyberangriffen gegen sensible Infrastrukturen.

Der Schwarzmarkt für KI-Plattform-Zugang nimmt besorgniserregende Ausmaße an. Eine Analyse von Hunderten von Postings in Cyberkriminellen-Foren zeigt ein klares Muster: Premium-Accounts für ChatGPT Plus, Claude Pro, Microsoft Copilot mit Office 365 und Perplexity AI Pro werden regelmäßig gebündelt angeboten und weiterverkauft. Während legitime Abos oft 20 Euro monatlich und mehr kosten, werden die gestohlenen Accounts zu drastisch günstigeren Preisen angeboten.

Die Beschaffungswege sind vielfältig. Forscher identifizierten mehrere Methoden: Exponierte API-Schlüssel in öffentlichen Repositories wie Docker Hub, gestohlene Gmail- und Outlook-Credentials, Massenregistrierungen mit virtuellen Telefonnummern zur Umgehung von Verifizierungssystemen, ausgenutzte Trial-Angebote sowie der Missbrauch von Promotional-Codes. Besonders bemerkenswert ist die Exploitation von Sanktionen: In Ländern wie Russland, dem Iran und Nordkorea ist der legale Zugang zu ChatGPT oft blockiert. Cyberkriminelle bieten dort Ready-to-Use-Accounts an, die diese Hürden umgehen.

Die Gefahren für Unternehmen sind konkret. Laut Europol 2025 nutzen Kriminelle generative KI-Modelle zunehmend, um Phishing-Kampagnen und Betrugsschemen in großem Stil zu automatisieren. Die von Palo Alto Networks’ Unit 42 dokumentierten Fälle zeigen, wie Angreifer mit KI hochpersonalisierte Social-Engineering-Kampagnen fahren. Anthropic warnte zuletzt vor Missbrauch durch orchestrierte Cyber-Spionage-Operationen.

Die Integration von KI-Accounts in den bestehenden Underground-Markt ist besonders alarmierend. Sie werden nicht isoliert verkauft, sondern zusammen mit E-Mail-Accounts, Developer-Tools und Verifikations-Infrastructure angeboten – als Teil eines etablierten Ökosystems für digitale Dienste. Das senkt die Einstiegshürden für weniger technisch versierte Kriminelle erheblich.

Um sich zu schützen, empfehlen Sicherheitsexperten: Multi-Faktor-Authentifizierung auf allen KI-Accounts aktivieren, sensible Daten nur in unternehmensapprobierten Umgebungen nutzen, Login-Aktivitäten überwachen, Enterprise-Grade-Accounts verwenden, API-Schlüssel regelmäßig rotieren und Mitarbeiter schulen. Organisationen sollten auch Underground-Aktivitäten monitoren, um kompromittierte Accounts frühzeitig zu erkennen. Die Zeit zum Handeln ist jetzt.