Geklaute KI-Accounts fluten das Darknet
Premium-Zugänge zu ChatGPT, Claude und Co. werden im Untergrund vertickt wie Hotcakes. Cyberkriminelle handeln gestohlene KI-Accounts mittlerweile so routiniert wie gehackte E-Mail-Konten oder VPS-Zugänge.
Was konkret passiert
Sicherheitsforscher von Flare Systems haben dokumentiert: Auf einschlägigen Marktplätzen tauchen massenhaft Premium-KI-Accounts auf. Die werden gebündelt verkauft, oft im Dutzend. Käufer bekommen Zugang zu bezahlten Modellen — ohne selbst einen Cent an OpenAI oder Anthropic zu zahlen.
💡 Was das bedeutet
KI-Accounts sind zur Handelsware in der Cybercrime-Lieferkette geworden. Wer bisher Kreditkartendaten, RDP-Zugänge und E-Mail-Logins verkauft hat, packt jetzt ChatGPT-Plus-Accounts obendrauf. Das ist kein Nischen-Phänomen mehr — das ist Industrialisierung.
So läuft der Handel
- Beschaffung:** Credentials werden per Infostealer-Malware, Phishing oder Credential Stuffing abgegriffen
- Bündelung:** Accounts werden in Paketen angeboten — teilweise mit Garantie auf Funktionsfähigkeit
- Weiterverkauf:** Marktplätze im Darknet listen die Zugänge wie ganz normale Produkte
- Nutzung:** Käufer missbrauchen die Accounts für Spam, Malware-Code oder Social Engineering
Pro (für die Kriminellen)
- Billiger als eigene Abos
- Schwer zurückverfolgbar
- API-Zugang inklusive bei manchen Accounts
Con (für alle anderen)
- Opfer merken es oft erst an der Rechnung
- KI-Anbieter haben kein einheitliches Warnsystem
- Missbrauch befeuert weitere Cyberkriminalität
Wer am meisten verliert
Nicht nur die Bestohlenen. Auch die KI-Anbieter selbst haben ein Problem. Jeder missbrauchte Account ist ein Reputationsrisiko. Und wenn gestohlene Zugänge für die Erstellung von Phishing-Mails oder Schadcode genutzt werden, landet die Verantwortungsfrage schnell bei OpenAI, Google und Anthropic.