Home » News » Cybersecurity » Account-Informationen von ChatGPT-Nutzern massenhaft im Darknet verfügbar

Account-Informationen von ChatGPT-Nutzern massenhaft im Darknet verfügbar

Im Darknet wurden tausende gestohlener Zugangsdaten für beliebte KI-Tools wie ChatGPT, Grammarly oder Canva entdeckt. Cyberkriminelle nutzen Infostealer, um an diese Zugangsdaten zu gelangen und verkaufen sie dann im Darknet.

1 Min. Lesezeit
Gehacktes Smartphone
Foto: ©AdobeStock/buraratn

Die Anzahl kompromittierter Account-Informationen für Dienste von OpenAI, dem Entwickler von ChatGPT, ist im Vergleich zum Jahr 2022 um mehr als das dreißigfache gestiegen – auf fast 688.000.

Laut einer aktuellen Bitkom-Studie betrachten fast die Hälfte der deutschen Unternehmen (46 Prozent) Künstliche Intelligenz (KI) als ebenso bedeutsam für die Büroarbeit wie einst die Einführung des PCs. Allerdings sind KI-Dienste zur Bildbearbeitung, Übersetzung und Chatbots auch attraktive Ziele für Cyberkriminelle, wie die Analyse von Kaspersky-Experten zeigt.

Wie eine aktuelle Kaspersky-Analyse zeigt, stiegen im Jahr 2023 gestohlene Logins für die Dienste des ChatGPT-Entwicklers OpenAI im Vergleich zum Vorjahr sprunghaft um das 33-fache auf etwa 664.000 an. Insgesamt wurden im Zeitraum von 2021 bis 2023 fast 688.000 gestohlene Konten erfasst. Besonders nach der Einführung der vierten ChatGPT-Version im März 2023 war die Nachfrage nach solchen Konten hoch und entsprach seither der anderer KI-Dienste.

In den letzten drei Jahren wurden etwa 1,2 Millionen Zugangsdaten von Canva-Nutzern gestohlen und in Darknet-Foren sowie Telegram-Kanälen verbreitet. Grammarly verzeichnete im selben Zeitraum etwa 839.000 kompromittierte Zugangsdaten.

Die Analyse wurde mit Hilfe von Kaspersky Digital Footprint Intelligence durchgeführt. Der Threat Intelligence Service gewährt Unternehmen Einblicke in deren digitalen Fußabdruck, wodurch sie mögliche Sicherheitsrisiken und Schwachstellen identifizieren können.

Yuliya Novikova, Head of Kaspersky Digital Footprint Intelligence, erklärt: „Die kompromittierten Anmeldeinformationen stammen aus Infostealer-Aktivitäten, einer speziellen Malware-Art, die Nutzerzugänge für Cyberangriffe, Verkäufe im Darknet oder andere schädliche Aktivitäten stiehlt. Infostealer können Geräte von Unternehmen unter anderem über Phishing-E-Mails, bösartige Websites oder öffentliche Webseiten mit schädlichen Inhalten infizieren. Wir erwarten, dass die Nachfrage nach ChatGPT-Konten weiterhin bestehen bleibt. Effiziente Sicherheitslösungen für Unternehmen, die vor Infostealer-Angriffen und anderer Malware schützen, werden immer wichtiger. Unsere Software überwacht beispielsweise kompromittierte Konten im Darknet und benachrichtigt Unternehmen, falls Nutzer ihrer Online-Dienste kompromittiert wurden.“

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante News

Cloud Security

Cloud-Security 2026: KI zwingt Unternehmen zur Automatisierung

Ein neuer Cloud-Security-Report zeigt einen Wendepunkt: Menschlich gesteuerte Cloud-Sicherheit stößt an ihre Grenzen. KI-basierte Angriffe erzwingen automatisierte Abwehr in Echtze...

Anonymer Hacker mit Hoodie

Unsichtbare Angriffe: Wie QEMU zur Tarnkappe für Hacker wird

Cyberkriminelle missbrauchen Virtualisierungstools wie QEMU, um unbemerkt in IT-Systemen zu agieren. Neue Analysen zeigen, wie Angreifer Sicherheitslösungen gezielt umgehen – und w...

Digitales Gehirn wird durch Cyberabwehr geschützt

KI spürt alte Schwachstellen auf – neue Ära der Cyberabwehr

Ein neues KI-Modell deckt jahrzehntealte Schwachstellen in kritischer Infrastruktur auf. Was wie ein technischer Durchbruch klingt, verändert die Spielregeln der Cybersecurity grun...