Neue KI-Modelle im Visier von Cyberkriminellen
Qwen und DeepSeek ermöglichen die Erstellung bösartiger Inhalte mit wenigen Einschränkungen. Während ChatGPT seinen Missbrauchsschutz verbessert hat, bieten diese Modelle kaum Widerstand. Das macht sie besonders für weniger erfahrene Angreifer attraktiv, die fertige Skripte und Tools nutzen.

Die Sicherheitsforscher von Check Point Research (CPR) haben festgestellt, dass Cyberkriminelle nach der Einführung von DeepSeek und Qwen schnell von ChatGPT auf diese neuen Plattformen umgestiegen sind, um bösartige Inhalte zu erstellen. In Untergrundforen tauschen sie sich darüber aus, wie sie die Modelle manipulieren und unzensierte Inhalte generieren können. Dabei setzen sie verschiedene Methoden ein, um Schutzmaßnahmen zu umgehen – von Jailbreaking-Techniken bis hin zur Entwicklung eigener Schadsoftware.
Obwohl ChatGPT in den letzten Jahren erhebliche Sicherheitsmaßnahmen implementiert hat, sind unzensierte Versionen bereits im Dark Net verfügbar. Mit der zunehmenden Verbreitung von DeepSeek und Qwen ist es nur eine Frage der Zeit, bis auch von diesen Modellen manipulierte Versionen existieren. Dies erhöht die Bedrohungslage weiter.
KI als Werkzeug für Cyberangriffe
Cyberkriminelle nutzen Qwen, um sogenannte Infostealer zu entwickeln – Schadsoftware, die darauf ausgelegt ist, vertrauliche Informationen von Nutzern zu stehlen. Beliebt sind Techniken wie „Do Anything Now“ oder „Plane-Crash-Survivors“, mit denen Hacker Schutzmechanismen der KI-Modelle vor Jailbreaking aushebeln.
Der Missbrauch von KI-gestützten Modellen für Cyberangriffe stellt eine wachsende Gefahr dar. Hacker setzen fortschrittliche Techniken ein, um KI für Identitätsdiebstahl, Finanzbetrug oder Spam-Kampagnen zu missbrauchen. Die Fähigkeit, KI-Modelle gezielt zu manipulieren, ermöglicht es selbst weniger erfahrenen Kriminellen, Schadsoftware zu entwickeln und Unternehmen oder Einzelpersonen anzugreifen.
Unternehmen müssen dringend handeln, um sich gegen diese Bedrohungen zu schützen. Neben technischen Sicherheitsmaßnahmen sind auch Awareness-Trainings für Mitarbeitende entscheidend, um den bewussten Umgang mit KI-generierten Inhalten zu fördern und potenzielle Risiken frühzeitig zu erkennen.
Den vollständigen Bericht gibt es hier.
