Home » News » Cybersecurity » Neue KI-Modelle im Visier von Cyberkriminellen

Neue KI-Modelle im Visier von Cyberkriminellen

Qwen und DeepSeek ermöglichen die Erstellung bösartiger Inhalte mit wenigen Einschränkungen. Während ChatGPT seinen Missbrauchsschutz verbessert hat, bieten diese Modelle kaum Widerstand. Das macht sie besonders für weniger erfahrene Angreifer attraktiv, die fertige Skripte und Tools nutzen.

1 Min. Lesezeit
Frau vor Display mit der Aufschrift Fake
Foto: ©AdobeStock/MP Studio

Die Sicherheitsforscher von Check Point Research (CPR) haben festgestellt, dass Cyberkriminelle nach der Einführung von DeepSeek und Qwen schnell von ChatGPT auf diese neuen Plattformen umgestiegen sind, um bösartige Inhalte zu erstellen. In Untergrundforen tauschen sie sich darüber aus, wie sie die Modelle manipulieren und unzensierte Inhalte generieren können. Dabei setzen sie verschiedene Methoden ein, um Schutzmaßnahmen zu umgehen – von Jailbreaking-Techniken bis hin zur Entwicklung eigener Schadsoftware.

Obwohl ChatGPT in den letzten Jahren erhebliche Sicherheitsmaßnahmen implementiert hat, sind unzensierte Versionen bereits im Dark Net verfügbar. Mit der zunehmenden Verbreitung von DeepSeek und Qwen ist es nur eine Frage der Zeit, bis auch von diesen Modellen manipulierte Versionen existieren. Dies erhöht die Bedrohungslage weiter.

KI als Werkzeug für Cyberangriffe

Cyberkriminelle nutzen Qwen, um sogenannte Infostealer zu entwickeln – Schadsoftware, die darauf ausgelegt ist, vertrauliche Informationen von Nutzern zu stehlen. Beliebt sind Techniken wie „Do Anything Now“ oder „Plane-Crash-Survivors“, mit denen Hacker Schutzmechanismen der KI-Modelle vor Jailbreaking aushebeln.

Der Missbrauch von KI-gestützten Modellen für Cyberangriffe stellt eine wachsende Gefahr dar. Hacker setzen fortschrittliche Techniken ein, um KI für Identitätsdiebstahl, Finanzbetrug oder Spam-Kampagnen zu missbrauchen. Die Fähigkeit, KI-Modelle gezielt zu manipulieren, ermöglicht es selbst weniger erfahrenen Kriminellen, Schadsoftware zu entwickeln und Unternehmen oder Einzelpersonen anzugreifen.

Unternehmen müssen dringend handeln, um sich gegen diese Bedrohungen zu schützen. Neben technischen Sicherheitsmaßnahmen sind auch Awareness-Trainings für Mitarbeitende entscheidend, um den bewussten Umgang mit KI-generierten Inhalten zu fördern und potenzielle Risiken frühzeitig zu erkennen.

Den vollständigen Bericht gibt es hier.

Falke-Webseiten von Nike und LuLuLemon werben mit Fotos existierender Filialen
Fake-Websites von Nike und LuluLemon werben mit Fotos existierender Filialen.

Andere interessante News

Bedrohungslage Ransomware

Virtuelle Tarnkappe: Ransomware unter dem Radar

Eine virtuelle Maschine als Einfallstor, Social Engineering am Telefon und legitime Fernwartungstools: Die Cybercrime-Gruppe 3AM hat ihre Methoden weiterentwickelt. In der neuen An...

Ein goldenes geschütztes Datenschutz-Symbol

Schlag gegen Lumma-Infostealer – ein Nadelstich mit Wirkung?

Mit einer konzertierten Aktion haben Ermittler von Europol, FBI und Microsoft der Malware-as-a-Service-Plattform Lumma Stealer einen empfindlichen Schlag versetzt. Zwar bleibt ein ...

Gefälschte Zoll-SMS

Zolltricks und Tariftäuschung – Wie Online-Betrüger das Handelschaos für sich nutzen

Zolltarife sind längst nicht mehr nur ein Thema für Finanzabteilungen und Logistikexperten. In den Vereinigten Staaten entdecken Cyberkriminelle derzeit ein neues Einfallstor: das ...