Home » News » Cybersecurity » Neue KI-Modelle im Visier von Cyberkriminellen

Neue KI-Modelle im Visier von Cyberkriminellen

Qwen und DeepSeek ermöglichen die Erstellung bösartiger Inhalte mit wenigen Einschränkungen. Während ChatGPT seinen Missbrauchsschutz verbessert hat, bieten diese Modelle kaum Widerstand. Das macht sie besonders für weniger erfahrene Angreifer attraktiv, die fertige Skripte und Tools nutzen.

1 Min. Lesezeit
Frau vor Display mit der Aufschrift Fake
Foto: ©AdobeStock/MP Studio

Die Sicherheitsforscher von Check Point Research (CPR) haben festgestellt, dass Cyberkriminelle nach der Einführung von DeepSeek und Qwen schnell von ChatGPT auf diese neuen Plattformen umgestiegen sind, um bösartige Inhalte zu erstellen. In Untergrundforen tauschen sie sich darüber aus, wie sie die Modelle manipulieren und unzensierte Inhalte generieren können. Dabei setzen sie verschiedene Methoden ein, um Schutzmaßnahmen zu umgehen – von Jailbreaking-Techniken bis hin zur Entwicklung eigener Schadsoftware.

Obwohl ChatGPT in den letzten Jahren erhebliche Sicherheitsmaßnahmen implementiert hat, sind unzensierte Versionen bereits im Dark Net verfügbar. Mit der zunehmenden Verbreitung von DeepSeek und Qwen ist es nur eine Frage der Zeit, bis auch von diesen Modellen manipulierte Versionen existieren. Dies erhöht die Bedrohungslage weiter.

KI als Werkzeug für Cyberangriffe

Cyberkriminelle nutzen Qwen, um sogenannte Infostealer zu entwickeln – Schadsoftware, die darauf ausgelegt ist, vertrauliche Informationen von Nutzern zu stehlen. Beliebt sind Techniken wie „Do Anything Now“ oder „Plane-Crash-Survivors“, mit denen Hacker Schutzmechanismen der KI-Modelle vor Jailbreaking aushebeln.

Der Missbrauch von KI-gestützten Modellen für Cyberangriffe stellt eine wachsende Gefahr dar. Hacker setzen fortschrittliche Techniken ein, um KI für Identitätsdiebstahl, Finanzbetrug oder Spam-Kampagnen zu missbrauchen. Die Fähigkeit, KI-Modelle gezielt zu manipulieren, ermöglicht es selbst weniger erfahrenen Kriminellen, Schadsoftware zu entwickeln und Unternehmen oder Einzelpersonen anzugreifen.

Unternehmen müssen dringend handeln, um sich gegen diese Bedrohungen zu schützen. Neben technischen Sicherheitsmaßnahmen sind auch Awareness-Trainings für Mitarbeitende entscheidend, um den bewussten Umgang mit KI-generierten Inhalten zu fördern und potenzielle Risiken frühzeitig zu erkennen.

Den vollständigen Bericht gibt es hier.

Falke-Webseiten von Nike und LuLuLemon werben mit Fotos existierender Filialen
Fake-Websites von Nike und LuluLemon werben mit Fotos existierender Filialen.

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante News

Hände halten digitale glühende Datenstrukturen

IT-Sourcing: Souveränität und KI verändern Strategien

Deutsche Unternehmen überprüfen ihre Abhängigkeiten von US-Anbietern und setzen vermehrt auf den Einsatz von Künstlicher Intelligenz. Eine neue Lünendonk-Studie zeigt Schwächen im ...

Patientensicherheit im Krankenhaus - Person mit Laptop und Cybersecurity-Symbol

Bedrohung für die Patientensicherheit

Warnung vor einer neuen Welle von KI-gestützten Cyberangriffen: Sie gefährden nicht nur Patientendaten, sondern zunehmend auch das Leben von Patienten – durch manipulierte Behandlu...

Open Source Technologie

Open Source als Schlüssel zur digitalen Souveränität

Drei von vier Unternehmen in Deutschland setzen inzwischen auf Open-Source-Software – Tendenz steigend. Neben Kostenvorteilen sehen viele Firmen darin vor allem eine strategische C...