Home » News » Cybersecurity » Neue KI-Modelle im Visier von Cyberkriminellen

Neue KI-Modelle im Visier von Cyberkriminellen

Qwen und DeepSeek ermöglichen die Erstellung bösartiger Inhalte mit wenigen Einschränkungen. Während ChatGPT seinen Missbrauchsschutz verbessert hat, bieten diese Modelle kaum Widerstand. Das macht sie besonders für weniger erfahrene Angreifer attraktiv, die fertige Skripte und Tools nutzen.

1 Min. Lesezeit
Frau vor Display mit der Aufschrift Fake
Foto: ©AdobeStock/MP Studio

Die Sicherheitsforscher von Check Point Research (CPR) haben festgestellt, dass Cyberkriminelle nach der Einführung von DeepSeek und Qwen schnell von ChatGPT auf diese neuen Plattformen umgestiegen sind, um bösartige Inhalte zu erstellen. In Untergrundforen tauschen sie sich darüber aus, wie sie die Modelle manipulieren und unzensierte Inhalte generieren können. Dabei setzen sie verschiedene Methoden ein, um Schutzmaßnahmen zu umgehen – von Jailbreaking-Techniken bis hin zur Entwicklung eigener Schadsoftware.

Obwohl ChatGPT in den letzten Jahren erhebliche Sicherheitsmaßnahmen implementiert hat, sind unzensierte Versionen bereits im Dark Net verfügbar. Mit der zunehmenden Verbreitung von DeepSeek und Qwen ist es nur eine Frage der Zeit, bis auch von diesen Modellen manipulierte Versionen existieren. Dies erhöht die Bedrohungslage weiter.

KI als Werkzeug für Cyberangriffe

Cyberkriminelle nutzen Qwen, um sogenannte Infostealer zu entwickeln – Schadsoftware, die darauf ausgelegt ist, vertrauliche Informationen von Nutzern zu stehlen. Beliebt sind Techniken wie „Do Anything Now“ oder „Plane-Crash-Survivors“, mit denen Hacker Schutzmechanismen der KI-Modelle vor Jailbreaking aushebeln.

Der Missbrauch von KI-gestützten Modellen für Cyberangriffe stellt eine wachsende Gefahr dar. Hacker setzen fortschrittliche Techniken ein, um KI für Identitätsdiebstahl, Finanzbetrug oder Spam-Kampagnen zu missbrauchen. Die Fähigkeit, KI-Modelle gezielt zu manipulieren, ermöglicht es selbst weniger erfahrenen Kriminellen, Schadsoftware zu entwickeln und Unternehmen oder Einzelpersonen anzugreifen.

Unternehmen müssen dringend handeln, um sich gegen diese Bedrohungen zu schützen. Neben technischen Sicherheitsmaßnahmen sind auch Awareness-Trainings für Mitarbeitende entscheidend, um den bewussten Umgang mit KI-generierten Inhalten zu fördern und potenzielle Risiken frühzeitig zu erkennen.

Den vollständigen Bericht gibt es hier.

Falke-Webseiten von Nike und LuLuLemon werben mit Fotos existierender Filialen
Fake-Websites von Nike und LuluLemon werben mit Fotos existierender Filialen.

Andere interessante News

Eine digitale Illustration mit futuristischem Design zeigt das Akronym „SASE“ in der Mitte, umgeben von netzwerkartigen Verbindungen und holografischen Symbolen. Die Farbgebung ist überwiegend blau und orange und symbolisiert technologische Konnektivität und Innovation.

Warum SASE die digitale KMU-Sicherheit flexibler und sicherer macht

Der Mittelstand braucht flexiblen, sicheren Zugriff auf Unternehmensanwendungen – egal ob Cloud oder On-Premises. SASE, also Secure Access Service Edge, verbindet dabei moderne Sic...

Digitalisierung Deutschland

Digitale Resilienz für Innovationskraft, Wettbewerbsfähigkeit und Zusammenhalt

Die neue Bundesregierung steht vor vielen Herausforderungen: Wirtschaft stärken, Fachkräfte sichern, gesellschaftliche Spaltung überwinden und digitale Bildung fördern. Doch wie di...

Gestresste IT-Mitarbeiterin

Europäische IT-Fachleute unter Stress

Fast drei Viertel der IT-Fachleute in Europa kämpfen mit Stress oder Burnout – ein alarmierendes Ergebnis einer aktuellen Studie. Hauptursachen sind der massive Fachkräftemangel, k...