Home » Fachbeiträge » Cybersecurity » Wie Cyberkriminelle und der Einsatz von KI unsere Sicherheit bedrohen

Deepfakes, Phishing und Social Engineering mithilfe von WormGPT und FraudGPT: Wie Cyberkriminelle und der Einsatz von KI unsere Sicherheit bedrohen

Der Global Risk Report des Weltwirtschaftsforums wählte KI-gepowerte Informationsmanipulation zum größten Risiko des Jahres, weil generative künstliche Intelligenz (KI) durch Deepfakes, Fake News und ultrapersonalisierte Wahlwerbung die Demokratie gefährden kann. Doch KI hat noch viel mehr Risiken.

7 Min. Lesezeit
Zwei ineinanderliegende Masken, Deepfakes
Foto: ©AdobeStock/freshidea

Gerade in der IT-Sicherheit. Im Militär sind es Täuschungsoperationen, in der Politik geschickte Desinformation und in der IT- und Unternehmenssicherheit „Deepfakes“, „Phishing“ und „Social Engineering“. Auch hier hat generative KI das Potenzial, ein Gamechanger zu sein und diese Bedrohungen zu revolutionieren. Denn KI ermöglicht es Cyberkriminellen, Angriffe schneller, zielgerichteter und überzeugender als je zuvor zu gestalten.

Phishing, der Versuch über digitale Täuschungsmanöver, bei denen Angreifer durch gefälschte E-Mails, Nachrichten oder Websites versuchen, an persönliche Daten zu gelangen, ist keine neue Bedrohung. Doch unter dem Einfluss fortschrittlicher KI-Technologien erfahren diese Angriffe eine beunruhigende Evolution. Cyberkriminelle setzen auf KI, um ihre Methoden zu verfeinern und die Sicherheitsbarrieren von Einzelpersonen sowie Unternehmen mit erschreckender Präzision zu durchbrechen.

Die Verwendung von KI steigert die Effektivität dieser Angriffe enorm. Sprachmodelle und maschinelles Lernen ermöglichen es Angreifern, täuschend echte Inhalte zu kreieren, die individuell auf potenzielle Opfer zugeschnitten sind. Von der perfekten Nachahmung des Schreibstils vertrauter Kontakte bis hin zur personalisierten Ansprache – wofür Menschen früher Wochen und Monate brauchten, kann KI auf Knopfdruck glaubwürdige Inhalte erzeugen, die passgenau auf Zielpersonen zugeschnitten sind.

Und nicht nur das: KI kann auch täuschend echt wirkende Phishing-Websites erstellen. Fortgeschrittene Algorithmen analysieren echte Webseiten und lernen, deren Design und Funktionalität zu kopieren. Das Ergebnis: Phishing-Seiten, die selbst Experten täuschen können. Diese werden dann als Köder in Phishing-Kampagnen verwendet, um an kritische Daten wie Login-Informationen oder Finanzdetails zu gelangen.

Die Rolle von Large Language Models

Eine besonders beunruhigende Entwicklung ist der Einsatz von Large Language Models (LLMs) in der Cyberkriminalität. Dank ihrer multimodalen Fähigkeiten können diese Modelle nicht nur Text generieren, sondern auch coden und aus einfachen Skizzen oder Mockups voll funktionsfähige Webseiten erstellen. Ein Screenshot der Login-Seite einer Bank reicht aus, und das LLM kann eine täuschend echte Kopie für Phishing-Zwecke erstellen. Diese Fähigkeit, mit minimalen Vorgaben überzeugende Fälschungen zu erschaffen, öffnet Cyberkriminellen neue Wege, ihre Fallen noch raffinierter und schwerer erkennbar zu gestalten.

Es ist ein Wettrüsten zwischen Sicherheitsexperten und Cyberkriminellen, bei dem die KI eine zentrale Rolle spielt – sowohl als Werkzeug für innovative Sicherheitslösungen als auch als Waffe in den Händen von Angreifern. Die digitale Welt steht vor der Herausforderung, sich gegen diese neuen, intelligenten Bedrohungen zu wappnen.

KI: Der Gamechanger im Social Engineering

Social Engineering, die psychologische Manipulation von Menschen, um sie zur Preisgabe vertraulicher Informationen zu bewegen, ist keine neue Praxis. Doch generative KI revolutioniert diese Gleichung wie keine Technologie zuvor.

Cyberkriminelle verfeinern ihre Techniken, indem sie die Tiefen menschlicher Psychologie mit der Rechenkraft der KI verbinden. Im Kern geht es beim Social Engineering um die Ausnutzung menschlicher Schwächen. Es beruht auf Täuschung, Vertrauensmissbrauch und Manipulation, um Menschen dazu zu bringen, sensible Informationen preiszugeben oder Aktionen auszuführen.

Die wahre Stärke KI-gestützter Social-Engineering-Angriffe liegt in ihrer Fähigkeit, menschliche Verhaltensmuster präzise zu analysieren, zu verstehen und nachzuahmen. Durch die Evaluierung von Daten, die aus öffentlichen Quellen wie Social-Media-Profilen und Online-Aktivitäten gewonnen werden, können KI-Systeme hochpersonalisierte Angriffsstrategien entwickeln. Diese Erkenntnisse werden genutzt, um gezielte Angriffe zu orchestrieren, die genau auf die psychologischen Schwachstellen der Zielpersonen zugeschnitten sind.

Die Fähigkeit der KI, komplexe Verhaltensmuster zu entschlüsseln, ermöglicht es Angreifern, ihre Strategien so zu kalibrieren, dass sie maximalen Schaden anrichten. Diese Personalisierung erreicht einen neuen Höhepunkt mit der Integration generativer KI-Technologien. Deepfakes, also mithilfe von KI generierte oder manipulierte Bilder, Ton- oder Videodateien, in denen reale Menschen Dinge sagen und tun, die sie nie getan haben, sind das beste Beispiel dafür. Cyberkriminelle können damit täuschend echte Audio- oder Videoinhalte erzeugen, die vertraute Personen nachahmen, um ihre Opfer so zu manipulieren, dass sie vertrauliche Informationen preisgeben oder Handlungen ausführen, die sie unter normalen Umständen niemals in Erwägung ziehen würden.

Reale Angriffe

KI-Angriffe sind keine Zukunftsmusik, sondern reale und alltägliche Herausforderungen. Bereits im Frühjahr 2023 fanden Forscher zum Beispiel das „Fox8-Netzwerk“ auf „X“, bestehend aus mindestens 1.140 automatisiert betriebenen Accounts. Ihre Nachrichten waren nachweislich mit einem populären LLM designt und sollten andere Nutzer auf speziell gebaute Webseiten umleiten. Dort lauerten gleich mehrere Gefahren: Malware, die ihre Rechner infizierte und Crypto-Wallets leerte, oder aber Betrugsmaschen mit Kryptowährung.

Kurze Zeit später fanden Analysten in den dunkleren Bereichen des Internets speziell trainierte KIs, wie „WormGPT“ oder „FraudGPT“, die eigens dafür designt, trainiert und verkauft wurden, um Phishing- und Betrugs-E-Mails in verschiedenen Sprachen zu verfassen. Dafür wollten die Anbieter gerade einmal 60 Euro im Monat. Ein anderes LLM, genannt „DarkBert“, soll angeblich ausschließlich mit kriminellen Daten aus dem Darknet trainiert worden sein. Damit wäre er der ultimative Ratgeber, Coach und eine potente Waffe für entschlossene Kriminelle. Und was für textbasierte Phishing-E-Mails gilt, gilt natürlich auch für Malware: LLMs, die coden können, können auch speziell zum Erstellen von Angriffssoftware benutzt und trainiert werden.

Erst im Februar 2024 sperrte ein bekannter KI-Anbieter mehreren Klienten die Nutzung ihrer Accounts, weil sie offenbar zu geheimdienstlich organisierten Hackern gehörten und sich Teile ihrer Angriffssoftware mithilfe von LLMs zusammenbauten. Noch viel größere Wellen schlugen Deepfake-Attacken. Mit diesen KI-generierten Stimmen oder Videos werden aber nicht nur Politiker, Militärs, Journalisten und Wahlen angegriffen.

Cyberkriminelle und Betrüger klonen zum Beispiel massenhaft Stimmen, um sie in personalisierten WhatsApp-Nachrichten an Verwandte zu schicken. Eingebettet in Unfall- oder Verhaftungsszenarien sollen Angehörige so dazu gebracht werden, Geld zu überweisen.

Welche Dimensionen Deepfake-Angriffe annehmen können, zeigten Cyberkriminelle in Hongkong im Januar 2024. Mithilfe von Phishingmails und elaboriertem KI-gepowerten Social Engineering schafften sie es, die Finanzabteilung eines multinationalen Konzerns in einem Deepfake-Video-Meeting zur Überweisung von 25 Millionen US-Dollar zu bewegen. Vorausgegangen waren täuschend echt nachgeahmte E-Mails und eben ein Deepfake-Video des CEOs. Laut Angaben der Polizei von Hongkong war dies nur einer von mindestens sieben ähnlichen Fällen innerhalb weniger Monate.

Warum fallen Menschen auf KI rein?

Bei Deepfakes, Phishing und Social Engineering geht es nicht (nur) um Codes und IT, es geht um Menschen, ihre Wahrnehmung und Psychologie. Geschickt nutzen Angreifer hier KI, um ihre Opfer besser zu verstehen, genauer auf sie eingehen zu können und die richtigen Hebel und Knöpfe zu drücken. Ein Deepfake des CEOs hilft wenig, wenn er nicht eine realistische, für den einzelnen Mitarbeiter glaubwürdige und ansprechende Botschaft hat. Die schönsten Versprechungen von Phishingmails bringen wenig, wenn sie an den Interessen, Nöten, Ängsten und Wünschen der Leser vorbeigehen.

Die Opfer wiederum sind schlicht nicht auf solche Angriffe vorbereitet. „Seeing is believing“ – auch wenn dieses Motto nie wirklich stimmte, ist es immer noch die Grundprogrammierung des menschlichen Gehirns. Weder das Gehirn noch das Mindset der meisten Menschen sind darauf vorbereitet oder dafür sensibilisiert, dass das Video ihres Vorgesetzten eben auch eine gewitzte Fälschung sein kann.

Und noch ein weiteres Verhaltensmuster spielt Angreifern bei KI-Angriffen in die Hände: Studien zeigen, dass Menschen KI-generierte Inhalte nicht etwa grundlegend ablehnen oder ihnen gegenüber besonders skeptisch sind. Solange sie ihre Denkmuster, Verhaltensweisen, Interessen ansprechen und dabei „menschlich“ erscheinen, reagieren Menschen auf Deepfakes zum Bespiel kaum anders als auf andere Videos und liken, teilen und klicken munter drauf los.

Was tun?

Deepfakes, optimiertes Phishing und Social Engineering erhalten durch KI einen Turbo-Booster. Was können wir dagegen tun? Die gute Nachricht: Wir sind nicht hilflos. Um sich vor KI-Bedrohungen zu schützen, braucht es ein ganzheitliches Konzept und eine 360-Grad-Abwehr. IT-Software-Lösungen, wie zum Beispiel KI-unterstützte Spam-Filter oder Deepfake-Erkennungssoftware, sind ein wichtiger Bestandteil; doch auch sie bringen wenig, wenn kein Problem- und Sicherheitsbewusstsein besteht, keine Sicherheits- und Krisenprotokolle etabliert sind und Strategien nicht an das KI-Zeitalter angepasst werden. Mensch und Technik müssen zusammen gedacht und umgesetzt werden. Maßnahmen der Mitarbeiterschulung und Sensibilisierung stehen an erster Stelle.

Dazu gehört die Aufklärung über aktuelle Bedrohungen und der Umgang mit entsprechender Software. Erkennungssoftware, digitale Wasserzeichen oder Bild-Scrambler werden zur Grundausstattung gehören. Doch ihre Ergebnisse müssen richtig interpretiert werden. Je mehr KI im Einsatz ist, desto besser müssen Risikotests sein.

Kommt es zu einem Angriff, braucht es klare Aktions- und Verhaltensprotokolle. Wie sollen Mitarbeiter reagieren, wenn sie eine Phishingmail bekommen oder ein Deepfake auftaucht? Spezialisierte Trainings und Übungen sind essenziell, ebenso wie der Umschwung vom Erkennen zur aktiven Abwehr und Reaktion. Idealerweise wird Angriffen durch proaktive Cybersicherheit und strategische Kommunikation entgegengewirkt.

Wie so ein Ablauf konkret aussehen kann, zeigt das von den Autoren dieses Beitrags entwickelte „Deepfake Detection and Response Framework“ sowie die „Tri-Level Phishing Defense Strategy“ (siehe Abbildung).

Das „Deepfake Detection and Response Framework“ und das „Tri-Level Phishing Defense Strategy“ im Überblick
Bild: KPMG

Das „Deepfake Detection and Response Framework“ und das „Tri-Level Phishing Defense Strategy“ im Überblick

Porträt Marvin Stevens

Marvin Steves ist Senior Consultant, Consulting – Cyber Security bei der KPMG AG Wirtschaftsprüfungsgesellschaft.

Porträt Dr. Christopher Nehring

Dr. Christopher Nehring ist Wissenschaftler, Analyst und Journalist. Er arbeitet zu den Themen Desinformation und KI für die Konrad-Adenauer-Stiftung.

Andere interessante Fachbeiträge

Datensammler

HbbTV und die Datensammelwut

HbbTV hat sich zu einer beliebten Möglichkeit entwickelt, traditionelles Fernsehen mit internetbasierten Inhalten zu kombinieren. Die Technologie wirft jedoch auch Bedenken hinsich...

Hand präsentiert Zertifizierungs-Symbol

Warum Zertifizierungen allein nicht ausreichen

Die Cyberangriffe der letzten Monate haben gezeigt, dass auch Schwachstellen in Prozessen und Anwendungen von Dienstleistern ein Risiko für die Sicherheit von Organisationen darste...

ISMS

Warum Unternehmen ein ISMS brauchen

Die Implementierung eines Informationssicherheits-Managementsystems (ISMS) ist für viele Unternehmen heute unerlässlich, um die zahlreichen neuen Gesetze im Bereich der Cybersicher...