Wenn Lüge zur Realität wird: Deepfakes im Dienst der Cyberkriminalität
Täuschend echte Videos, Stimmen und Bilder aus der KI-Schmiede werden zur Waffe: Deepfakes ermöglichen eine neue Generation von Betrugsmaschen, Identitätsdiebstahl und CEO-Fraud. Ein aktueller Bericht zeigt, wie einfach kriminelle Akteure heute in die Rolle von Führungskräften oder Bewerbern schlüpfen – und dabei enormen Schaden anrichten.

Was einst nach Science-Fiction klang, ist längst reale Bedrohung: Deepfakes, also künstlich erzeugte Medieninhalte, kommen zunehmend bei kriminellen Aktivitäten zum Einsatz. Der aktuelle Bericht des japanischen Cybersicherheitsanbieters Trend Micro belegt, wie sehr sich der Einsatz generativer Künstlicher Intelligenz im Bereich Cybercrime professionalisiert hat. Angriffe mit KI-gestützten Audio-, Video- oder Bildfälschungen sind nicht nur machbar, sondern für viele Angreifer inzwischen alltägliches Handwerkszeug – mit gravierenden Folgen für Unternehmen.
Von der Spielerei zur Waffe: Deepfake-Technologie reif für den Missbrauch
Die technologische Hürde, Deepfakes zu erzeugen, ist praktisch verschwunden. Was früher Spezialistenwissen und hohe Rechenleistung erforderte, lässt sich heute mit wenigen Klicks auf Plattformen realisieren, die ursprünglich für kreative Zwecke gedacht waren. Die Tools sind günstig, einfach zu bedienen und leistungsfähig genug, um sogar Sicherheitsmechanismen wie Video-Authentifizierungen oder Stimmerkennungen auszutricksen.
Das Resultat: Täuschend echte Inhalte, die das digitale Vertrauen erschüttern. Angreifer nutzen diese Möglichkeiten, um Unternehmen auf perfide Weise zu kompromittieren – oft ohne dass es die Betroffenen schnell genug bemerken – wenn überhaupt.
Die häufigsten Einsatzszenarien
Der Bericht von Trend Micro beschreibt mehrere konkrete Angriffsszenarien, bei denen Deepfakes als zentrales Element zum Einsatz kommen:
- CEO-Fraud mit Deepfake-Stimmen und -Videos: Kriminelle imitieren Unternehmenschefs in Live-Calls oder Videonachrichten und bewegen Mitarbeitende so zu Überweisungen oder der Weitergabe vertraulicher Informationen.
- Manipulierte Bewerbungsgespräche: Mit KI-unterstützten Videofeeds verschaffen sich falsche Kandidaten Zugang zu sensiblen internen Systemen – besonders riskant in sicherheitskritischen Branchen oder bei Remote-Onboarding.
- Angriffe auf KYC-Verfahren: Finanzdienstleister berichten über Deepfake-basierte Umgehungsversuche von Know-Your-Customer-Prüfungen. Damit wird Geldwäsche über gestohlene oder synthetische Identitäten erheblich erleichtert.
Cybercrime-as-a-Service: Der Schwarzmarkt für Deepfake-Angriffe boomt
Besonders besorgniserregend: Im Cyber-Untergrund kursieren längst umfangreiche Anleitungen, Toolkits und Dienstleistungsangebote, um Deepfake-basierte Angriffe zu automatisieren. Face-Swap-Werkzeuge, Deepfake-Bewerbungsprofile und „Onboarding-Hacks“ werden wie Baukästen gehandelt – mitsamt Schritt-für-Schritt-Anleitungen zur Umgehung moderner Sicherheitssysteme. So entsteht ein Ökosystem, das selbst technisch wenig versierten Tätern Zugang zu hochkomplexen Täuschungsmethoden bietet.
Strategien gegen die neue Täuschung: Wie Unternehmen reagieren müssen
Angesichts der rasanten Entwicklung ruft Trend Micro Organisationen zu entschlossenem Handeln auf. Der Schutz vor Deepfakes beginnt bei der Sensibilisierung der Mitarbeiter und reicht bis zur technischen Detektion synthetischer Medien. Zu den empfohlenen Maßnahmen gehören:
- Trainings zur Erkennung von Social Engineering und Deepfakes
- Stärkere Überprüfung von Authentifizierungsverfahren, etwa durch Mehr-Faktor-Authentifizierung oder biometrische Checks
- Einsatz spezialisierter Erkennungstools für synthetische Inhalte
- Überarbeitung von Onboarding- und Finanzfreigabeprozessen, um manipulative Einflüsse zu minimieren
Digitale Täuschung braucht digitale Resilienz
„KI-generierte Medien sind keine Zukunftsbedrohung mehr, sondern stellen bereits heute ein ernsthaftes Geschäftsrisiko dar“, warnt David Sancho, Senior Threat Researcher bei Trend Micro. Die Realität zeige: Führungskräfte werden imitiert, Vorstellungsgespräche manipuliert und Sicherheitsmechanismen mit erschreckender Leichtigkeit unterwandert.
Die wichtigste Botschaft: Unternehmen müssen handeln – nicht morgen, sondern jetzt. Wer seine Sicherheitsprozesse nicht an die Deepfake-Ära anpasst, läuft Gefahr, zum leichten Ziel zu werden. In einer Welt, in der man nicht mehr glauben kann, was man sieht oder hört, wird Vertrauen zur härtesten Währung der digitalen Zukunft.
Den vollständigen Bericht Deepfake it ’til You Make It: A Comprehensive View of the New AI Criminal Toolset (in englischer Sprache) gibt es hier.

David Sancho, Senior Threat Researcher bei Trend Micro
Newsletter Abonnieren
Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.



