Home » News » Cybersecurity » Deepfakes – die täuschend echte Bedrohung

Deepfakes – die täuschend echte Bedrohung

2 Min. Lesezeit
Ein digitales Gesicht mit holografischem Aussehen und Brille, das an Deepfakes erinnert. Das Gesicht besteht aus blauen und violetten Datenströmen, die vor einem dunkelblauen Hintergrund ein futuristisches und abstraktes Aussehen erzeugen.
© AdobeStock/Sono Creative

Wenn der Chef anruft und seine Sekretärin um eine Überweisung bittet, aber ohne zu telefonieren am Schreibtisch gegenüber sitzt, dann stimmt etwas nicht. Es könnte sich um eine Betrugsmasche handeln, die sich gerade rasant ausbreitet: Deepfake. Der Betrug mit gefälschten realistisch anmutenden Medieninhalten wie Videos und Audios nimmt rasant zu.

Deepfakes sind Medieninhalte, die mit Hilfe von künstlicher Intelligenz (KI) erzeugt werden und täuschend echt wirken. So befindet sich zum Beispiel eine Politikerin plötzlich in einem anrüchigen Film. Doch wie lassen sich Deepfakes erkennen und Awareness für Datenschutz oder Informationssicherheit schaffen? „Deepfakes sind eine perfide Masche, die eine immer größere Verbreitung findet. Die gefälschten Medien werden von Kriminellen unter anderem genutzt, um an Passwörter, Daten oder Geld zu gelangen. Die Technologie, die auf KI basiert, entwickelt sich rasant weiter und ermöglicht es Betrügern, Stimmen und bewegte Bilder nahezu bis zur Perfektion nachzubilden. Diese werden dann zum Beispiel einfach in bestehendes Material montiert“, erklärt Ulrich Heun, Geschäftsführer der CARMAO.

Eine Software wird dabei darauf trainiert, die charakteristischen Merkmale einer Person mithilfe von vorhandenem Bewegtbild, Foto- oder Tonmaterial zu erkennen und diese dann zum Beispiel in ein bereits existierendes Video zu übertragen.

Produktempfehlung: E-Learning IT-Sicherheit

Deepfakes erkennen: Auf das Detail kommt es an

Um das Endergebnis eines Deepfakes möglichst realistisch erscheinen zu lassen, benötigt die Software eine Vielzahl an Daten, die insbesondere bei Menschen, die in der Öffentlichkeit stehen, gegeben ist. Die Erstellung von Deepfakes gestaltete sich bislang als sehr aufwändig, jedoch gibt es auf Grund der zunehmenden Digitalisierung und Weiterentwicklung von KI-Technologien bereits kostenfreie Apps, mit denen auch Laien innerhalb kurzer Zeit Deepfakes erzeugen können. Auch, wenn Deepfakes heute immer professioneller werden, gibt es einige Tricks, die dabei unterstützen, derartige Videos und Audios als gefälscht zu entlarven.

„Es gilt, auf die Details im Video zu achten, insbesondere auf die Übergänge von Gesicht zu Hals und Haaren. Sind die Ränder verschwommen, so handelt es sich meistens um ein Deepfake. Bei entsprechenden Audio-Dateien klingt das gesprochene Wort teilweise zu perfekt. Da Menschen in der Regel Füllwörter verwenden, Pausen einlegen, das Tempo beim Sprechen variieren und vieles weitere, deutet Perfektion darauf hin, dass es sich um eine gefakte Audiodatei handelt“, so Ulrich Heun. Für ihn gehören entsprechende Schulungen für Mitarbeitende und die Nutzung einer Awareness-Online-Lernplattform zum Basisrüstzeug, um sich gegen Deepfake-Angriffe zu wappnen.

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante News

App-Bedrohung

Wie Künstliche Intelligenz Investoren in Scheinwelten lockt

Cyberkriminelle erschaffen mit Künstlicher Intelligenz komplette Fake-Investoren-Communities. Gefälschte Experten, Chatgruppen und Apps erzeugen Vertrauen – bis Geld und Identität ...

Leuchtendes Cybersecurity-Schild mit eine Auge

Wie KI Markt, Abwehr und Organisationen neu ordnet

Das Jahr 2026 markiert einen Wendepunkt für die Cybersecurity. Künstliche Intelligenz (KI) verändert nicht nur Technologien, sondern auch Marktstrukturen, Sicherheitsstrategien und...

Futuristischer Button mit 2026er Aufschrift

2026 beginnt das Zeitalter der präventiven Cybersicherheit

Cyberangriffe werden schneller, leiser und automatisierter. 2026 reagieren Unternehmen nicht mehr nur auf Vorfälle, sondern setzen auf präventive Sicherheitsmodelle, die Angriffe s...