Home » News » Cybersecurity » Deepfakes – die täuschend echte Bedrohung

Deepfakes – die täuschend echte Bedrohung

2 Min. Lesezeit
© AdobeStock/Sono Creative

Wenn der Chef anruft und seine Sekretärin um eine Überweisung bittet, aber ohne zu telefonieren am Schreibtisch gegenüber sitzt, dann stimmt etwas nicht. Es könnte sich um eine Betrugsmasche handeln, die sich gerade rasant ausbreitet: Deepfake. Der Betrug mit gefälschten realistisch anmutenden Medieninhalten wie Videos und Audios nimmt rasant zu.

Deepfakes sind Medieninhalte, die mit Hilfe von künstlicher Intelligenz (KI) erzeugt werden und täuschend echt wirken. So befindet sich zum Beispiel eine Politikerin plötzlich in einem anrüchigen Film. Doch wie lassen sich Deepfakes erkennen und Awareness für Datenschutz oder Informationssicherheit schaffen? „Deepfakes sind eine perfide Masche, die eine immer größere Verbreitung findet. Die gefälschten Medien werden von Kriminellen unter anderem genutzt, um an Passwörter, Daten oder Geld zu gelangen. Die Technologie, die auf KI basiert, entwickelt sich rasant weiter und ermöglicht es Betrügern, Stimmen und bewegte Bilder nahezu bis zur Perfektion nachzubilden. Diese werden dann zum Beispiel einfach in bestehendes Material montiert“, erklärt Ulrich Heun, Geschäftsführer der CARMAO.

Eine Software wird dabei darauf trainiert, die charakteristischen Merkmale einer Person mithilfe von vorhandenem Bewegtbild, Foto- oder Tonmaterial zu erkennen und diese dann zum Beispiel in ein bereits existierendes Video zu übertragen.

Deepfakes erkennen: Auf das Detail kommt es an

Um das Endergebnis eines Deepfakes möglichst realistisch erscheinen zu lassen, benötigt die Software eine Vielzahl an Daten, die insbesondere bei Menschen, die in der Öffentlichkeit stehen, gegeben ist. Die Erstellung von Deepfakes gestaltete sich bislang als sehr aufwändig, jedoch gibt es auf Grund der zunehmenden Digitalisierung und Weiterentwicklung von KI-Technologien bereits kostenfreie Apps, mit denen auch Laien innerhalb kurzer Zeit Deepfakes erzeugen können. Auch, wenn Deepfakes heute immer professioneller werden, gibt es einige Tricks, die dabei unterstützen, derartige Videos und Audios als gefälscht zu entlarven.

„Es gilt, auf die Details im Video zu achten, insbesondere auf die Übergänge von Gesicht zu Hals und Haaren. Sind die Ränder verschwommen, so handelt es sich meistens um ein Deepfake. Bei entsprechenden Audio-Dateien klingt das gesprochene Wort teilweise zu perfekt. Da Menschen in der Regel Füllwörter verwenden, Pausen einlegen, das Tempo beim Sprechen variieren und vieles weitere, deutet Perfektion darauf hin, dass es sich um eine gefakte Audiodatei handelt“, so Ulrich Heun. Für ihn gehören entsprechende Schulungen für Mitarbeitende und die Nutzung einer Awareness-Online-Lernplattform zum Basisrüstzeug, um sich gegen Deepfake-Angriffe zu wappnen.

Andere interessante News

Deepfake-Anrufe

Deepfake-Phishing braucht verstärkte Sensibilisierungsmaßnahmen

Ein Mitarbeiter eines Passwortmanager-Unternehmens wurde kürzlich Ziel eines Deepfake-Phishing-Angriffs, bei dem sich der Angreifer als CEO ausgab. Durch seine Schulung konnte der Mitarbeiter den Betrug rechtzeitig erkennen. Dies verdeutlicht das Risiko solcher Angriffe und die Bedeutung der Mitarbeiterschulung für die Verteidigung von Unternehmen.

Sicherheitsbedrohungen

KI-gestützte Phishing-Angriffe erreichen neue Dimensionen

Ein neuer Report zeigt, dass Bedrohungsakteure zunehmend generative KI nutzen, um ihre Phishing-Kampagnen zu verbessern. Diese Entwicklung markiert einen Paradigmenwechsel in der Cyberkriminalität und im Phishing, da Cyberkriminelle mit dieser Technologie schnell überzeugende Kampagnen erstellen können, die bisherige Standards übertreffen.

Grafik mit Mann vor Laptop, Datenschutzsymbole im Bild

Studie: Rekordhoch bei Denial-of-Service-Anfälligkeiten

Der elfte Bericht über Microsoft-Schwachstellen ist erschienen. Er teilt die Schwachstellen nach Produkt und Kategorie auf. Zum dritten Mal hintereinander sind weitreichende Nutzerrechte ein Top-Sicherheitsrisiko. Im Vergleich zum Vorjahr sind insgesamt weniger Schwachstellen in Microsoft-Systemen aufgetreten, nämlich 1.228.