Deepfakes – die täuschend echte Bedrohung

2 Min. Lesezeit
© AdobeStock/Sono Creative

Wenn der Chef anruft und seine Sekretärin um eine Überweisung bittet, aber ohne zu telefonieren am Schreibtisch gegenüber sitzt, dann stimmt etwas nicht. Es könnte sich um eine Betrugsmasche handeln, die sich gerade rasant ausbreitet: Deepfake. Der Betrug mit gefälschten realistisch anmutenden Medieninhalten wie Videos und Audios nimmt rasant zu.

Deepfakes sind Medieninhalte, die mit Hilfe von künstlicher Intelligenz (KI) erzeugt werden und täuschend echt wirken. So befindet sich zum Beispiel eine Politikerin plötzlich in einem anrüchigen Film. Doch wie lassen sich Deepfakes erkennen und Awareness für Datenschutz oder Informationssicherheit schaffen? „Deepfakes sind eine perfide Masche, die eine immer größere Verbreitung findet. Die gefälschten Medien werden von Kriminellen unter anderem genutzt, um an Passwörter, Daten oder Geld zu gelangen. Die Technologie, die auf KI basiert, entwickelt sich rasant weiter und ermöglicht es Betrügern, Stimmen und bewegte Bilder nahezu bis zur Perfektion nachzubilden. Diese werden dann zum Beispiel einfach in bestehendes Material montiert“, erklärt Ulrich Heun, Geschäftsführer der CARMAO.

Eine Software wird dabei darauf trainiert, die charakteristischen Merkmale einer Person mithilfe von vorhandenem Bewegtbild, Foto- oder Tonmaterial zu erkennen und diese dann zum Beispiel in ein bereits existierendes Video zu übertragen.

Deepfakes erkennen: Auf das Detail kommt es an

Um das Endergebnis eines Deepfakes möglichst realistisch erscheinen zu lassen, benötigt die Software eine Vielzahl an Daten, die insbesondere bei Menschen, die in der Öffentlichkeit stehen, gegeben ist. Die Erstellung von Deepfakes gestaltete sich bislang als sehr aufwändig, jedoch gibt es auf Grund der zunehmenden Digitalisierung und Weiterentwicklung von KI-Technologien bereits kostenfreie Apps, mit denen auch Laien innerhalb kurzer Zeit Deepfakes erzeugen können. Auch, wenn Deepfakes heute immer professioneller werden, gibt es einige Tricks, die dabei unterstützen, derartige Videos und Audios als gefälscht zu entlarven.

„Es gilt, auf die Details im Video zu achten, insbesondere auf die Übergänge von Gesicht zu Hals und Haaren. Sind die Ränder verschwommen, so handelt es sich meistens um ein Deepfake. Bei entsprechenden Audio-Dateien klingt das gesprochene Wort teilweise zu perfekt. Da Menschen in der Regel Füllwörter verwenden, Pausen einlegen, das Tempo beim Sprechen variieren und vieles weitere, deutet Perfektion darauf hin, dass es sich um eine gefakte Audiodatei handelt“, so Ulrich Heun. Für ihn gehören entsprechende Schulungen für Mitarbeitende und die Nutzung einer Awareness-Online-Lernplattform zum Basisrüstzeug, um sich gegen Deepfake-Angriffe zu wappnen.

Andere interessante News

Wie ein DDoS-Angriff am besten zu verteidigen ist

Während DDoS früher in erster Linie für politisch-soziale Proteste oder zur Eigenwerbung eingesetzt wurden, sind die Angriffe jetzt hauptsächlich erpresserischer Natur. Aber egal welches Motiv, für die erfolgreiche Verteidigung sind einige Grundregeln dringend zu beachten.

Funktion im Microsoft Virenschutz öffnet Ransomware die Türen

Fast jeder aktuelle Windows-Rechner hat den Microsoft Windows Defender vorinstalliert. Doch das Programm bietet nicht nur Schutz: Das darin enthaltene Befehlszeilentool bietet Angriffspunkte für kriminelle Akteure der „LockBit“-Gruppe.

SEMIKRON Gruppe Opfer eines Ransomware-Angriffs

Die Nürnberger SEMIKRON Gruppe wurde von einer bisher unbekannten Hackergruppe angegriffen. Infolge des Angriffs seien IT-Systeme und Dateien teilweise verschlüsselt worden. Den Angreifern zufolge sollen zudem Unternehmensdaten gestohlen worden sein.