Home » News » Security Management » Sora 2 soll Deepfake-Angriffe auf neue Stufe heben

Sora 2 soll Deepfake-Angriffe auf neue Stufe heben

OpenAI hat eine erweiterte Version seines KI-Videogenerierungssystems vorgestellt, die auch realistische Audiotracks erstellen kann. Cybersecurity-Experten warnen vor neuen Bedrohungen durch Cyberkriminelle.

3 Min. Lesezeit
Sora 2 App
Foto: ©AdobeStock/Julien-Eichinger

OpenAI hat vor wenigen Wochen Sora 2 der Öffentlichkeit präsentiert, eine Weiterentwicklung seines KI-gestützten Videogenerierungssystems. Laut Dr. Martin J. Krämer, CISO Advisor bei KnowBe4, könnte die neue Generation die Qualität von Deepfake-Angriffen auf eine völlig neue Stufe heben. Die Software soll nicht nur noch realistischere Videos erstellen, sondern auch passende Audiotracks generieren und Abbilder real existierender Menschen integrieren können.

Die zentrale Neuerung von Sora 2 liegt laut Krämer in der Fähigkeit, neben Videos auch komplexe Audio-Tracks zu produzieren. Das System soll realistische Sprachausgabe generieren und diese mit dem Videotrack synchronisieren können. Neben Hintergrundgeräuschen und Soundeffekten können laut OpenAI auch Dialoge in unterschiedlichen Sprachen künstlich erstellt werden.

Social-Media-Integration mit Cameos-Funktion

Die Video- und Audio-Generierung ist an eine TikTok-ähnliche Social Media-App namens Sora gekoppelt. Diese verfügt über eine Funktion namens Cameos, mit der Nutzer der App die Erlaubnis erteilen können, KI-generierte Videos mit ihrem Abbild zu erstellen. Laut Krämer müssen Nutzer dafür lediglich ihren Kopf aus verschiedenen Perspektiven filmen und eine Zahlenfolge sprechen.

Sobald das Video aufgenommen und hochgeladen ist, kann das Abbild in KI-generierten Videos zum Einsatz gebracht werden – auch in Interaktion mit den Abbildern anderer App-Nutzer. Der gewünschte Content für Video- und Audio-Track muss dann nur noch über eine einfache Texteingabe beschrieben werden.

Die Sora-App verfügt laut OpenAI über mehrere Funktionen zur Verhinderung von Missbrauch. Nutzer können definieren, wer Cameos mit dem eigenen Abbild erstellen darf: sie selbst, genehmigte Personen, gegenseitige Kontakte oder jeder App-Nutzer. Erteilte Zugriffsrechte können jederzeit widerrufen und Videos mit dem eigenen Abbild gelöscht werden. Zukünftig sollen Nutzer zusätzlich jede Veröffentlichung einer Nutzung ihres Abbildes vorher genehmigen müssen.

Sicherheitsmaßnahmen gegen Missbrauch

OpenAI hat nach eigenen Angaben eine Reihe von Sicherheitsmaßnahmen integriert, um böswillige Nutzung zu verhindern. Das System verfügt über eine Kindersicherung und verbietet die Erstellung von X-Rating- und extremen Inhalten sowie solchen mit Abbildern von Persönlichkeiten des öffentlichen Lebens. OpenAI prüft eigenen Angaben zufolge Videoausgaben auf mögliche Verstöße gegen Richtlinien und Urheberrechtsprobleme.

Bildschirmaufnahmen innerhalb der App sollen nicht möglich sein. Jedes mit Sora erstellte Video enthält Marker, die zeigen, dass es von einer KI generiert wurde – beispielsweise Metadaten und ein bewegliches Wasserzeichen.

Experten zweifeln an Wirksamkeit der Schutzmaßnahmen

Trotz der vorhandenen Sicherheitsvorkehrungen äußert Krämer Zweifel an deren Wirksamkeit. Es wäre nicht das erste Mal, dass Cyberkriminelle Schwachstellen und Sicherheitslücken finden oder völlig neue Ansatzpunkte für ihre Angriffe entwickeln, mit denen niemand gerechnet hat, warnt der Experte.

Unternehmen sollten sich deshalb gut rüsten, empfiehlt Krämer. Die gesamte Belegschaft müsse darauf eingestellt werden, dass Angreifer mit immer überzeugenderen Video-, Audio- und kombinierten Tracks an sie herantreten werden, um sie zu unbedachten Handlungen zu bewegen. Sämtliche Mitarbeiter müssten auf solche Fälle durch regelmäßige Trainings und Tests vorbereitet werden.

Die Kontaktmöglichkeiten der Angreifer müssten drastisch reduziert werden – durch die Verhinderung des Eindringens von Phishing- und Spear Phishing-Nachrichten, Social Engineering-, Ransomware- und Business-E-Mail-Compromise-Angriffen in die Posteingänge ihrer Opfer. Risiken beim ausgehenden E-Mail-Versand, etwa Fehlsendungen, müssten auf ein absolutes Minimum zurückgefahren werden.

Effektiv helfen könne ein modernes Human Risk Management, so Krämer. Dessen Phishing-Trainings, -Schulungen und -Tests ließen sich mittlerweile personalisieren und automatisiert sowie kontinuierlich zum Einsatz bringen. Moderne Anti-Phishing-E-Mail-Technologien kombinierten KI mit Crowdsourcing, um neueste Zero Day-Bedrohungen frühzeitig aufzuspüren und rechtzeitig abzuwehren. Mit solchen Systemen könnten Unternehmen ihre Human Risks im Bereich Deepfakes zurückfahren und ihre Mitarbeiter zu ihrer besten Verteidigung im Kampf gegen Cyberbedrohungen machen.

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante News

Cybersecurity 2026 - Digitales Schloss auf Laptop mit Netzwerksicherheit und Datenschutz-Technologie

Cyberangriffe 2026: Neue Methoden, neue Risiken – und neue Verantwortung

Die Cyberbedrohungen des Jahres 2026 werden vielfältiger, raffinierter und stärker automatisiert sein als je zuvor. Experten prognostizieren einen tiefgreifenden Wandel: Angriffe v...

Cybersecurity und zerbrochenes Schloss

Wie Angreifer ganze Lieferketten kapern könnten

Zwei kritische Konfigurations-Schwachstellen im Model Context Protocol Software Development Kit von Anthropic zeigen, wie verwundbar moderne Software-Lieferketten sind. Sicherheits...

Schloss mit NIS2-Aufschrift

BSI beaufsichtigt künftig 29.500 Einrichtungen

Der Deutsche Bundestag hat das Gesetz zur Umsetzung der europäischen NIS-2-Richtlinie verabschiedet. Die Zahl der vom Bundesamt für Sicherheit in der Informationstechnik (BSI) beau...