KI-generierten Betrug verhindern – die Mega-Aufgabe dieser Zeit
Seit zwei Jahren fasziniert generative KI die Menschen und verändert viele Lebensbereiche – mit Vorteilen, aber auch neuen Risiken. Sicherheitsforscher erwarten für 2025 einen verstärkten Einsatz durch Kriminelle. KI-generierter Betrug nimmt rasant zu und wird immer schwerer erkennbar. Auch das FBI warnt, dass Betrüger KI nutzen, um ihre Methoden zu verfeinern und effizienter zu täuschen.

Generative Künstliche Intelligenz (KI) entwickelt sich rasant und wird sowohl legal als auch für kriminelle Zwecke genutzt. Während Unternehmen sie zur Inhaltserstellung verwenden, setzen Betrüger sie gezielt für Identitätsdiebstahl, Erpressung und Betrug ein. Besonders gefährlich sind Deepfakes und Stimmklone, mit denen Kriminelle täuschend echte Videos oder Anrufe fälschen, um Opfer zu manipulieren.
Auch Fake-Profile und Chatbots in sozialen Netzwerken erleichtern Betrug und Desinformation, während KI-gestützte Phishing-Mails immer glaubwürdiger werden. Zudem ermöglicht KI die Fälschung von Dokumenten, etwa für manipulierte Bewerbungen oder Kreditanträge. So berichtete Google Mandiant kürzlich, dass nordkoreanische IT-Fachkräfte mit KI-gestützten Identitäten weltweit Anstellungen suchen, um Einnahmen für das Regime zu generieren oder gezielt Cyberspionage zu betreiben.
Schutzmaßnahmen gegen KI-basierten Betrug
Da diese Bedrohungen immer ausgefeilter werden, ist ein ganzheitlicher Schutzansatz erforderlich, der Menschen, Prozesse und Technologie kombiniert.
1. Sensibilisierung und Medienkompetenz
Ein entscheidender Faktor im Kampf gegen KI-Betrug ist die Aufklärung und Schulung der Nutzer. Traditionelle Sicherheitstrainings, die auf verdächtige E-Mail-Adressen oder Grammatikfehler setzen, sind nicht mehr ausreichend. Unternehmen und Privatpersonen müssen lernen, Inhalte kritisch zu hinterfragen. Laut dem FBI sollten Nutzer insbesondere auf folgende Anzeichen achten:
- Unerwartete Anfragen immer direkt bei der angeblichen Quelle überprüfen.
- Bilder und Videos auf subtile Unregelmäßigkeiten untersuchen, wie unrealistische Bewegungen, seltsame Schatten oder unnatürliche Handhaltungen.
- Telefonanrufe auf unnatürlichen Tonfall oder eine ungewohnte Wortwahl hin überprüfen, um Stimmklone zu erkennen.
- Social-Media-Konten absichern, indem öffentliche Bilder und persönliche Informationen eingeschränkt werden.
Ein weiterer wichtiger Ansatz ist der Zero-Trust-Grundsatz. Dieser besagt, dass niemandem automatisch vertraut werden sollte, sondern Identitäten und Inhalte stets über den gesamten Zugriffsverlauf hinterfragt und überprüft werden müssen.
2. Neue Verifizierungsprozesse und Sicherheitsrichtlinien
Die klassischen Methoden zur Identitätsprüfung, beispielsweise über Rückrufe oder gespeicherte Telefonnummern, sind aufgrund von KI-gestütztem Vishing nicht mehr zuverlässig. Unternehmen sollten daher neue Mehrstufige Verifizierungsmechanismen einführen. Dazu gehören:
- Vordefinierte Stakeholder-Listen für besonders sensible Transaktionen.
- Mehrfache Freigaben durch mehrere Beteiligte, um Betrugsversuche zu erschweren.
- Interne Kodierung bestimmter Begriffe, um Anrufer auf ihre Echtheit zu prüfen.
- Unternehmensweite KI-Richtlinien, die den sicheren Einsatz generativer KI regeln.
Das FBI empfiehlt auch für Privatpersonen eine Geheimsprache innerhalb der Familie, um sich im Betrugsfall authentifizieren zu können.
3. Technologische Schutzmaßnahmen
Neben Awareness und verbesserten Prozessen spielen auch technologische Lösungen eine wichtige Rolle im Kampf gegen KI-gestützten Betrug. Dazu zählen:
- Starke Authentifizierungsverfahren wie die Zwei-Faktor-Authentifizierung, um den unbefugten Zugriff auf Konten zu verhindern.
- Deepfake-Erkennungstools, die gefälschte Videos oder Stimmen identifizieren können. Obwohl diese Technologien noch nicht perfekt sind, wird intensiv an besseren Lösungen geforscht.
- KI-basierte Betrugserkennung, die verdächtige Muster in großen Datenmengen analysiert. ScamCheck beispielsweise ist eine Lösung, die KI nutzt, um betrügerische Inhalte zu erkennen.
- Erweiterte E-Mail-Sicherheit, die nicht nur URLs und Anhänge überprüft, sondern auch KI-gestützte Analysen einsetzt, um Schreibstile oder verdächtige Designmuster in Phishing-Mails zu erkennen.
Fazit: Wachsamkeit ist der beste Schutz
KI-generierter Betrug stellt eine wachsende Gefahr dar, die Unternehmen und Privatpersonen gleichermaßen betrifft. Da die Qualität und Raffinesse dieser Angriffe weiter zunimmt, reicht ein einzelner Schutzmechanismus nicht aus. Erforderlich ist eine Kombination aus technologischen Lösungen, klaren Prozessen und einem kritischen Bewusstsein für digitale Inhalte.
Wer sich der Risiken bewusst ist, verdächtige Anfragen hinterfragt und technische Schutzmaßnahmen konsequent nutzt, kann das Risiko deutlich reduzieren. Die rasante Entwicklung der KI erfordert jedoch eine kontinuierliche Anpassung unserer Sicherheitsstrategien, um Cyberkriminellen immer einen Schritt voraus zu sein.

Tobias Grabitz, PR & Communications Manager bei Trend Micro