Home » News » Cybersecurity » Deepfakes: So gefährden KI-generierte Inhalte die Demokratie

Deepfakes: So gefährden KI-generierte Inhalte die Demokratie

Die Demokratisierung von Künstlicher Intelligenz hat die politische Landschaft verändert. Zukünftige Wahlen könnten stark von KI-generierten Informationen beeinflusst werden, sei es in Texten oder audiovisuellen Inhalten. Dies wirft die Sorge auf, dass der öffentliche Diskurs leiden und die Demokratie beeinträchtigt werden könnte.

4 Min. Lesezeit
Eine Frau mit ernstem Gesichtsausdruck steht vor einer digitalen Schnittstelle, auf der holografische Grafiken angezeigt werden, darunter biometrische Gesichtserkennungsmuster und Datendiagramme zu Deepfakes. Sie trägt ein schwarzes Oberteil und hat ihr Haar zu einem tiefen Pferdeschwanz gebunden.
Foto: ©AdobeStock/metamorworks

Dieser Kommentar untersucht die Auswirkungen von generativen KI-Technologien auf kommende Wahlen, insbesondere im Hinblick auf personalisierte Texte und glaubwürdige audiovisuelle Inhalte.

Die US-Präsidentschaftswahl 2024 steht bevor, und es gibt wachsende Bedenken darüber, dass Fortschritte in der künstlichen Intelligenz die demokratische Entscheidungsfindung beeinträchtigen könnten. Frühere Technologien wurden hauptsächlich zur Anpassung von Inhalten in Wahlkämpfen verwendet. Heute kann KI jedoch maßgeschneiderte Inhalte erstellen, was die Sorge um ihren Einfluss auf den öffentlichen Diskurs verstärkt.

Der Cambridge-Analytica-Skandal von 2018 drehte sich um die unerlaubte Nutzung von Social-Media-Daten, um personalisierte Inhalte an Wähler zu liefern. Der Engpass lag in den Kosten für die Entwicklung und Veröffentlichung solcher Inhalte sowie im Verständnis von Sprache, Kultur und Psychologie des Ziellandes.

Seit der Einführung von ChatGPT Ende 2022 ist es jedoch einfacher und kostengünstiger geworden, automatisch personalisierte Texte zu erstellen. Spezifische Parameter können in die API eingespeist werden, um überzeugende personalisierte Texte zu generieren und sogar vollständige Konversationen zwischen KI und Zielperson zu simulieren. Der eigentliche Durchbruch liegt in der Fähigkeit, diese personalisierten Inhalte in großem Maßstab und kostengünstig zu produzieren. Die Qualität dieser Texte hat sich so stark verbessert, dass KI möglicherweise in der Lage sein könnte, menschliche Gefühle, Gedanken und Entscheidungen zu antizipieren und zu beeinflussen, und das zu einem Grad, der die menschliche Vorstellungskraft übersteigt.

Die Gefahren gefälschter audiovisueller Medien

Aus der KI-Technologie ist ein mächtiges Werkzeug hervorgegangen, das betrügerische Sprach- und Videoaufnahmen erstellen kann, und das hat die Grenzen zwischen Realität und Fälschung verschwimmen lassen. Die Sorge wächst, da diese Tools leichter verfügbar und erschwinglicher werden, besonders im politischen Kontext. Beispiele wie ein gefälschtes Deepfake-Video des ukrainischen Präsidenten Selenskyj, das die Kapitulation der Ukraine verkündete, zeigen die Bedrohung. Ein anderes Beispiel ist das fragliche Telefonat zwischen der ehemaligen Berliner Bürgermeisterin Franziska Giffey und Vitali Klitschko.

Die Fähigkeit, personalisierte Texte, Videos und Bilder über KI zu erstellen und gezielt an Wählergruppen zu senden, stellt Politik und Gesellschaft vor neue Herausforderungen. Gefälschte Inhalte können den Diskurs entgleisen lassen und demokratische Prozesse gefährden, indem sie die Voraussetzung für freien Ideen- und Meinungsaustausch bedrohen. In einer Welt, in der Fälschungen schwerer zu erkennen sind, wird die Quelle und der Kontext einer Nachricht entscheidend. Die Gefährdung der Wahrheit schafft jedoch auch ein Bewusstsein für Lügen und Betrug, was zu einer höheren Sensibilisierung und Abschreckung führen kann. Glaubwürdigkeit und Vertrauen werden zu wertvolleren Gütern.

KI-Herausforderung angehen und Transparenz schaffen

Um die aufkommenden Probleme effektiv anzugehen, ist eine koordinierte Anstrengung mehrerer Akteure erforderlich. Zunächst müssen KI-Anbieter proaktive Maßnahmen ergreifen, um den Missbrauch ihrer Technologie zu verhindern. Regulierungsbehörden müssen ebenfalls ihre Richtlinien überprüfen und aktualisieren. Eine entscheidende Voraussetzung für die Informationsbewertung ist die Transparenz hinsichtlich der Informationsquelle, der Sprecheridentität und seiner Absichten. Daher wird vorgeschlagen, diese Details bei der Veröffentlichung von KI-generierten Inhalten offenzulegen. Bei Gesprächen mit Bots sollte die Identität des Sprechers als KI-Chatbot gekennzeichnet und die Absichten der KI klargestellt werden, möglicherweise durch die Auflistung der Befehle, die dem KI-Bot zur Erstellung der Inhalte gegeben wurden.

Initiativen zur Identitätsüberprüfung könnten ebenfalls einen neuen Trend einleiten und zur Lösung beitragen. Beispielsweise ist WorldCoin von OpenAI eine Plattform zur digitalen Identifikation, die Menschen ermöglicht zu überprüfen, ob sie mit echten Personen interagieren. In sozialen Medien könnte es einen Trend zur Validierung von Nutzerprofilen und Identitäten geben, was die Aktivitäten krimineller Nachahmer erschwert, die Glaubwürdigkeit der sozialen Medien und ihrer Nutzer erhöht und die Verbreitung von Bots eindämmt. Inmitten einer Flut fragwürdiger Informationen könnte journalistische Glaubwürdigkeit an Bedeutung gewinnen. Wenn Informationen leicht gefälscht werden können, neigen Menschen möglicherweise eher dazu, sich auf zuverlässige Quellen und Medien zu verlassen, die strenge Faktenprüfung, redaktionelle Standards und Verantwortlichkeit gewährleisten.

Fazit

Die Auswirkungen von KI im Kontext politischer Wahlen sind zweischneidig. Trotz der neuen Probleme, die KI mit sich bringt, sollten wir bedenken, dass unvollständige Informationen und Manipulation schon immer Teil unseres politischen Umfelds waren. Die Angst vor KI könnte das Vertrauen weiter untergraben, aber der öffentliche Diskurs war nie vollkommen objektiv und wahrhaftig.

Gleichzeitig schwindet das Vertrauen in demokratische Prozesse, was die Bereitschaft zur Anerkennung von Wahlergebnissen beeinträchtigen kann, wie im Januar 2021 beim Sturm auf das Kapitol in den USA zu sehen war. Um sich vor Falschinformationen, sei es von Menschen oder KI erstellt, zu schützen, sollten wir weiterhin kritisch hinterfragen, Quellen überprüfen, den gesunden Menschenverstand einsetzen und eigenständig denken. Dies bleibt die beste Verteidigung gegen Manipulation, unabhängig davon, ob sie von Menschen oder KI stammt.

Marco Eggerling CISO EMEA
Foto: Check Point Software

Marco Eggerling, CISO EMEA bei Check Point Software Technologies

 

Andere interessante News

Cyber-Resilienz Konzept auf Laptop in Serverraum

Wie Unternehmen ihre Cyber-Resilienz stärken können

Immer mehr Sicherheitsverantwortliche fordern: Die Risikobewertung von Drittanbietern muss fester Bestandteil jeder Cyber-Resilienz-Strategie werden. Einheitliche Standards fehlen ...

Virenwarnung auf dem Computerbildschirm

Report: Exploits bleiben häufigster Angriffsvektor für Erstinfektionen

Ein neuer, tiefgreifender Report bündelt die wichtigsten Erkenntnisse des Jahres 2024 – direkt aus den Schaltzentralen weltweiter Cyberermittlungen und aus dem Krisenmanagement nac...

Reihe von Netzwerkservern mit leuchtenden LED-Lichtern.

Warum starke IT nicht automatisch für Sicherheit steht

Vier von fünf Beschäftigten vertrauen auf die Kompetenz ihrer IT-Abteilung – doch genau dieses Vertrauen kann trügen. Werden Investitionen in die IT-Sicherheit vernachlässigt, stei...