Deepfakes: So gefährden KI-generierte Inhalte die Demokratie
Die Demokratisierung von Künstlicher Intelligenz hat die politische Landschaft verändert. Zukünftige Wahlen könnten stark von KI-generierten Informationen beeinflusst werden, sei es in Texten oder audiovisuellen Inhalten. Dies wirft die Sorge auf, dass der öffentliche Diskurs leiden und die Demokratie beeinträchtigt werden könnte.

Dieser Kommentar untersucht die Auswirkungen von generativen KI-Technologien auf kommende Wahlen, insbesondere im Hinblick auf personalisierte Texte und glaubwürdige audiovisuelle Inhalte.
Die US-Präsidentschaftswahl 2024 steht bevor, und es gibt wachsende Bedenken darüber, dass Fortschritte in der künstlichen Intelligenz die demokratische Entscheidungsfindung beeinträchtigen könnten. Frühere Technologien wurden hauptsächlich zur Anpassung von Inhalten in Wahlkämpfen verwendet. Heute kann KI jedoch maßgeschneiderte Inhalte erstellen, was die Sorge um ihren Einfluss auf den öffentlichen Diskurs verstärkt.
Der Cambridge-Analytica-Skandal von 2018 drehte sich um die unerlaubte Nutzung von Social-Media-Daten, um personalisierte Inhalte an Wähler zu liefern. Der Engpass lag in den Kosten für die Entwicklung und Veröffentlichung solcher Inhalte sowie im Verständnis von Sprache, Kultur und Psychologie des Ziellandes.
Seit der Einführung von ChatGPT Ende 2022 ist es jedoch einfacher und kostengünstiger geworden, automatisch personalisierte Texte zu erstellen. Spezifische Parameter können in die API eingespeist werden, um überzeugende personalisierte Texte zu generieren und sogar vollständige Konversationen zwischen KI und Zielperson zu simulieren. Der eigentliche Durchbruch liegt in der Fähigkeit, diese personalisierten Inhalte in großem Maßstab und kostengünstig zu produzieren. Die Qualität dieser Texte hat sich so stark verbessert, dass KI möglicherweise in der Lage sein könnte, menschliche Gefühle, Gedanken und Entscheidungen zu antizipieren und zu beeinflussen, und das zu einem Grad, der die menschliche Vorstellungskraft übersteigt.
Die Gefahren gefälschter audiovisueller Medien
Aus der KI-Technologie ist ein mächtiges Werkzeug hervorgegangen, das betrügerische Sprach- und Videoaufnahmen erstellen kann, und das hat die Grenzen zwischen Realität und Fälschung verschwimmen lassen. Die Sorge wächst, da diese Tools leichter verfügbar und erschwinglicher werden, besonders im politischen Kontext. Beispiele wie ein gefälschtes Deepfake-Video des ukrainischen Präsidenten Selenskyj, das die Kapitulation der Ukraine verkündete, zeigen die Bedrohung. Ein anderes Beispiel ist das fragliche Telefonat zwischen der ehemaligen Berliner Bürgermeisterin Franziska Giffey und Vitali Klitschko.
Die Fähigkeit, personalisierte Texte, Videos und Bilder über KI zu erstellen und gezielt an Wählergruppen zu senden, stellt Politik und Gesellschaft vor neue Herausforderungen. Gefälschte Inhalte können den Diskurs entgleisen lassen und demokratische Prozesse gefährden, indem sie die Voraussetzung für freien Ideen- und Meinungsaustausch bedrohen. In einer Welt, in der Fälschungen schwerer zu erkennen sind, wird die Quelle und der Kontext einer Nachricht entscheidend. Die Gefährdung der Wahrheit schafft jedoch auch ein Bewusstsein für Lügen und Betrug, was zu einer höheren Sensibilisierung und Abschreckung führen kann. Glaubwürdigkeit und Vertrauen werden zu wertvolleren Gütern.
KI-Herausforderung angehen und Transparenz schaffen
Um die aufkommenden Probleme effektiv anzugehen, ist eine koordinierte Anstrengung mehrerer Akteure erforderlich. Zunächst müssen KI-Anbieter proaktive Maßnahmen ergreifen, um den Missbrauch ihrer Technologie zu verhindern. Regulierungsbehörden müssen ebenfalls ihre Richtlinien überprüfen und aktualisieren. Eine entscheidende Voraussetzung für die Informationsbewertung ist die Transparenz hinsichtlich der Informationsquelle, der Sprecheridentität und seiner Absichten. Daher wird vorgeschlagen, diese Details bei der Veröffentlichung von KI-generierten Inhalten offenzulegen. Bei Gesprächen mit Bots sollte die Identität des Sprechers als KI-Chatbot gekennzeichnet und die Absichten der KI klargestellt werden, möglicherweise durch die Auflistung der Befehle, die dem KI-Bot zur Erstellung der Inhalte gegeben wurden.
Initiativen zur Identitätsüberprüfung könnten ebenfalls einen neuen Trend einleiten und zur Lösung beitragen. Beispielsweise ist WorldCoin von OpenAI eine Plattform zur digitalen Identifikation, die Menschen ermöglicht zu überprüfen, ob sie mit echten Personen interagieren. In sozialen Medien könnte es einen Trend zur Validierung von Nutzerprofilen und Identitäten geben, was die Aktivitäten krimineller Nachahmer erschwert, die Glaubwürdigkeit der sozialen Medien und ihrer Nutzer erhöht und die Verbreitung von Bots eindämmt. Inmitten einer Flut fragwürdiger Informationen könnte journalistische Glaubwürdigkeit an Bedeutung gewinnen. Wenn Informationen leicht gefälscht werden können, neigen Menschen möglicherweise eher dazu, sich auf zuverlässige Quellen und Medien zu verlassen, die strenge Faktenprüfung, redaktionelle Standards und Verantwortlichkeit gewährleisten.
Fazit
Die Auswirkungen von KI im Kontext politischer Wahlen sind zweischneidig. Trotz der neuen Probleme, die KI mit sich bringt, sollten wir bedenken, dass unvollständige Informationen und Manipulation schon immer Teil unseres politischen Umfelds waren. Die Angst vor KI könnte das Vertrauen weiter untergraben, aber der öffentliche Diskurs war nie vollkommen objektiv und wahrhaftig.
Gleichzeitig schwindet das Vertrauen in demokratische Prozesse, was die Bereitschaft zur Anerkennung von Wahlergebnissen beeinträchtigen kann, wie im Januar 2021 beim Sturm auf das Kapitol in den USA zu sehen war. Um sich vor Falschinformationen, sei es von Menschen oder KI erstellt, zu schützen, sollten wir weiterhin kritisch hinterfragen, Quellen überprüfen, den gesunden Menschenverstand einsetzen und eigenständig denken. Dies bleibt die beste Verteidigung gegen Manipulation, unabhängig davon, ob sie von Menschen oder KI stammt.

Marco Eggerling, CISO EMEA bei Check Point Software Technologies