ISCC-Zertifikate: Stärkung des Vertrauens in digitale Medien: Trust Media?!
Der digitale Medienkonsum hat sich zunehmend ins Internet verlagert, wo Musik, Videos, Texte und Bilder in unüberschaubarer Menge veröffentlicht und geteilt werden, besonders über soziale Netzwerke. Diese Entwicklung bringt erhebliche gesellschaftliche Herausforderungen mit sich, denn der Überfluss an Inhalten erhöht nicht nur den Missbrauch und die Zweckentfremdung kreativer Werke und wird damit zu einem Problem für Medienschaffende und Rechteinhaber. Fehlinformationen, Desinformationen und Fake News untergraben die Grundlagen demokratischer Gesellschaften.

Hinweis: Dieser Artikel stammt aus der Ausgabe 1/2025 der Zeitschrift IT-SICHERHEIT. Das komplette Heft können Sie hier herunterladen. (Registrierung erforderlich)
In der heutigen Zeit fällt es zunehmend schwer, Inhalten zu vertrauen, die online publiziert wurden. Die einfache Informationsweitergabe in sozialen Netzwerken und die massenhafte Nutzung von generativer künstlicher Intelligenz (KI) verschärfen das Problem um ein Vielfaches. Eigentlich müssen wir davon ausgehen, dass ein Inhalt nicht original oder authentisch ist. Die Grenze zwischen Realität und Manipulation ist oft nicht zu erkennen, besonders dann, wenn wichtige Quellenangaben fehlen.
Wie können also einerseits Medienschaffende und Rechteinhaber ihre Werke so publizieren, dass ihre Urheberschaft auch dann ihren Werken zugeordnet bleibt, wenn sie online geteilt, bearbeitet oder manipuliert werden? Wie können Mediennutzer auf der anderen Seite die Unversehrtheit und Originalität digitaler Werke einfach und verlässlich beurteilen und verstehen, was sie mit diesen Inhalten machen dürfen? Und wie können sie mit einfachen Mitteln darüber informiert werden, sollten Inhalte nicht echt oder authentisch sein?
Angesichts der enormen Menge digitaler Medien ist eine manuelle Überprüfung online geteilter Medieninhalte mühsam, zeitaufwendig, ineffizient und somit kaum praktikabel. Ein Paradigmenwechsel von der manuellen Analyse hin zu automatisierten Methoden ist notwendig. Das Forschungsprojekt Trust Media des Instituts für Internet-Sicherheit – if(is) zielt darauf ab, ein neues Konzept für eine nachhaltige und vertrauenswürdige Informations- und Medienarchitektur zu erforschen.[1] Das Ziel ist es, eine Methode zu beschreiben, die es Nutzern ermöglichen soll, die Authentizität und Integrität digitaler Medieninhalte automatisch, sicher, schnell, effizient und kryptografisch zu überprüfen. Zudem sollen manipulierte oder künstlich erzeugte Inhalte markiert und ohne aufwendige manuelle Rechercheprozesse identifiziert werden können.
Im Rahmen der vorgeschlagenen Trust-Media-Vertrauensarchitektur soll das Hauptaugenmerk darauf liegen, eine Methode vorzuschlagen und zu evaluieren, mit der sich sowohl von Menschen geschaffene Originalwerke als auch von KI generierte Inhalte klar und transparent kennzeichnen lassen. Das soll Nutzern dabei helfen, auf einen Blick zu erkennen, ob ein Inhalt von einem bestimmten Menschen oder einer KI stammt. Überprüfbare Berechtigungsnachweise sollen es ermöglichen, die Urheber authentischer Werke zu identifizieren oder KI-Systeme zu benennen, die synthetische Inhalte erzeugen.
Im Rahmen des Projekts soll ein Prozess beschrieben werden, der es Anbietern von KI-Systemen ermöglichen soll, International Standard Content Codes (ISCC) für die von ihnen produzierten synthetischen Inhalte zu generieren und diese mit den entsprechenden transparenten KI-Kennzeichnungen öffentlich zu deklarieren. Aber auch Nutzer generativer KI-Anwendungen, die selbst Inhalte erzeugen und verwenden, Journalisten oder Vertrauensdienste wie „Fact-Checking“-Dienste sollen die Möglichkeit haben, KI-generierte Inhalte öffentlich als solche zu kennzeichnen.
Die Trust-Media-Vertrauensarchitektur basiert auf drei technischen Schlüsselkomponenten:
1. dem International Standard Content Code (ISCC),
2. überprüfbaren Berechtigungsnachweisen (Verifiable Credentials) für die vertrauliche und vertrauenswürdige Identifikation von Quellen sowie
3. einem Konzept für ein Register von Metadatensätzen, das Dritten den Zugang zu ISCC-Codes, Metadaten, Rechten und Berechtigungsnachweisen ermöglicht.
International Standard Content Code (ISCC)
Der International Standard Content Code ist ein neuer ISO-Standard (ISO 24138:2024) und ein offenes Identifikationssystem für digitale Mediendateien aller Medientypen wie Bilder, Videos, Audio- oder Textdateien.[2] Bereits heute können ISCC-Codes aus den meisten Dateiformaten generiert werden, wodurch das gleiche Identifikationssystem einheitlich und übergreifend von allen Medienbranchen genutzt werden kann. Und innerhalb einer Branche kann der ISCC dann wiederum für alle Inhaltstypen verwendet werden, zum Beispiel können Presseverlage den ISCC für Pressefotos, Nachrichtenartikel, Videos oder Podcasts benutzen.
Die Besonderheit des ISCC besteht darin, dass jeder Nutzer, einschließlich der Urheber und Rechteinhaber sowie Onlineplattformen oder Maschinen, den jeweiligen ISCC aus den digitalen Datenbeständen selbst ableiten kann. Jede digitale Mediendatei hat ihren eigenen, einzigartigen Code, der direkt aus dem Inhalt extrahiert wird. Das bedeutet, dass zwei Parteien unabhängig voneinander denselben oder einen sich ähnelnden ISCC-Code direkt aus der Mediendatei generieren können, ohne zuvor Informationen oder Metadaten über den Inhalt austauschen zu müssen. Dadurch entfällt die Notwendigkeit der manuellen Verwaltung von Identifikationsnummern, wie sie beispielsweise bei etablierten Medien-Standards wie ISBN, ISRC und DOI erforderlich ist.[3]
ISCC-Codes werden durch eine Kombination aus kryptografischen und ähnlichkeitsbewahrenden Hashes (SIM-Hashes) erzeugt. Jede Mediendatei erhält eine eindeutige Identifikationsnummer, die deterministisch aus dem Inhalt generiert wird. Dies ermöglicht die präzise Identifizierung identischer Inhalte, um deren Integrität zu prüfen oder Änderungen festzustellen. Die ähnlichkeitsbewahrenden Hashes des ISCC ermöglichen den Vergleich und das Clustering und Matching ähnlicher Inhalte, ohne dass ein direkter Zugriff auf die Datei erforderlich ist. So können verschiedene Versionen desselben Inhalts, leicht veränderte oder manipulierte Dateien sowie Inhalte ohne Metadaten anhand der abgeleiteten Codes verglichen werden. Abweichungen und Veränderungen können erkannt und bis zu einem gewissen Grad nachvollzogen werden (siehe Abbildung 1).
Abbildung 1: ISCC-Code

Der ISCC wurde 2016 vom Autor Sebastian Posth mit initiiert. 2018 nahm DIN die Entwicklung der Norm in Angriff. Ein Jahr später wurde die Arbeitsgruppe WG 18 innerhalb von ISO/TC 46/SC 9 eingerichtet, um den Standard auf internationaler Ebene zu etablieren. Im Mai 2024 wurde der ISCC von Experten aus 29 Ländern und verschiedenen Medienbranchen von der ISO als globaler Standard zur Identifizierung digitaler Medieninhalte veröffentlicht. Die Codebasis zur Generierung der Codes wird von der ISCC Foundation (NL) verwaltet und weiterentwickelt. Sie ist unter einer offenen Lizenz (Open Source) veröffentlicht, um eine weitgehende Verbreitung und Übernahme des neuen Standards zu fördern.
Föderierte Metadaten-Registries
Urheber und Rechteinhaber können nun die aus ihren Inhalten generierten ISCC-Codes in öffentlichen Registern, Verzeichnissen, Datenbanken oder Blockchains veröffentlichen. Anstatt Metadaten, Wasserzeichen und steganografische Daten in Dateien einzubetten, wie es anderweitig zum Beispiel von der C2PA-Initiative vorgeschlagen wird, sollen Produktinformationen, Rechte und Lizenzen, Informationen zur Datenherkunft und andere Metadaten externalisiert, das heißt als externe Datei („Sidecar-Datei“) mit dem ISCC verknüpft werden.
Diese Methode der dauerhaften Bindung von Metadaten an digitale Inhalte verhindert, dass Informationen verloren gehen, wenn eingebettete Metadaten entfernt oder Dateien umbenannt werden. Es ermöglicht auch die Verknüpfung von Informationen, Metadaten und anderen Verweisen mit Inhalten, die bereits digital verbreitet und veröffentlicht wurden. Dies ist innovativ, da Metadaten oder Wasserzeichen nicht mehr in Inhalten eingefügt werden können, die in der Vergangenheit oder von Dritten veröffentlicht wurden. Ein Netzwerk offener, föderierter und überprüfbarer Verzeichnisse kann von Rechteinhabern, Medienorganisationen sowie Onlineplattformen, KI-Anbietern oder anderen Diensten genutzt werden, um ISCC-Codes und die dazugehörigen Metadaten öffentlich zu registrieren beziehungsweise zu finden, um die Authentizität und Originalität digitaler Inhalte zu verifizieren.
Überprüfbare Nachweise
Da jede Person oder Maschine einen ISCC-Code aus Mediendateien generieren und eine öffentliche Erklärung abgeben kann, ist es entscheidend, die Quelle jeder Deklaration ordnungsgemäß und überprüfbar zu authentifizieren. Um die Vertrauenswürdigkeit der Erklärungen zu erhöhen, sollen sie von den deklarierenden Parteien digital signiert und mit öffentlich zugänglichen, überprüfbaren Berechtigungsnachweisen versehen werden.
Aktuell werden verschiedene technische Ansätze diskutiert, die das gemeinsame Ziel ausgeben, Vertrauen in die Authentizität digitaler Medieninhalte zu gewährleisten, KI-generierte Inhalte zu markieren, Informationen über von echten Menschen erstellte Original-Inhalte bereitzustellen oder andere Metadaten mit digitalen Mediendateien zu verknüpfen. Im Fotojournalismus und im Nachrichtenbereich ist eine Initiative besonders hervorzuheben: C2PA ist ein Konsortium, das aus der Content Authenticity Initiative (CAI) und des Project Origin hervorgegangen ist.
Mittlerweile hat es eine Vielzahl von Mitgliedern und Unterstützern. C2PA hat eine technische Spezifikation für einen zukünftigen ISO-Standard entwickelt, die es Urhebern ermöglicht, Metadaten wie den Zeitpunkt der Erstellung, Bearbeitungsvorgänge und die Datenprovenienz, Urheberrechte und weitere technische Details in einem sogenannten Manifest zu bündeln, das digital signiert und zusammen mit kryptografischen Zertifikaten in die Metadaten der Mediendatei selbst eingebettet wird. Urheber können vertrauenswürdige Hardware- und Softwareanwendungen, die diesen Standard unterstützen, etwa Fotokameras oder Adobe Photoshop, verwenden, um die Quelle und Herkunft von Medieninhalten zu zertifizieren.
Die Methode von C2PA hat jedoch gravierende Nachteile. Sie ist ineffektiv, wenn
a) eingebettete Metadaten der Mediendatei entfernt wurden,
b) der Inhalt verändert oder manipuliert wurde, oder
c) Mediendateien in ein anderes Dateiformat konvertiert, komprimiert oder als Screenshot verbreitet wurden. Da eingebettete Metadaten aus Sicherheitsgründen häufig entfernt werden, wenn Inhalte im Internet oder auf Social-Media-Plattformen geteilt werden, kann die Methode von C2PA in diesen Fällen nicht zur Verifikation genutzt werden.
In der Diskussion über synthetische oder KI-generierte Inhalte haben sich Wasserzeichen und steganografische Methoden als weitere Möglichkeiten zur Identifikation und Verbesserung der Transparenz digitaler Medieninhalte herauskristallisiert. Insbesondere die Steganografie bietet eine robuste Technologie zum Einbetten von nicht wahrnehmbaren Informationen in Pixeldaten von Bildern, besonders in Fällen, in denen Metadaten fehlen.
Allerdings haben diese Ansätze auch Nachteile. Sie basieren oft auf unzugänglichen, proprietären und kostspieligen Technologien, die Abhängigkeiten schaffen und die Nutzung derselben Software erfordern, die ursprünglich zum Einbetten der versteckten Nachrichten verwendet wurde. Der proprietäre Charakter dieser Technologien beschränkt die Entdeckung und Überprüfung von Wasserzeichen auf das Unternehmen, das sie eingefügt hat, was die Entwicklung öffentlich zugänglicher Dienste behindert.
Zudem können sowohl Wasserzeichen als auch steganografische Daten entfernt werden. Diese Technologien sind hauptsächlich auf visuelle Inhalte anwendbar und haben ihre Grenzen, zum Beispiel bei Textdateien. Diese Einschränkungen erschweren die Entwicklung dieser Systeme zu Industriestandards und beeinträchtigen ihre Wirksamkeit bei der Erreichung eines breiten Publikums.
Ein wesentlicher Bestandteil der zu beschreibenden Trust-Media-Vertrauensarchitektur ist also die eindeutige Identifikation und Zuordnung von Medieninhalten zu ihren Urhebern und Quellen. Dieser Prozess gewährleistet Rechenschaft, Transparenz und erleichtert die Überprüfung der Authentizität von Inhalten und Daten. Um ihre Vertrauenswürdigkeit der Erklärungen zu erhöhen, sollen sie von den deklarierenden Parteien digital signiert und mit öffentlich zugänglichen, überprüfbaren Berechtigungsnachweisen versehen werden.
Überprüfbare Zeitstempel und digitale Signaturen, verbunden mit verifizierbaren Berechtigungsnachweisen, gewährleisten die Richtigkeit und Gültigkeit der Deklarationen und ermöglichen eine vertrauenswürdige und datenschutzkonforme Authentifizierung der deklarierenden Parteien. Das erhöht die Glaubwürdigkeit von Metadaten und Urheberrechtsansprüchen und stellt sicher, dass die mit digitalen Inhalten verknüpften Metadaten zuverlässig und überprüfbar sind. Wenn Nutzer die Quelle von Informationen und Inhalten kennen, können sie fundierte Entscheidungen auf der Grundlage der Glaubwürdigkeit der Urheber treffen.
Überprüfbare Berechtigungsnachweise („Verifiable Credentials“) bilden die Grundlage dieser Architektur.[4] Diese digitalen Zertifikate basieren auf einer hierarchischen Public-Key-Infrastruktur, die zukunftssicher ist und mit den Grundlagen der neuen, geplanten eIDAS-Verordnung (Electronic Identification, Authentication and Trust Services, eIDAS) in Einklang stehen wird. Sie können unabhängig überprüft werden, um die Authentizität von Quellen und
Behauptungen zu beweisen, ohne sensible Informationen preiszugeben.
Beispielsweise kann ein Journalist seine Identität gegenüber einer Onlineplattform mit einem Nachweis seines Arbeitgebers belegen, ohne persönliche Daten offenlegen zu müssen. So kann die Trust-Media-Vertrauensarchitektur Inhalte und Quellen identifizieren und einander zuordnen, während sie die Privatsphäre und Pseudonymität der Urheber schützt (siehe Abbildung 2).

KI-Verordnung
Die neue europäische KI-Verordnung (AI Act) verpflichtet Anbieter von KI-Anwendungen zu mehr Transparenz. Besonders Artikel 53 (1) d) fordert, dass Anbieter von KI-Modellen „hinreichend detaillierte“ Zusammenfassungen der verwendeten Trainingsdaten veröffentlichen. Diese Maßnahme gewährleistet die Rechen-schaftspflicht und ermöglicht eine Überprüfung der Datenquellen, die zur Schulung der Modelle genutzt wurden.
Zusätzlich verlangt Artikel 50 (2) des KI-Gesetzes, dass KI-generierte oder synthetische Inhalte in einem maschinenlesbaren Format gekennzeichnet werden. Diese Kennzeichnung muss „wirksam, interoperabel, belastbar und zuverlässig“ sein, damit für die Nutzer klar ist, ob ein Inhalt künstlich erzeugt wurde. KI-Anbieter haben ein eigenes Interesse daran, KI-generierte Inhalte zu kennzeichnen. Transparenz hilft nicht nur dabei, das Vertrauen der Nutzer zu gewinnen oder rechtliche Anforderungen zu erfüllen, sondern verhindert auch, dass KI-Modelle mit synthetischen Medien trainiert werden. Das Training mit synthetischen Daten kann zu einem Qualitätsverlust führen, bekannt als „model collapse“.
Durch klare Kennzeichnung von KI-Output stellen Anbieter sicher, dass ihre Systeme mit authentischen Daten arbeiten, was die Leistungsfähigkeit und Zuverlässigkeit der KI langfristig verbessert. Der Aufstieg generativer KI-Modelle stellt Kreativschaffende und Rechteinhaber vor neue Herausforderungen. Diese Modelle nutzen umfangreiche Datensätze, die aus Text-, Bild-, Musik- und Videodateien bestehen, die oft durch Text- und Data-Mining von online verfügbaren Inhalten zusammengestellt werden. Gemäß Artikel 4 Absatz 3 der Europäischen Richtlinie über das Urheberrecht (DSM) können Kreativschaffende und Rechteinhaber einen Nutzungsvorbehalt für die Indexierung ihrer Medieninhalte durch KI-Anbieter festlegen, der jedoch nur dann wirksam ist, wenn er in maschinenlesbarer Form erfolgt.
Das Projekt Trust Media hat also die Rechte der Urheber und Rechteinhaber im Fokus und beschreibt eine Methode, die es ermöglichen soll, ihre Werke eindeutig zu kennzeichnen und den Umfang der Nutzung ihrer Werke zu definieren. Dies schließt auch die Kennzeichnung ein, dass Werke von menschlichen Urhebern erstellt wurden.
Der Digital Services Act (DSA) zielt darauf ab, einen sicheren digitalen Raum zu schaffen, in dem die Grundrechte der Nutzer geschützt sind und Unternehmen transparent agieren müssen. Die Kennzeichnung von KI-generierten Inhalten und die Verifizierung der Authentizität digitaler Medien müssen im Einklang mit den Anforderungen des DSA stehen. Dies umfasst die Notwendigkeit, klare und transparente Mechanismen zur Erkennung und Kennzeichnung von Fehlinformationen und manipulativen Inhalten bereitzustellen, um die Integrität der Onlineinformationen zu gewährleisten.
Fazit
Das vorgestellte Modell zielt darauf ab, ein grundlegendes Problem des digitalen Zeitalters zu lösen: die mangelnde Vertrauenswürdigkeit von online verbreiteten Inhalten. In einer Welt, in der generative KI und soziale Medien die Grenze zwischen Realität und Manipulation verwischen, bietet das Konzept eine vielversprechende Grundlage, um Authentizität und Integrität digitaler Medien systematisch sicherzustellen.
Durch den Einsatz des International Standard Content Code (ISCC) wird eine standardisierte Methode geschaffen, mit der digitale Inhalte eindeutig identifiziert und auch bei Veränderungen oder Weiterverbreitungen zuverlässig zugeordnet werden können. Diese Technologie gewährleistet nicht nur die Nachverfolgbarkeit von Originalwerken, sondern erleichtert auch die Markierung und Erkennung von manipulierten oder künstlich erzeugten Inhalten. Gleichzeitig werden Rechteinhaber gestärkt, da ihre Werke klar zugeordnet und ihre Nutzungsrechte transparent dokumentiert werden können.
Anders als herkömmliche Systeme, die auf eingebettete Metadaten oder proprietäre Technologien setzen, ermöglicht dieses Modell eine flexible, interoperable und robuste Lösung, die unabhängig vom Format oder der Verarbeitung von Inhalten funktioniert. Die dezentrale und offene Struktur fördert zudem den Zugang für verschiedene Akteure – von Kreativschaffenden über Onlineplattformen bis zu KI-Anbietern und Nutzern.
Langfristig könnte diese Architektur das Vertrauen in digitale Inhalte erheblich erhöhen. Indem die Herkunft und Unversehrtheit von Medieninhalten überprüfbar werden, können Desinformationen effektiver entlarvt und die Manipulation von Inhalten eingedämmt werden. Zudem erfüllt das Modell wichtige regulatorische Anforderungen wie die Kennzeichnungspflichten des AI Act und die Transparenzvorgaben des Digital Services Act.
Insgesamt verspricht das Projekt Trust Media nicht nur einen technischen, sondern auch einen gesellschaftlichen Mehrwert. Es stärkt die Transparenz im digitalen Raum, schützt die Rechte von Kreativschaffenden und ermöglicht es Nutzern, informierte Entscheidungen zu treffen.
Literatur
[1] Projektseite Trust Media, https://trust-media.it/
[2] International Organization for Standardization (ISO), (2024), ISO 24138:2024 – ISCC, International Standard Content Code, www.iso.org/standard/77899.html
[3] ISCC Foundation, Homepage, https://iscc.io
[4] World Wide Web Consortium (W3C), Verifiable Credentials Data Model v2.0., www.w3.org/TR/vc-data-model-2.0/
[5] Liccium, Software-Anwendung, https://liccium.com

Sebastian Posth, wissenschaftlicher Mitarbeiter mit dem Forschungsschwerpunkt zur Dezentralisierung in den kulturellen und kreativen Industrien im Institut für Internet-Sicherheit – if(is) an der Westfälischen Hochschule in Gelsenkirchen

Norbert Pohlmann ist Professor für Cybersicherheit und
Leiter des Instituts für Internet-Sicherheit – if(is) an der Westfälischen Hochschule in Gelsenkirchen sowie
Vorstandsvorsitzender des Bundesverbands IT-Sicherheit – TeleTrusT und im Vorstand des Internetverbandes – eco.