G7-Richtlinie macht KI-Lieferketten transparenter
Künstliche Intelligenz (KI) wird zur kritischen Infrastruktur moderner IT. Doch oft bleibt unklar, welche Modelle, Datenquellen und Abhängigkeiten in einem System stecken. Eine neue G7-Richtlinie zur „Software Bill of Materials for AI“ soll genau diese Transparenz schaffen.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat gemeinsam mit den Cybersicherheitsbehörden der G7-Staaten und der Europäischen Kommission eine neue Richtlinie zur Software Bill of Materials (SBOM) for Artificial Intelligence (AI) veröffentlicht. Sie soll Organisationen dabei helfen, die Lieferketten von KI-Systemen besser zu verstehen, Schwachstellen schneller zu bewerten und Cyberrisiken gezielter zu steuern.
Die Veröffentlichung knüpft an eine gemeinsame G7-Vision aus dem Juni 2025 an. Damals hatten die beteiligten Behörden bereits dargelegt, warum KI-Systeme eigene Transparenzmechanismen benötigen. Nun folgt ein praxisorientierter Rahmen, der beschreibt, welche Mindestinformationen eine SBOM für KI enthalten sollte.
Warum KI eine eigene Stückliste braucht
Eine klassische SBOM dokumentiert Softwarekomponenten, Bibliotheken und Abhängigkeiten. Bei KI reicht das nicht aus. Denn moderne KI-Systeme bestehen nicht nur aus Code, sondern auch aus Modellen, Trainingsdaten, Datenpipelines, Gewichtungen, Schnittstellen und weiteren technischen Abhängigkeiten. Hinzu kommen Risiken durch Verzerrungen in Trainingsdaten, unsichere Modellquellen oder nicht nachvollziehbare Änderungen im Lebenszyklus eines Systems.
Genau hier setzt die neue Richtlinie an. Sie beschreibt sieben übergeordnete Informationskategorien, die jeweils mehrere Elemente enthalten. Ergänzt werden diese durch Beispiele, damit Unternehmen und Behörden die Empfehlungen praktisch umsetzen können.
BSI-Präsidentin Claudia Plattner bringt den Kern auf den Punkt: „Transparenz über die KI-Lieferkette, die eingesetzten Komponenten und Abhängigkeiten bildet die Grundlage für robuste KI-Cybersicherheit.“ Diese Transparenz ermögliche die Nachvollziehbarkeit der Systeme, unterstütze das effiziente Management identifizierter Schwachstellen und stärke das Cyberrisikomanagement einer Organisation.
Vom Modell bis zu den Trainingsdaten
Eine SBOM for AI soll künftig sichtbar machen, welche KI-Modelle eingesetzt werden, aus welchen Quellen sie stammen und welche Daten für Training oder Anpassung verwendet wurden. Dazu gehören auch Angaben zu Art, Herkunft und möglichen Verzerrungen der Trainingsdaten. Ziel ist nicht nur eine Momentaufnahme, sondern ein besserer Blick auf den gesamten Lebenszyklus einer KI-Anwendung.
Das ist besonders relevant, weil KI-Systeme dynamischer sind als klassische Software. Modelle werden nachtrainiert, Dienste ausgetauscht, Datenquellen erweitert und agentische oder generative Systeme erhalten neue Fähigkeiten. Die Richtlinie lässt deshalb ausdrücklich Raum für spätere Anpassungen. Sie versteht sich nicht als starres Regelwerk, sondern als gemeinsamer Ausgangspunkt.
Keine Pflicht, aber ein wichtiges Signal
Die G7-Richtlinie definiert keine rechtlich verbindlichen Anforderungen. Die beschriebenen Mindestelemente sind nicht verpflichtend, schaffen keine Standards und ersetzen keine gesetzlichen Vorgaben. In einzelnen Rechtsräumen können bestimmte Punkte bereits durch bestehende oder kommende Regulierung abgedeckt sein.
Trotzdem ist die Veröffentlichung ein starkes Signal. Sie zeigt, dass KI-Sicherheit zunehmend als Lieferkettenfrage verstanden wird. Wer ein KI-System betreibt, muss nicht nur wissen, ob es funktioniert, sondern auch, woraus es besteht, woher seine Bestandteile kommen und welche Risiken daraus entstehen.
Internationale Zusammenarbeit als Grundlage
Das Dokument wurde gemeinsam vom BSI, der italienischen Agenzia per la Cybersicurezza Nazionale (ACN), der französischen Agence nationale de la sécurité des systèmes d’information (ANSSI), dem kanadischen Communications Security Establishment (CSE), der amerikanischen Cybersecurity and Infrastructure Security Agency (CISA), dem britischen National Cyber Security Centre (NCSC) und dem japanischen National Cybersecurity Office (NCO) veröffentlicht. Die Europäische Kommission war ebenfalls beteiligt.
Erarbeitet wurde die Richtlinie im Arbeitsbereich „Artificial Intelligence: SBOM for AI“, der von Italien und Deutschland geleitet wurde. Unterstützt wurde die Arbeit durch die G7-Präsidentschaften Kanadas im Jahr 2025 und Frankreichs im Jahr 2026.
Für Unternehmen und Behörden liefert das Papier damit eine wichtige Orientierung: KI-Sicherheit beginnt nicht erst beim Angriff, sondern bei der Frage, ob ein System überhaupt transparent genug ist, um Risiken erkennen und beherrschen zu können.
Titelseite des Dokuments „SBOM for AI – Minimum Elements“.

Newsletter Abonnieren
Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.



