Home » News » Security Management » BSI führt G7-Initiative an: Erstes Konzept für „SBOM for AI“ veröffentlicht

BSI führt G7-Initiative an: Erstes Konzept für „SBOM for AI“ veröffentlicht

Transparenz als Grundpfeiler für sichere Künstliche Intelligenz: Im Rahmen des G7-Cybersicherheitsgipfels in Ottawa hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) gemeinsam mit internationalen Partnern ein gemeinsames Konzept für eine „Software Bill of Materials“ (SBOM) für KI-Systeme vorgestellt. Die Initiative soll künftig Klarheit über Modelle, Datenquellen und Risiken entlang des gesamten KI-Lebenszyklus schaffen.

2 Min. Lesezeit
Leuchtende Datenschutzsymbole
Foto: ©AdobeStock/Who is Danny

Mit der zunehmenden Integration von KI-Systemen in kritische Prozesse wächst auch der Bedarf an Sicherheit und Nachvollziehbarkeit. Doch was genau steckt eigentlich in einer KI-Anwendung? Welche Trainingsdaten wurden verwendet, woher stammen sie – und mit welchen Schwächen oder Verzerrungen sind sie behaftet?

Antworten auf diese Fragen will das Konzept einer SBOM for AI liefern. Es überträgt das bekannte Prinzip der Software-Stückliste („Software Bill of Materials“) auf KI-Systeme und berücksichtigt dabei KI-spezifische Informationen: das verwendete Modell, seine Herkunft, eingesetzte Frameworks, Datenquellen, eventuelle Verzerrungen (Biases) sowie potenzielle Sicherheitsrisiken. Ziel ist es, den gesamten Lebenszyklus einer KI-Anwendung transparent und überprüfbar zu machen – für Entwickler, Hersteller, Lieferketten und Endanwender gleichermaßen.

Internationale Zusammenarbeit als Sicherheitsfaktor

Das Konzept wurde im Rahmen der G7 Cybersecurity Working Group in Ottawa abgestimmt, die die Cybersicherheitsbehörden der G7-Staaten sowie der Europäischen Union vereint. Das BSI leitet gemeinsam mit der italienischen Partnerbehörde ACN den Arbeitsstrang „Smarter Together: Artificial Intelligence“.

Ein zentrales Ergebnis des Treffens: die Einigung auf übergeordnete Informationskategorien, die künftig in jeder KI-SBOM erfasst werden sollen. Die konkrete Definition eines „Minimum Set of Elements“ ist für das nächste Treffen geplant. So entsteht ein international abgestimmter Rahmen, der Sicherheit und Transparenz in KI-Systemen nicht nur fordert, sondern konkret ermöglicht.

Ein erster Schritt – mit Blick auf praktische Anwendung

„Sicherheit in und für die Künstliche Intelligenz beginnt mit Transparenz“, erklärt BSI-Präsidentin Claudia Plattner. „Silo-Denken hilft uns nicht weiter. Mit der Arbeit zur ‚SBOM for AI‘ haben wir einen ersten, konkreten Beitrag zur Transparenz von KI-Systemen geleistet.“

Das nun veröffentlichte Konzept richtet sich an alle Stakeholder im KI-Lebenszyklus – von Modellanbietern und Softwareherstellern über Entwickler bis hin zu Unternehmen und Behörden, die KI-Lösungen einsetzen. In enger Abstimmung mit Anbietern bestehender SBOM-Frameworks soll der neue Standard zügig in praxisnahe Anwendungen überführt werden.

Die Initiative ist ein wichtiger Schritt in Richtung nachvollziehbarer, vertrauenswürdiger KI-Systeme – mit einem klaren Fokus auf internationale Interoperabilität. In einer Zeit, in der KI in immer mehr Lebens- und Wirtschaftsbereiche vordringt, setzt die „SBOM for AI“ einen entscheidenden Impuls für sichere Digitalisierung mit Verantwortung.

Konzept für eine SBOM für KI-Systeme
Quelle: BSI

Im Rahmen des G7-Arbeitstreffens in Ottawa hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) mit den internationalen G7-Partnern ein gemeinsames Konzept für eine SBOM für KI-Systeme abgestimmt und nun veröffentlicht.

Newsletter Abonnieren

Abonnieren Sie jetzt IT-SICHERHEIT News und erhalten Sie alle 14 Tage aktuelle News, Fachbeiträge, exklusive Einladungen zu kostenlosen Webinaren und hilfreiche Downloads.

Andere interessante News

Roboterhand greift nach Schloss mit Cybersecurity-Symbol. Im Hintergrund bedrohliches Glühen

Die neuen Werte in der Rechnung für Cybersicherheit

Künstliche Intelligenz verschiebt die Ökonomie der Schwachstellenforschung. GPT-5.4-Cyber, GPT-5.5 und Claude Mythos zeigen: Nicht das Finden von Lücken ist der Engpass, sondern ih...

Warnung vor manipulierten KI-Modellen - Person am Laptop

KI-Modelle werden zur Codefalle

Manipulierte KI-Modelle können zum Einfallstor werden, noch bevor Training oder Inferenz starten. Schwachstellen in NeMo und PyTorch zeigen: In modernen KI-Pipelines liegt das Risi...

Sicherheit Datenverkehr

KI definiert die Cyber-Sicherheit neu – die Zenith Live 26 bietet Antworten

Die Künstliche Intelligenz ist aus dem Unternehmensalltag nicht mehr wegzudenken und geht gleichzeitig mit den dringlichsten Fragenstellungen der Sicherheits-Agenda einher. KI-Funk...