Home » News » Security Management » KI soll zum TÜV

KI soll zum TÜV

Der TÜV-Verband sieht hohes Verbesserungspotenzial bei der EU-Regulierung von KI. Wenn es nach ihm geht, sollen alle KI-Systeme mit hohem Risiko verpflichtend von unabhängigen Stellen geprüft werden. Der EU „AI Act“ sollte dafür zum straffen Rechtsrahmen für Künstliche Intelligenz ausgebaut werden, um Grundlagen für Sicherheit und wirtschaftlichen Erfolg zu schaffen.

2 Min. Lesezeit
Gesetze für die Künstliche Intelligenz (KI)
Foto: ©AdobeStock/Blue Planet Studio

Die Fraktionen des EU-Parlaments haben Ende April eine vorläufige Einigung über die Regulierung von künstlicher Intelligenz (KI) erzielt. Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, begrüßt in einer Stellungnahme die Einigung grundsätzlich, sieht Bühler noch Verbesserungspotenzial bei der Gestaltung des AI Acts. So betont er die Notwendigkeit klarer rechtlicher Rahmenbedingungen, um die Menschen vor den negativen Auswirkungen der Technologie zu schützen und gleichzeitig den Einsatz von KI in der Wirtschaft zu fördern. Europa könne seine Rolle als führender Wirtschaftsstandort mit einem ambitionierten Rechtsrahmen für KI ausbauen.

„Der Entwurf des AI Act sieht zwar vor, dass KI-Anwendungen bestimmte Anforderungen wie beispielsweise mehr Transparenz von Algorithmen erfüllen müssen“, so Bühler. „Es muss aber sichergestellt werden, dass die Vorgaben auch eingehalten werden.“ Eine unabhängige Überprüfung sei nur für einen kleinen Teil der KI-Systeme mit hohem Risiko vorgesehen.

Die meisten kritischen KI-Anwendungen wie zum Beispiel Gesichtserkennung, Recruiting-Software oder Kreditwürdigkeitsprüfungen sollen weiterhin mit einer reinen Herstellerselbsterklärung auf den Markt gebracht werden dürfen. „Darüber hinaus soll die Einstufung als Hochrisiko-Anwendung teilweise über eine Selbsteinschätzung der Anbieter erfolgen – Fehleinschätzungen sind vorprogrammiert“, so der Chef des TÜV-Verbands. „Hier besteht aus Sicht des TÜV-Verbands weiterer Handlungsbedarf, um Eingriffe in die Privatsphäre oder automatisierte Diskriminierung zu verhindern.“

Nach Auffassung des TÜV-Verbands wäre es besser, alle Hochrisiko-KI-Systeme vor dem Marktstart von einer unabhängigen Stelle überprüfen zu lassen. Nur so könne gewährleistet werden, dass die Anwendungen den Sicherheitsanforderungen entsprechen. Das gelte besonders, wenn KI-Anwendungen in kritischen Bereichen wie der Medizin, in Fahrzeugen, der Energieinfrastruktur oder in bestimmten Maschinen eingesetzt werden.

Bühler betont, dass die praktische Umsetzung der KI-Vorgaben bereits jetzt vorbereitet werden müsse. Eine wichtige Grundlage seien Normen, Standards und Qualitätskriterien. Darüber hinaus müssten entsprechende Prüfverfahren und -kriterien entwickelt werden. Der TÜV-Verband engagiere sich seit längerem für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene.

Die TÜV-Unternehmen bereiten sich derzeit intensiv auf die Prüfung von KI-Systemen vor. Für diesen Zweck haben sie vor einiger Zeit sogar das eigene „TÜV AI Lab“ gegründet. Hier sollen KI-Experten aus den TÜV-Organisationen an praktischen Prüfszenarien arbeiten. So könnten die Mitarbeiter beispielsweise ermitteln, wie sicher automatisierte Fahrzeuge mit KI–Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren. Ein weiteres Ziel des Prüflabors ist die Entwicklung von Lösungsansätzen für die Einteilung von Anwendungen in Risikoklassen.

Andere interessante News

Payload

Cyberkriminelle kompensieren Makro-Aus mit dynamischen Angriffstechniken

Die Cyberbedrohungslandschaft für Unternehmen aller Größenordnungen hat im letzten Jahr eine massive Veränderung erlebt, die maßgeblich von Microsofts Entscheidung beeinflusst wurde, Makros standardmäßig zu blockieren. Diese Veränderung hat dazu geführt, dass alle Akteure in der cyberkriminellen Nahrungskette, angefangen bei unerfahrenen Hackern bis hin zu den erfahrensten Cyberkriminellen, die komplexe Ransomware-Angriffe durchführen, gezwungen sind, ihre Arbeitsweise anzupassen.

Cyber Security Radar

Die großen Trends bei der Cyberkriminalität

In der heutigen vernetzten Welt ist die Bedrohung durch Cyberkriminalität allgegenwärtig. Täglich erreichen uns alarmierende Nachrichten über neue Angriffe, bei denen Unternehmen jeglicher Größe ins Visier geraten. Die Hacker sind ständig auf der Suche nach neuen Wegen, um ihre Attacken zu perfektionieren und dabei setzen sie vermehrt auf eine gefährliche Waffe: künstliche Intelligenz. Aber es gibt auch noch andere Herausforderungen, wie ein Cyber Security Threat Radar jetzt offenbart.

AI Law

Kommentar: Potenzial von KI nur bei scharfer Regulierung nutzbar

Die fortschreitende Entwicklung künstlicher Intelligenz (KI) hat das Potenzial, unsere Welt zu transformieren und unser tägliches Leben zu beeinflussen. Um die positiven Möglichkeiten voll auszuschöpfen und gleichzeitig die damit verbundenen Risiken zu minimieren, ist es von entscheidender Bedeutung, angemessene Verbote und Vorschriften einzuführen. Eine umfassende Regulierung auf Basis ethischer Werte und Transparenz als grundlegende Prinzipien soll sicherstellen, dass KI-Systeme fair, zuverlässig und sicher sind.