KI soll zum TÜV
Der TÜV-Verband sieht hohes Verbesserungspotenzial bei der EU-Regulierung von KI. Wenn es nach ihm geht, sollen alle KI-Systeme mit hohem Risiko verpflichtend von unabhängigen Stellen geprüft werden. Der EU „AI Act“ sollte dafür zum straffen Rechtsrahmen für Künstliche Intelligenz ausgebaut werden, um Grundlagen für Sicherheit und wirtschaftlichen Erfolg zu schaffen.
Die Fraktionen des EU-Parlaments haben Ende April eine vorläufige Einigung über die Regulierung von künstlicher Intelligenz (KI) erzielt. Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands, begrüßt in einer Stellungnahme die Einigung grundsätzlich, sieht Bühler noch Verbesserungspotenzial bei der Gestaltung des AI Acts. So betont er die Notwendigkeit klarer rechtlicher Rahmenbedingungen, um die Menschen vor den negativen Auswirkungen der Technologie zu schützen und gleichzeitig den Einsatz von KI in der Wirtschaft zu fördern. Europa könne seine Rolle als führender Wirtschaftsstandort mit einem ambitionierten Rechtsrahmen für KI ausbauen.
„Der Entwurf des AI Act sieht zwar vor, dass KI-Anwendungen bestimmte Anforderungen wie beispielsweise mehr Transparenz von Algorithmen erfüllen müssen“, so Bühler. „Es muss aber sichergestellt werden, dass die Vorgaben auch eingehalten werden.“ Eine unabhängige Überprüfung sei nur für einen kleinen Teil der KI-Systeme mit hohem Risiko vorgesehen.
Die meisten kritischen KI-Anwendungen wie zum Beispiel Gesichtserkennung, Recruiting-Software oder Kreditwürdigkeitsprüfungen sollen weiterhin mit einer reinen Herstellerselbsterklärung auf den Markt gebracht werden dürfen. „Darüber hinaus soll die Einstufung als Hochrisiko-Anwendung teilweise über eine Selbsteinschätzung der Anbieter erfolgen – Fehleinschätzungen sind vorprogrammiert“, so der Chef des TÜV-Verbands. „Hier besteht aus Sicht des TÜV-Verbands weiterer Handlungsbedarf, um Eingriffe in die Privatsphäre oder automatisierte Diskriminierung zu verhindern.“
Nach Auffassung des TÜV-Verbands wäre es besser, alle Hochrisiko-KI-Systeme vor dem Marktstart von einer unabhängigen Stelle überprüfen zu lassen. Nur so könne gewährleistet werden, dass die Anwendungen den Sicherheitsanforderungen entsprechen. Das gelte besonders, wenn KI-Anwendungen in kritischen Bereichen wie der Medizin, in Fahrzeugen, der Energieinfrastruktur oder in bestimmten Maschinen eingesetzt werden.
Bühler betont, dass die praktische Umsetzung der KI-Vorgaben bereits jetzt vorbereitet werden müsse. Eine wichtige Grundlage seien Normen, Standards und Qualitätskriterien. Darüber hinaus müssten entsprechende Prüfverfahren und -kriterien entwickelt werden. Der TÜV-Verband engagiere sich seit längerem für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene.
Die TÜV-Unternehmen bereiten sich derzeit intensiv auf die Prüfung von KI-Systemen vor. Für diesen Zweck haben sie vor einiger Zeit sogar das eigene „TÜV AI Lab“ gegründet. Hier sollen KI-Experten aus den TÜV-Organisationen an praktischen Prüfszenarien arbeiten. So könnten die Mitarbeiter beispielsweise ermitteln, wie sicher automatisierte Fahrzeuge mit KI–Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren. Ein weiteres Ziel des Prüflabors ist die Entwicklung von Lösungsansätzen für die Einteilung von Anwendungen in Risikoklassen.