Per Aspera ad ACTa
Um den Finanzsektor besser auf Cyberrisiken vorzubereiten, führt die Europäische Zentralbank (EZB) dieses Jahr Belastungstests bei 109 Instituten durch und prüft 28 von ihnen anschließend genauer. Die Häuser müssen darlegen, wie gut sie im Fall eines erfolgreichen Cyberangriffs abgesichert wären.
Noch umfasst der Test sämtliche Bedrohungen aus dem Netz. Kommt schon bald ein gesonderter Stresstest für künstliche Intelligenz (KI) hinzu? Nicht unwahrscheinlich – denn immer mehr Banken nutzen die Technologie immer intensiver. Und mit den Use Cases wächst auch die Anzahl der Risiken. Durch den AI Act erhöht die EU zudem ihren Regulierungsdruck auf die Finanzbranche. Wie sollten Chief Risk Officer (CROs) und IT -Sicherheitsverantwortliche (CISOs) jetzt handeln, um Risiken der Technologie effizient zu managen und KI anschließend erfolgreich ins operative Geschäft zu implementieren?
Ähnlich dem EU-Rechtsakt zur Cybersicherheit formuliert die KI-Verordnung (AI Act) der Europäischen Union Standards für die Anwendung von KI in Sachen Datenqualität, die Dokumentation von Prozessen und verwendeter Technologie, die Übersetzung und die Kontrolle durch Mitarbeiter.
Am 13. März 2024 hat das Europäische Parlament den AI Act beschlossen, sodass bald neue Regeln für den Einsatz von KI in der Finanzwelt gelten. Kern des Regelwerks ist eine vierstufige Risikoklassifizierung für die Anwendungsbereiche von KI: risikoarm, begrenzt riskant, riskant und verboten. Nach der Zustimmung des EU-Rats wird es eine Übergangsfrist von 24 Monaten geben.
Verbote greifen aber voraussichtlich bereits nach sechs, Anforderungen an KI-Systeme mit allgemeinem Anwendungszweck (General Purpose AI, GPAI) nach zwölf Monaten. Wie immer bringen die neuen Regeln einheitliche, transparente Qualitätsstandards für Verbraucher – und für Banken Rechtssicherheit und Planbarkeit. Doch bei Verstößen gegen die Auflagen drohen neben Strafzahlungen vor allem Reputationsschäden, die schlimmer sein können als die Geldbußen selbst.
Ende der Experimente
War 2023 für viele Häuser noch eine Experimentierphase, integrieren die meisten Institute KI-Systeme nun in immer mehr Anwendungsbereiche. Doch je mehr KI verwendet wird, desto größer sind die von KI ausgehenden Risiken. Angesichts des immensen Potenzials der Technologie ist Verzicht keine Option. Welchen Weg sollten CROs und CISOs also wählen, um KI trotz steigenden Regulatorik- und Risikodrucks optimal nutzbar zu machen?
Zunächst: Der Einsatz von KI ist nicht neu, auch nicht im Finanzsektor. Künstliche Intelligenz basiert auf verschiedenen Algorithmen und Modellen, welche Wahrscheinlichkeiten berechnen, wodurch Prognosen auf der Grundlage vorhandener Datensätze erstellt werden. Sie kommt sowohl zum Einsatz, wenn Streaming-Plattformen Empfehlungen für das nächste Musikvideo geben, als auch bei der Daten- und Sentiment-Analyse der Beurteilungen von Aktienfonds beziehungsweise ihrer einzelnen Assets.
Und auch bei der Verwaltung von Aktiendepots sind KI-Verfahren schon seit Jahren im Einsatz; in der Regel arbeiten sie auf der Grundlage von Machine-Learning-Systemen. Neu hingegen ist die Technologie der Large Language Models (LLMs) wie jene von OpenAI und der Konkurrenten. Obwohl sie im Prinzip das Gleiche tun wie ihre Vorgänger, indem sie die Wahrscheinlichkeit für das nächste Wort eines Texts errechnen, kommen
ihre Aussagen denen eines echten Gesprächspartners verblüffend nahe.
Riesiges Potenzial – intern oder extern
Besonders für den Customer Channel birgt das ein riesiges Potenzial: Generative KI antizipiert, worum es dem einzelnen Kunden auch in Spezialfällen geht, und generiert aus allen verfügbaren Quellen eine individuelle Antwort – ob auf Kreditanfragen, dem Wunsch nach Anlageberatung oder in Sachen Bausparvertrag und Hypothekenzinsen.
Im Idealfall sind in dieser Korrespondenz alle vorliegenden Kundendaten und -profile sowie die bisherige Kommunikation mit dem Institut berücksichtigt, sodass ein individualisierter Dialog entsteht. Dadurch verspricht generative KI im Kundenservice die vollständige Ende-zu-Ende-Automatisierung mit maßgeschneiderter Tonalität: Bots betreuen nicht nur den gesamten Prozess der Kreditvergabe oder der Anlageberatung, sondern binden auch autonom Cross- und Upselling ein.
Auch an anderer Stelle gibt es immer mehr Anwendungsbereiche für generative KI: Im Vertrieb ist ein Personalisierungsgrad jenseits von Segmentierung und Mikrosegmentierung möglich, sodass Banken künftig mithilfe von KI automatisiert individuelle Merkmale berücksichtigen und auf persönliche Bedürfnisse ihrer Zielgruppe eingehen können.
Generative KI wird zum Beispiel personalisierte Anschreiben verfassen, die nicht nur alle Daten berücksichtigen, sondern deren Tonalität ebenfalls an den jeweiligen Kunden angepasst ist. Im Marketing werden die neuen Instrumente den Kundenwert (Customer Lifetime Value) zielgruppenspezifisch, ja sogar individuell bestimmen, während die Technologie in der Produktentwicklung hilft, Personas typischer Kundengruppen aufzubauen und zu befragen.
Grundpfeiler im Asset-Management
Im Asset-Management ist generative KI nicht nur angekommen, sondern oft zentraler Bestandteil der Portfolioverwaltung: Ein Fonds mit einem Investitionsuniversum von 4.000 Einzelaktien etwa enthält nicht selten ein Dutzend schriftliche Beurteilungen pro Papier.
LLMs wie GP-4, Gemeni und Llama analysieren diese Schriftstücke auf empirische Daten und Sentiment – und liefern dem Asset-Manager innerhalb von Minuten die Essenz eines Konvoluts aus 60.000 Texten hinsichtlich relevanter Hard- und Soft Facts.
Wie bei fast allen KI-gestützten Prozessen interpretiert am Ende der „Human in the Loop“ die Auswahl und Empfehlung der KI und trifft die endgültige Entscheidung. Mithilfe von KI verwaltete Fonds werden heute vermehrt nachgefragt, hohe Volumina und überdurchschnittlich gute Performance geben dem Konzept recht.
Daneben existieren auch komplett durch KI verwaltete Fonds, auch mit Geschäftsabschluss. Diese fallen in die höchste legale Risikoklassifizierung des AI Act und erfordern den größten Risikomitigationsaufwand. Die richtigen Webalgorithmen und eine zuverlässige KI, die alle Prozesse koordiniert, sind hier kein optimierender
Zusatzfaktor, sondern die Grundlage des Geschäftsmodells.
Leicht vorstellbar also, wie groß der Schaden sein könnte, wenn diese Technologie versagt. Entscheidet man sich für ein solches Angebot, sollten CRO und Risikomanagement die Implementierung von Anfang an begleiten und entlang der gesamten Produktkette die Qualitätsstandards überwachen.
Daten, Daten, Daten
Je mehr Anwendungsfälle, desto mehr Risiken beim Einsatz der Technologie. Ob generativ oder nicht: KI ist immer nur so gut wie ihre Datengrundlage. Voraussetzung für ihren erfolgreichen Einsatz ist somit die Datenqualität. Ob es um Aktien, Hypotheken oder Kredite geht – die Daten müssen korrekt und so erschöpfend wie möglich sein.
Dazu gehören neben allen Fakten zum Produkt auch Kundendaten und Kundenhistorie: von persönlichen Daten über Kontobewegungen, Kredite, Aktienanlagen und andere Geschäfte bis zur vollständigen Korrespondenz zwischen Kunde und Institut. Und auch bei korrekten Daten neigt generative KI zu sogenannten Halluzinationen: Da die meisten LLMs auf „Kreativität“ und plausibel klingende Ergebnisse trainiert sind, nicht aber auf die Verarbeitung von Finanzinformationen, kann es gelegentlich zu Fantasiegebilden kommen. Der „Human in the Loop“ bleibt für die Endkontrolle also unersetzlich.
Darüber hinaus müssen Banken die entsprechenden Application Programming Interfaces (APIs) installieren, die der KI den Zugriff auf die relevanten Daten und Systeme ermöglichen. Um Fehler und Bias in den Daten zu vermeiden, sollten CROs Investitionen in die zugrundeliegende IT- und Dateninfrastruktur daher als zentralen Baustein betrachten.
Gefahren und Chancen
Neben operativen Fehlern und ungenügenden Daten wird ein weiterer Risikofaktor im Bereich KI immer gefährlicher: KI-Manipulation. Die Prompt Injection etwa hat das Potenzial, in naher Zukunft den Cyberspace ähnlich in Atem zu halten wie heute Phishing, Distributed-Denial-of-Service-(DDoS)- und Ransomware-Attacken. Allein durch geschicktes Fragen zum Beispiel brachte ein Kunde den Chatbot eines US-Autohändlers im vergangenen Winter dazu, ihm einen Neuwagen im Wert von rund 80.000 Dollar für exakt einen Dollar zu verkaufen. Und zwar „rechtsverbindlich und ohne Widerrufsmöglichkeit“.
Obwohl die Parteien heute vor Gericht stehen, offenbart der Fall viele neue Risikoszenarien für Unternehmen im Umgang mit generativer KI. Auch die Fälschung von Internetseiten, welche die KI mit Sicherheit oder großer Wahrscheinlichkeit als Quelle nutzen wird, gehört heute bereits zum Repertoire der Onlinebetrüger.
In Hongkong fiel ein Mitarbeiter jüngst gar auf die KI-generierten Avatare seiner Vorgesetzten in einer inszenierten Videokonferenz herein – und überwies mehr als 23 Millionen Dollar an Cyberkriminelle. Je früher sich CROs auf derartige Szenarien einstellen und sie in ihr künftiges Risikomanagement integrieren,
desto besser ist die Bank auf den Missbrauch generativer KI durch Kriminelle vorbereitet.
Banken sollten KI nie aus Selbstzweck implementieren, sondern konkrete Ziele bei konkreten Projekten damit verfolgen. Es empfiehlt sich, die Technologie zunächst bei den weniger riskanten Use Cases einzusetzen und dann Stück für Stück Erfahrungswerte aufzubauen. Natürlich müssen generative KI-Tools wie Gen-AI in die hauseigene Governance eingebunden werden.
Sind Machine-Learning- und analytische KI-Systeme bereits im Einsatz, muss der Governance-Rahmen möglicherweise nicht neu erfunden, sondern nur erweitert werden. Eine gute interne Kommunikation erleichtert darüber hinaus die Akzeptanz der neuen Technologie und baut bei den Mitarbeitern Berührungsängste ab.
Doch natürlich birgt KI nicht nur Gefahren. Gerade im Risikomanagement hat sie großes Potenzial – so zum Beispiel bei der Auswertung von Environmental-Social-Governance-(ESG)-Informationen: Hier gibt es seit Jahren Versuche, ESG-Berichte automatisiert auszulesen. Bisher mit mäßigem Erfolg – doch mit den heute verfügbaren LLM-Anwendungen wie Chat-GPT können Unternehmen ESG-relevante Informationen aus Unmengen von Daten in Sekundenschnelle filtern, sortieren und auswerten.
Ein einzelner Mitarbeiter würde dafür Tage oder gar Wochen benötigen. Auch das Risikomanagement macht sich diese Fähigkeiten der KI zunutze, indem auf Grundlage historischer oder selbst generierter Daten Risikoszenarien simuliert werden. So können Banken Vorhersagen treffen, wie sich eine solche Krise etwa auf bestimmte Aktienportfolios auswirken würde.
Investition gleich Mitigation
Die IT-Abteilungen der Banken halten nicht nur die Schlüssel zu vielen Lösungen in den Händen – sie können auch zum Ursprung neuer KI-Risiken werden. Denn die Technologie erleichtert nicht nur Kundenberatern, Produktentwicklern und Anlageberatern ihre Arbeit, auch IT-Experten profitieren maßgeblich von der schönen neuen Welt der neuronalen Netzwerke.
Generative KI kann beispielsweise natürliche Sprache in eine Programmiersprache übersetzen und damit den Zeitaufwand für die Quellcodeentwicklung signifikant reduzieren. Das KI-generierte Ergebnis müssen sie nur noch der Endkontrolle unterziehen.
Fehlerhafte Technologie birgt hier in Kombination mit mangelhaften Kontrollen der Mitarbeitenden großes Schadenspotenzial. Entgegen der Annahme, dass KI Arbeitsplätze gefährdet, stehen der Branche daher in den kommenden Jahren zusätzliche Investitionen in die IT-Infrastruktur, das KI-Risikomanagement und das notwendige Fachpersonal zum angemessenen Betrieb der Use Cases bevor.
Hier sollten CRO und Risikomanagement idealerweise eng mit der HR vernetzt sein – und dem CEO gemeinsam vermitteln, dass Personal- und Sicherheitspolitik oft als Einheit gedacht werden müssen.
Das Wichtigste für die CROs: Sie sollten Risikomanagement nicht entlang der Technologie betreiben – sondern nach Anwendungsbereichen strukturieren. Denn die Use Cases sind die für die Regulatorik relevanten Kategorien.
Neben umfangreichen Tests für Gen-AI-Anwendungen sollten sie eine Unternehmenskultur etablieren, in der Vorgaben als Chance, nicht als lästige Pflicht betrachtet werden. Die KI-Verordnung der EU bringt nicht nur neuen Druck durch neue Regulatorik, sondern auch verbindliche Qualitätsstandards für die Banken: Nicht mal Microsoft, Google und Meta können es sich leisten, in der EU mit ihren LLMs nicht zugelassen zu sein.
Um die neue Technologie sicher, effektiv und gewinnbringend im Unternehmen zu verankern, gilt es, so früh wie möglich Expertenteams zusammenzustellen, Trainings- und Vorkehrungsmaßnahmen zu treffen und Schulungen vorzubereiten. Denn auch im Bereich hochmoderner KI gilt die alte Weisheit: Wer der Regulatorik hinterherläuft und Reverse Engineering betreibt, wird Probleme bekommen. Wer ihr vorauseilt, wird Wettbewerbsvorteile haben.
Dr. Arvind Sarin ist Head of Finance, Risk und Compliance Financial Services bei KPMG AG Wirtschaftsprüfungsgesellschaft. Er ist Experte für Risikomanagement und Treasury-Themen, Liquiditätsrisikomanagement, Zinsrisiko im Bankbuch, Structural-FX-Risiko sowie Gesamtbanksteuerung.
Matthias Peter ist Partner im Bereich Financial Services und seit fast 20 Jaren bei KPMG. Er beschäftigt sich quantitativen Modellierungsfragen, Modellrisikomanagement und KI-Risiko.