Maschinelles Lernen in Risikomodellen – Die Sicht der Bankenaufsicht
Big Data und KI sind nicht nur technologisch ein Power-Duo, sondern auch strategisch von zentraler Bedeutung für den Finanzsektor. Wenn Brontosaurus die Vergangenheit ist, heißt die Zukunft Brontobyte. Künstliche Intelligenz und Maschinelles Lernen müssen so eingesetzt werden, dass die Potenziale der riesigen Datenmengen genutzt werden, ohne die mit dem Einsatz verbundenen Risiken zu ignorieren. Dafür ist Datenkompetenz unerlässlich. So sieht es die Deutschen Bundesbank.
Brontobyte folgt nach Gigabyte, Terabyte, Petabyte, Exabyte, Zettabyte und Yotabyte. Ein Brontobyte entspricht rund 1027 Byte, eine 1 mit 27 Nullen. Das ist Big Data im wahrsten Sinne des Wortes. Wir sind allerdings noch nicht im Brontobyte-Zeitalter. Aktuell befinden wir uns in der sogenannten Zettabyte-Ära: 2016 hat der jährliche globale Internet-Datenverkehr ein Zettabyte überschritten. Ein Brontobyte entspricht wiederum rund 1 Million Zettabyte. Davon sind wir noch ein wenig entfernt.Wer soll all diese Informationen verarbeiten?
Hier kommen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) ins Spiel. Denn sie können diese Datenmengen beherrschbar machen. Im Finanzsektor hat die Bankenaufsicht ein ureigenes Interesse daran. Digitale Technologien können die einzelnen Banken durch bessere Analysen und Datenmanagement oder den Einsatz von Advanced Analytics im Risikomanagement stabiler machen. Damit können KI und ML einen Stabilitätsgewinn für das Finanzsystem insgesamt schaffen.
Die Bankenaufsicht will „Enabler“ von Digitalisierung sein. Sie unterstützt den Einsatz von KI, behält aber auch zu jeder Zeit die Risiken im Blick. Banken und Versicherer setzen Maschinelles Lernen bereits in verschiedenen Bereichen ein, etwa bei der Erkennung von Geldwäsche und Betrug sowie bei der Analysen in Kreditvergabeprozessen; also hauptsächlich im Risikomanagement. Nur sporadisch kommt ML in internen Säule-1-Risikomodellen zum Einsatz. Einige Banken und Versicherer halten den Einsatz jedoch für vielversprechend. Bereits heute dient ML als Hilfsmittel, um interne Modelle zu validieren.
Die Einsatzbereiche sind vielfältig und die Potenziale groß – „Big data“ hat auch „big potential“. Für jedes Institut, für die Stabilität des Finanzsektors insgesamt. Es geht aber nicht nur um Quantität, sondern ganz elementar auch um Qualität der Daten.
Datenqualität ist die Voraussetzung
Ergebnisse aus maschinellen Lernverfahren hängen ganz massiv von den Daten ab, mit denen sie gefüttert werden. Wenn die Daten zu wenig Variation aufweisen, nicht ausreichen oder gefälscht sind, entstehen fehlerhafte Schlussfolgerungen und die Gefahr, falsche Geschäftsentscheidungen zu treffen.
Ein Problem zeigt sich, wenn Daten nicht ausreichend repräsentativ sind. Ein Beispiel aus der Spracherkennung illustriert das: Obwohl diese Software meist weibliche Namen wie Alexa oder Siri hat, erkennt sie Frauenstimmen schlechter als Männerstimmen. Der Grund: Alexa und Siri werden mit Datenbanken geschult, in denen Männerstimmen überrepräsentiert sind.
KI und ML sind nur so schlau wie die Daten, mit denen sie gefüttert werden. Quantität an Daten schlägt nicht automatisch in Qualität der Systeme um. Die Datengrundlage ist daher das A und O für KI-Analysen. Ein tiefes Verständnis für die verwendeten Daten ist entscheidend; Datenkompetenz ist zur alles entscheidenden Kompetenz im Finanzsektor geworden.
Sicht der Aufsicht: Charakteristika und Erklärbarkeit
Wie blickt die Bankenaufsicht auf Maschinelles Lernen? Zuallererst: pragmatisch. Die Aufsicht agiert technologieneutral und risikoorientiert. Und sie braucht keine allgemeingültige Definition von ML.
Wichtig ist, ob und welche Charakteristika bei einer ML-Methodik vorliegen und wie stark diese ausgeprägt sind. So lassen sich Innovationen und ihre Risiken erkennen, angemessen behandeln und neue Anwendungen bei Banken nicht über einen Kamm scheren – das Grundprinzip einer risikoorientierten Aufsicht.
Es herrscht breite Übereinstimmung darin, keine explizite Definition vorzugeben. Es wäre auch praktisch unmöglich, die Vielfalt der Verfahren und deren stetige Weiterentwicklungen in einer starren Definition abzubilden. Im Mittelpunkt sollten nicht pauschale Anforderungen stehen, sondern konkrete Anwendungsfälle.
Maschinelles Lernen braucht kein neues, eigenes Regelwerk. Viele aufsichtliche Anforderungen resultieren daraus, dass es sich um komplexe statistische Modelle handelt. Die bisherige technologieneutrale und risikoorientierte Ausrichtung sollte auch für ML einen grundsätzlichen Rahmen bilden. Der Fokus der Aufsicht liegt darauf, dass die Qualität der Daten stimmt. An diesem Grundsatz ändern auch Verfahren für Big Data nichts.
Zentrales Kriterium ist zudem die Erklärbarkeit. ML wird häufig als „Black Box“ bezeichnet, als undurchsichtiges System, bei dem vorne Daten hineinwandern und hinten Ergebnisse herauskommen, ohne dass nachvollziehbar ist, wie das eine mit dem anderen zusammenhängt.
Wenn Entscheidungen von ML-Systemen weitreichende Auswirkungen auf Menschen oder auf die Risikosituation einer Bank haben, ist der Entscheidungsprozess bedeutsam, etwa bei Einschätzungen der Kreditwürdigkeit.
Je komplexer ein Modell für Maschinelles Lernen ausgestaltet ist, desto schwieriger wird es, den Zusammenhang zwischen Input und Output verbal oder durch mathematische Formeln zu beschreiben. Es ist dann für Modellierer, Anwender, Validierer und die Aufsicht häufig schwer, Ergebnisse im Detail nachzuvollziehen.
Anstelle der Nachvollziehbarkeit im Detail ist bedeutend, das Modellverhalten im Ganzen auf Erklärbarkeit zu prüfen und zu plausibilisieren. Gibt es einen logischen Zusammenhang zwischen Input und Output? Verhält sich das Modell bei nachprüfbaren Entscheidungen so, wie wir es erwarten? Kurz: Ergibt es Sinn?
Prof. Dr. Joachim Wuermeling,
Vorstandsmitglied bei der Deutschen Bundesbank
Häufig wird es der goldene Mittelweg der „Grey Box“ sein zwischen Erklärungsbedürfnis einerseits und Leistungsfähigkeit andererseits. Es geht darum, die jeweilige Methodik nachzuvollziehen und kritisch zu hinterfragen; aber nicht darum, dass jeder Einzelvorgang vom Menschen freigezeichnet werden muss.
Die Nutzung von Künstlicher Intelligenz wird im Rahmen der bestehenden Bankenregulierung überwacht. Die Bankenaufsicht ist eher kritisch bei speziellen Zulassungsanforderungen, wie sie die Europäische Kommission für Kreditwürdigkeitsprüfungen vorgeschlagen hat. Doppelte Regulierung und doppelte Aufsichtsprozesse bergen die Gefahr, dass Innovationen verhindert werden und der Sinn fürs Angemessene und Machbare verlorengehen könnte.pp
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/141625
Schreiben Sie einen Kommentar