Markt

iStock.com/wildpixel

Machine-Learning-Anwendungen im Banking: Wie aus Daten Produkte werden

Computer übernehmen immer mehr Aufgaben vom Menschen. Schnell bemühen wir dabei das Modewort „Künstliche Intelligenz“ und denken an alles von der einfachen Suchmaschine bis hin zum Science-Fiction-Szenario der selbstständig denkenden Maschine. In der aktuellen Diskussion wird deshalb viel zu wenig differenziert.

Vorbehalte und Ängste gegenüber Technologien sind fest verankert. Künstliche Intelligenz (KI) ist jedoch erstmal nur ein Oberbegriff für die Bearbeitung von Aufgaben verschiedener Komplexität, die statt vom Menschen mittels Computer automatisiert erbracht werden können. Das reicht heute von der optischen Zeichenerkennung (OCR) über das Verarbeiten natürlicher Sprache (Natural Language Processing, NLP) bis hin zur entsprechenden physischen Ausführung (Smart Automation Robotics). Um einzelne Aufgaben „künstlich“ zu bewältigen, gibt es in der Regel zwei Lösungsansätze: vordefinierte Anweisungen („wenn x, dann y“), oder wir nutzen Machine Learning.

It’s all about Machine Learning
In der Vergangenheit wurden natürliche Abläufe noch aufwendig adaptiert, um einfache Regeln und Strukturen für kausale Zusammenhänge abzuleiten und diese dann als Anweisung in maschinelle Systeme „von Hand“ einzuspeisen. Damit ein Computer beispielswiese das Bild eines Hundes als solchen erkennen konnte, mussten zunächst alle Merkmale verschiedenster Hunderassen vom Menschen adaptiert und in das System eingegeben werden. Hatte man ein Merkmal vergessen oder eine Hunderasse war nicht bekannt, war das System fehlerhaft. Man kann sich leicht vorstellen, dass diese Methode in der Praxis bei komplexen Aufgaben sehr zeitintensiv und zudem fehleranfällig war.

Heute „lernen“ Analysesysteme selbstständig anhand von Beispielen. Machine Learning ist eine Methode, die Muster und Gesetzmäßigkeiten in Lerndaten mathematisch erkennt und damit ein vereinfachtes Abbild der Wirklichkeit zeichnet – ein sogenanntes Modell.

Man kann sich das vorstellen wie die Lernkurve bei Kleinkindern. Wenn ein Kind einen Hund sieht, erklären wir ihm nicht gleich alle Merkmale der verschiedenen Hunderassen. Wir sagen „Das ist ein Hund“. Und wir korrigieren das Kind, wenn es „Hund“ zu einer Katze sagt. Die charakteristischen Eigenschaften werden dann automatisch dem entsprechenden Modell zugeordnet.

Werden dabei mehrere Knotenebenen (künstliche neuronale Netze) parallel verwendet, spricht man zudem vom Teilgebiet des Deep Learning. Wenn nun alle wesentlichen Informationen mittels Trainingsdaten „gelernt“ wurden, z. B. Ohrenform, Schwanzlänge, Fellbeschaffenheit usw., kann das Modell im Anschluss die genaue Hunderasse bzw. verschiedene Mischformen bestimmen. Viel mehr jedoch nicht.

Das Modell ist der Rahmen, in dem wir uns im Anschluss bewegen. Es entwickelt sich nicht – wie oft vermutet – anhand von Live-Daten ungesteuert weiter und kann mit einem Mal auch alle anderen Tierarten und deren Rassen bestimmen. Sollen neue Parameter aufgenommen werden, muss auch das Modell neu trainiert werden, und es entsteht wiederum ein neues Modell. Zu KI wird das Ganze erst, wenn man das komplexe Entscheidungsverhalten von Menschen auch in einem substanziellen Umfang nachbildet. Das heißt verkürzt:



erkennen, urteilen und Problem lösen. Dazu braucht man allerdings enorm viele Daten, und am Ende auch immer noch menschliche Unterstützung.

Die Kontrolle der Algorithmen und Modelle ist das A und O
Das Horrorszenario einer superintelligenten Maschine, die sich selbstständig weiterentwickelt und entscheidet, ist aus heutiger Sicht also weiterhin Zukunftsmusik. Weder Neurowissenschaftler noch KI-Forscher sind bisher in der Lage, das Bewusstsein oder das Gehirn vollends zu verstehen. Solange das so ist, kann auch niemand eine allgemeine Künstliche Intelligenz – wie sie oft in den Medien dargestellt wird – erschaffen. Denn was man nicht versteht, kann man auch nicht erschaffen.

Hauptverantwortlich für ein Modell ist und bleibt die Person, die es entwickelt hat. Es ist deshalb wichtig, dass schon bei der Entwicklung ethische Standards gelten, auch wenn die genutzten Daten gegebenenfalls andere Rückschlüsse zulassen. Genau deshalb entwickeln und „kontrollieren“ sogenannte Data Scientists Modelle, indem sie die Daten für die Verarbeitung entsprechend vorbereiten, Rahmenparameter festlegen und möglichen Verzerrungen in den Trainingsdaten vorbeugen. Sie achten u. a. darauf, dass ethische Aspekte berücksichtigt werden und niemand zum Beispiel aufgrund von Hautfarbe, Berufsstand, Alter, Geschlecht diskriminiert wird. Im Banken- und Börsengeschäft werden bestimmte Modelle – vor allem klassische – bereits seit vielen Jahren eingesetzt. Unsere Erfahrung zeigt, dass deren Überwachung das A und O ist. Mit den neuen Möglichkeiten der Datenanalyse und Machine Learning muss jedoch umso mehr sichergestellt werden, dass alle Überwachungsmechanismen funktionieren. Dabei gibt es drei wesentliche Dinge, die kontrolliert werden müssen:

1. die Daten, mit denen das Modell generiert wird,
2. das Modell selbst,
3. und die Ergebnisse, die das Modell liefert.

Zu 1: Die Nachvollziehbarkeit von Modellergebnissen steht häufig im Fokus, dabei ist das Aufbereiten der Daten mindestens genauso wichtig. Bei vielen Modellen in der Finanzbranche muss man 80 Prozent der Zeit dafür aufbringen die Daten zu verstehen und zu bereinigen. Denn die Daten sind teilweise unvollständig, weisen häufig eine gewisse Tendenz auf oder sind verzerrt. Da ein einfacher Lernalgorithmus letztlich aus den Daten, die er bekommt, lediglich neue Daten kreiert, ist es wichtig, bereits hier mit der Kontrolle anzusetzen. Überspitzt ausgedrückt, kann man sagen: Wenn man ihn mit Müll füttert, kann am Ende auch nur Müll herauskommen.
 



Zu 2: Das Trainieren eines passenden Modells ist dann vergleichsweise einfach. Wir verwenden gängige Open-Source-Implementierungen der Standardalgorithmen und kombinieren diese kreativ und passgenau für die zu modellierenden Daten.
Zu 3: Die Nachvollziehbarkeit der Ergebnisse, die das Modell liefert, geht darüber hinaus. Unternehmen müssen verstehen, wie die Modelle funktionieren, und warum sie zu welchen Ergebnissen kommen. In der Finanzbranche geht es insbesondere in der Diskussion mit der Politik immer wieder um die Möglichkeit, dass ein künstliches Modell die finanzielle Inklusion beeinträchtigen oder beispielsweise Geldwäscheverdachtsfälle übersehen werden könnten. Die Frage ist, wie gehen wir künftig mit Wahrscheinlichkeiten um? Bei klassischen manuellen Prozessen beobachtet man im Nachhinein oft ebenso eine gewisse subjektive Tendenz bzw. Fehlerrate, selbst in Prozessen, die nach dem Vier-Augen-Prinzip erfolgen. Bei Geldwäscheverdachtsfällen sind wir bspw. deutlich schneller und besser in der Lage, kritische Fälle zu identifizieren und falsche Positivbefunde, die unnötig Kapazität binden, signifikant zu reduzieren. Im Sinne der Sicherheit für unser Finanzsystem sollte der wesentliche Vorteil einer schnelleren Verdachtsmeldung überwiegen. Bevor Modelle für bestimmte Aufgaben eingesetzt werden, müssen sie deshalb ausführlich getestet werden. Dafür gibt es viele unterschiedliche Möglichkeiten.

Zu den geeignetsten zählt der sogenannte A/B-Test. In einem solchen Test werden zwei Versionen zunächst verglichen, um festzustellen, welche auch sicher die bessere Leistung erzielt. Die beiden Varianten, A und B genannt, werden den Nutzern nach dem Zufallsprinzip angezeigt, sodass sie unabhängig voneinander testen. A repräsentiert dabei das aktuell in der Bank eingesetzte Verfahren, z. B. um eine auffällige Transaktion zu erkennen (manuell) oder um eine Kaufvorhersage zu ermitteln. B steht für das mittels Maschinellem Lernen entwickelte Modell, das ebenso Auffälligkeiten in Transaktionen erkennt oder entsprechende Kaufmuster voraussagt. Wenn wir abschließend die Ergebnisse beider Varianten vergleichen und für B eine höhere Trefferquote bei auffälligen Transaktionen, schnellere Ergebnisse bei gleicher Qualität oder eine bessere Kaufvorhersage für alle Probanden beobachten können, ersetzen wir das alte Modell durch das neue. Nur wenn ein Modell auch die gewünschten Ergebnisse liefert, kann man es einsetzen. Natürlich muss es auch dann noch weiter überwacht werden. Sollte ein Modell Probleme machen oder seltsame Ergebnisse liefern, wird es sofort abgeschaltet. Eine weitere Option ist das, was wir Backtesting nennen – also der Vergleich mit historischen Daten.

In der Commerzbank werden sowohl klassische als auch KI-Modelle eingesetzt. Als Bank, die Risikomodelle anwendet, sind wir aufgefordert, erklären zu können, wie ein Modell zu einem Ergebnis kommt. Da das bei KI-Modellen jedoch von den „erlernten“ Daten abhängt, ist das individuell gelieferte Ergebnis der falsche Bezug. Wir sind aber in der Lage die Aufgabenbeschreibung des Modells nachzuvollziehen und damit die gesetzten Parameter, in denen es sich bewegt und mittels unserer Kontrollmechanismen auch nur bewegen kann. »1

Big Data und Advanced Analytics sind strategische Prioritäten
Doch was braucht es neben beschriebenen Kontrollmechanismen noch, um Künstliche Intelligenz gezielt einzusetzen? Wir haben bereits 2016 die Zukunftsthemen Big Data und Advanced Analytics als strategische Prioritäten verankert. Mit unserem Strategie-Update Commerzbank 5.0 haben wir das nochmal untermauert. Um die Methoden in der Bank zum Beispiel für die Geldwäschebekämpfung oder zur Verbesserung der Kundenkommunikation nutzbar zu machen, waren zunächst drei Schritte nötig:

1. Die Schaffung eines Data Lake, der als Sammelbecken für sämtliche Daten dient. So lassen sich Daten schnell und sicher strukturieren und für verschiedene Anwendungen zur Verfügung stellen. Mehr als 100 relevante Datenquellen wurden hierfür in der Bank identifiziert und müssen nun im Data Lake reproduziert und bereinigt werden, um zuverlässige und qualitativ hochwertige Daten in der Bank bereitstellen zu können.
2. Die Etablierung eines Big Data Lab, das sich mit den Möglichkeiten neuer Technologien in der Datenanalyse auseinandersetzt, die Potenziale für die Bank erkennt und weiterentwickelt und ein klares Regelwerk zur Datennutzung aufsetzt.
3. Die verstärkte Nutzung von Cloud-Technologien, um große Datenmengen effizient und sicher zu verarbeiten sowie mit dem steigenden Tempo der Innovation auch in Zukunft Schritt halten zu können. »2

Letzteres ist eine wichtige Voraussetzung für den effizienten Einsatz von KI-Modellen. Denn eine Bank kann keine Infrastruktur bereitstellen wie es Amazon, Google oder Microsoft tun. Der Aufbau von leistungsfähigen und skalierbaren Systemen über eigene Rechensysteme ist sehr kostenintensiv. Daher nutzen wir verschiedene Anbieter für unsere Zwecke und verfolgen eine Cloud-First-Strategie, d. h. dass wir Cloud Services für alle neu zu entwickelnden Anwendungen einsetzen. Im Idealfall soll dabei ein Public Cloud Service genutzt werden. Denn dieser bietet nicht nur ein robustes Fundament, sondern ermöglicht es uns auch, innovative Services bereitzustellen und damit schneller zu wachsen. Wir haben mit verschiedenen Cloud-Anbietern Kooperationen geschlossen, auch und gerade im Bereich Public Cloud. Je nach Anwendungsszenario können wir so das am besten geeignete Angebot nutzen.

Für den Einsatz von Machine-Learning-Modellen braucht Europa – um wettbewerbsfähig zu bleiben – jedoch auch EU-Anbieter für diese Technologie. Aktuell gibt es insbesondere auf Bundesebene Bestrebungen für eine europäische Cloud. Wichtig ist bei der Umsetzung nur, dass das Service-Angebot für den Nutzer vergleichbar sein muss. Sonst wird es schwer, neben den großen Playern bestehen zu können.

Datenschutz „made in Europe“ hat großes Potenzial
Eine Bank kann nicht so einfach eine Public Cloud nutzen. Voraussetzung ist, dass die aufsichtsrechtlichen und datenschutzrechtlichen Vorgaben eingehalten werden. Europa hat mit der Datenschutzgrundverordnung einen Standard gesetzt, der international neue Maßstäbe vorgibt. Weil der vertrauensvolle und sichere Umgang mit Daten sich zum entscheidenden Wettbewerbsfaktor entwickelt, hat KI „made in Europe“ großes Potenzial.

Um die strengen Schutzstandards durchzusetzen, arbeiten wir mit Methoden wie Anonymisierung, Pseudonymisierung und Mikro-Segmentierung, d. h. wenn die Daten in die Cloud wandern, sind sie einzelnen Personen nicht mehr zuzuordnen. Bei sogenannten „de-risked Data“ werden personenbezogene Daten, sogenannte Personally Identifiable Information (PII), vollständig entfernt, sodass niemand – weder innerhalb noch außerhalb der Bank – in der Lage ist, PII im Data Lake oder in der Cloud zu sehen. Dabei bleibt der inhaltliche Wert der Daten weitgehend erhalten.

Natürlich ist gerade die Zusammenführung von verschiedenen, auch personenbezogenen Daten wesentlich für die Anwendung von KI. Hiervon profitieren die Kunden am meisten, beispielsweise durch speziell auf sie persönlich abgestimmte Produkte. Andere Länder haben zudem eine Vielzahl öffentlich frei verfügbarer Daten, mit denen sie ihre KI-Systeme trainieren. In Europa kennen wir das so nicht.

Deshalb sind Gesetzgeber und Datenschutzaufsicht gefordert. Sie müssen einen Rahmen dafür schaffen, dass Datennutzung und Datenschutz Hand in Hand gehen. Eine Möglichkeit besteht darin, praxistaugliche Einwilligungslösungen zu schaffen und öffentliche Daten auch international zur Verfügung zu stellen (Open Data). Sonst drohen Europa Nachteile im internationalen Wettbewerb. Denn China und die USA haben längst einen Wettlauf um die Vorherrschaft bei der KI gestartet. Peking hat den Anspruch, hier bis 2030 die "weltweite Führung" einzunehmen.
 



Datengetriebene Produkte durch Internet of Things
Wenn wir zurzeit auch hinter den USA und China rangieren, müssen wir uns in Deutschland technologisch nicht verstecken. Deutschland verfügt über umfangreiche Ingenieurskompetenz und aufgrund der deutschen Technologieführerschaft z. B. in der Sensortechnik stehen wir in Sachen Internet of Things (IoT) sehr gut da.

Im Durchschnitt ist heute bereits jede vierte Maschine in der deutschen Fertigungsindustrie mit dem Internet verbunden. Bauteile kommunizieren eigenständig mit der Produktionsanlage, veranlassen bei Bedarf Reparaturen oder bestellen notwendiges Material nach. Das Bundeswirtschaftsministerium erwartet 153 Mrd. € an zusätzlichem volkswirtschaftlichen Wachstum durch Industrie 4.0 bis zum Jahr 2020. Hier müssen Banken ansetzen, Schnittstellen für die Daten schaffen und dann mithilfe von Machine Learning individualisierte Produktlösungen für Firmenkunden anbieten.

Als erstes deutsches Finanzinstitut hat die Commerzbank eine neue datenbasierte Kreditlösung für Firmenkunden entwickelt. Der „Pay-per-Use-Kredit“ ist im Kern ein Investitionskredit, der es Unternehmen ermöglicht, Maschinen nutzungsbasiert zu finanzieren. In seiner Rückführung orientiert sich der Kredit an der Auslastung der Maschine – sie überträgt diese Daten automatisch an die Bank. Dort wird die Höhe der Rückzahlungsraten entsprechend automatisch angepasst. Unternehmen brauchen sich damit bei ihren Investitionsentscheidungen keine Gedanken mehr beispielsweise über saisonale oder zyklische Schwankungen in der Auslastung der geplanten Produktionskapazitäten zu machen: Die Finanzierungskosten passen sich variabel an die tatsächliche Nutzung an.

Den Prototyp dieses neuen digitalen Kreditmodells hat die Commerzbank gemeinsam mit dem Werkzeugmaschinen- Hersteller EMAG in Salach (Baden-Württemberg) aufgesetzt. Die Vernetzung der Werkzeugmaschinen ermöglicht einen detaillierten Einblick in deren Nutzungsablauf – und dadurch die Errechnung der Tilgungsrate für den Kredit. Die KMB Technologie Gesellschaft für rationelle Fertigung mit Sitz in Sachsen- Anhalt setzt diese Maschinen im Automotive-Sektor für die Teileproduktion ein. Der branchentypische Produktionsverlauf spiegelt sich dabei sehr gut im entstehenden Tilgungsverlauf der Maschineninvestition wider. »3

Weg zum Erfolg: Weitere Digitalisierung des deutschen Mittelstands
Doch diese innovativen Unternehmen sind in Deutschland bislang (noch) nicht die Regel. Zwar nutzen vor allem Mittelständler vermehrt smarte Techniken und zeigen laut einer aktuellen Studie (1) im Vergleich zu kleinen und großen Firmen den höchsten Reifegrad in Sachen Digitalisierung. Jedoch hat sich das Thema noch nicht in der Breite der heimischen Wirtschaft etabliert. Innovative Bankprodukte, wie der Pay-per-Use-Kredit, sind deshalb teilweise noch ihrer Zeit voraus.

Bislang bewegt sich der deutsche Mittelstand langsam weg von einfacheren hin zu komplexeren IoT-Anwendungsfällen. Allerdings hat einer Studie2 zufolge erst ein Drittel der Unternehmen vollautomatisierte Prozesse über das IoT realisiert. Oft sind die benötigten Fähigkeiten, Kenntnisse und Kompetenzen im Betrieb schlichtweg nicht vorhanden. Oder fehlende Standards und Schnittstellen bremsen die Nutzung aus.

Folglich ist es für Banken umso wichtiger, den digitalen Wandel des deutschen Mittelstands aktiv zu unterstützen. Mit der Initiative „#openspace“ hat die Commerzbank deshalb eine Digitalisierungsplattform für den deutschen Mittelstand geschaffen. Eigene Kunden und andere Mittelständler werden durch die Initiative dabei unterstützt, die Herausforderungen der digitalen Welt zu meistern, Chancen zu erkennen und diese zu ihrem Erfolg zu machen. Ziel ist es, Führungskräften und Mitarbeitern mittelständischer Unternehmen zu ermöglichen, ihre digitale Zukunft selbstständig zu entwickeln und die Verunsicherung gegenüber Digitalisierung zu verlieren. #openspace bietet darüber hinaus Zugang zu einem umfassenden Netzwerk an Digitalisierungs-und Technologie-Experten sowie zu Start-ups.

Mit datengetriebenen Produktlösungen lassen sich dann individuelle Finanzierungsbedürfnisse lösen und Risiken minimieren. Ein Beispiel ist die Liquiditätsvorschau: Der Cash Radar für Unternehmerkunden generiert Forecasts für die Entwicklung des Geschäftskontos und kann frühzeitig vor einer Unterdeckung eines Kontos warnen. Auf Basis der historischen Umsatzdaten berechnet er die zukünftigen Salden für einen Zeitraum von bis zu vier Monaten. Dabei können auch Geschäftskonten, die der Unternehmer bei Fremdbanken unterhält, eingebunden werden.


Fazit
Es gibt bereits vielfältige Einsatzgebiete von Machine-Learning-Anwendungen im Banking. Sei es in der Risikoprävention, in innovativen und individualisierten Produktlösungen oder in der Prozessoptimierung. Sie gilt deshalb zu Recht als wichtigste Zukunftstechnologie im Rahmen der Digitalisierung. In Verbindung mit den Möglichkeiten in der Prozessoptimierung hilft sie dabei, das Banking einfacher, schneller und besser zu machen. Nun ist es wichtig, eine neue Sachlichkeit in die Diskussion zu bringen und mit Vorbehalten und Ängsten aufzuräumen. Nur so schaffen wir es, dass auch unser Mittelstand die Potenziale erkennt und anwendet. Voraussetzung hierfür ist aber auch eine zeitgemäße Regulierung, eine Regulierung 4.0. Dazu zählt zum Beispiel eine deutlich schnellere und flexiblere Genehmigung von Risikomodellen. Vor allem das exponentielle Wachstum verfügbarer Daten wird extrem schnelle Modellanpassungen erfordern. Der Umgang mit und die Akzeptanz von Wahrscheinlichkeiten muss von den klassischen Risikoarten auch auf die sogenannten Non-Financial Risks ausgedehnt werden. Denn: Auch die Regulierung muss den technologischen Wandel positiv begleiten und darf
nicht in der analogen Welt stehenbleiben.

(1) Studie der Managementberatung Horváth & Partners, der EBS Universität für
Wirtschaft und Recht und der Deutschen Messe AG.
(2) PAC-Studie 2018: digitaler-mittelstand.de/business/ratgeber/internetof-things-wie-weit-ist-der-mittelstand-56728.

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge