Markt Magazin

istock.com/acilo

Bewertungsmodelle für Banken: Präzise Immobilienbewertung mittels KI

Institutionen, Investoren und Privatanleger können jetzt eine noch realistischere Immobilienbewertung vornehmen, die zudem deutlich weniger Zeit benötigt. Egal ob Einfamilienhaus, Mehrfamilienhaus, Eigentumswohnung oder ganzes Portfolio – neben den baulichen Eigenschaften ziehen sogenannte Automated Valuation Models (AVMs) auch die Infrastruktur, Nachfrage, soziodemografische Aspekte und weitere Parameter heran, um den Immobilienwert zu bestimmen. Denn hier sind die geläufigen Prozesse nicht mehr zeitgemäß, sondern sogar ungenau. Digitale Methoden machen Punktlandungen und sind effizienter – sofern die Daten eingepflegt sind.

Immer größere Datenmengen sind digital verfügbar. Algorithmen werden von einem geschulten und erfahrenen Team von Data-Analysten mit den großen Mengen an Daten fortlaufend optimiert. Leistungsfähige Prognose-Algorithmen (Machine Learning) und Cloud-Computing mit praktisch unbegrenzter und günstiger Rechenleistung sowie Speicherkapazität sind zwei weitere Faktoren, die diese automatisierten Bewertungsmodelle überhaupt erst möglich gemacht haben. Denn sie lassen deutlich mehr Parameter und Daten in die Immobilienbewertung einfließen und errechnen so einen genaueren Wert eines Objekts. Die Algorithmen erkennen objektiv und ohne menschliche Intervention Zusammenhänge zwischen verschiedenen Eigenschaften der Immobilie und den in der Vergangenheit beobachteten Preisen.

Wachsende Leistungsfähigkeit
In allen drei Bereichen – digitale Datenmengen, Algorithmen und Rechenleistung – gab es zuletzt somit massive Weiterentwicklungen. Besonders schnell verbessern sich jedoch die technischen Voraussetzungen. Noch vor zehn Jahren waren ExpertInnen bei der Entwicklung von Machine-Learning-Algorithmen gezwungen, kleine Stichproben aus den Gesamtdaten zu verwenden, die in den Arbeitsspeicher eines Rechners passten und in vertretbarer Zeit verarbeitet werden konnten. Dank Big-Data-Technologien wird es heute immer einfacher, diese Berechnungen auf viele Rechner einer Server-Cloud zu verteilen. Auf diese Weise lassen sich Unmengen von Daten mit hochkomplexen Algorithmen in kürzester Zeit analysieren. Vor allem aber bei den sogenannten Deep-Learning-Algorithmen, die zur Klasse der Neuronalen Netze gehören, gab es Durchbrüche. Damit stieg die Genauigkeit der Bewertungen kontinuierlich an.

Diese Präzision wird weiter zunehmen, wenn sich diese neue Systematik etabliert hat und so immer mehr Immobiliendaten eingespeist und berechnet werden können. Eine höhere Anzahl an Datensätzen (Vergleichstransaktionen) und von Variablen (Eigenschaften der Immobilie, der Umgebung oder der Transaktion) können dazu führen, dass die Algorithmen neue Muster und Zusammenhänge finden – und somit noch besser Marktpreise prognostizieren können, ein sich selbst verbesserndes System, wie es schließlich in der Natur von Künstlicher Intelligenz liegt.

Dabei hat die Leistungsfähigkeit solcher Modelle in den vergangenen Jahren bereits einen enormen Sprung gemacht. Diese Modelle sind heute in der Lage, auf Basis verfügbarer Daten für jede Wohnimmobilie an jedem Standort den statistisch wahrscheinlichsten Markt- und Mietpreis zu ermitteln – und so neben den traditionellen Eigenschaften auch Faktoren wie Lärmbelastung, Aussicht, Soziodemo-grafie, Erreichbarkeit, Bauvorhaben in der Umgebung oder Infrastruktur miteinzubeziehen. Damit werden auch komplexe nicht-lineare Zusammenhänge erfasst, die in der althergebrachten Bewertung nicht berücksichtigt werden können.

Bewertungen ohne Bauchgefühl
Als Hauptvorteil von automatisierten Bewertungsmodellen wird oft die Zeit- und Kosteneffizienz genannt. Schließlich sei nach einer Anfangsinvestition eine Bewertung praktisch auf Knopfdruck möglich. Doch so einfach ist es nicht. Denn um besonders genau zu sein und diese Qualität zu halten, sind dauerhaft Investitionen nötig. Eine technische Infrastruktur muss aufgebaut und erhalten werden, die wiederum laufend die Daten verarbeitet und ein Team an Spezialisten beschäftigt. Besonders aufwändig ist die Datenerhebung, wenn die öffentliche Verwaltung Immobiliendaten nicht frei zugänglich macht. Denn das hiesige System der Gutachterausschüsse ist ausschließlich auf die Bereitstellung von Daten für traditionelle Bewertungsverfahren ausgelegt.

Neben der Kosteneffizienz ist Objektivität ein großer Vorteil, da sich automatisierte Bewertungsmodelle immer gleich verhalten. Wird dieselbe Immobilie indes nach klassischen Verfahren durch zwei Gutachter durchleuchtet, können die Ergebnisse trotz der Vielzahl an Bewertungsstandards deutlich voneinander abweichen.

Den „wahren“ Marktpreis erreichen
Hierzu werden zielgerichtet Kooperationen mit marktführenden Partnern angestrebt, um der Kundschaft bessere und günstigere (Zusatz-)Dienstleistungen zu bieten. Gleichzeitig könn(t)en Banken damit aber auch die Kreditprüfung und das Risikomanagement weiter optimieren. Hier allerdings regulieren rechtliche Vorgaben die AVMs – obwohl sie auch dort präziser, effizienter und zeitgemäßer wären.

Daher sind bessere regulatorische Rahmenbedingungen notwendig sowie eine Politik, die die Chancen erkennt und Vorschriften entschlackt. Immerhin veröffentlichte die Europäische Bankenaufsichtsbehörde (EBA) im Sommer 2020 die überarbeiteten Leitlinien zur Kreditvergabe und -überwachung. Sie hatten zum Ziel, die Standards EU-weit zu harmonisieren. Erstmals wurden darin auch Anforderungen unter anderem an Technologien, Daten und Entscheidungsmodelle aufgenommen – womit eine Öffnung für die stärkere Nutzung statistischer Modelle für die Immobilienbewertung innerhalb von Banken eingeläutet wurde.

Anfang September 2021 veröffentlichte die BaFin ihre Vorschläge zur Novellierung der Beleihungswertermittlungsverordnung. Dort ist vorgesehen, dass statistische Bewertungsverfahren zugelassen werden sollen. Allerdings wird diese Möglichkeit auf den Kleindarlehensbereich beschränkt, der zumindest von 400.000 auf 500.000 Euro steigen soll. Doch ein großer Teil des Geschäfts liegt über dieser Grenze. Zudem funktionieren die in diesem Beitrag geschilderten Verfahren unabhängig davon, ob eine Immobilie mit mehr oder weniger 500.000 Euro beliehen wird. Der Entwurf sollte daher verbessert werden.

Vorteile der Banken: Näher am Markt – auch im Risikomanagement
Neben der Neukundenakquisition ist das Hauptgeschäftsfeld von Banken die Kreditvergabe und -vermittlung. Um Kreditanfragen zu validieren, ist eine schnelle und präzise Wertermittlung und -prüfung das Maß aller Dinge. Innerhalb der Kleindarlehensgrenze von 400.000 Euro ist es sogar möglich, die gesamte Kreditprüfung von A bis Z vom Schreibtisch aus zu erledigen. Hierzu muss man keinen Gutachter mehr zusätzlich zum Objekt schicken. Digitale Bewertungsmodelle, die möglichst viele Wertindikatoren abdecken, sind da natürlich entscheidend und machen den Kreditprüfungsprozess schneller und effizienter.

Gleichzeitig wirkt sich dies positiv auf das Risikomanagement der finanzierenden Bank aus. Denn die digitale Bewertung liegt deutlich näher am tatsächlichen Wert und kann auch wirtschaftliche Veränderungen am Standort, die beispielsweise durch Abwanderung entstehen, oder einen Anstieg der Baukosten berücksichtigen. Somit ist man sowohl bei der Kreditvergabe als auch in der laufenden Kreditüberwachung näher am Markt als mit herkömmlichen Bewertungsverfahren.

Fazit
Die Stärken automatisierter Bewertungsmodelle liegen auf der Hand: Geschwindigkeit, Qualität, Genauigkeit und Kosteneffizienz. Allerdings muss der Gesetzgeber dafür sorgen, dass man die Potenziale der digitalen Bewertungsmethoden auch ausspielen kann. Bislang wird hier noch gebremst.

Autor



 

Christian Crain ist seit 2018 Co-Geschäftsführer der PriceHubble Deutschland GmbH.

 

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge