People checking data on a digital screen
Blog

KI in Real Estate Investment

In letzter Zeit sehe ich immer häufiger Beiträge von Menschen, die „AI Underwriting Tools“ anbieten. Gebaut mit Claude Code, etwas Python im Backend, ein KI-generiertes Frontend und zu einem Preis von 20 € pro Monat. Die Idee ist einfach: Man lädt eine Underwriting-PDF eines Maklers hoch, lässt die KI die Daten extrahieren und strukturieren, erstellt einen Discounted Cashflow, ergänzt Annahmen und gelangt zu einem Kaufpreis basierend auf Loan-To-Value und einer geforderten IRR.

Was Analysten früher Tage gekostet hat, dauert jetzt Minuten.

Auf den ersten Blick wirkt das wie der logische nächste Schritt. Keine Abhängigkeit von Software, keine Wartezeiten, einfach prompten und loslegen. Natürlich habe ich es selbst ausprobiert. Ich öffnete ChatGPT, fand online eine Underwriting-Datei und gab einen relativ offenen Prompt ein:

„Ich möchte, dass du diese Immobilie unterwritest. Sei detailliert und gib mir den Kaufpreis auf Basis einer angemessenen IRR für das Risiko. Die IRR soll vom Risiko abhängen, also bestimme sie selbst. Finanzierung zu 5 % festem Zinssatz bei 50 % LTV. Exit nach 10 Jahren. Bestimme selbst eine geeignete Cap Rate. Triff eigene Marktannahmen, wo nötig, und erläutere diese klar.“

Dann ging ich einen Kaffee holen. Etwa 3,5 Minuten später kam das Ergebnis zurück: eine Bewertung von 10,9 Mio. € bei einer levered IRR von 12 %, inklusive einer einfachen Szenarioanalyse. Schwer, davon nicht beeindruckt zu sein.

Aber ich wollte verstehen, was im Hintergrund passiert, also bat ich um das Excel-Modell. Etwa 14 Minuten später hatte ich es. Inputs, ein 10-Jahres-Cashflow, KPIs, alles, was man erwartet. Logischerweise suchte ich nach dem Fehler. Es ist zu gut, um wahr zu sein. Also, gab es einen Fehler?

Ja, den gab es. Der Exit-Wert wurde in der IRR-Berechnung doppelt gezählt. Ein recht grundlegender Fehler, aber auch eine Erinnerung daran, dass das Erkennen solcher Fehler weiterhin Erfahrung erfordert. Es gibt eine natürliche Tendenz, die Ergebnisse zu überprüfen. Nicht, weil KI schlecht ist, sondern weil man weiß, wie leicht sich kleine Fehler einschleichen können. Gehen wir noch einen Schritt weiter.

Als Softwareanbieter spreche ich mit potenziellen Kunden darüber, Excel durch eine Softwarelösung zu ersetzen. Ein typischer Investor mit 50 Assets arbeitet bereits mit 50 Excel-Dateien. Jedes Asset hat sein eigenes Modell. Wenn man eine Annahme ändern oder die Modelllogik anpassen möchte, muss man das 50 Mal tun. Jetzt kommt KI ins Spiel und erstellt für jedes Asset eine eigene Excel-Datei. Wenn sich etwas ändert, bittet man die KI, alle 50 Dateien neu zu generieren, oder man passt sie manuell an. In beiden Fällen endet man mit einem wachsenden Stapel von Excel-Dateien ohne echten Überblick.

Jedes Modell steht für sich. Wenn man etwas in einem Modell korrigiert, gibt es keine Garantie, dass das nächste Modell nicht einen anderen Fehler enthält. Also überprüft man sie. Eines nach dem anderen. An diesem Punkt lohnt es sich zu fragen, was tatsächlich Zeit spart: alles mit KI zu generieren oder mit einem konsistenten Modell zu arbeiten, dem man vertraut und das man über alle Assets hinweg anwendet.

KI verändert den Markt eindeutig. Daran besteht kein Zweifel. Aber ich glaube nicht, dass die Zukunft in isolierten Tools liegt, die Modelle auf Abruf ohne Struktur generieren.

Sinnvoller ist eine Kombination.

Man lässt die KI die repetitiven Aufgaben übernehmen, wie das Extrahieren und Strukturieren von Daten oder das Erstellen einer ersten Modellversion. Anschließend wird das Ganze in ein System überführt, in dem Definitionen festgelegt und Berechnungen konsistent sind. Ein System, in dem man sehen kann, was sich geändert hat, und entscheiden kann, ob es sinnvoll ist, bevor man fortfährt.

So gehen wir auch mit Planon RE Assets vor. Wir entwickeln einen MCP-Server, der es der KI ermöglicht, direkt mit der Datenbank zu interagieren. Ein Nutzer kann strukturierte oder unstrukturierte Daten hochladen, die von der KI anhand vordefinierter Datenstrukturen extrahiert und transformiert werden. Die Daten werden anschließend im System validiert, und die KI bearbeitet eventuelle Validierungsfehler. Der Nutzer kann die Daten überprüfen, Änderungen nachvollziehen und deren Auswirkungen verstehen, bevor er sie freigibt. Nach der Freigabe werden die Daten in ein validiertes Finanzmodell importiert, wo sie weiter analysiert und angepasst werden können—entweder über speziell optimierte Benutzeroberflächen oder durch Interaktion mit der KI in natürlicher Sprache.

Man arbeitet weiterhin schneller, behält aber die Kontrolle. Am Ende ist Geschwindigkeit wichtig, aber nur, wenn man dem Ergebnis vertrauen kann. Und das hat sich eigentlich nicht geändert. Was sich geändert hat, ist der Weg dorthin. Dieser hybride Ansatz vereint das Beste aus beiden Welten, ohne einen Kompromiss erzwingen zu müssen.

Diesen Artikel teilen