People checking data on a digital screen
Blog

L'IA dans l'investissement immobilier

Dernièrement, je vois souvent passer des posts sur des personnes qui proposent des Outils d’underwriting basés sur l’IA. Construits avec Claude Code, un peu de Python en backend, un front-end généré par IA, et vendus autour de 20 € par mois. Le principe est simple : glisser-déposer un PDF d’underwriting fourni par un broker, laisser l’IA extraire les données, les structurer, construire un modèle de flux de trésorerie actualisé (DCF), ajouter des hypothèses, et aboutir à un prix d’acquisition basé sur le Loan-To-Value et le TRI requis. 

Ce qui prenait autrefois des jours aux analystes ne prend plus que quelques minutes. 

À première vue, cela semble être une évolution logique. Pas de dépendance à un logiciel, pas d’attente, juste un prompt et c’est parti. Naturellement, j’ai voulu essayer. 

J’ai ouvert ChatGPT, trouvé un fichier d’underwriting en ligne, et donné un prompt assez ouvert : 

« J’ai besoin que tu réalises l’underwriting de cet actif. Sois détaillé et assure-toi de me donner le prix d’acquisition pour un TRI approprié au risque. Le TRI doit dépendre du risque, donc tu dois le déterminer. Emprunt à 5 % à taux fixe avec 50 % de LTV. Sortie après 10 ans. Décide du taux de capitalisation. Fais tes propres hypothèses de marché si nécessaire et précise-les clairement. » 

Puis je suis allé prendre un café. 

Environ 3 minutes 30 plus tard, la réponse était là : une valorisation à 10,9 M€ pour un TRI levier de 12 %, avec une analyse de scénarios basique. Difficile de ne pas être impressionné. 

Mais je voulais comprendre ce qui se passait réellement derrière, alors j’ai demandé le modèle Excel. Environ 14 minutes plus tard, je l’avais. Inputs, cash flow sur 10 ans, KPIs, tout ce qu’on attend. Logiquement, j’ai cherché l’erreur. C’était trop beau pour être vrai. Alors, y en avait-il une ? 

Oui, il y en avait une. La valeur de sortie était comptée deux fois dans le calcul du TRI. Une erreur assez basique, mais aussi un rappel que la détecter repose encore sur l’expérience. 

Il y a une tendance naturelle à vérifier le résultat. Non pas parce que l’IA est mauvaise, mais parce qu’on sait à quel point il est facile de laisser passer de petits détails. Maintenant, poussez ce raisonnement un peu plus loin. 

En tant que développeur logiciel, je discute avec des clients potentiels du remplacement d’Excel par une solution logicielle. Un investisseur typique avec 50 actifs gère déjà 50 fichiers Excel. Chaque actif a son propre modèle. Si vous voulez modifier une hypothèse ou ajuster la logique de modélisation, vous devez le faire 50 fois. Maintenant, l’IA arrive et génère un Excel pour chaque actif. Si quelque chose change, soit vous demandez à l’IA de régénérer les 50 fichiers, soit vous les mettez à jour manuellement. Dans les deux cas, vous arrivez au même point : une pile croissante de fichiers Excel sans réelle vue d’ensemble. 

Chaque modèle existe de manière isolée. Corrigez quelque chose dans l’un, et rien ne garantit que le suivant n’a pas un problème différent. Vous devez donc les revoir. Un par un. 

À ce stade, il vaut la peine de se demander ce qui fait réellement gagner du temps : générer tout avec l’IA, ou travailler à partir d’un modèle cohérent, fiable, et appliqué à l’ensemble des actifs ? 

L’IA est clairement en train de transformer le marché. Cela ne fait aucun doute. Mais je ne pense pas que l’avenir réside dans des outils autonomes qui génèrent des modèles à la demande sans structure autour. 

Ce qui semble plus pertinent, c’est une approche combinée. 

Laisser l’IA gérer les tâches répétitives, comme l’extraction et la structuration des données ou la création d’une première version du modèle. Puis faire passer cela dans un cadre où les définitions sont fixes et les calculs cohérents. Un système où l’on peut voir ce qui a changé et décider si cela a du sens avant d’aller plus loin. 

C’est aussi l’approche que nous adoptons avec Planon RE Assets. Nous développons un serveur MCP qui permet à l’IA d’interagir directement avec la base de données. Un utilisateur peut importer des données structurées ou non structurées, que l’IA extrait et transforme selon des définitions de données prédéfinies. Les données sont ensuite validées dans Assets, et l’IA traite les éventuelles erreurs de validation. L’utilisateur peut examiner les données, voir ce qui a changé et comprendre l’impact avant de valider. Une fois validées, les données sont intégrées dans un modèle financier vérifié, où elles peuvent être analysées et ajustées davantage, soit via des interfaces personnalisées optimisées pour la tâche, soit en interagissant avec l’IA en langage naturel. 

On va toujours plus vite, mais on conserve la maîtrise. Au final, la vitesse compte, mais seulement si l’on fait confiance au résultat. Et cela n’a pas vraiment changé. Ce qui a changé, c’est la manière d’y parvenir. Cette approche hybride combine le meilleur des deux mondes, sans imposer de compromis entre eux.

 

Partagez cet article