L’intelligence artificielle au service de l’analyse macroéconomique

Créé le

28.10.2024

-

Mis à jour le

29.10.2024

Si elle transforme profondément le domaine
des analyses macroéconomiques en améliorant
à la fois leur qualité et leur rapidité, l’intelligence artificielle suscite aussi des questionnements et demande une certaine vigilance face aux limites liées à toute forme de modélisation.

La macroéconomie n’échappe pas à l’augmentation exponentielle des données disponibles. Datastream, référence en matière de données macroéconomiques, en est un bon exemple, avec environ 16 000 nouvelles séries historiques créées chaque année depuis plus de vingt ans. Il devient dès lors impossible pour un analyste macroéconomique de suivre et d’assimiler toutes les nouvelles informations disponibles. De plus, la nature des données exploitées s’est complexifiée : aux séries traditionnelles telles que l’inflation ou le chômage s’ajoutent désormais des indices relatifs au trafic aérien ou maritime. Ces différents types et structures de données offrent une vision plus large de l’activité économique. Face à cette masse croissante de données, le recours à l’intelligence artificielle (IA) s’avère inévitable pour accompagner les analystes dans leurs travaux.

Avant de rentrer dans le vif du sujet, il est aujourd’hui encore important de rappeler que l’IA n’est pas un concept si nouveau. La première définition de l’IA remonte à 1955, lorsque John McCarthy la décrit comme un « langage capable de traduire les raisonnements humains en programmes informatiques ». Plus récemment, des définitions plus précises ont été proposées. Dans Artificial Intelligence : A Modern Approach, S. Russell et P. Norvig identifient des domaines d’application tels que l’apprentissage, le raisonnement, la planification, la perception de l’environnement, la compréhension du langage et la robotique.

Des modèles de plus en plus performants

Nous avons pu observer une grande accélération du développement des systèmes d’IA ces dernières années. Cela est en grande partie dû à trois facteurs majeurs : l’augmentation de la puissance de calcul, la baisse des coûts du cloud computing et l’accroissement du volume de données disponibles. Ces nouvelles capacités permettent l’augmentation de capacités de recherche. Ce qui permet notamment d’obtenir des modèles de plus en plus performants pour résoudre des tâches de plus en plus complexes tels que des compétitions de problèmes mathématiques.

Cela nous questionne donc sur l’implémentation et l’utilisation de ces nouvelles techniques dans la gestion. En ce qui concerne les applications de l’IA à la macroéconomie, deux grands types peuvent être distingués : l’analyse numérique et l’utilisation de modèles de langage.

Un outil de détection et de mesure
des interactions

Les méthodes d’IA appliquées à l’analyse numérique sont largement démocratisées dans la gestion d’actifs. L’une des applications les plus évidentes est la détection d’anomalies dans les données macroéconomiques, qui sont souvent incomplètes ou comportent des anomalies. L’utilisation de techniques avancées, telles que le clustering ou les réseaux bayésiens, permet de détecter ces erreurs et de compléter les données manquantes. Si ces contrôles de qualité sont bien développés chez les fournisseurs de données, ils se généralisent également chez les utilisateurs finaux.

L’une des innovations majeures apportées par l’IA à la macroéconomie est le nowcasting, terme qui combine now et forecasting pour désigner la mesure en temps réel de l’activité économique. Par exemple, la capacité à suivre l’activité du métro à Pékin a permis de surveiller l’impact des confinements en Chine. Cela s’exprime également sous d’autres formes où ces outils contribuent à affiner la compréhension des cycles économiques, traditionnellement déterminés par des organismes tels que le National Bureau of Economic Research (NBER). Désormais, des institutions comme l’OCDE ou la Banque Centrale Européenne (BCE) utilisent des modèles basés sur des réseaux de neurones pour affiner leurs prévisions. Bien que ces outils aient un impact indirect pour les analystes, l’IA transforme leur manière de travailler.

Du côté de l’asset management, l’utilisation de ces outils se démocratise de plus en plus. Les analystes peuvent désormais construire leurs propres modèles neuronaux afin d’estimer plus précisément les effets non linéaires des variables économiques et d’améliorer la précision de leurs simulations. Ces techniques facilitent la modélisation de système complexe. Ils présentent des résultats intelligibles avec notamment des études en sensibilités.

Toutefois, une difficulté rencontrée avec ces modèles est liée à la phase d’apprentissage, notamment lorsque les paramètres à modéliser appartiennent à un paradigme différent. Pour surmonter cette limitation, nous avons développé une approche singulière afin de définir la « météo » des marchés. Cette technique compare des périodes similaires en se basant sur l’analyse de 250 indicateurs répartis selon trois dimensions. Elle permet d’identifier des périodes analogues à celle étudiée, tout en mesurant le degré de similarité. Si celle-ci est faible, cela indique une situation atypique. À titre d’exemple, en juillet 2024, des similitudes ont été relevées avec des périodes telles que fin de 2009, avril 2013 ou janvier 2020. Puis nous pouvons ainsi étendre l’analyse à la compréhension des différents scénarios futurs. Le cas de janvier 2020 est particulièrement instructif : bien que l’IA ait détecté des similarités avec la situation actuelle, elle n’a pas conscience du choc exogène lié à la pandémie de Covid-19. Cela souligne que malgré l’utilisation de système avancé, l’analyse humaine du gérant a une importance majeure dans l’analyse des résultats.

Ces diverses approches appliquées à la gestion mettent en tout cas en évidence l’évolution continue du rôle de l’IA, passant de la simple exploitation des données à la modélisation de systèmes complexes.

Méfiance sur ces langages qui reflètent
la pensée de leur créateur

L’utilisation des modèles de langage a émergé plus récemment, notamment avec l’apparition de ChatGPT en novembre 2022. Aujourd’hui, de nombreux autres modèles existent, tels que Claude, Gemini, ou encore ceux de Mistral AI. Ces modèles se structurent autour de deux niveaux : le premier correspond à un large model généraliste, tandis que le second concerne des modèles spécialisés réentraînés pour devenir experts dans des domaines spécifiques. Le premier niveau est souvent appelé modèle de fondation. Il est très volumineux, complexe et excessivement coûteux à entraîner. Le deuxième niveau est plus accessible et permet des spécifications propres à l’analyse macroéconomique. Il est cependant crucial de rappeler les risques d’hallucination ou d’inexactitude liés à ces modèles, qui reflètent souvent la vision du monde de l’entreprise qui les a développés.

Dans le cadre de la macroéconomie, ces modèles de langage offrent deux avantages principaux : l’apprentissage et la synthèse. La première valeur ajoutée de ces modèles est d’être une source d’apprentissage complémentaire. Ils permettent de confronter différents points de vue de manière interactive, de reformuler les informations et de synthétiser de vastes ensembles de documents. Ces modèles nécessitent d’être pris avec précaution ; le choix du modèle de langage est alors prépondérant. Dans le cas d’un usage d’apprentissage, il est préférable d’utiliser un modèle ayant été entraîné par des documents de références.

Le deuxième usage consiste à analyser un petit volume d’analyses publiées chaque semaine. L’abondance de ces analyses rend en effet difficile leur consultation exhaustive. L’IA joue alors un rôle double. Elle aide non seulement à résumer ces documents, mais aussi à extraire des idées nouvelles. Il devient ainsi essentiel pour un analyste de formuler ses questions avec précision afin de générer des rapports pertinents et cohérents. Le choix du modèle est également primordial dans le succès de l’analyse. Il est préférable d’utiliser un modèle capable de citer ces sources. L’analyste peut alors aller lire l’extrait et comprendre les nuances écrites par l’auteur.

« Tous les modèles sont faux, mais certains sont utiles »

En conclusion, bien utilisée, l’IA est un réel facteur d’amélioration des analyses macroéconomiques. Grâce aux capacités de traitement de données massives et à l’optimisation d’algorithmes sophistiqués, l’IA permet aux économistes de mieux comprendre et d’anticiper les dynamiques globales en temps réel. Elle renforce également la précision des modèles d’interaction entre les agents économiques, qu’il s’agisse des relations commerciales, des flux financiers ou des comportements des consommateurs.

En parallèle, les modèles de langage pilotés par l’IA facilitent la diffusion de la connaissance. Ils permettent une analyse plus fine des publications économiques, la vulgarisation des concepts et une meilleure accessibilité à l’information.

Cependant, malgré ces avancées, il est primordial de maintenir un esprit critique face à l’utilisation de ces technologies. Les modèles, aussi sophistiqués soient-ils, restent des représentations simplifiées de la réalité. Comme le souligne George Box : « Tous les modèles sont faux, mais certains sont utiles. » Cela rappelle que les résultats fournis par l’IA doivent être interprétés avec précaution et replacés dans un contexte plus large. Ainsi, bien que l’IA ouvre de nouvelles perspectives en macroéconomie, elle ne se substitue pas à la nécessité d’une réflexion critique et d’une vigilance constante face aux limites inhérentes à toute modélisation.

À retrouver dans la revue
Revue Banque HS-Stratégie-Nº11