Intégrer l’intelligence artificielle dans la gestion : quelle valeur ajoutée ?

Créé le

28.10.2024

-

Mis à jour le

29.10.2024

La croissance exponentielle de données, structurées ou non (texte, image...), rend l’exercice de la gestion de plus en plus difficile : comment intégrer toutes ces informations ? L’intelligence artificielle devient un outil important dans la gestion de cette complexité.

L’intelligence artificielle (IA) avait besoin de cette myriade d’informations pour être utile, pour se rendre indispensable. Parce que tout modèle d’apprentissage machine a besoin d’un grand volume de données pour apprendre, pour capter ce qui est généralisable et mettre de côté le « bruit ».

C’est cette explosion de données qui nous permet d’entraîner des modèles de langage de plus en plus performants. L’expansion rapide de la puissance de calcul a permis l’avènement des Large Language Models (LLM), qui aujourd’hui ont assez de mémoire au sein de leurs paramètres pour avoir un savoir quasi encyclopédique.

Après des années de croissance exponentielle de la taille des LLM, les deux dernières années ont marqué un tournant positif à de nombreux égards.

Lightweight LLM : David contre Goliath

De nombreuses sociétés indépendantes mais aussi les laboratoires AI des plus grandes sociétés tech ont travaillé au développement de modèles plus petits, plus efficaces, appelés « lightweight » LLM. Une vraie révolution a lieu grâce à ces lightweight LLM, leur open sourcing donnant à des chercheurs et ingénieurs du monde entier libre accès à une technologie proche de l’état de l’art, pouvant être adaptée à des besoins spécifiques.

Ces modèles jusqu’à cent fois plus petits que les plus larges LLM s’en approchent en performance. De plus, il suffit grâce à des techniques récentes (comme Low-Rank Adaptation Lora et dérivés) de ne modifier qu’une fraction des paramètres de ces modèles pour les adapter à une tâche donnée. Mauvaise nouvelle pour NVidia peut-être, mais bonne nouvelle pour l’environnement !

Par exemple, le modèle de Meta Labs (Facebook) Llama 3 de 8 milliards de paramètres est aussi bon que l’ancien (!) GPT 3.5 d’OpenAI, state of the art d’il y a 18 mois, tout en étant quarante fois plus petit1.

Ces dévelopements récents de lightweight models démocratisent la technologie des LLM et ouvrent les portes à de nombreuses applications, à travers l’ensemble des secteurs d’activité.

Le newsflow sur les sociétés est une des sources d’information sur les entreprises les plus abondantes, des milliers de news pouvant a priori avoir un impact sur le portefeuille d’actions d’un gérant. Pour bien couvrir le newsflow sur un univers d’investissement émergent de plusieurs milliers de titres il faudrait des dizaines d’analystes.

Que ce soit pour capter rapidement une controverse sur un titre de son portefeuille ou la déclaration positive d’une société sur un nouveau produit, un LLM bien entraîné (sur les vingt dernières années de newsflow) est un formidable outil de suivi de l’information. Il peut être très utile pour générer des alertes et sensibiliser un gérant discrétionnaire à un risque ou une opportunité, mais peut aussi être bien intégré à côté d’inputs fondamentaux et techniques dans un processus de gestion quantitative comme ceux de RAM AI2.

L’analyse financière, vitesse grand V

Une autre tâche qui peut parfois s’avérer en une certaine mesure répétitive est l’analyse financière de sociétés. Une recherche récente de l’université de Chicago3 nous invite à porter un nouvel œil sur les capacités des LLM dans l’analyse numérique. Les LLM assimilent assez bien notre langage mathématique aujourd’hui pour être capables d’effectuer une analyse financière basée simplement sur les comptes d’une société en format de texte.

L’équipe de recherche de Chicago montre que quelques prompts d’un modèle comme GPT-4 suffisent à en faire un agent « analyste financier » qui surperforme les prévisions tirées d’un consensus d’analystes.

Depuis, une équipe de recherche de Google Deepmind a démontré que les LLM pouvaient aller bien au-delà de simples analyses numériques et étaient capables d’apprendre notre langage mathématique aussi bien que notre langue ou langages de programmation. Le modèle entraîné, AlphaProof, atteint un niveau équivalent à la médaille d’argent aux Olympiades Internationales de Mathématiques, prometteur pour les capacités d’analyse des LLM à venir.

Le monde n’est pas linéaire...

Les phénomènes physiques, naturels, les équilibres qui nous entourent ne reposent en général pas sur des lois linéaires. Notre intelligence, non plus, fruit de l’activation et de l’interaction complexe de dizaines de milliards de neurones. Pourquoi les équilibres de marché suivraient-ils des lois linéaires ? Notre recherche montre qu’il faut que beaucoup de conditions soient « activées » pour qu’une société soit une véritable opportunité d’investissement, et qu’il ne suffit pas qu’elle soit bonne en moyenne. Il suffit par exemple que la qualité des profits d’une société soit remise en question par une dégradation de ses cash-flows opérationnels pour rendre totalement inattrayante une société très bien sous tous les autres angles.

Afin de capter cette non-linéarité dans l’interaction des dynamiques de valorisation, de qualité, de sentiment, de prix, de liquidité, il faut donc aller au-delà d’une régression linéaire de type Fama-French, et employer des modèles plus complexes de machine learning. Notre recherche nous a menés vers les réseaux de neurones artificiels, dont le fonctionnement est inspiré de notre cerveau, un signal d’une certaine amplitude activant le transfert du signal vers les neurones suivants. La combinaison de signaux de valorisation, de qualité, de sentiment, de prix, de liquidité permet d’identifier des profils de titres à fort potentiel de rendement dans les semaines suivantes.

Le deep learning nous permet de faire ce qu’un gérant a toujours fait : identifier des combinaisons de qualités qui font d’un titre une opportunité attrayante, mais en utilisant des centaines de signaux lorsque l’on s’arrêterait à des dizaines d’inputs dans des stratégies value, low-risk, growth ou momentum plus traditionnelles.

Éviter l’effet black box !

Notre expérience montre qu’il faut beaucoup travailler sur la qualité des données inputs d’un réseau de deep learning (ou de tout modèle de machine learning) pour construire un modèle fiable. Plus les données d’inputs sont bien construites et moins elles contiennent de « bruit », plus le modèle arrive à apprendre de l’information de chaque input et de son interaction avec tous les autres.

Depuis de nombreuses années, nous avons aussi d’excellents outils d’interprétabilité des modèles, qui nous permettent de comprendre la contribution de chaque input aux prédictions. Le modèle est ainsi loin d’une black box, parce que pour chaque titre sélectionné par le modèle, nous pouvons savoir combien les dynamiques de valorisation, de croissance, de sentiment, de prix, de positionnement... ont contribué respectivement à la prédiction du potentiel de rendement du titre.

Au sein de RAM AI, nous utilisons une approche de gestion quantitative avec de forts biais qualité, value et low risk. Nous sommes attachés à conserver ces biais fondamentaux qui contribuent sur le long terme à la stabilité de nos performances, et nous nous assurons que notre intégration d’IA les préserve.

Notre expérience montre aussi que l’IA n’est pas un substitut parfait à des approches plus traditionnelles, et que des processus de gestion utilisant de manière optimale l’information de stratégies plus traditionnelles et d’IA ensemble surperforment. Nous utilisons ainsi dans nos stratégies l’IA comme un overlay supplémentaire sur nos stratégies, permettant de raffiner notre sélection et le timing de nos entrées et sorties sur les titres.

À retrouver dans la revue
Revue Banque HS-Stratégie-Nº11
Les grandes étapes en matière de LLM
$!Intégrer l’intelligence artificielle dans la gestion : quelle valeur ajoutée ?
Notes :
1 Pour les derniers benchmarks Trustbit, voir « Benchmarks for ChatGPT and Co » : www.trustbit.tech/en/llm-leaderboard-juli-2024).
2 Tian Guo et Emmanuel Hauptmann, « Fine-Tuning Large Language Models for Stock Return Prediction Using Newsflow » : https://arxiv.org/abs/2407.18103
3 Alex G. Kim, Maximilian Muhn et Valeri V. Nikolaev, « Financial Statement Analysis with Large Language Models », mai 2024 : https://bfi.uchicago.edu/wp-content/uploads/2024/05/BFI_WP_2024-65.pdf