Square

Gestion d’actifs

Derniers développements dans l’investissement factoriel

Créé le

20.05.2019

-

Mis à jour le

12.07.2019

Serge Darolles, professeur de Finance, Université Paris-Dauphine, responsable scientifique de l'Alternative Risk Premia Research Academy, Robert Kosowski, professeur de Finance, Imperial College Business School & responsable de la Recherche quantitative, Unigestion, et Jérôme Teiletche, responsable de l’équipe Cross Asset Solution, Unigestion, ont présenté les évolutions de la recherche dans le domaine de l’investissement factoriel. L’objectif de cette conférence était de présenter des articles de recherche de premier plan dans le domaine des primes de risque alternatives et de l’investissement factoriel, ainsi que des applications pratiques de la recherche sur ces thèmes.

Les deux articles primés par l’Alternative Risk Premia Research Academy ont ouvert la conférence.

Construire un portefeuille d’arbitrage

Le premier article de recherche primé s’intitule « Arbitrage Portfolios », cosigné par Soohun Kim, du Georgia Institute of Technology, Robert A. Korajczyk, Northwestern University, et Andreas Neuhierl, University of Notre Dame. Cet article propose une nouvelle approche statistique permettant de construire des portefeuilles d'arbitrage à partir des informations contenues dans les caractéristiques des entreprises. Les expositions aux facteurs de risque variant avec les caractéristiques des entreprises, il est compliqué de construire des portefeuilles à la fois neutres à tous les risques et pariant sur des anomalies de marché. Une solution pourrait être d’utiliser des anomalies de marché associées à une caractéristique bien spécifique. Mais la construction de portefeuilles d’arbitrage pariant sur des anomalies associées à plusieurs caractéristiques est une tâche très complexe. Les auteurs proposent une approche statistique en deux étapes : la première étape permet d’identifier les facteurs de risque qui expliquent une partie de la dispersion du rendement des actifs ; dans une seconde étape, il est alors possible d’identifier les anomalies correspondant à la partie résiduelle de la dispersion observée entre les rendements des actifs.

L’article montre que les propriétés des portefeuilles d’arbitrage ainsi construits sont satisfaisantes : les rendements sont en moyenne positifs ; ils sont stables dans le temps et en particulier ne diminuent pas pendant les périodes de crises ; enfin, ils exhibent ex post un alpha positif quel que soit le modèle d’évaluation retenu. Plusieurs questions restent cependant en suspens. Les portefeuilles ainsi obtenus sont-ils réellement investissables ? En effet, ces portefeuilles peuvent être notamment fortement corrélés à certains facteurs connus comme la taille, ou être très concentrés et investis sur un nombre limité de titres.

Deep factors

Le second article de recherche primé s’intitule « Deep Learning in Asset Pricing », co-écrit par Guanhua Feng, City University of Hong Kong, Nicholas Polson, University of Chicago, et Jianeng Xu, University of Chicago. Cet article fournit un cadre d’étude statistique nouveau pour l’étude des modèles factoriels d’évaluation utilisant les caractéristiques des entreprises. La littérature académique a toujours eu tendance à créer de nouveaux facteurs de risque afin de mieux expliquer la dispersion observée entre les rendements des actifs. Il n’y a cependant à ce jour pas forcément d’unanimité sur la manière de construire et d’interpréter ces facteurs. On peut citer par exemple le facteur momentum, dont la définition peut grandement varier d’un article à l’autre. Les auteurs de l’article proposent une approche statistique nouvelle, se fondant sur des techniques de « deep learning » permettant de combiner de manière optimale et non linéaire l’information disponible afin de construire de manière automatique de nouveaux facteurs, les « deep factors », susceptibles d’améliorer la performance des modèles d’évaluation d’actifs existants. Il est alors possible de mesurer l’écart de performance de ces modèles, une fois les nouveaux facteurs intégrés, et cela pour les périodes d’apprentissage, de validation et de test de la méthode. Les premiers résultats obtenus sont intéressants à commenter d’un point de vue général et fournissent une réponse à plusieurs questions très actuelles. On s’aperçoit en effet que l’apport du deep learning n’est pas systématiquement positif et que l’utilisation d’algorithme d’intelligence artificielle peut dégrader la performance de certains modèles d’évaluation. En effet, si le modèle d’évaluation est relativement simple, le fait d’ajouter des facteurs est bénéfique sur la période d’apprentissage mais négatif sur la période de test. Par contre, si le modèle de base est plus sophistiqué, ajouter des facteurs issus de l’apprentissage statistique ne dégrade pas les performances du modèle et permet même dans certains cas de les augmenter. On a ainsi un cadre standard d’application des techniques d’apprentissage qui nous montre qu’il n’est pas systématiquement utile de chercher à améliorer les modèles issus de la théorie financière.

Optimiser la construction de portefeuilles en intégrant des facteurs macroéconomiques

La suite de la conférence s’est intéressée à trois exposés ouvrant le débat à des sujets d’investissement directement liés à la construction de portefeuilles ou à la mesure de performance.

La première intervention, sur le thème « Dynamic allocation applied to alternative risk premia », a permis de remettre au centre de la discussion la problématique de l’allocation : doit-on allouer de manière dynamique entre différentes primes de risque ? Si le consensus a plutôt tendance à répondre par la négative, du fait de la difficulté à prédire le comportement futur des primes de risque, des voix dissonantes commencent à s’élever et soutiennent l’idée d’un timing possible des primes de risque. Par exemple, pourquoi devrait-on investir dans une stratégie de portage, ou « carry » en anglais, alors que cette stratégie ne génère pas de rendements positifs ? C’est pourtant ce que préconisent les méthodes d’allocation se fondant sur les risques, telles que l’approche dite « Equal Risk Contribution » (ERC ; Maillard et al., 2010) qui vise à donner le même budget de risque ex-ante aux composantes du portefeuille et qui constitue l’approche dominante dans l’industrie. Dans cette présentation, les auteurs cherchent à comprendre comment améliorer les résultats d’une allocation ERC en y adjoignant des signaux dynamiques.

Les auteurs analysent l’influence de deux types de signaux potentiels.

En premier lieu, ils montrent une sensibilité de la plupart des primes de risque aux conditions macroéconomiques et de marché. Plus précisément, ils identifient quatre régimes principaux : la croissance régulière, la récession, les chocs inflationnistes et les tensions sur le marché. Pour mettre en place une allocation dynamique, les auteurs doivent être à même de mesurer en temps réel la probabilité des différents régimes. C’est à cette fin qu’ils utilisent des outils dits de « nowcasting », expression née de la contraction des termes anglais « now » et « forecasting ». Ces outils sont en plein développement dans les banques centrales et consistent à résumer de façon robuste l’information d’un ensemble très large de données macroéconomiques en un seul indicateur.

Le deuxième type de signal dynamique consiste à évaluer le risque de valorisation des différentes primes de risque à partir de la comparaison de leur portage actuel (à savoir le rendement obtenu si le prix ne bouge pas) relativement à leur historique. Armés de ces signaux, les auteurs utilisent ensuite le cadre développé par Jurczenko et Teiletche (2018) qui consistent à combiner un portefeuille stratégique défini en risque avec des signaux actifs. Différents backtests sont ainsi réalisés, avec validation en dehors de l’échantillon. Les résultats montrent qu’il est possible d’améliorer les performances du portefeuille stratégique et que l’amélioration est suffisante pour survivre aux coûts de transaction importants. Les deux types de signaux apportent des résultats positifs mais les signaux de valorisation semblent supérieurs dans cet échantillon. De façon générale, l’amélioration liée aux signaux dynamiques s’exprime principalement dans les phases de baisse des primes de risque. Le cadre d’analyse ouvre la porte à d’autres applications empiriques, que ce soit au niveau d’autres types de signaux ou d’autres primes de risque.

Rendements d'anomalies et persistance de l’alpha

La deuxième présentation reprend le papier « Understanding Alpha Decay », écrit par Julien Penasse, Université du Luxembourg. Cette recherche a pour objectif premier d’étudier l’évolution au cours du temps des rendements anormaux ou alphas. Il est aujourd’hui naturel de classer des titres d’un univers d’investissement donné en fonction de caractéristiques fixées, puis de comparer la performance de portefeuilles construits à partir de titres ayant des caractéristiques différentes. Si la différence de performance est significative, on se réjouit de la découverte d’un nouveau facteur de risque. Cet article montre que les choses ne sont pas si simples et qu’il est important de considérer la dynamique des ajustements des prix des actifs et sa conséquence sur l’évolution dans le temps des alphas. Les rendements des actifs et les alphas potentiels sont naturellement corrélés négativement. Cela a une conséquence immédiate quand on tente d’estimer des alphas à partir de données historiques. On peut par exemple obtenir un estimateur positif en moyenne sur la période historique utilisée pour l’estimation, alors qu’il n’est pas significativement différent de zéro à la date en fin de période. On peut ainsi être amené à rejeter à tort des modèles d’évaluation d’actifs ou au contraire à tester des alphas de stratégies d’investissement significativement positifs alors qu’ils ne le sont plus.

Les positions courtes : naïves ou best short ?

Enfin, le dernier thème abordé lors de cette conférence concerne les positions courtes, ou « shorts » en anglais, publiées par les sociétés de gestion de fonds, l’objectif étant de quantifier les coûts et les bénéfices de la communication de ces positions. Cette présentation est issue de l’article « Best Short » co-écrit par Pascale Della Corte, Robert Kosowski et Nikolaos Rapanos, Imperial College Business School. Les possibilités de vendre à découvert un titre peuvent amener à des manipulations de cours. Pour lutter contre cela, le régulateur européen impose que l’ensemble des positions shorts prises par les intermédiaires financiers soient rendues publiques dans des intervalles de temps très courts. Ainsi, depuis le 1er novembre 2012, selon un règlement européen, toute personne détentrice d’une position courte nette égale ou supérieure à 0,5 % du capital d'une société doit déclarer cette position à l’autorité compétente dans un délai d'un jour de négociation, l’autorité compétente rendant ensuite cette information publique. L’étude présentée montre que cette obligation rend possible l’utilisation de ces publications par des arbitrageurs dans le but de générer un profit, avec pour conséquence une incitation négative à la mise en place de positions shorts. L’article contribue ainsi au débat sur la meilleure manière de diffuser l’information sur les positions courtes.

Les auteurs considèrent deux stratégies : la première stratégie, nommée « naive », vend à découvert tous les titres présents dans la base de données de publication de positions courtes. La seconde stratégie, nommée « best short », se fonde sur le niveau de conviction des gérants de positions courtes. La stratégie vend à découvert les titres que les gérants vendent avec la plus grande conviction et achète les titres que les gérants vendent avec la plus faible conviction. Le papier démontre que la stratégie « best short » est à la fois profitable et supérieure à la stratégie « naive ».

À retrouver dans la revue
Revue Banque Nºhof2019