Square

Innovation

Environnement de taux bas : limites et futur des modélisations

Créé le

06.06.2019

-

Mis à jour le

04.07.2019

L’environnement de taux bas est l’occasion de tester les capacités des modèles existants à s’adapter à des situations inédites, et d’examiner si l'on peut continuer à les utiliser ou s'il faut les changer en profondeur.

Les thèmes du Risks Forum sont choisis en fonction de leur pertinence économique, mais aussi de leur importance pour le développement de nouveaux modèles et techniques. Du point de vue de l'innovation technique, l'environnement des taux bas, comme, l'année dernière, la transition climatique fournissent des exemples types. Dans ces deux cas, il faut un certain temps avant de déceler un éventuel changement de régime, puis, une fois le phénomène jugé suffisamment important, il faut faire l'inventaire des modèles existants et de leurs faiblesses, examiner s'ils peuvent continuer à être utilisés avec quelques modifications mineures, ou s'il faut les changer en profondeur, vérifier la pertinence des nouveaux modèles et les calibrer. Commençons par donner une idée plus précise de ce processus dans le cas de l'analyse des taux et de leurs structures par terme.

Phase de détection d'un changement de régime

Historiquement des taux bas ont été d'abord observés sur des taux à court terme, mais de façon assez différenciée. Il existe, en effet, diverses notions de taux courts : des taux de marché à 3 mois sur des obligations zéro-coupon (type OIS), mais aussi des taux sur des opérations de refinancement à la banque centrale (MRO rate), ou sur les facilités de dépôt (DF rate) pour ce qui concerne des taux de la zone euro. Il faut aussi distinguer les taux des divers pays, ces taux étant libellés dans diverses monnaies – yen, euro, dollar – et n'étant pas immédiatement comparables, du fait des variations de taux de change.

Des taux bas sont d'abord apparus au Japon, inférieurs à 0,5 % dès 1996, quasiment à zéro entre 2001 et 2006, remontant légèrement après. De tels taux nominaux sont apparus comme une exception, du fait d'une économie japonaise en situation de récession à ce moment, mais aussi du fait de la détention de la majeure partie de cette dette par les Japonais eux-mêmes. Invoquer ces particularités a permis de ne pas remettre en cause les modèles de fixation des taux alors dominants, qu'il s'agisse de modèles économiques ou de modèles dynamiques de prévision et de valorisation de taux.

La situation est apparue très différente lorsque des taux bas ont aussi commencé à être observés sur d'autres économies développées. Pour prendre le cas de l'euro-zone, le taux DF est de 1 % à 2 % entre 2003 et 2006, mais les autres taux courts sont autour de 2 % ; ils remontent assez fortement entre 2006 et 2008, puis décroissent très vite ensuite pour atteindre des zones de taux bas en 2009 et quasiment zéro en 2015. En septembre 2014, certains taux sont même devenus légèrement négatifs, cette négativité étant alors interprétée comme une mauvaise perception par le marché de la borne inférieure effective.

Rappelons qu'à ce moment, dans les cours de finance, on cite essentiellement deux justifications pour des taux négatifs observés à certaines périodes antérieures dans certains pays :

  • accepter des taux négatifs pour compenser le risque de vol si l'argent est gardé chez soi, raison que la littérature connaît sous le nom d'« économie italienne » ;
  • les taux négatifs donnés sur les obligations suisses aux détenteurs non suisses sont un autre exemple, ceci s'expliquant par les gains pouvant exister une fois retranscrits dans la monnaie du détenteur.

Phase de détection des faiblesses des modèles standard et nouveaux modèles

Une fois qu'un changement potentiel de régime est décelé, il faut regarder si ce nouveau régime est compatible avec les modèles existants. Or les divers modèles de prévision et de valorisation vont se révéler immédiatement mal spécifiés et incapables de reproduire les séries observées. La raison est qu'ils supposent tous des lois continues des taux courts, qui ne permettent pas au taux de rester à une borne zéro, durant plusieurs épisodes. Deux modifications des modèles existants vont être introduites vers 2013-2014, sous forme de papiers de recherche.

Christensen et Rudebusch (2016) vont introduire une distinction entre le taux observé et un taux latent, dit « fantôme », ces deux taux étant liés par la relation « taux observé = max(taux fantôme, 0) ».

Les modèles standard sont alors appliqués à la dynamique du taux fantôme, et la borne zéro peut être chargée pour le taux observé du fait de la troncature.

Monfort, Pegoraro, Renne et Rousselet (2017) utilisent une approche complètement différente et montrent qu'un cas limite de modèle autorégressive affine conduit à des lois mélanges de lois continues et de masses en zéro pour la loi des taux. Comme il s'agit d'un modèle dynamique affine, leur modélisation permet d'avoir des formules fermées pour les structures par terme de taux, leurs évolutions, pour valoriser les dérivés, ou pour évaluer facilement les probabilités de quitter le régime de taux zéro.

Faiblesse des nouveaux modèles

Ces deux types de modèles semblent capables de reproduire de façon assez satisfaisante certaines données passées. Conceptuellement, cependant, ils possèdent certaines faiblesses.

Tout d'abord, ils supposent l'existence d'une borne inférieure effective, ici zéro. Or cette borne, si elle existe, semble pouvoir être dépassée. Mais jusqu'où ?

Ensuite, les modèles dynamiques incluent des facteurs de risques sous-jacents, qui influent de façon systématique sur les taux, que l'on soit en régime de taux bas, en régime de taux standard ou en transition d'un régime à l'autre. Ils ne permettent par exemple pas de différencier des facteurs spécifiques du régime de taux bas.

De plus, ces modèles ne sont pas structurels, au sens où ils ne décrivent pas comment l'économie, les investisseurs, les institutions se sont adaptés au régime de taux bas, donc ne permettent pas de tenir compte de l'aspect endogène de la sortie de ce régime.

Enfin, insister sur la borne zéro est un premier pas, mais les évolutions observées ont montré qu'il s'agit plutôt d'une succession de plages de taux, non prises en compte dans les modèles.

Difficultés du calibrage et des interpolations

Comme signalé auparavant, ces nouveaux modèles ont amélioré les qualités des ajustements sur données passées de taux. Mais peut-on leur faire confiance pour prévoir le futur ? Les estimations ont pu reposer aussi sur des données de dérivés de taux, supposant implicitement que le marché est de lui-même suffisamment informé pour que de l'information sur ce futur puisse être extraite des prix de dérivés. Il s'agit d'une hypothèse forte d'anticipation rationnelle, où les investisseurs sont supposés connaître cette dynamique que les universitaires et experts peinent à comprendre.

En fait, il sera toujours difficile de parfaire ces modèles tant que des données de sortie de ces régimes et d'éventuels retours à de tels régimes ne seront pas disponibles. On ne sait si ce régime est susceptible d'être permanent, ou d'être récurrent. Sans cette connaissance, on ne peut faire que des conjectures, notamment sur l'effet à long terme et les conséquences et fréquence de tels régimes, sur la gestion des fonds de pension par exemple. En d'autres termes, ces nouveaux modèles, malgré leurs défauts, sont utilisables pour des prévisions à terme assez court, alors que les modèles standard n'étaient même plus fiables pour cela.

Le risque de modèle

Pour résumer, il faut des délais significatifs pour innover et stabiliser des innovations, et durant ces phases intermédiaires, les données et leurs interprétations usuelles sont moins pertinentes, les modèles peuvent être mal spécifiés et rester concurrents. Ceci justifie l'importance de reconsidérer la question de la gestion et de la gouvernance d'ensembles de modèles mal spécifiés, c'est-à-dire du risque de modèle, et de la valorisation de ce risque (Marge de conservatisme – MoC).

À retrouver dans la revue
Revue Banque Nºhof2019