Analyse crédit

La rumeur, un instrument à exploiter

Pour gérer les risques de crédit, de contreparties, ou encore sa propre ​réputation, les comptes financiers et les informations officielles ne ​suffisent plus. La prise en compte des éléments informels qui circulent ​notamment sur Internet peut permettre de mieux anticiper les événements. Reste à en organiser une exploitation raisonnée.

Illustration

L'auteur

Pour en savoir plus

images
  • Les signaux pour des mesures de réduction du risque de crédit

    Les signaux pour des mesures de réduction du risque de crédit

  • Analyse de sentiment sur le groupe société générale

    Analyse de sentiment sur le groupe société générale

  • Entre algorithmes et expertise humaine

    Entre algorithmes et expertise humaine

Revue de l'article

Cet article est extrait de
Revue Banque n°745

Solvabilité 2 : un nouveau départ pour les offres aux assureurs

La crise financière, depuis 2008, illustre à quel point banquiers et investisseurs doivent avoir un dispositif d’analyse-crédit aussi développé que possible. Force est de constater, si l’on prend pour exemple Lehman [1], illustration emblématique du risque de crédit, que des signes avant-coureurs étaient apparus dès le printemps de cette année-là (voir Encadré 1), avant que les banques se mettent à couper leurs lignes de crédit sur cette contrepartie, au cours de l’été, et que la faillite n’éclate au grand jour le 15 septembre. Toute institution exposée sur Lehman et qui aurait détecté un tel signe, dès son apparition, aurait disposé de près de quatre mois pour prendre des mesures de sauvegarde : suppression d’autorisation de crédit, cessions de titres, résiliations de contrat, conclusions de CDS [2], netting de positions, etc.

Lehman n’est pas le seul exemple. Les faillites d’Enron, fin 2001, de Parmalat, en 2003, et plus récemment de MF Global [3] ont été précédées, elles aussi, de nombreux signes avant-coureurs.

Les signes avant-coureurs

Premier signe important, la révélation d’incohérences dans les chiffres publiés ou communiqués par une société et donc l’existence d’un doute sur la sincérité de sa comptabilité mettent indirectement en cause toute analyse qui aurait été conduite sur la seule base de données chiffrées.

Deuxième signe, la vente à découvert, marque de défiance caractérisée, postule que toute l’information utile n’a pas été rendue publique et n’est donc pas intégrée dans le cours de Bourse. Ce signal est d’autant plus crédible que, selon une étude [4], le vendeur à découvert, tout en n’étant pas mieux informé, interprète mieux l’information disponible sur une société.

Bien entendu, l’exercice de style est facile à faire rétrospectivement [5]. Il n’empêche que l’irruption des médias sociaux, ces dernières années, en faisant exploser le volume [6] et le nombre de sources d’information, a fondamentalement changé la donne. Rien de plus simple, aujourd’hui, que de tweeter depuis son téléphone mobile pendant une conférence d’analystes. Ajoutons que les réglementations nationales tendent à protéger davantage le « lanceur d’alerte », ou  whistleblower, la loi Dodd-Frank passée en 2010 aux États-Unis allant jusqu’à intéresser financièrement toute personne dont la dénonciation de faits délictueux au sein d’une entreprise conduirait à une sanction judiciaire [7]. De telles dispositions améliorent encore la perspective de découvrir sur les médias numériques des alertes signalant une défaillance possible.

Au sein du fatras de la blogosphère et de la twittosphère...

Encore faut-il faire précéder l’analyse du contenu d’une analyse de la source. Selon la société Proxem, spécialiste du web sémantique, « l’analyse de la semaine du 14 septembre 2011 concernant une grande banque française montre que le tweet le plus (ré)émis associe systématiquement le nom de la banque à la chute de l’action et au terme “faillite”. Ces 600 tweets n’ont pas été écrits par des humains, mais réémis en boucle automatiquement par un bot (robot logiciel) qui gère une vingtaine de comptes Twitter. »

Pour la direction des risques d’un établissement financier, nourrir l’analyse-crédit à partir d’informations hétérogènes et non structurées est un véritable défi. Il s’agit de repérer, au sein du fatras de la blogosphère et de la twittosphère, des signes annonçant une défaillance, d’en identifier la source, d’en analyser le contenu, d’en vérifier la véracité et d’en valider l’enjeu, le tout dans un laps de temps le plus court possible, puisqu’il s’agit de prendre des mesures de sauvegarde avant que la rumeur soit prise en compte par le marché.

On commencera d’abord par définir la liste des contreparties qui feront l’objet d’un suivi sur la Toile. Il faut qu’elles aient de la notoriété, sans laquelle il n’y a ni « buzz » ni informations vérifiables, et qu’elles représentent un enjeu financier.

Une seconde étape du processus consiste à énumérer les types d’événements que l'on cherche à anticiper : on ne s’intéresse pas seulement à l’hypothèse d’une faillite, mais aussi à celle d’une chute soudaine de l’action, d’une publication de pertes exceptionnelles [8]… Pour chaque type d’événement recherché, on dressera une liste des signaux annonciateurs possibles : mise en cause de la sincérité des comptes, démission d’un directeur financier, annonce de vente à découvert ou de conclusion d’un CDS… Certains signaux peuvent être indirects : c'est le cas, par exemple, d'une hausse de la position emprunteuse sur un titre, publiée par un site d’information professionnel comme Data Explorers, qui trahit un mouvement de ventes à découvert, et donc une opinion négative sur l'émetteur, même si ces vendeurs ont choisi de ne pas rendre publiques leurs transactions. D’autres signaux sont spécifiques à un secteur économique : ainsi, le retard de livraison de l’A380, en 2006, était-il un signal annonciateur d’une chute soudaine de l’action EADS. Pour chaque type de signal, on cherchera à identifier ses supports possibles de communication : sites d’information des régulateurs, presse spécialisée, blogs et forums financiers, réseaux sociaux, Twitter. S’il s’agit de commentaires écrits ou oraux, on précisera comment les signaux peuvent être exprimés dans chaque langue.

Définir le périmètre des sources à surveiller

Il faut ensuite définir le périmètre des sources à surveiller, un exercice délicat : les institutions financières, les grandes entreprises et les États font l’objet de commentaires directs ou indirects par des centaines de milliers de sources ; celles qui publient sur une cible donnée évoluent dans le temps, certaines s’éteignent ou deviennent moins pertinentes. De nouveaux blogueurs, médias spécialisés, fils de tweets apparaissent chaque jour et émettent des informations ou commentaires sur les contreparties suivies ; enfin, quand un événement se prépare, de nouvelles sources apparaissent, en particulier les « lanceurs d’alerte » : dans le cas de Lehman, le premier signal est révélé par une auditrice indépendante [9], sur son blog.

Une partie significative du travail, qui devra être automatisée, est de chercher constamment les nouvelles sources qui apparaissent pour une cible donnée, de les identifier, de les qualifier et d’évaluer leur fiabilité. Diverses techniques peuvent être utilisées pour identifier ces sources. On peut en particulier automatiser la recherche dans les moteurs généralistes, pour voir si des sources se mettent à publier des informations portant les signaux recherchés. On peut ensuite, à partir d’une contrepartie faisant l’objet de signaux, chercher dans les réseaux sociaux, comme LinkedIn ou Facebook, des sources qui lui seraient liées, directement ou indirectement, et fourniraient des éléments qui corroboreraient ou, au contraire, invalideraient l’information. On organisera donc, sur la base d’un premier niveau d’identification assisté, à une gestion en continu de la liste des sources, sources généralistes susceptibles de parler de toutes les contreparties, ou sources très spécifiques pouvant apporter des informations sur une seule d'entre elles.

Mise à contribution des logiciels

La recherche des signaux dans les contenus émis par les sources doit être déléguée à des logiciels. Plusieurs types de logiciels peuvent être mis à contribution dans ce dispositif :

  • un logiciel de collecte (crawl), pour rapatrier le contenu rédactionnel des pages de blog appartenant à l’univers sélectionné ;
  • un logiciel d’analyse de texte, aussi appelé text mining, pour chercher dans ce sous-ensemble une information explicite telle que « nous émettons des réserves sur les comptes publiés par la société X », « M. X est nommé directeur financier de la société Y en remplacement de M. Z », et ce, dans chacune des langues sélectionnées… Ce type de logiciel s’est déjà imposé dans certains secteurs, comme l’édition scientifique et juridique et les sciences de la vie ;
  • le couplage de technologies statistiques et linguistiques, pour détecter une augmentation du volume de messages à tonalité négative à propos d’une contrepartie suivie. Le graphique 2 montre ainsi une « analyse de sentiment », sur Société Générale, sur un trimestre,. Jusqu’à présent, cette technique est surtout exploitée dans le cadre de l’analyse d’image, ou d’e-réputation ;
  • un logiciel d’analyse de graphe, enfin, pour fouiller dans les réseaux sociaux et y détecter des évolutions de fonctions ou de relations entre personnes liées à des contreparties suivies.

L’intervention des experts

Une fois les signaux identifiés, extraits et formalisés, il s’agit de les rapprocher des autres signaux détectés pour la même contrepartie et le même type d’événement prévisible, de les organiser temporellement, d’identifier leur source et de leur attribuer un degré de pertinence. Il faut également repérer les redondances, les signaux se répétant au gré de leur transmission de source en source.

C’est sur ces bases agrégées, constamment mises à jour, que des algorithmes basés sur des règles et de l’analyse statistique décideront de remonter auprès des responsables du suivi des risques des alertes sur telle ou telle contrepartie, en décrivant le contexte dans lequel elles sont levées.

La part de l’expertise humaine devient à ce stade prépondérante (voir Encadré 3). L’expert doit pouvoir répondre rapidement à plusieurs questions :

  • l’information sur un risque de défaillance de la contrepartie est-elle déjà connue et en cours de traitement ?
  • émane-t-elle d’une source fiable et indépendante ou peut-elle être le produit d’une manipulation ?
  • y a-t-il assez de faits, vrais ou faux, et assez de sources pour que le risque sur la contrepartie soit pris au sérieux par le marché ?
  • l’information est-elle basée sur des faits réels ? Si oui, porte-t-elle à conséquence sur la solidité financière de la contrepartie ?

En même temps que le mode opératoire, il faut définir une organisation. Cette méthode requiert en effet des compétences variées, qui débordent de celles disponibles au sein d’une direction des risques aujourd’hui :

  • des spécialistes des médias numériques, pour définir et ajuster quotidiennement le périmètre et les techniques de la fouille ;
  • des linguistes, pour modéliser les différentes paraphrases d’un même concept, dans différentes langues ; des analystes, pour traiter les alertes levées ;
  • des experts du renseignement, pour identifier l’origine d’informations fausses ou trompeuses ;
  • des chargés de communication, enfin, pour diffuser l’information, forcément sensible, auprès des personnes intéressées en interne.

Pour gérer l’information

En cette période où la perception du risque de crédit n’a jamais été aussi vive, et alors que les outils traditionnels que sont les agences de rating et les modèles probabilistes ont montré leurs limites, toute grande institution financière doit s’intéresser à la fois au potentiel d’exploitation de l’information véhiculée par les médias numériques et aux possibilités de traitement de ce matériau offertes par les technologies.

[1] Lehman Brothers était l’un des plus importants brokers américains.

[2] Le Credit Default Swap, ou CDS, est un instrument dérivé qui permet à celui qui l’achète de s’assurer contre un risque de défaut d’une contrepartie.

[3] http://alphanow.thomsonreuters.com/2011/11/did-you-see-the-mf-global-bankruptcy-coming/.

[4] http://www.usc.edu/schools/business/FBE/seminars/papers/F_9-10-10_REED-ERR.pdf.

[5] Dans le cas de Lehman, de nombreux articles de presse prédisent, certes, dès le mois de mars 2008, que Lehman sera la prochaine victime, après Bear Stearns, mais cette opinion, répandue sans être consensuelle, reflète surtout l’analyse du modèle économique de la société (dépendant d’un fort effet de levier) et non pas un doute de la sincérité des informations qu’elle délivrait.

[6] On compte actuellement quelque 230 millions de tweets par jour.

[7] http://www.sec.gov/rules/final/2011/34-64545.pdf.

[8] Comme UniCredit le 14 novembre 2008.

[9] Nancy McKenna, le 23 mai 2008, sur http://retheauditors.com/2008/05/23/running-at-you-the-much-feared-shorts/.

 

Articles du(des) même(s) auteur(s)

Sur le même sujet