La prédiction de faillite a été l’objet de nombreuses études faites par les universitaires ou les praticiens du monde bancaire. Depuis les travaux de Beaver (1966) et d’Altman (1968), un grand nombre de questions ont été abordées. Les travaux ont porté sur le choix de la modélisation (et de la performance des modèles), la définition de la difficulté (défaut bâlois, faillite…), le choix de l’échantillon ou encore la sélection de variables.
Des modèles classiques
Nous avons rencontré plusieurs services de risque de crédit dans les établissements bancaires sur une période de plusieurs mois fin 2016, afin de les interroger sur leurs méthodes de modélisation du risque. Il en ressort deux points majeurs : l’importance de la technique utilisée et des données servant à « nourrir » le modèle.
Malgré les nombreuses avancées en termes de modélisation (méthodes statistiques linéaires, méthodes non supervisées, méthodes d’intelligence artificielle, méthodes ensemblistes, méthodes
Le second point d’importance est de savoir quelles données sont utilisées. La totalité des établissements bancaires utilisent les données comptables et financières en raison de leurs facilités d’accès et de traitement.
Plusieurs éléments se dégagent : les données elles-mêmes, leurs historiques, la constitution des échantillons.
Des données en nombre limité
Concernant les données, il ressort que les données comptables sont incontournables en raison de leurs caractères normalisés et de leurs disponibilités. C’est à partir de ces données que l’on calcule des ratios censés représenter l’état de santé des entreprises. On y adjoint également des données boursières lorsque la firme étudiée est cotée. Il ressort finalement que dans la quasi-totalité des cas, 5 à 10 variables sont retenues pour construire le modèle. À ces variables viennent s’ajouter d’autres données de nature plus qualitative (au sens large), c’est-à-dire obtenues par un lien ou un accès privilégié : suivi des comptes de l’entreprise, visite de l’entreprise permettant de mieux comprendre son organisation, qualité du management, etc. Ces données « qualitatives » ne sont pas d’une part, toujours faciles à mesurer et, d’autre part, n’apportent que peu d’informations supplémentaires capables d’améliorer la performance des modèles. Il ressort que les coûts de collecte et de traitement de ces données qualitatives ne sont pas toujours compensés par un gain de précision capable de les rentabiliser.
S’agissant de l’historique, il ressort que les banques ne s’interdisent aucune limite, mais la plupart du temps, seules les données les plus récentes sont utilisées (1 an dans la très majorité des cas). Dans certains cas, on va jusqu’à prendre 3 ans voire 5 ans de données, encore faut-il que celles-ci soient disponibles.
Enfin concernant le choix de l’échantillon, on observe deux comportements : soit la constitution d’échantillons aléatoires, soit celle d’échantillons stratifiés. La stratification est le processus consistant à diviser la population générale en sous-groupes homogènes avant l'échantillonnage. Les strates doivent être mutuellement exclusives : chaque élément de la population est assigné à une strate unique. Aucun élément de la population générale n’est omis. L'échantillonnage est alors appliqué au sein des strates. Cela est utilisé lorsque des sous-populations varient au sein d'une population générale. Cette méthode permet parfois de réduire l'erreur d'échantillonnage.
On constate que la question relative à la qualité des données – à partir desquelles les ratios et variables sont construits – n’a pas ou peu été traitée. Notre propos portera sur la capacité des données à représenter fidèlement la réalité.
Les comptes annuels et leurs faiblesses
La majorité des modèles de faillite utilisent les informations comptables pour prédire l’état de santé d’une firme (Dimitras et al., 1996). La justification tient dans le fait que ces données sont objectives, disponibles et standardisées (Keasey et Watson, 1987 ; Lussier, 1995). Les études montrent que les ratios calculés grâce aux données comptables permettent une bonne discrimination entre les firmes saines et faillites. Néanmoins, l’information comptable souffre de nombreuses imperfections malgré leurs disponibilités.
Toutes les études supposent que l’information comptable, base de la construction de variables, est complète et fiable (Laitinen, 1992). Or, la réalité est bien différente. Les entreprises peuvent être amenées à pratiquer la gestion de leurs résultats. La gestion des résultats consiste à « prendre des mesures délibérées à l’intérieur de contraintes liées aux normes comptables afin d’arriver à un niveau de résultat souhaité » (traduction libre de Davidson et al. 1987, tiré de Mard et Marsat, 2012). Dans ce cadre, il y a une volonté de
En effet, la littérature académique met en évidence que les firmes et particulièrement celles qui font faillite ont tendance à manipuler leurs comptes (DeFond et Jiambalvo, 1994 ; Sweeney, 1994 ; Burgstahler et Dichev, 1997 ; Degeorge et al., 1999 ; Rosner, 2003). En effet, les entreprises en difficulté vont chercher à ajuster leurs revenus à la hausse pour donner une présentation plus positive de leur situation financière, particulièrement quand le moment de l’échec est proche (Rosner, 2003). Deux explications peuvent être avancées. La première est guidée par la volonté de respecter les clauses des contrats de dettes et l’éventuelle situation de faillite. Dans de tels cas, les managers sont principalement concernés par la survie à court terme de la firme. Ces comportements de gestion du résultat ont été mis en évidence par Dichev et Skinner (2002) pour éviter la violation des contrats de dettes et par DeFond et Jiambalvo (1994) pour éviter le défaut. La seconde explication est que les managers peuvent chercher à manipuler l’information dans leurs intérêts propres. En effet, ils peuvent vouloir conserver leur place ou faire ressortir des résultats susceptibles de leur faire toucher des bonus (stock-option). Bergstresser et Philippon (2006) montrent que les managers qui bénéficient des incitations les plus fortes sont ceux qui utilisent le plus la gestion des résultats. Cette gestion des résultats a également été mise en évidence par Camacho-Milano et Campa (2015).
Par ailleurs, les comptes annuels peuvent être peu fiables – en particulier dans les petites entreprises – en raison de l'absence d'un système de contrôle interne (Keasey et Watson, 1987) ou en raison d'ajustements de comptes annuels effectués par l'auditeur à la lumière d'un dépôt de bilan.
Toutes les faiblesses liées à la non-fiabilité des documents comptables ont une réelle influence sur les modèles de prédiction de défaillance. En effet, si l’on considère que les ratios utilisés dans les modèles de faillite sont la résultante de la qualité des données, alors les modèles de prédiction sont faussés et leur utilité pratique peut être limitée. Ce problème de gestion de résultats – qui peut aller, dans les cas extrêmes, jusqu’à la fraude – conduit à brouiller l’image de la firme. La représentation de la firme au travers des données comptables n’est donc plus totalement avérée.
Pour supprimer les biais
En définitive, il existe de nombreux motifs qui peuvent conduire les entreprises, en difficulté ou non, et leurs dirigeants à manipuler leurs résultats ou à fournir des données (quand elles existent) dont la crédibilité n’est pas avérée. Dans ces cas, il est impossible d'appliquer le modèle de manière appropriée. Les décisions prises peuvent alors être biaisées (Lobo et Zhou, 2010) et, par conséquent, le modèle devient inutile.
Ce constat pose alors en creux la question de la confiance que l’on peut porter aux données comptables et financières à partir desquelles on construit les ratios et variables. C’est pourquoi, face à cette qualité discutable des données, nous pouvons alors nous interroger sur le lien entre la qualité de l’information comptable et la performance des modèles. Si les entreprises peuvent jouer sur la gestion du résultat dans le but de modifier la perception du risque, cela influencera mécaniquement sur la performance des modèles. C’est pourquoi, il serait légitime de chercher à retraiter l’information comptable en préalable de la construction des modèles.
Plusieurs autres questionnements peuvent alors se faire jour. Si les firmes manipulent leurs résultats, il conviendrait de s’interroger sur le lien entre l’amplitude de la gestion du résultat et la difficulté financière des firmes pour mieux circonscrire et comprendre les comportements des firmes faillies.