En 2000, dans un article intitulé « Défaillances d’entreprise. Soixante-dix ans d’analyses théoriques et empiriques », Bernard Guilhot présentait un panorama de la recherche sur la faillite au travers de plusieurs prismes : l’approche économique, l’approche stratégique et managériale, l’approche financière et économétrique. 60 ans après l’article fondateur d’Altman (1968), nous cherchons à enrichir ce point d’étape en proposant les derniers développements des modèles de faillite.
Depuis les dernières crises mondiales, la vulnérabilité du système financier a conduit à fragiliser les firmes, grandes ou petites, et à augmenter les faillites. Même si l’on constate, à la date de mai 2018, un recul de 5,8 % sur un an (source : Banque de France), il n’en demeure pas moins que le niveau des entreprises défaillantes reste conséquent, à savoir près de 54 000 faillites sur la période d’avril 2017 à avril 2018. Ce chiffre global cache une réalité plus contrastée puisque, sur la même période, le nombre de faillites des ETI a augmenté.
Par conséquent, il ne fait aucun doute que la capacité à prédire les faillites est cruciale pour les institutions financières, les actionnaires, les dirigeants, les employés et même les États, qui sont tous affectés par ce phénomène économique. C’est pourquoi de nombreux professionnels et chercheurs ont été conduits à comprendre les raisons de l’échec des entreprises.
Dans la pratique, les établissements de crédit se sont focalisés sur la modélisation avec des données le plus souvent choisies en raison de leur significativité économique et de leur « popularité ». Pour autant, cette approche, aussi riche soit-elle, n’est pas exempte de limites. C’est justement sur ces limites que portera notre propos.
Les avancées récentes
Malgré les nombreuses avancées en termes de modélisation (méthodes linéaires ou non linéaires), les établissements financiers utilisent encore largement des méthodes statistiques classiques (analyse discriminante ou logistique) qui sont directement inspirées des banques centrales, avec un horizon de prédiction allant de 12 à 18 mois. Néanmoins, il ressort toujours des erreurs de diagnostic et les bonnes prévisions oscillent entre 80 à 85 %.
Si l’attention des chercheurs s’est focalisée sur les modèles, il ressort qu’aucun ne surpasse l’autre. Chacune a des avantages et inconvénients et le résultat des prédictions fait ressortir des taux de bons classements relativement identiques. À ce stade, plusieurs avancées ont été réalisées, qui portent sur la qualité de l’information et de sa pertinence, le choix des variables, la prise en compte de facteurs exogènes et le choix de l’échantillon.
La qualité et pertinence des données
Qualité
La majorité des modèles classiques utilisent uniquement les informations de comptes annuels sous forme de ratios financiers afin de prédire l'échec (Dimitras et al., 1996). Les ratios financiers sont utilisés parce qu'ils sont des mesures « objectives » basées sur des informations publiques (Micha, 1984 ; Laitinen, 1992). Même si ces ratios ont fait l'objet de nombreuses critiques, leur rôle reste prégnant dans les modèles de faillite.
C’est pourquoi un certain nombre de travaux récents ont cherché à mieux circonscrire ce problème. Si l’on suppose une bonne accessibilité à l’information comptable (ce qui n’est pas toujours avéré car publier des comptes annuels est limité et dépend en grande partie des critères concernant le type de société et / ou la taille des entreprises ou encore de la qualité du reporting), force est de constater que les ratios financiers ne donnent pas une représentation fidèle de la réalité. De nombreux travaux montrent que les entreprises, qu’elles soient ou non défaillantes, ont intérêt à manipuler ou gérer leurs chiffres de comptes annuels (Ooghe et Joos, 1990 ; Sweeney, 1994 ; Rosner, 2003).
Ces manipulations peuvent être gérées à la hausse : volonté de respecter les clauses des contrats de dette, de développer une bonne réputation, d’obtenir des bonus liés aux stock options (Bergstresser et Philippon, 2006). A contrario, d’autres motifs peuvent conduire à la gestion à la baisse par les dirigeants : volonté des nouveaux dirigeants de « charger » l’ancienne direction – et de montrer son incompétence – (DeAngelo et al., 1994 ; DeFond et Jiambalvo, 1994) ; recherche d’une baisse de la valeur des actions en vue d’augmenter les propres profits lors d’une cession ultérieure (Perry et Williams, 1994).
Pertinence des données (faillite et variables qualitatives)
Néanmoins, les seules données comptables ne peuvent pas toujours saisir les signes avant-coureurs de l’échec (Platt et Platt, 2002) comme l’insolvabilité (Laitinen, 1994), le défaut de remboursement (Ward et Foster, 1997), les renégociations de prêt avec les banquiers ou encore les comportements opportunistes (faillites volontaires) de certaines entreprises qui cherchent à se débarrasser de leurs dettes et redémarrer leurs activités avec « une feuille blanche ». Dans ces entreprises, la faillite reflète une décision stratégique.
Pour pallier les imperfections de ces ratios, les banques ont entrepris de compléter ces données par des données qualitatives (ce que les banques appellent aussi «soft information»). Ces données sont extrêmement variables, tant en quantité qu’en qualité. On peut citer la qualité du management mais aussiles données comportementales – incidents de paiement, la qualité de la gouvernance –, etc. Le plus souvent l’introduction de ces données se fait par la création d’indices qui sont laissés à l’appréciation de l’établissement de crédit. La question centrale tient à leur utilité. Plus précisément, l’obtention de ces informations permet-elle une réelle amélioration de la prédiction de faillite (Bardos, 2005) ? Le rapport coût/avantage n’est pas tranché. Il ressort qu’eu égard à leur coût, les variables qualitatives donnent des résultats décevants en termes de performance ; c’est pourquoi elles sont peu utilisées, même si elles peuvent se révéler utiles. Tobback et al. (2017) montrent que l’adjonction des données relationnelles (lien entre les membres du board et le management) apporte une précision aux modèles lorsque ces données sont ajoutées aux données traditionnelles telles que les ratios financiers, l’âge ou le secteur.
Le choix des variables
Face à la multitude de données et de variables construites à partir de celles-ci, la grande majorité des modèles utilisent la sélection de variables, qui consiste à partir d’une série de variables que l’on partitionne en grandes familles (structure financière, performance…).
Le choix de ces variables peut être fait de façon arbitraire en fonction de leur « popularité » dans la littérature. Aucune théorie ne permet de savoir quelles sont les « meilleures variables » (Scott, 1981). En effet, le choix des variables est spécifique à l’échantillon choisi (Zavgren, 1983), ce qui empêche toute généralisation. Lorsqu’on regarde la pratique des banques, on constate effectivement que le choix des variables obéit le plus souvent à leur renommée dans la littérature. Elles avancent aussi que plusieurs familles doivent être représentées (variable de structure financière, variable de cash-flow…) et que la variable doit pouvoir avoir une interprétation économique.
Aucun consensus ne se dégage. Faut-il des variables comptables ou de variations ? Ces variables sont-elles plus utiles que les variables qualitatives (Lussier, 1995 ; Daubie et Meskens, 2002) ou macroénomiques (expansion/récession, taux d’inflation…) (Laitinen, 1992) ? Plusieurs études (Tsai, 2009 ; Du Jardin, 2010) soulignent, d’une part, que le critère d’évaluation des variables n’est jamais complètement neutre vis-à-vis de la méthode de modélisation qui sera employée et, d’autre part, que le choix des variables doit tenir des interactions possibles qui se produiront une fois les variables réunies.
La prise en compte des facteurs exogènes
La modification de l’environnement (expansion/récession, modification technologique, changement de politique monétaire…) peut venir impacter les données et les variables caractérisant les firmes. La conséquence est une instabilité des modèles. En effet, construire un modèle sur une période de forts taux d’intérêt et le tester sur une période de taux d’intérêt forts donnera de meilleurs résultats que si le test se fait sur une période de faibles taux d’intérêt. Le problème de la stationnarité est donc posé (Charitou et al., 2004). Cette instabilité des données conduit les modèles à une durée de vie limitée. Cela contraint les banques à des réestimations fréquentes (de 12 à 18 mois).
Pour surmonter ce problème, plusieurs approches ont été réalisées comme, par exemple, constituer des ratios en prenant en compte la spécificité du secteur (Platt et Platt, 1991) ou en déflatant les ratios. Considérant que la qualité d’un modèle dépend de la correspondance entre sa construction et son utilisation, du Jardin et Séverin (2012) mettent en évidence qu’un modèle ayant été construit sur une période économique d’expansion aura une meilleure qualité prédictive sur une période d’expansion que sur une période de récession (on retrouve ce résultat concernant les périodes de récession). Par ailleurs, c’est l’erreur de type 1 (à savoir considérer une entreprise comme saine alors qu’elle est défaillante), économiquement la plus coûteuse, qui bénéficie de cette stabilité.
Le choix de l’échantillon et sa représentativité
Dans l’absolu, il faudrait prendre l’ensemble de la population, mais en pratique, c’est impossible. C’est pourquoi le choix de l’échantillon est un problème majeur dans le cadre de la prédiction de faillite. Il faut constituer deux groupes d’entreprises distincts : des entreprises saines et faillites qui sont tirées aléatoirement dans une population avec un nombre conséquent d’entreprises. Il se pose immédiatement le problème de la répartition comparativement à la population. Traditionnellement, deux groupes de taille égale (saines/faillites) sont utilisés. Cela questionne sur la représentativité de l’échantillon. En effet, la réalité ne fait pas ressortir autant d’entreprises saines que d’entreprises faillites. Depuis Altman (1968), la méthode est de construire deux échantillons équilibrés (fonction du secteur, de la taille, etc..). Le modèle apprend et se construit en utilisant autant d’entreprises saines que faillites. Cela n’est pas exempt de problèmes. Zmijewski (1984) ou Platt et Platt (2002) montrent que la non-représentativité d’un échantillon conduit, in fine, à une surestimation du taux de classement correct des entreprises défaillantes. Cela n’affecte pas le taux global de prévision, mais les taux respectifs de chaque groupe. Cet argument doit se lire à l’aune du coût des erreurs. En effet, en pratique, les erreurs de type 1 (considérer qu’une entreprise est saine alors qu’elle est faillite) sont 4 à 5 fois plus coûteuses pour une banque que les erreurs de type 2 (considérer qu’une entreprise est faillite alors qu’elle est saine). C’est pourquoi il vaut mieux minimiser les erreurs de type 1 que celles de type 2 !
Au-delà, Wilson et Sharda (1994) montrent que la précision des modèles est fonction des effectifs dans chaque classe et de l’équilibre obtenu dans l’échantillon d’apprentissage (une répartition égale étant de loin préférable à toute autre forme de répartition). L’alternative réside dans la
Plus récemment les chercheurs ont repris l’idée de la représentativité de l’échantillon. Ils considèrent que les échantillons d’apprentissage doivent représenter la réalité. Ils considèrent donc des échantillons d’apprentissage de taille inégale entre saines et faillites, ce qui représentatif de la réalité qui fait ressortir 2 à 5 % d’entreprises faillites comparativement aux saines. On remarque que la performance des modèles se détériore fortement lorsque la proportion entre saines et faillites est inégale (Wilson et Sharda, 1994). Dans ce prolongement, Zhou (2013) montre que le fait de « rebalancer » l’échantillon, c’est-à-dire de rendre les deux populations saines et faillites égales en nombre dans l’échantillon d’apprentissage, conduit à une amélioration de la performance ce qui revient à confirmer les résultats de Saporta (1990) et doit conforter les établissements de crédit dans leur choix actuel d’échantillons équilibrés.
Conclusion
Quelle conclusion tirer de tout cela ? Que les travaux récents ont permis de mieux circonscrire la faillite et, au-delà, d’affiner les outils capables de la prévoir. Les progrès se sont faits sur la qualité des données, le choix des variables, la prise en compte de facteurs exogènes et du choix de l’échantillon.
Plus récemment encore, en ligne avec les caractéristiques des firmes, des investigations ont été engagées sur la spécialisation des modèles (du Jardin, 2016). Si l’on considère que les firmes ne sont pas toutes égales devant les difficultés, on peut alors partitionner les entreprises en classes de risques. On met en évidence qu’il n’existe pas un modèle unique mais plusieurs modèles spécialisés pour chacune des classes de risque.
La notion de classe de risque est un sujet d’actualité pour le régulateur et les banques.
Avec la mise en place de Bâle IV, la prise en compte de classes de risque sera sans doute très utile pour calculer avec précision les probabilités maximales d’erreurs des modèles, afin de savoir jusqu’où provisionner les pertes. Pourtant, les banques utilisent le plus souvent des modèles à règle unique et devraient, à l’avenir, prendre en compte les nouvelles avancées de la recherche académique.