L’assurance collective est née de l’idée de créer une protection complémentaire pour les salariés d’une entreprise. L’intérêt d’assurer un groupe est apparu comme évident pour l’assureur, à travers l’effet de mutualisation des risques qu’induit cet ensemble d’assurés.
Le développement de l’assurance de prévoyance collective
Il est également une réalité économique qui pousse les organismes à trouver des relais de croissance et de financement importants. Dans toutes les compagnies d’assurance, les incertitudes liées au contexte économique limitent le développement potentiel des placements en assurance vie. Les branches non-vie plus classiques suivent quant à elles leurs rythmes et leurs cycles, dans un marché saturé. Reste donc la protection sociale comme relais de croissance, qui suscite chez les assurés de vraies questions et un réel intérêt. Mutuelles, institutions de prévoyance (IP) et compagnies se projettent aujourd’hui dans ce marché acquis principalement aux causes mutualistes, mais dans lequel on voit les compagnies d’assurance évoluer et prendre des parts de marché.
Le marché de la prévoyance en France est estimé à 21 milliards d'euros : le chiffre d’affaires des mutuelles est de 3,5 milliards d'euros, celui des IP autour de 9,6 milliards d'euros et 8 milliards d'euros pour les compagnies. Ces dernières se présentent ainsi comme des entités importantes et apportent aujourd’hui une contribution certaine au développement de ce marché.
La place de la protection sociale complémentaire prend également de l’importance au niveau de l’assurance. Le budget de la Sécurité sociale (en Santé et Prévoyance) est estimé à environ 290 milliards d'euros, mais le désengagement constant de cette dernière renforce la position des assureurs, des mutuelles et des IP et leur intérêt à développer cette activité tant en garanties individuelles que collectives.
Cette problématique économique se développe dans un contexte réglementaire très volatil, qui propose de nouvelles approches pour protéger l’assuré en garantissant la solvabilité de l’assureur. Les autorités proposent aux assureurs de repenser leur façon de quantifier leur engagement envers les assurés en analysant eux-mêmes les risques qu’ils acceptent, en établissant des profils de risque. Ils sont ainsi en mesure d'adopter des mesures défensives, cohérentes avec leurs risques (directive Solvabilité 2).
Les questions posées par le provisionnement de l’assurance collective
Quantifier les engagements de l’assureur est une fonction clé de l’assurance. Elle naît de l’inversion du cycle de production propre au domaine, mais également de la nature des risques que l’assureur doit couvrir. En effet, la plupart des risques ne permettent pas la liquidation de l’engagement de l’assureur en une fois. La charge étalée dans le temps devient inconnue et il en va de même pour les réserves associées à cette charge. Les méthodes de provisionnement répondent à ces particularités.
Afin de connaître les spécificités d’un risque et de mieux estimer les charges inconnues, il importe de décrire les contrats et garanties que proposent les contrats. Les garanties des contrats collectifs ont pour objectif de protéger la santé d’une personne salariée de l’entreprise. Ainsi, en cas de maladie et d’arrêt de travail, l’individu est remboursé de ses frais de santé et ne voit pas son salaire amputé. Ces contrats protègent également l’entourage du salarié : en cas de décès de ce dernier, les pertes pécuniaires de la famille sont amorties à travers le paiement de rentes au conjoint et aux enfants.
Afin d’estimer les montants des prestations futures liés à ces risques, il existe des méthodes de provisionnement utilisant les informations propres à l’assuré et des tables de mortalité d’expérience. Ces méthodes sont aujourd’hui très largement utilisées pour évaluer les engagements liés à l’assurance vie.
Mais dans leurs définitions, ces méthodes font toutes de lourdes hypothèses sur la nature des sinistres et la cadence avec laquelle les prestations seront réglées. En reproduisant systématiquement une erreur d’estimation, on risque donc de sous-estimer (ou surestimer) le montant de la provision totale.
Pour éviter cet écueil, l'étude se propose d'évaluer l’efficacité des méthodes actuarielles issues du provisionnement non-vie, appliquées à ces risques classés dans l’assurance vie. Cette approche atypique se place dans le cadre de l’analyse des risques et de leur quantification. En effet, cet exercice devient peu à peu une obligation pour toutes les entreprises d’assurances, du fait de la directive Solvabilité 2. L’approche suivie présente les outils capables d’évaluer les prévisions des garanties considérées et de quantifier certains risques associés au provisionnement. On s’est intéressé à comprendre le fonctionnement des méthodes, leurs hypothèses et leur cohérence avec les risques étudiés. La critique ne s’est pas portée uniquement sur le fruit des analyses, mais aussi sur la compréhension de celles-ci, de façon à cerner pourquoi certaines méthodes peuvent être inadaptées. La dernière étape propose au lecteur une confrontation entre l’étude et Solvabilité 2. En effet, il devient possible d’évaluer d’un point de vue non-vie les risques de primes et de réserves. La quantification de ces risques est proposée dans le mémoire.
Hypothèses sur la méthode de calcul des provisions
Les méthodes qui ont été appliquées ne dérogent pas aux règles des méthodes statistiques. Ainsi, nous verrons que plus le passé est régulier, meilleure est l’estimation. En effet, si on observe une aggravation de la sinistralité une année donnée, la projection à court ou long terme percevra cette anomalie et la reproduira à tort pour l’avenir, car un événement exceptionnel n’est pas censé être cyclique.
Il faut supposer que le présent et le futur sont structurellement peu différents du passé. Les éventuelles caractéristiques du passé, qui sont encore vraies au présent, doivent se retrouver dans le futur.
Il faut également que le risque considéré soit peu volatil (séparation des sinistres récurrents et des sinistres exceptionnels par des seuils ou par des retraitements). Cette idée sous-entend qu’il faut retraiter les triangles en enlevant les événements non représentatifs ou marginaux. En outre, gage de fiabilité de l'estimation, les données doivent être nombreuses. Nous verrons que les mesures d’erreur se réduisent à un minimum lorsque le nombre de données augmente (référence à la loi des grands nombres).
Le nombre ne suffit pas. La cohérence est une clé dans l’étude d’un risque : il faut donc que les données soient fiables. Réglementairement comme opérationnellement, les entreprises d’assurances s’attachent à ce que leurs données soient justes et complètes. Ainsi, une anomalie d’alimentation du système d’information sur une année peut engendrer des erreurs d’estimation et remettre en cause la pertinence du triangle de liquidation des provisions considéré.
Ces règles tiennent compte aussi de l’activité de l’entreprise, qui peut influencer le règlement des sinistres et leurs montants. L’entreprise souhaite naturellement se développer. Les évolutions du portefeuille sont donc à prendre en compte, parmi lesquelles l’acquisition de nouvelles affaires (croissance du portefeuille, franchises, nouvelles garanties, etc.) ou les cessions ou acquisitions d’un réseau commercial induisant un changement de « clientèle type » à contrat constant. Les évolutions des politiques de souscription changent également à court terme le montant des prestations. Une compagnie pourra par exemple délaisser un segment de clientèle pour sécuriser son portefeuille et voir ainsi apparaître une modification des volumes de sinistres. Les évolutions de la tarification induisent aussi des modifications de la clientèle. Ce type d’évolution pourra être observé bientôt lorsque la suppression du « genre » comme critère de tarification des contrats d’assurance non-vie sera mise en vigueur et s’appliquera aux contrats d’assurance auto souscrits par les femmes.
Les évolutions de la politique de gestion des sinistres changent aussi la donne : l’embauche de nouveaux gestionnaires, l’optimisation de la gestion par les outils informatiques (workflow, rappels automatiques) peuvent réduire considérablement les cadences de règlement des dossiers ouverts.
Enfin, des modifications de la comptabilité, comme un changement d’affectation des sinistres, peuvent changer les périmètres d’analyse et ainsi modifier complètement la structure des triangles de liquidation des provisions.
Des facteurs externes jouent également, comme les évolutions des pratiques de marché. Par exemple, les contrats et leur gestion peuvent être modifiés avec le lancement des conventions de règlement ou de nouvelles offres – comme l’assistance téléphonique ou la garantie des pannes mécaniques – qui modifient les pratiques de marché et donc les cadences de règlement, les évolutions réglementaires, jurisprudentielles et comptables, comme la loi Évin en assurance collective, qui a imposé des maintiens de garanties en cas de cessation d’activité salariée impliquant une dotation supplémentaire aux provisions, ou plus récemment la réforme des retraites, qui a produit le même effet sur les provisions d’incapacité et d’invalidité en allongeant la durée d’activité.
En pratique, tous ces facteurs viennent modifier les analyses et donc les prédictions ainsi que les conditions d’application des méthodes statistiques. Toutefois, compte tenu de l’objectif poursuivi (calculs de Best Estimate, prudence subjective, etc.), les calculs effectués resteront pertinents dans le sens où la valeur obtenue sera toujours associée à un intervalle de confiance ou à sa volatilité.
Les méthodes décrites ci-dessous admettent des hypothèses importantes qu’il est nécessaire de valider avec une marge d'erreur minimale. Les méthodes statistiques (déterministes) qui sont présentées ont pour objectif de déterminer un estimateur du niveau de provision nécessaire, mais ne fourniront pas une distribution de probabilité des réserves. Pour cela, il faudra utiliser des méthodes stochastiques, c'est-à-dire mettant en jeu des notions de probabilités.
L’étude de provisionnement avec les méthodes non-vie
Sur la base des contrats d’assurance collective souscrits par une entreprise d’assurances (le nom en est conservé), l’étude s’attache à comparer deux triangles de liquidation composés de 10 années d’expérience et calculés suivant les méthodes de provisionnement non-vie :
- le premier présente les capitaux décès réglés, les rentes de conjoint et d’éducation ;
- le second présente les rentes d’incapacité et d’invalidité.
Les méthodes déterministes
La première étape consiste à observer les cadences de règlement année par année, afin de voir si celles-ci sont régulières. Cette première étude a montré que les deux triangles étaient plutôt stables, en particulier les risques incapacité et invalidité. Une exclusion de facteur a été faite sur le triangle décès.
Le cheminement a été fait en partant des méthodes les plus communes et les plus simples vers les méthodes plus complexes.
Les méthodes les plus communément utilisées sont les méthodes dites déterministes, car elles sont une succession d’opérations simples qui mènent à un seul et unique résultat.
Les méthodes link ratio, comme le Chain Ladder, s’intéressent aux liens que peuvent avoir les règlements entre eux, en particulier en ce qui concerne la cadence. On effectue dans le cas du Chain Ladder un rapport des montants d’une année sur l’autre et on suppose que l’année suivante (inconnue) sera proportionnelle au passé. Cette méthode est très utilisée, mais elle présente un inconvénient pour les branches longues, par exemple si les années antérieures (au-delà de 10 ans) ne sont pas consolidées. Cette méthode suppose également que les paiements sont linéaires.
Les résultats obtenus par cette méthode montrent une très large sous-estimation des réserves décès et rentes. Nous avons également effectué une étude graphique en essayant d’analyser la linéarité des prestations cumulées. L’estimation d’une droite de régression passant par les paiements d’une année N en fonction de ceux de l’année N+1 montre systématiquement des termes constants non nuls. L’espoir n’est donc pas perdu, l’hypothèse de linéarité n’est simplement pas suffisamment respectée.
Les résultats obtenus sur le triangle incapacité/invalidité sont nettement meilleurs. Nous arrivons à une réserve équivalente à 82,1 % de la provision mathématique évaluée par valeur actuelle probable (technique « vie »). Le résultat est d’autant plus encourageant qu’à 10 ans, la liquidation des sinistres n’est pas totale et qu’il faut déterminer un facteur de queue. La meilleure estimation de ce facteur a été faite par une régression de type « puissance ». Avec ce facteur de queue, la provision calculée par Chain Ladder est équivalente à 99,6 % de la provision mathématique réelle, ce qui est excellent.
L’étude se poursuit sur la possibilité de corriger le terme constant non nul (l’intercept pour les puristes) observé sur le test de linéarité des prestations décès et rentes. La méthode adoptée prend comme hypothèse que les prestations suivent une progression affine (linéaires avec un terme constant non nul), comme nos prestations décès. Il s’agit de la méthode London Chain.
Bien que supérieure au montant observé par la méthode Chain Ladder, la méthode London Chain donne pour le risque décès une provision largement sous-estimée. La réflexion nous mène à suggérer que la nature des risques étudiés ainsi que les facteurs internes à l’entreprise (en particulier les acquisitions de plus petites structures les années passées) sont la cause de l’échec.
En revanche, pour les risques incapacité et invalidité, la méthode répond très bien en proposant un montant de réserves proche de la réalité, que l’on retrouve même légèrement surestimé avec le facteur de queue.
Afin d’apporter à l’étude un point de vue déterministe plus précis, lié aux méthodes, il a été proposé d’introduire une méthode captant plus d’informations que les deux précédentes. La méthode de De Vylder est une méthode dite factorielle : elle a pour principe de décomposer les paiements incrémentaux en produit de deux facteurs censés capter les tendances des années de développement et des années d’accidents. Cette méthode se veut plus complète que les deux premières, car elle intègre plus de paramètres et reproduit donc plus d’informations.
Comme on pouvait s’y attendre, la décomposition des paiements incrémentaux du triangle décès fonctionne, mais la provision obtenue est une nouvelle fois sous-estimée. Ce risque, même associé aux rentes, semble trop erratique pour suivre une quelconque tendance.
En revanche, les résultats obtenus sur le triangle des prestations incapacité et invalidité sont très bons – la provision obtenue est globalement égale au montant des provisions mathématiques calculées par les méthodes vie – et nous laissent très optimistes pour la suite de l’étude.
Les méthodes stochastiques
Ces méthodes sont ainsi dénommées pour la simple raison qu’elles considèrent que les paiements sont assimilables à des variables aléatoires. Cette approche va permettre d’utiliser un grand nombre d’outils issus des probabilités pour enrichir l’étude et les résultats.
Le modèle de Mack a été le premier à proposer une estimation de la volatilité des réserves du modèle Chain Ladder. L’idée est d’obtenir une information sur l’erreur que l’on commet en estimant le montant restant à payer (la provision) en fonction de l’expérience du passé.
Cette méthode étant fondée sur la méthode Chain Ladder, il est normal d’obtenir un montant de provision égal à la précédente évaluation. Cependant, il est possible de dire si l’estimation est de qualité suffisante.
L’application de cette méthode au triangle des prestations décès confirme une erreur importante sur les réserves calculées. Ce résultat montre que la provision totale calculée est correcte à +/- 18,03 %. Nous avons vu que le Chain Ladder estimait un montant de provision pour ce risque à 28,6 % de la valeur réelle. Même en prenant en compte l’erreur d’estimation calculée par les méthodes stochastiques, l’écart est trop grand pour être justifié.
L’évaluation de l’estimation de l’erreur pour le triangle incapacité et invalidité donne un résultat très bon et encourageant. L’erreur est estimée à 4,8 % avec une provision calculée très proche de la réalité.
Ces résultats optimistes poussent à poursuivre l’étude vers une méthode plus robuste, basée sur des simulations. La méthode Bootstrap se fonde sur un ré-échantillonnage des données. Elle permet d’obtenir non pas un Best Estimate mais une quantité suffisante de Best Estimate pour déterminer une distribution des réserves. La méthode sous-jacente est toujours la méthode Chain Ladder et les résultats seront en moyenne du même ordre que ceux observés jusqu’alors.
Provisionnement non-vie des collectives et Solvabilité 2
L’évaluation de la solvabilité d’un assureur est aujourd’hui très simple. Par des méthodes grossières mais robustes, une compagnie peut déterminer son besoin en capital pour se couvrir réglementairement face aux risques qu’elle possède : la marge de solvabilité est un pourcentage des primes ou des sinistres rapportés aux fonds propres évalués en valeur historique.
Solvabilité 2 propose une évaluation par profil de risque : l’idée est de mesurer le besoin en capital qu’il serait nécessaire d’avoir si des scénarios critiques se produisaient, sur la base d’un besoin de capital défini pour chaque risque souscrit au passif ou assumé à l’actif.
Cette mesure se fait au travers des probabilités et en particulier, des distributions des risques étudiés. La méthode Bootstrap a l’avantage de conduire directement à l’obtention de la distribution des réserves des risques décès et incapacité/invalidité. La méthodologie non-vie utilisée nous conduit donc à évaluer le risque de réserve des garanties étudiées, dans le sens attendu par Solvabilité 2.
Les résultats du Bootstrap nous ont permis de déterminer les éléments permettant d’obtenir le coût nécessaire pour absorber 99,5 % des scénarios menant à une sinistralité (et donc une dotation de réserve) que ne pourrait pas assumer la compagnie. L’étude compare également le coût nécessaire, calculé à l’aide des résultats des méthodes déterministes, et le gain apporté par le modèle basé sur le Bootstrap (stochastiques). Le gain observé est très important sur le risque de réserve.
Le risque de prime a également été évalué (moins rigoureusement que le risque de réserve). La différence entre formule standard et modèle interne s’inverse. Le calcul standard donne en effet (et presque dans les mêmes volumes) une économie sur le modèle interne.
Conclusion
L’étude a montré que certains risques associés à la vie pourraient correctement être traités par les méthodes de provisionnement non-vie et se soustraire à la grande quantité d’informations (tables, informations sur la personne, etc.) qu’il est nécessaire d’avoir pour déterminer une valeur actuelle probable en vie.
Le provisionnement non-vie offre des outils efficaces et l’application de ces méthodes aux risques vie n’a rien d’absurde à partir du moment où les hypothèses d’applications se trouvent être validées. Il est également possible de généraliser le fait que l’étude répondra d’autant mieux que la branche étudiée se comporte comme un risque assez court, à prestations peu volatiles et assez fréquentes.
Les directions de pilotage des activités d’assurance collective doivent associer aujourd’hui une connaissance opérationnelle du domaine et une expertise dans l’analyse des comptes, dans la surveillance des portefeuilles et dans l’évaluation des provisions. Les contraintes associées à cette activité poussent également les directions de souscription et d’indemnisation à revoir régulièrement leurs politiques, afin d’affiner la composition des portefeuilles à mutualiser un maximum de phénomènes.
En réalité, il n’est pas possible d’ignorer l’information des tables d’expérience, avec la méthodologie du BCAC et des tables de mortalité pour tarifer les garanties collectives et pour en évaluer les provisions. Il est également clair que les méthodes de provisionnement non-vie ont leurs faiblesses (risque de reproduire des épisodes de sinistralité ponctuels, possibilité de lisser des données pour améliorer la crédibilité des résultats), donnant des résultats toujours discutables.
Ce caractère discutable peut cependant être vu comme un atout, car dans un contexte réglementaire très volatil, les études associées à Solvabilité 2 sont d’autant plus intéressantes et fiables que le problème est géré par l’application de méthodologies diverses affinant les résultats et permettant de les commenter :
- les équipes assurant le calcul de la solvabilité et la modélisation des risques utilisent ces méthodes stochastiques pour la quantification des risques. Elles pourraient étendre l’application de ces méthodes à l’ensemble des risques souscrits par leur compagnie ;
- l’inventaire et la mesure des engagements, l’application des méthodes déterministes pour l’évaluation des provisions mais également stochastiques permettent de garder une vue sur l’erreur et sur l’avenir des risques souscrits ;
- le pilotage opérationnel peut également se servir de ces méthodes pour anticiper les évolutions de portefeuille ou encore critiquer et souligner les anomalies diverses (sur/sous-provisionnement, sur/sous-tarification, erreur de souscription, etc.).