En assurance, l’indemnisation traditionnelle est basée sur l’évaluation précise du dommage subi par l’assuré. Dans le cas des catastrophes naturelles, un important travail d’expertise doit être mis en œuvre pour déterminer le montant des pertes. Outre le fait d’engendrer d’importants frais de gestion, le délai d’indemnisation peut se révéler important pour l’assuré, retardant d’autant la reconstruction.
L’assurance paramétrique substitue à ce mécanisme le principe d’une compensation forfaitaire quasi immédiate, car basée sur un indice (ou paramètre), calculable dans les instants qui suivent l’événement. On n’indemnise donc pas exactement sur la base de la perte obtenue, mais sur une approximation, une estimation effectuée à partir des informations disponibles. Les frais de gestion sont réduits, car l’expertise n’est plus nécessaire. Ce gain de compétitivité, auquel s’ajoute une meilleure maîtrise de ces pertes pour l’assureur (car, en choisissant l’indice, il est possible de limiter la volatilité du résultat), explique pourquoi cette solution est souvent mise en avant comme un recours face à des risques mal couverts, notamment dans les perspectives mises en avant par la Direction Générale du Trésor dans son rapport de septembre 2022 sur le développement de l’assurance cyber.
Pas de marché si l’indemnisation est trop faible
Le prix à payer pour la fluidité de cette procédure, c’est l’introduction d’un risque de base, vu comme la différence entre la perte réelle de l’assuré et le montant finalement perçu, puisque ce dernier n’en est qu’une approximation (inférieure à la perte réelle, sauf cas exceptionnels, pour éviter l’enrichissement sans cause). Plusieurs exemples de situations où l’indice conduit à une forte sous-indemnisation (voire à une absence d’indemnisation) sont de nature à susciter la méfiance de la part des assurés.
Or, pour être viable (avant même d’être rentable) du point de vue de l’assureur, un contrat d’assurance paramétrique doit rencontrer son public, car le mécanisme de mutualisation ne peut fonctionner qu’avec un portefeuille suffisamment fourni. L’assurance ne fonctionne en effet que si la loi des grands nombres s’applique, permettant d’absorber la volatilité du risque via le fait que les bons résultats de la majorité des contrats compensent les fortes pertes subies sur un faible nombre d’entre eux. Atteindre une taille critique ne peut se faire que si la couverture paramétrique démontre son efficacité pour répondre aux besoins des assurés, générant ainsi une demande suffisante.
Concilier le meilleur des deux mondes
À travers nos travaux, nous considérons la combinaison optimale d’assurance paramétrique et d’assurance traditionnelle. Ce schéma vise à tirer le meilleur des deux mondes : indemniser rapidement via la couverture paramétrique, mais contrôler le risque de base en réservant le processus d’expertise et de compensation traditionnelle aux situations où l’indice éprouve des difficultés à approcher convenablement la perte subie. Cette optimisation se fait sous une double contrainte : répondre aux attentes de l’assuré, en assurant un compromis entre vitesse d’indemnisation, et qualité d’approximation de la perte ; générer une demande suffisante, permettant d’atteindre un bon niveau de mutualisation.
Concernant les attentes de l’assuré, il s’agit tout d’abord de modéliser son comportement via des fonctions d’utilité adaptées au problème. Celles-ci jouent un rôle crucial dans la conception de la partie indicielle du produit. La construction d’un paramètre est en effet un problème statistique : on dispose d’informations (qu’elles soient sous forme de données structurées, ou sous forme plus complexe comme des images satellites) et on cherche à prédire, à partir de ces variables, la valeur d’une perte économique. Les méthodes d’intelligence artificielle (IA) sont particulièrement intéressantes pour atteindre un meilleur niveau de précision, malgré des difficultés d’interprétation et de communication du résultat. Elles nécessitent au préalable de définir l’objectif, de leur fournir un critère quantitatif à optimiser avant de lancer leur calibration.
Réduire le risque de base pour attirer
la demande
Nous proposons ainsi de modifier les critères de performance habituels qui sont utilisés pour juger de la qualité des méthodes d’IA. Parmi les paramètres ainsi construits, l’idée est de privilégier ceux qui réduisent fortement le risque de base dans les situations où l’assuré en a le plus besoin, quitte à tolérer une perte de qualité dans les cas les moins importants. Cette approche permet également de déterminer quelles sont les situations (définies via des plages de valeurs prises par l’indice introduit dans le contrat) où l’indemnisation traditionnelle sera préférée, malgré son délai plus important avant la compensation.
Cette approche vise, dès sa conception, à maximiser la demande, en créant un produit d’assurance le plus attractif possible. Malgré tout, il n’est pas établi que cette demande est suffisante. C’est là que la prise en compte de l’effet mutualisation devient nécessaire. Dans cette deuxième phase, c’est également le prix de la couverture qui entre en jeu, et notamment le taux de chargement qui est appliqué à la prime pure (c’est-à-dire à la perte moyenne associée à un contrat).
Ce chargement est notamment destiné à couvrir les frais de gestion en cas de sinistre. De ce point de vue, l’assurance paramétrique (et donc le produit que nous appelons « hybride » développé suivant notre méthodologie) part avec un avantage. Nécessiter moins de mobilisation d’expert accroît la compétitivité financière. En revanche, le chargement est également d’origine prudentielle. Il vient en effet constituer une réserve permettant de faire face aux scénarios défavorables. Plus le portefeuille est petit, moins le principe de mutualisation s’applique, et le chargement dit de « sécurité » augmente, car il n’y a pas assuré pour contribuer à la constitution de la réserve.
Dès lors, un cercle vicieux peut se mettre en place : un nombre trop faible d’assurés nécessitera d’accroître le chargement, rendant ainsi moins compétitif le produit, et entraînant la diminution du nombre d’assurés. Nos travaux visent à déterminer des critères permettant de détecter ce genre de situations, et de les anticiper.
Comment gérer le risque d’accumulation
Il peut néanmoins être difficile de mesurer cette capacité à mutualiser, car au-delà de la simple question du nombre, il faut aussi identifier des éventuelles corrélations entre les risques assurés. Les assurances paramétriques sont en effet très sensibles au risque d’accumulation. La raison tient essentiellement aux types de risques traditionnellement couverts par ces produits. Dans le domaine climatique, ou dans le domaine cyber, certains événements massifs peuvent entraîner des sinistres simultanés chez un grand nombre d’assurés. C’est le cas si une inondation frappe une région entière, et que le portefeuille n’est pas suffisamment diversifié géographiquement. C’est également le cas si une défaillance d’un fournisseur de solutions numériques frappe une part significative d’un portefeuille.
Pour prendre en compte cet aspect, il faut donc considérer d’une part un régime standard, celui où les assurés sont indépendants et où l’assurance, qu’elle soit paramétrique ou non, fonctionne bien grâce à un mécanisme de mutualisation efficace ; d’autre part un régime catastrophe, qu’on peut voir de façon simplifier comme un scénario de stress du régime standard, qui vient fragiliser la viabilité économique du portefeuille.
La question de l’assurance paramétrique et de sa viabilité touche en réalité des problématiques plus vastes que ce qu’on pourrait voir comme des produits sophistiqués réservés à un marché de niche. Il s’agit en effet d’utiliser des données afin de mettre en place un mécanisme rapide de réponse à un incident donné. Ici, cette réponse est financière. Mais le problème se transporte à la mobilisation de ressources humaines pour faire face à une catastrophe. De fait, certaines compagnies d’assurance pratiquent déjà une forme de paramétrique déguisé, quand elles proposent, après une catastrophe, une indemnisation forfaitaire à un certain nombre de leurs assurés plutôt que d’initier des centaines d’expertises supplémentaires – à la différence que l’assuré bénéficie le plus souvent de la possibilité de renoncer à cette indemnisation rapide pour une expertise plus précise. Certains événements naturels, comme la sécheresse et son impact sur le phénomène de retrait-gonflement des argiles, sont d’ores et déjà caractérisés via des indices comme le SSWI (Standardized Soil Wetness Index).
Les assurés restent à séduire
Nos travaux visent donc plus généralement à construire des systèmes de réponse à incident qui permettent de satisfaire au mieux les besoins de protection des assurés. Avec la nécessité de modéliser les comportements et les attentes, parmi lesquelles celle de mesurer et de modéliser le risque afin de l’anticiper, notamment avec des techniques d’IA. Enfin, avec le besoin de réconcilier l’approche individuelle (ce que voit l’assuré) avec la vision collective que représentent le portefeuille d’assurance et sa nécessaire solvabilité.
Outre leurs aspects techniques, ces approches requièrent une veille toujours plus attentive sur les données disponibles pour atteindre une meilleure compréhension du risque. Elles nécessitent également pédagogie et efforts de communication afin de permettre aux assurés et au grand public d’adhérer à ces solutions.