Opportunité

Les mégadonnées, un défi pour l’assurance ?

Créé le

05.10.2021

La société de l’information produit et collecte des données variées, à un rythme rapide et en grande quantité, qui constituent autant d' « actifs » (assets) pour ceux qui savent les recueillir et les traiter. L’industrie de l’assurance pourrait en tirer bénéfice. Au prix d'une révolution du modèle d’affaires qui ne va pas sans obstacles théoriques, réglementaires, voire d’organisation.

Les mégadonnées (le big data) sont définies par le Gartner Group [1] comme « high volume, high velocity and high variety information assets that demand cost effective, innovative forms of information processing for enhanced insight, and decision making » [2] . La société de l’information produit et collecte des données variées, à un rythme rapide, en grande quantité, à travers de nombreux canaux, qui constituent des « actifs » (assets) pour ceux qui savent les recueillir et les traiter. Désormais, la technologie permet cette exploitation par les acteurs économiques pour qui les données (surtout si elles sont gratuites) sont précieuses, notamment pour interpréter, comprendre, prévoir les attitudes des consommateurs ou l’évolution des risques de toute nature.

Les banquiers et les assureurs sont les principaux intéressés par l’exploitation de cette richesse nouvelle en données de toutes sortes. Les acteurs en place travaillent à développer l’information processing (traitement de l’information), mais les collecteurs (plus ou moins propriétaires de ces données), conscients de l’intérêt de ces nouvelles et considérables ressources en information, pourraient descendre vers l’aval de la chaîne de production et devenir des acteurs de la commercialisation et de la gestion de produits de risques, dont ils gèrent la matière première. Les GAFAM, producteurs de « bauxite » (les données), pourraient devenir les métallurgistes de l’aluminium assuranciel.

Des données toujours plus nombreuses et de qualité

Les métiers de garantie des risques sont fondés sur l’exploitation des données personnelles et de marché. Plus ces données sont abondantes, meilleure est l’appréciation du risque. Les mégadonnées sont donc un apport majeur à l’industrie de l’assurance. Sur cette toile de fond, il importe de qualifier les mégadonnées pour en cerner l’utilité :

– les mégadonnées proviennent des nouvelles technologies et, surtout, de la diffusion, très large dans le public, de nombreux outils de communication ou de gestion dont l’objectif visible n’est pas le plus souvent la collecte des données. Le paiement par carte bancaire, le péage automatique du trajet d’autoroute, les outils de l’internet des objets, qui informent leur utilisateur de son rythme cardiaque et du nombre de pas qu’il accomplit chaque jour, les diverses contributions-utilisations des réseaux sociaux ne sont qu’accessoirement des instruments de recueil de données. Ils n’en sont pas moins des sources de big data. La digitalisation des relations commerciales avec les prestataires de services, aussi importante soit elle pour la qualité du service, n’est qu’une source d’alimentation du big data, elle n’a pas celui-ci pour finalité ;

– les mégadonnées sont de gros volume, d’une grande variété et très volatiles. Elles requièrent donc non seulement des capacités considérables de stockage (le cloud), mais aussi, et surtout, des capacités d’analyse, d’où le lien qui est fait avec l’intelligence artificielle, ensemble des méthodes d’extraction de l’information pertinente. Elles imposent surtout un développement dans les entreprises de compétences qui permettent de savoir « ce que l’on cherche » dans la masse de données et d’interpréter les informations jugées pertinentes. Les évolutions du marché résultent parfois d’informations à bas bruit que les Data Scientists détectent et interprètent (ou non).

Les assureurs bien placés

Face au « trésor des Incas » des mégadonnées, l’assurance et les services financiers sont, en principe, dans une situation ambivalente :

– d’un côté, leurs systèmes d’information sont structurellement et réglementairement orientés contrats (ou comptes), avec de faibles possibilités d’agréger l’information autour de la notion de « client ». C’est inéluctable : Solvency II [3] impose la séparation des « entités » entre vie et non-vie et calcule le capital requis (Solvency Capital Requirement – SCR) par line of business (secteur d’activité). Les mégadonnées concentrent une information sur le client, particulier ou entreprise, dans la globalité de son activité – santé, auto, épargne, etc. L’utilisation des mégadonnées requiert donc une révolution copernicienne dans l’approche du risque ;

– d’un autre côté, l’assurance, presque partout dans le monde, est familière de la segmentation de la chaîne de production : marketing stratégique, conception de produits, distribution, tarification, gestion des contrats, gestion des actifs, cession ou transfert des risques. Cette segmentation, qui peut donner lieu à la sous-traitance de certaines fonctions à des entreprises tierces, est propice à l’analyse de l’apport du big data à chacun des segments de la chaîne de valeur.

Une révolution du modèle d’affaires

Enfin, et c’est un élément majeur de cette toile de fond, les professions du risque ont longtemps considéré que leur connaissance des risques, via les données historiques accumulées, constituait une efficace barrière à l’entrée sur le marché. En quelques années, l’apparition de puissants collecteurs de données, dont la compétence en matière de gestion-interprétation de celles-ci s’est affirmée rapidement dans le domaine commercial, leur apporte de plus en plus une énorme compétence dans la connaissance du risque. L’entretien d’un véhicule par un concessionnaire automobile en dit évidemment plus sur le mode de conduite du client que le vieux coefficient de réduction-majoration, dit bonus-malus, et que l’ancienneté du permis de conduire. La barrière à l’entrée non seulement n’existe plus, mais la disponibilité de mégadonnées donne un avantage compétitif considérable au nouvel entrant.

L’apparition des mégadonnées et l’organisation de compétences de gestion-interprétation constituent effectivement une révolution du modèle d’affaires des professions du risque. Elle met les acteurs traditionnels au défi de créer les conditions de recueil de ces données, de trouver les compétences pour les gérer (les interpréter) et de rénover en profondeur l’ensemble de leurs systèmes d’information. Et surtout, elle ouvre la voie à de nouveaux entrants de toutes natures : les habituelles GAFAM, mais aussi des « assurtechs », créateurs et/ou vendeurs de nouveaux produits ou process de gestion, à tous les stades du processus de production.

Tous les segments de l’activité sont touchés

La révolution big data touche tous les segments de l’activité. Les plus immédiatement concernés sont les activités de marketing. Désormais, le marketing stratégique est presque une science exacte : la connaissance des besoins du client, la segmentation de la clientèle, la life time value (la « valeur vie ») du client atteignent des niveaux de précision élevés. Le démarchage de la clientèle est grandement facilité : on ne proposera plus des produits retraite à des personnes du 3e âge. Il en est de même pour la conception des produits eux-mêmes. Les fastidieux questionnaires de risque, toujours ambigus, sont amenés à disparaître, et jusqu’au symbolique bonus-malus. Le pay how you drive est concevable, de même que des produits de prévoyance très adaptés aux besoins du client. Pour des raisons réglementaires, il est toutefois probable que la santé, au moins en France, échappe durablement à cette révolution, la protection des données privées et le refus de la sélection constituant des obstacles aujourd’hui dirimants.

La tarification et la souscription sont victimes de l’asymétrie d’information entre le preneur de risque et son client. La révolution big data pourrait être redoutable dans ces domaines. La connaissance du risque industriel (et notamment sa composante de responsabilité civile produits et environnementale) peut être telle que l’aléa s’en trouve réduit à l’événement catastrophique exceptionnel. La segmentation fine de catégories de risques de particuliers peut faire basculer les modèles de tarification d’une logique de mutualisation, donc de risque tarifé au coût moyen historique d’un large segment de la population (les « non-fumeurs », les « bonus 50 »), à une tarification sur la valeur actuarielle du risque, prospective et établie sur des éventualités très restreintes.

La gestion des contrats, en particulier des sinistres, peut connaître des évolutions majeures. On sait que l’intelligence artificielle permet la gestion automatique des nombreux sinistres de particuliers (automobile, multirisque habitation, individuelle accidents, indemnités journalières). Les mégadonnées permettent de prévoir les coûts d’indemnisation probables de la plupart des sinistres graves de biens et des personnes dans le plus grand nombre des branches d’assurance.

Enfin, le big data est fréquemment considéré, notamment dans le monde anglo-saxon, comme une arme absolue dans la détection de la fraude, voire dans l’établissement de soupçons de démarche frauduleuse, et l’exclusion du client potentiel.

Il n’est donc pas exagéré de considérer que le big data représente une révolution dans la conduite des affaires, à chaque stade des processus industriels. C’est d’ailleurs ce qui permet de n’appliquer ces méthodes qu’à certains segments de la production : le marketing stratégique est, sans doute, le plus immédiat, mais des assurtechs proposent des processus de gestion sur des aspects particuliers de l’activité : garanties, vol de biens précieux, vérification pré-souscription de la qualité des processus de prévention dans le domaine industriel, évaluation de la cybersécurité des systèmes d’information du client, etc.

Quand même quelques obstacles

Cette révolution du modèle d’affaires ne va pas sans obstacles théoriques, réglementaires, voire d’organisation. Sur le plan théorique, l’inversion de l’asymétrie d’information et la tarification prospective sur la base du coût du risque pose plusieurs questions :

– l’assurance n’est plus (ou presque plus) affaire de mutualisation, d’équilibre des portefeuilles, voire de dispersion ou diversification du risque. Même si la distinction d’avec les régimes publics de garantie qui seraient fondés sur la redistribution, tandis que l’assurance chercherait par la segmentation une sorte de « juste prix », est classique, l’assurance, fondée sur le coût moyen des sinistres, donc mutualisatrice des risques, opère une redistribution entre « bons » et « mauvais » risques. Cette mutualisation pourrait disparaître ;

– il en résulte logiquement que le coût actuariel du risque peut être considéré comme trop élevé par une certaine catégorie de clients, ce qui augmente le renoncement à l’assurance (insurance gap), qui peut être dramatique en cas d’accidents graves – tempêtes, etc. ;

– l’assureur peut également développer des logiques soit de sélection drastique des risques, soit d’exclusion de certains risques. Le marché passerait ainsi de la crainte de « l’anti-sélection » à l’exclusion excessive des risques pour cause d’inassurabilité. Le sujet est sensible, surtout depuis la pandémie de Covid, que d’aucuns ont un peu vite qualifiée d’inassurable. Il serait paradoxal qu’un accroissement sans précédent de la connaissance intrinsèque des risques se traduise par une diminution de l’engagement des preneurs de risques sur leur marché, mais ce n’est pas impossible.

Des points de vigilance

La réglementation est d’ores et déjà vigilante :

– dans certains domaines spécifiques (assurance emprunteur, catastrophes naturelles, tempêtes, construction), la réglementation vise à limiter le plus possible l’exclusion et introduit, par divers biais, une police de la tarification. Avec les nombreuses obligations d’assurance, en France, s’institue une sorte d’obligation d’assurer, voire de droit à l’assurance. On aperçoit les polémiques que peut susciter une connaissance intrinsèque accrue de la nature et de la probabilité du risque, face à une demande d’assurance généralisée ;

– le Règlement européen sur la protection des données (RGPD) institue un régime complexe de confidentialité des données et d’organisation de celles-ci (privacy by design). Très largement consacré à la protection des données de santé, le texte est conservateur quant à la possibilité de développer des traitements de mégadonnées. Reste la notion de consentement du client et la prospérité de réseaux sociaux dont l’utilisation est bien difficile à restreindre.

Quant aux conséquences sur l’organisation du marché, nous savons combien les majors de la collecte de données rechignent à devenir producteurs d’assurance, sans doute au regard du niveau élevé des fonds propres nécessaires face à la rentabilité attendue. Nous avons vu que les assurtechs sont désormais inscrites dans le paysage et sont, sans doute, les utilisateurs des mégadonnées les plus actifs, notamment dans le marketing. Il est probable que le grand courtage et les courtiers grossistes travaillent activement à développer (à rénover) une offre de produits. Nous avons dit que l’ensemble des activités d’expertise avant souscription est un domaine d’élection de l’utilisation des mégadonnées. Les besoins, notamment en matière de cyber-risque, sont considérables, surtout si se construisent des bases de données solides et transparentes sur les événements cyber.

Une révolution et un défi

Enfin, les mégadonnées sont une révolution dans les domaines de l’emploi et des métiers. Le développement des métiers de Data Scientists et l’évolution prévisible de l’actuariat vers de nouvelles approches de la tarification (les algorithmes prédictifs) sont en cours. Les métiers de gestion de contrats vont nécessairement évoluer, sans parler des métiers de marketing, déjà en pleine évolution.

Le big data est un défi pour les métiers du risque et, sans doute, plus une opportunité qu’une menace. Reste à savoir si la réglementation sera permissive ou plus conservatrice – l’Autorité européenne des assurances et des pensions professionnelles (EIOPA) répète à l’envi son mantra de « neutralité technologique ». C’est probablement le client qui sera, à terme, maître du jeu : les générations Facebook et les digital natives développent déjà des demandes de garanties nouvelles, tarifées au plus près du coût actuariel du risque et fortement tournées vers les services plus que vers l’indemnisation du dommage.

 

1 Marc Dupuis et Emmanuel Berthelé, « Le Big Data dans l’assurance », L’Argus de l’Assurance, collection « Les Essentiels », décembre 2014.
2 « Un gros volume, une grande vitesse et une grande variété d’actifs d’information, qui exigent des formes innovantes et rentables de traitement de cette information pour une meilleure compréhension et une meilleure prise de décision. »
3 Solvabilité 2 (Solvency II en anglais) est la réforme réglementaire européenne du monde de l'assurance. Dans la lignée de Bâle 2, son objectif est de mieux adapter les fonds propres exigés des compagnies d'assurance et de réassurance aux risques que celles-ci encourent dans leur activité.

À retrouver dans la revue
Banque et Stratégie Nº406
Notes :
1 Marc Dupuis et Emmanuel Berthelé, « Le Big Data dans l’assurance », L’Argus de l’Assurance, collection « Les Essentiels », décembre 2014.
2 « Un gros volume, une grande vitesse et une grande variété d’actifs d’information, qui exigent des formes innovantes et rentables de traitement de cette information pour une meilleure compréhension et une meilleure prise de décision. »
3 Solvabilité 2 (Solvency II en anglais) est la réforme réglementaire européenne du monde de l'assurance. Dans la lignée de Bâle 2, son objectif est de mieux adapter les fonds propres exigés des compagnies d'assurance et de réassurance aux risques que celles-ci encourent dans leur activité.