Cet article appartient au dossier : ENASS Papers 9.

Données

Le Big Data modifie le visage de l'assurance

Les technologies, méthodes et informations regroupées sous le vocable Big Data se diffusent dans le secteur de l'assurance. Elle entraînent de profonds changements dans la façon de pratiquer cette activité .

L'auteur

Revue de l'article

Cet article est extrait de
Banque & Stratégie n°336

ENASS Papers 9

Selon deux chercheurs américains de Microsoft, Danah Boyd et Kate Crawford, le Big Data se définit comme une sorte d’interaction entre des notions culturelles, technologiques et scientifiques. C’est « la croyance répandue que les grandes bases de données offrent une forme d’intelligence et d’accès à la connaissance supérieure qui permettent de générer des hypothèses auxquelles on n’aurait pas pensé, avec une aura de vérité, d’objectivité et de précision [1] ». Entre croyance, réalité et dangers où est la vérité en ce qui concerne l’application du Big Data dans l’assurance ?

Une définition du terme Big Data

Le Big Data est un mécanisme de traitement de données auquel sont associés les 3 V : volume, variété et vélocité.

Le volume : le nombre de données à traiter est en constante expansion.

La variété, car il ne s’agit plus de données normalisées. Les données sont devenues de nature atypique : elles peuvent être des données structurées, semi-structurées, non structurées ou même être des « méta data », c’est-à-dire des données relatives à des données (données relatives à une image : poids, date…).

La vélocité, les données devant être traitées et manipulées selon une certaine contrainte de temps : ici, l’échelle n’est pas en termes de seconde mais de microseconde. De plus, dans un monde en perpétuel changement, s’ajoute une contrainte de gestion de flux. On parle alors de « scalabilité » : c’est-à-dire que les machines qui traitent les données doivent s’adapter en temps réel aux flux variables de données qui arrivent.

Le Big Data représente aussi une rupture dans la manière de structurer les données et dans les outils utilisés pour y parvenir. En effet, les données vont être structurées selon l’outil Hadoop (outil principalement utilisé à l’heure actuelle). Hadoop se définit comme un framework, c’est-à-dire un ensemble utilisant divers outils en vue d’une meilleure productivité. Hadoop se constitue en deux outils principaux : Hadoop HDFS d’une part et Hadoop Mapreduce d’autre part. Hadoop HDFS est en quelque sorte un système qui permet le stockage d’un très gros volume de données sur un grand nombre de machines équipées de disques banalisés. Ce processus permet ainsi de faire abstraction du système de stockage physique. On peut donc traiter et stocker de façon plus efficace les données comme si elles étaient gérées par une seule machine sur un seul disque. Hadoop Mapreduce permet de traiter les données et de réaliser des calculs parallèles sur ces données pour en obtenir des résultats concluants.

Le Big Data : un changement majeur

L’enjeu majeur auquel un assureur est confronté est celui de connaître le mieux possible le risque qu’il va souscrire. Cependant, à cause du faible nombre de données en sa possession, l’assureur est contraint de travailler sur un nombre de dimensions réduites et donc sur un nombre de variables restreintes, lesquelles vont déterminer les éléments clés pour mieux appréhender le risque, et d’éviter tout risque d’aléa moral et d’anti-sélection. Or, avec le Big Data, c’est la fin de cette contrainte, plus communément appelée le « Curse of dimensionality ». En effet, grâce au nombre important de données de différentes natures, le Big Data offre la possibilité d’accéder à de nouvelles dimensions, d’exploiter de nouvelles variables et donc de déceler des nouvelles relations entre ces variables mais aussi des corrélations insoupçonnées. L’information étant disponible en abondance et son traitement rendu possible, l’assureur a la possibilité de mieux appréhender son risque et il peut résoudre les problèmes relatifs à l’aléa moral et à l’anti-sélection.

On comprend ici à quel point la donnée représente un enjeu majeur en termes de rentabilité.

Application du Big Data à l’assurance

Le Big Data apporte plusieurs avancées.

Une meilleure tarification grâce à une segmentation plus efficiente et la possibilité de créer de nouvelles offres

Le Big Data permet d’avoir accès à de nouvelles informations et donc de pouvoir tarifer un produit d’assurance selon de nouveaux critères jugés plus pertinents et donc de proposer aux clients de nouvelles offres de produits. C’est ce qui peut être réalisé notamment en assurance auto avec le « Pay how you drive ». En effet, ce produit fonde sa tarification sur un nouveau critère : la façon de conduire. Grâce aux nouveaux outils technologiques mis en place, un nombre considérable d’informations est recueilli, traité afin de ne retenir que les critères déterminants, ce qui permet d’affiner la tarification et de mieux segmenter les assurés selon le risque qu’ils représentent en termes de conduite effective.

Captation de nouveaux clients et fidélisation

Grâce au Big Data, l’assureur peut avoir accès à des informations déterminantes sur l’assuré. En effet, grâce au nombre de données que le client potentiel laisse sur le web, les sociétés d’assurance pourraient avoir accès à l’historique des achats du client (voiture, produits d’assurance, immobilier…), des produits que ce dernier à consulter, mais aussi à ses données personnelles quand elles sont accessibles (commentaires, centres d’activité, lieux géographiques fréquentés et autres). Les entreprises ont aussi la possibilité de connaître le comportement du client sur le site de la société (pages fréquentées et durée de consultation). Toutes ces informations combinées et retraitées permettraient d’effectuer un regroupement des clients selon des caractéristiques communes, appelé profiling. Ce système permet à l’entreprise de s’adapter au mieux aux besoins du client en termes de communication, produits, prix, services dans le but de nouer une communication durable et de qualité et ultra-personnalisée.

Le Big Data permet aussi de faire perdurer cette relation de qualité en alliant Big Data et marketing prédictif. Le marketing prédictif est une méthode qui consiste à partir d’un grand nombre de données passées ou actuelles de toute nature dans le but de créer des modélisations des futurs comportements des assurés afin de déterminer les indicateurs relatifs au risque d’attrition c’est-à-dire au risque de résiliation potentiel.

La création de meilleurs systèmes de détection des fraudes

Rappelons que de par sa nature le secteur de l’assurance est plus exposé aux risques de fraudes que certains domaines d’activité : l’assureur s’engage à fournir une prestation en cas de réalisation d’un risque couvert sans en connaître le coût total. Ainsi, il existe une asymétrie d’information entre le client et l’assureur qui peut avoir pour résultat la fraude à l’assurance. La fraude peut intervenir à deux moments du contrat : à la souscription ou au moment de la déclaration du sinistre. Ainsi, soit l’assuré cherche à cacher certains éléments représentant un risque supplémentaire et donc un coût de prime plus élevé, soit, l’assuré ment sur la façon dont s’est déroulé le sinistre afin d’obtenir une indemnisation indue ou majorée.

Actuellement, il est estimé en France que 25 % des demandes d’indemnisations ont un caractère frauduleux et cela se traduit par un surcoût moyen de 10 % des indemnités versées aux assurés et par conséquent des majorations de primes pour l’ensemble des assurés.

Pour améliorer la détection des fraudes, le Big Data peut se présenter comme une solution. En effet, les sociétés d’assurance possèdent suffisamment de données (rapports d’expertises, déclarations de sinistres, données relatives aux contrats d’assurance, informations relatives aux dossiers clients et des données fournies par l’ALFA) pour pouvoir utiliser des techniques de text mining, d’analyse prédictive et pour améliorer les techniques de scoring mises en place.

Le text mining consiste à analyser tous les mots contenus dans les documents du dossier d’indemnisation. Or, certains mots sont fréquemment utilisés par les fraudeurs, ils représentent donc des indicateurs potentiels de fraudes.

Une autre technique fondée sur l’analyse prédictive permet d’identifier les fraudeurs. L’analyse consiste en premier lieu à analyser les comportements passés et présents des assurés fraudeurs et des assurés non fraudeurs. Ensuite, en fonction de cette analyse, les comportements futurs des assurés sont modélisés et il est possible de déterminer la probabilité que l’assuré se livre à une fraude à l’assurance.

Par ailleurs, le Big Data, en donnant accès à plus d’informations, permet d’analyser de nouvelles variables mais aussi d’affiner l’analyse des variables traditionnelles qui rendent compte du phénomène de fraude. Cette amélioration a pour conséquence d’affiner le scoring des assurés (le principe de scoring vise à attribuer une note au profil de l’assuré quant à la probabilité qu’il soit fraudeur ou non fraudeur).

Amélioration de la gestion des sinistres

La technique retenue est principalement fondée sur la technique du text mining. À titre d’exemple, une compagnie d’assurances exploite et analyse les conversations des assurés sinistrés dans les médias sociaux et les appels téléphoniques passés aux plateformes de gestions de sinistres. En fonction des mots-clés choisis (qui reflètent le degré d’urgence de la situation) la compagnie va pouvoir différencier les situations prioritaires des secondaires afin de les traiter en priorité.

Une meilleure réponse aux exigences de solvabilité

Solvabilité 2 impose aux assureurs d’être en mesure de garantir la qualité des données et leur véracité dans les reportings qu’ils doivent remettre. L’entreprise, en utilisant le Big Data, peut vérifier si les données contenues dans ces reportings sont exhaustives et exactes grâce à des tests de cohérence (ou de vraisemblance). Ces tests visent à identifier par exemple si une même information fournie dans plusieurs tableaux est toujours identique.

Les dangers potentiels

L'arrivée du Big Data soulève certains problèmes.

Une remise en question des principes fondamentaux de l’assurance

L’arrivé du Big Data dans l’assurance peut modifier totalement la façon dont les acteurs considèrent l’assurance et la façon dont ils souscrivent les risques.

En effet, le Big Data pourrait remettre en cause le principe d’aléa, notamment avec la fiabilité considérable de l’analyse prédictive. Ainsi le risque et ses conséquences tarifaires seraient connus dans le temps et dans l’espace. Il remet aussi en question le principe de mutualisation : quel est l’intérêt pour celui qui sait qu’il n’aura de sinistre de payer une prime d’assurance afin de mutualiser ses risques avec d’autres ?

Beaucoup de sacrifices pour une rentabilité incertaine ?

L’instauration d’un laboratoire Big Data dans une compagnie d’assurances nécessite des investissements assez importants. Ces investissements sont de nature à la fois matérielle et humaine. Cela consiste à mettre en place un nombre suffisant de machines et aussi à se doter d’une équipe de data scientists pour mener à bien les projets de traitement de donnée. Une autre possibilité consisterait à externaliser le service vers une compagnie spécialisée dans le Big Data. De toutes les façons, qu’importe le système choisi, l’instauration du Big Data représente un investissement très coûteux qui ne promet pas évidemment un retour sur investissement certain. De plus, comme il l’a été constaté auparavant avec l’arrivée des nouvelles technologies, il y a toujours un risque à ce que le projet s’effondre et soit abandonné par la suite ou qu’il se révèle moins rentable qu’on ne le pensait. Cette possibilité est d’autant plus forte si l’on considère que les textes juridiques, visant à renforcer la protection des données à caractère personnel, peuvent constituer un frein à l’exploitation de ces données. Néanmoins, si l’on suppose que cet investissement est rentable, ne représente-t-il pas un danger vis-à-vis de la stabilité du marché et de ses acteurs ?

Une déstabilisation possible du marché de l’assurance

Si l’on part du principe que le Big Data représente un investissement rentable, il a pour conséquence de déstabiliser le marché de l’assurance d’une part à l’échelle microéconomique et d’autre part à l’échelle macroéconomique. En effet, concernant l’échelle microéconomique, les sociétés n’ayant pas eu les moyens d’accéder au Big Data (de façon directe ou indirecte via les sociétés de traitements de données) vont perdre en compétitivité et seront amenées à disparaître ou à être acquises par des acteurs plus puissants.

À l’échelle macroéconomique, tout dépend de la rapidité à intégrer et maîtriser les différents outils du Big Data de traitement des données pour se maintenir parmi les premiers sur le marché de l’assurance. Ainsi, comme l’a illustré Pierre Bellanger dans La Souveraineté numérique en prenant l’exemple de la France, pays en retard sur le plan de la maîtrise du Big Data, et des États-Unis, pays en avance, la France va payer son retard en devant recourir aux sociétés américaines de traitements de données, afin de rester compétitive. C’est d’ailleurs l’une des raisons pour lesquelles l’arrivée de Google était tant crainte par les compagnies d’assurance françaises.

Le Big Data semble donc à la fois porter beaucoup d’espoirs, exploration de nouvelles possibilités de faire de l’assurance et promesse de futurs profits. Mais, il est aussi générateur de beaucoup de craintes, notamment en ce qui concerne le montant des retours sur investissements. La pression des agences de notation, la perspective de voir Google vendre bientôt de l’assurance, la crainte du retard technologique sont probablement des incitations suffisantes pour que les grands assureurs s’engagent fortement dans l’utilisation des technologies Big Data.

Bibliographie
Commissariat général à la stratégie et à la prospective : Analyse des Big Data – Quels usages, quels défis ?
Optimind Winter : Big Data, Opportunité de demain pour les assureurs. La donnée en assurance : maîtrise et qualité au service de la performance opérationnelle
Livre blanc sur la qualité des données : (http://www.micropole.com/micropole/fr/fr-fr/file.cfm?contentid=1092)
Comportement culturel et données personnelles au cœur du Big Data
UBM : Managing the Data Deluge
Dossier de synthèse de la journée d’étude du Groupement français de l’industrie de l’information
Risques, les cahiers de l’assurance n° 95.
The economist : the data deluge.
Too BIG to IGNORE de Phil Simon.
La Souveraineté Numérique de Pierre Bellanger.

[1] http://virchowvillerme.eu/big-data-pour-la-petite-histoire/.

 

Sommaire du dossier

ENASS Papers 9

Sur le même sujet