Cet article appartient au dossier : ENASS Papers 5.

Gestion des données

Big Data, défis et opportunités pour les assureurs

Manne d'informations précieuses pour les assureurs, le Big Data continue toutefois de poser des questions éthiques. Même si la réglementation limite son exploitation, le Big Data révolutionne le métier d'assureur. Ainsi, la complémentaire santé pourrait disparaître.

data center

L'auteur

Revue de l'article

Cet article est extrait de
Banque & Stratégie n°315

ENASS PAPERS 5

Le 26 mars 2013 s’est tenu un important colloque [1] sur le sujet du Big Data, au cours duquel sont intervenus 36 orateurs. La nature même des sujets abordés et leur caractère majeur pour l’avenir de l’industrie de l’assurance nous ont paru mériter un court résumé [2], avant la publication exhaustive des travaux.

Vers une nouvelle science des risques

Pour définir le Big Data, Denis Kessler, P-DG de SCOR, se réfère à Wikipédia : « expression qui désigne des ensembles de données qui sont tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion des bases de données ». Les échanges de données via Internet devraient dépasser le Zettaoctet en 2016, soit 1021 octets ou 1 milliard de fois la capacité d’un disque dur domestique annuel. Mais ces données sont inorganisées, ce qui requiert de nouvelles méthodes de recueil, de stockage et d’analyse pour permettre leur utilisation.

Il note que la quantité de données est l’élément majeur de la fiabilité des statistiques, fondement de l’assurance, et que l’abondance et la qualité des données sont par conséquent des facteurs essentiels de différenciation compétitive pour les assureurs. Il imagine ce que peut devenir l’assurance dans le « monde merveilleux du Big Data » :

  • nouvelles méthodes de segmentation, et donc nouvelles méthodes de tarification ;
  • connaissance précise des habitudes (alimentaires, par exemple) des clients et inutilité probable des questionnaires de santé ;
  • amélioration de l’efficacité des campagnes publicitaires et de démarchage commercial des prospects ;
  • efficacité des messages de prévention « ciblés » ;
  • limitation du risque de fraude à l’assurance.

Le Big Data pourrait également modifier profondément le paysage concurrentiel du secteur, en remettant en cause la hiérarchie des compagnies existantes. Les fournisseurs de données vont chercher à s’approprier une part significative de la valeur, voire à devenir eux-mêmes assureurs, en soumettant les assureurs en place à une forte antisélection [3] de leur propre portefeuille.

À moins, bien sûr, que les réglementations ne viennent contrecarrer l’utilisation du Big Data, qu’il s’agisse des règles sur le respect de la vie privée ou de celles qui tendent à réduire les possibilités de segmentation considérées comme des discriminations (cf. la Cour de Justice européenne et la « discrimination » dans les tarifs auto fondés sur le genre). Que dire des perspectives de décryptage rapide et quasi gratuit du génome humain ? Pour l’heure, la réglementation en interdit l’usage, mais celui-ci modifierait en profondeur la souscription et la gestion des assurances vie et santé.

Du mythe à la réalité

Dans son intervention, Serge Abiteboul, directeur de recherche à l’INRIA, a voulu ramener les perspectives d’utilisation du Big Data à leur véritable mesure. Le « mythe » est que, grâce à des analyses de masse, les prédictions vont être beaucoup plus fines et que les grands problèmes de l’humanité (le cancer) vont être résolus. La réalité actuelle est plus triviale : recherche d’une efficacité commerciale accrue et augmentation de la puissance des États (surveillance de la criminalité, prévention des actions terroristes). Mais l’avenir pourrait être plus réjouissant : prévision et prévention des crises sanitaires, des catastrophes naturelles, des risques environnementaux, amélioration des systèmes de santé et de transport, suivi et accompagnement des personnes âgées et des élèves en difficulté.

L’intervenant décrit aussi les « revers » de cette amélioration de la connaissance : mes données personnelles (par exemple, mon génome) peuvent être consultées sur Internet, pour une somme de 100 dollars, les polices d’assurance santé vont être évidemment plus coûteuses, pour un nombre croissant de « risques aggravés », tandis que la qualité (et la taille) des mutualités diminuera. Donc il est urgent de prévoir l’anonymation des données personnelles, la définition de leurs conditions d’utilisation et la responsabilité légale de ceux qui les détiennent.

Pour Marc Atallah et Gontran Peubez, consultants de Deloitte, le Big Data dans l’assurance permet de dépasser la loi des grands nombres et de « marcher sur la crête » entre mutualisation et segmentation. Il offre la possibilité de « fouiller » un nombre considérable de données et de traiter les zones sous-exploitées de l’information sur les clients (les queues de distribution). Cette information est déterminante de grands changements dans la gestion de la distribution, l’amélioration de la rétention des clients, la tarification, la gestion des sinistres et la détection de la fraude. L’essentiel n’en demeure pas moins l’amélioration de l’efficacité commerciale. Celle-ci se fonde sur la connaissance de la sensibilité des clients aux actions commerciales et aux actions de prévention fondées sur l’augmentation de la fidélité des clients par l’identification de ceux qui peuvent, veulent ou envisagent de résilier leurs contrats.

Un outil de modélisation prédictive

Gérard Karsenti, P-DG d’HP France, fait le constat du taux de croissance de l’information mondiale (59 %), mais aussi de la faible capacité des data centers à utiliser la masse, la croissance et la complexité de l’information : 85 % en seraient incapables. Or les nouvelles sources d’information sont nombreuses (vidéo, audio, mails, textos, mobiles, documents, images). Encore faut-il traiter le volume, la variété, la complexité et le faire rapidement (vélocité de l’information).

Deux médias sont déterminants pour les assureurs : d’une part, les « capteurs » [4] pour l’assurance au kilomètre, la connaissance des risques, la recherche des produits volés, les réseaux sociaux pour la rénovation du marketing, de l’approche et de la fidélisation du client. Ainsi, les assureurs pourront-ils mieux communiquer avec leurs clients et mieux « délivrer » (conformité des produits avec les attentes, meilleure identification des cibles de clientèle). Encore faut-il disposer des bons outils pour structurer l’information, sélectionner les informations utiles… bref, garder des objectifs de développement du chiffre d’affaires.
Jules Constantinou, Head of Marketing, Underwriting and Claims chez Gen Re Life UK, ne dit pas autre chose. Le Big Data est un outil de modélisation prédictive, comme le montre l’exemple des recherches sur les causes de résiliation des contrats d’assurance Vie. Mais il considère que cette utilisation peut être étendue à la presque totalité des activités d’assurance : la tarification, la souscription, le marketing, les efforts de fidélisation, la gestion des sinistres et la détection de la fraude. Jean-Michel Lasry, CEO de MFG LAbs, illustre le propos sur les découvertes en marketing que permet l’exploitation des « relations d’amitié » en matière de tourisme ou de fréquentation des salles de cinéma.

C’est bien en effet, comme le proposait le titre de la table ronde, « une nouvelle science du risque », où la qualité de la prédiction s’appuie sur l’ampleur des informations disponibles (et définies comme appropriées et dûment traitées) qui s’instaure, à condition de pouvoir (et savoir) gérer cette masse nouvelle et croissante d’informations.

Que peuvent craindre ou espérer les assureurs du Big Data ?

Eric Brat et Stephan Heydorn, Senior Partners du Boston Consulting Group, rappellent que le Big Data se caractérise par le volume, la variété, la rapidité et la complexité des informations collectées. Ils identifient, comme d’autres orateurs, cinq domaines dans lesquels ces données sont utilisables par les assureurs :

  • la création de produits : étude du marché, développement des nouveaux produits, connaissance du risque et tarification ;
  • le marketing : possibilités énormes de segmentation, de cross selling, de prévention des résiliations et plus généralement, de gestion des campagnes commerciales ;
  • la souscription : le Big Data assure une bonne connaissance et gestion des demandes du client ;
  • les sinistres et les rachats : le Big Data oriente la prévention, la lutte contre la fraude et la gestion efficace de la chaîne de traitement des intervenants (experts, réseaux de soins, réparateurs agréés) ;
  • la modélisation des risques dans la gestion des actifs : deux exemples illustrent l’amélioration substentielle apportée par le Big Data, d’une part la modélisation des sinistres dommages, d’autre part la connaissance du risque de pertes de récoltes en assurance agricole.

Nelly Brossard, DG d’Amaguiz, montre comment la seconde offre de « Pay as you drive » (assurance au kilomètre) d’Amaguiz a été conçue, en utilisant des « capteurs » sur les véhicules.

François-Xavier Albouy (directeur de la Prospective et du Développement international de Malakoff-Médéric) et Marianne Binst (DG de Santéclair) esquissent les révolutions qui s’annoncent dans le monde médical : connaissance des maladies orphelines, approche génomique du cancer. Le Big Data nous fait entrer dans le domaine de la « médecine prédictive ».
Sylvain Coriat, directeur des Assurances de personnes d’Allianz, se montre plus sceptique sur la situation actuelle : les clients sont encore très mal connus et même si la révolution des réseaux sociaux est avérée, il est douteux que l’on puisse aller très loin dans l’utilisation des données. D’une façon générale, les préoccupations éthiques demeurent majeures et limitent les possibilités d’utilisation de données personnelles, notamment dans le domaine de la santé.

Christophe Eberlé, président d’Optimind Winter, souligne le rôle des actuaires qui « font du Big Data depuis longtemps, sans le savoir ». Mais le Big Data pourrait être le « deuxième Big Bang » pour les actuaires, après celui de la segmentation. Il leur appartient de modéliser sur la base de données dont ils doivent vérifier la qualité (fraîcheur, cohérence, exhaustivité). Mais ils peuvent le faire dans le respect de normes éthiques sur l’anonymat des données, au contraire des analystes prédictifs et des spécialistes du marketing. Enfin, il leur appartient de rechercher la meilleure mutualisation possible du risque et de gérer l’équilibre des risques dans les mutualités constituées par la souscription. C’est le retour sur la « ligne de crête » entre segmentation et mutualisation des risques sur laquelle doit cheminer la science actuarielle. Bref, l’actuaire de demain, sous Solvabilité 2, apparaît non plus comme un producteur de données, mais comme un certificateur de la qualité, de la pertinence des données et un vérificateur de leur usage. À cet égard, il devient le correspondant de l’ACP sur les questions de conformité (compliance) dans le recueil et l’usage du Big Data. Il devient un « commissaire aux données », comme il existe des « commissaires aux comptes ».

Les enseignements des premières applications

Pour Laurent Alexandre, P-DG de DNAvision, en 2020, 80 % des données de santé seront génétiques et les technologies se développent de façon effrénée. En 2013, le génome d’un million de personnes est séquencé, mais les professionnels de santé ne semblent pas préparés à cette évolution. Le médecin du futur s’occupera surtout d’éthique, dès lors que la médecine sera largement prédictive. Pour les assureurs santé, l’avenir est sombre, puisque le risque santé ne sera pratiquement plus aléatoire : l’orateur considère donc que l’assurance complémentaire santé est morte. Il laisse entendre surtout que l’Europe, sous contrainte d’éthique, laisse dans ce domaine le champ libre aux États-Unis qui maîtrisent complètement le cloud computing. Les préoccupations éthiques pourraient ainsi contrarier le développement de l’utilisation du Big Data en Europe, au détriment éventuel de notre performance tant médicale qu’assurancielle.

Éric Biernat, Manager Assurances chez Octo Technology, s’intéresse lui aussi aux perspectives qu’ouvre Internet pour prédire le niveau des dépenses de santé (notamment celles liées à la grippe), pour améliorer le contenu des produits d’assurance, voire pour accroître le niveau de l’épargne.

Robert Chu, président d’IMS Health France, étudie les données médicales sous conditions éthiques, recueillies auprès des pharmacies. Il en tire des analyses des besoins de remboursement des clients, des modalités de pilotage des risques, des orientations pour les politiques de prévention, des prédictions sur le coût de remplacement des médicaments retirés de la vente (« pilules » contraceptives de troisième et quatrième génération).

Mouloud Dey, directeur des Solutions et Marchés émergents chez SAS, rappelle tout de même qu’aujourd’hui, 80 % des données collectées sont inutilisées, mais comme nombre d’autres intervenants, il note que le Big Data est d’ores et déjà utilisé en marketing (micro-segmentation) pour :

  • générer des tarifications à la demande, en fonction de la taille de la consommation ;
  • la gestion des sinistres ;
  • simuler les risques de résiliation et les ressorts de la fidélité du client ;
  • détecter la fraude.

Thierry Kieffer (Business Developer Finance, Exalead, Dassault Systems) s’intéresse à la customer intelligence, qui permet de visualiser l’information sur le client et d’identifier les « signaux faibles » de la clientèle, pour mieux piloter les réseaux commerciaux. Le Big Data est ici présenté comme un formidable outil de connaissance du client et de ses fournisseurs.

Le futur cadre réglementaire

Le Ministre Arnaud Montebourg a rappelé l’importance du sujet au regard des libertés publiques (sécurité personnelle) et de la propriété des données. Les données sont une matière première économique qui doit être exploitée là où elle est produite. Google tend, selon lui, à organiser une forme de « pillage économique » qu’il faut contrôler. Par ailleurs, les grands acteurs du Big Data tendent à localiser leurs « usines » dans les pays où la réglementation est la moins exigeante (« forum shopping »). Cela ne doit pas inciter les Pouvoirs publics français à relâcher leur vigilance sur la protection des personnes et de la propriété des données économiques. Il a annoncé le soutien du gouvernement à sept projets (sur onze sélectionnés dans un appel à projets de 2012) qui contribuent à l’émergence du Big Data en France.

François Ewald a décrit l’ensemble du contexte légal réglementaire et contractuel dans lequel l’assurance évolue pour pouvoir utiliser les sources de données : le Droit du contrat d’assurance, le Droit des sociétés, le Droit de la santé et de la Sécurité Sociale, les libertés publiques (« la CNIL est le deuxième régulateur de l’assurance »), le Droit pénal (les discriminations), le Droit communautaire et les règles internationales (ONU).

Soupçon de discrimination

Il constate que le législateur a interdit l’accès des assureurs aux données liées à la génomique et que le régulateur a défini les données dont l’assureur a besoin pour faire son métier (en auto, en multi-risques Habitation, en santé, notamment) : il a donc pris une responsabilité de définition de la quantité limitée d’informations utilisables, qui est d’ordre public. Cette démarche se trouve renforcée par la question, aujourd’hui devenue majeure, de la non-discrimination, qui peut battre en brèche l’idée que les assureurs utilisent certaines informations sur les personnes, à seule fin de tarification. Big Data contribue à soupçonner les assureurs de vouloir discriminer et exclure : Big Data serait ainsi le Big Brother des assureurs. Ce à quoi ceux-ci peuvent répondre que Big Data réduit l’asymétrie d’information, hantise des assureurs menacés d’antisélection ou d’« aléa moral ».

Romain Paserot, directeur de la direction des Contrôles spécialisés et transversaux de l’ACP, considère que les assureurs n’ont, de fait, pas le choix d’accepter ou non d’utiliser le Big Data. Ils se trouvent nécessairement en position de devoir l’accepter et l’Autorité de contrôle prudentiel (ACP) devra en soutenir le développement au profit de l’assurance. Cette perspective renforce le défi de la conformité (compliance) inscrit dans la directive Solvabilité 2, sur le recueil et l’utilisation des données. Ces sujets sont clairement dans la compétence de l’ACP, qui doit veiller à la bonne gestion du Big Data par les assureurs.

Augustin Landier, professeur à Toulouse School of Economics, revient sur la théorie de l’assurance et notamment sur l’asymétrie d’information et l’« aléa moral », en rappelant que « trop d’information », conduisant à une sélection forte, peut détruire la mutualisation. Avec le Big Data et la disponibilité d’informations, l’assureur peut développer une réelle politique de prévention. Mais les assurés choisiront mieux leurs contrats, en fonction de besoins mieux connus de part et d’autre : les contrats seront plus longs et plus complexes. La démutualisation sera forte et les assureurs risquent de voir les « bons risques » leur échapper ou devoir les assurer à très bas prix.

Vers une concentration du marché ?

Christian Babusiaux, président de l’Institut des données de santé, considère que les données de santé sont un immense domaine peu exploré, mais dont la complexité ne doit pas être sous-évaluée. Les limites juridiques à la communication des données sont finalement simples : les données anonymisées sont légalement accessibles et elles permettent de réaliser des avancées majeures dans le domaine de l’assurance. Encore faut-il que les assureurs y consentent des investissements lourds, ce qui suppose une concentration du marché où travaillent 70 assureurs santé proposant plus de 1 000 types de contrats. Il y a donc un pari industriel à faire. Quant aux Pouvoirs publics, deux courants de pensée s’affrontent sur le sujet de l’accès aux données : celui de l’ouverture et celui de l’attitude défensive des instances de Sécurité Sociale.

Sur la diffusion des données publiques, Henri Verdier, directeur d’Etalab, souligne la volonté de transparence de l’État et son intérêt pour accélérer la distribution des données publiques. Pour lui, les données sont désormais un nouveau « code » de nos sociétés et n’ont pas besoin d’être personnelles pour être utiles ; les entreprises françaises n’ont pas de « culture » du traitement des données, les décisions sont souvent prises sans analyse préalable des données et les questions politiques de leur recueil et de leur gestion ne sont pas aujourd’hui tranchées.

Isabelle Falque-Pierrotin, présidente de la CNIL, indique d’abord qu’il n’existe pas de cadre conceptuel pour gérer le Big Data (et en restreindre ou contrôler l’usage), mais que les données (et notamment les données personnelles) sont dans le secteur économique et qu’elles sont donc un élément de compétitivité et de concurrence. Les questions qui sont posées à la CNIL par le Big Data sont très délicates. L’anonymat des données devient difficile à garantir dans le Big Data. Les données de l’Internet relationnel (Web 2.O.) ne sont normalement pas destinées à être utilisées, mais elles le seront. Le Big Data est « logé » dans le cloud computing, très aisément pénétrable par des organisations étrangères, notamment américaines, ce qui pose des questions de sécurité. Le législateur n’a pas tranché sur l’accès aux bases de données publiques et, sans cette autorisation législative, le régulateur ne peut rien.

Instaurer un dialogue entre la CNIL et l’ACP

Dès lors, la démarche de la CNIL est pragmatique, itérative et collaborative. Elle surveille étroitement les questions de concurrence dans l’excès et l’emploi des données. Elle met la protection de l’individu au centre du débat : chacun doit garder la maîtrise de ses données et doit pouvoir récupérer celles détenues par un tiers (par exemple un assureur). Enfin, la présidente de la CNIL souhaite qu’une collaboration s’ouvre avec l’ACP (régulateur des assurances) pour définir une position commune, sur un cadre réglementaire plus lisible et partagé par les deux autorités.
François Ewald a conclu ce colloque en montrant l’ampleur des enjeux technologiques et assurantiels du Big Data, tant au niveau théorique (segmentation-mutualisation) qu’organisationnel (marketing, conception des produits, gestion des contrats). Il a surtout relevé les difficultés liées au cadre réglementaire (anonymat), à l’éthique (les données de santé, le génome humain), voire au contexte géopolitique (exploitation de données économiques et commerciales par des acteurs économiques étrangers).

[1] Ce colloque a été organisé par F. Ewald, sous le parrainage de la SCOR, de l’Institut des actuaires français, de l’IFPASS et de l’Institut des sciences financières et actuarielles de Lyon (ISFA).

[2] Cet article ne prétend pas constituer les actes de ce colloque. Les positions exprimées par les intervenants ne les engagent pas : elles résultent des notes prises au cours des exposés et n’engagent par conséquent que l’auteur de celles-ci, qui demande par avance l’indulgence des orateurs. À noter que toutes les interventions n’ont pas été reprises.

[3] L’expression « antisélection » désigne les dysfonctionnements des marchés d’assurance qui résultent de l’information cachée dont les assurés peuvent disposer sur leurs propres risques et qui n’est pas accessible aux assureurs.

[4] Géolocalisation et boîtiers de contrôle du kilométrage parcouru.

 

Sommaire du dossier

ENASS Papers 5

Articles du(des) même(s) auteur(s)

Sur le même sujet