Les outils constitutifs du Big Data, tels que le Machine Learning et l’Open Data, introduisent un nouveau paradigme : ils permettent de concevoir des modèles prospectifs fondés sur l’identification de signaux faibles
Les leviers de l’univers digital
Données en libre accès et qualité des données : deux défis fondamentaux
Le secteur de l’assurance n’échappe pas au développement du Big Data. La masse considérable de données nouvelles créées, stockées, transférées, traitées et finalement transformées en information, pousse à reconsidérer les méthodes et les outils de tarification et de gestion des risques. Mais le libre accès aux données est indispensable au développement de l’Intelligence artificielle (IA) dans l’assurance. Pour compléter leurs modèles, les assureurs utilisent des données en libre accès tout en veillant à leur qualité.
Jusqu’à présent, un nombre relativement limité de données externes étaient nécessaires pour que l’assureur fasse son métier de gestionnaire des risques et de tarification. Les statistiques, les données de place, les informations économiques ainsi que des éléments sur les biens ou les personnes assurées permettent désormais d’appréhender et d’évaluer le risque plus finement. En cela, le Big Data représente une opportunité pour les assureurs d’introduire de nouveaux paramètres dans la connaissance, l’évaluation et la gestion du risque. Le PDG d’Atos
Outre une meilleure connaissance des comportements et mode de consommation des clients sur les aspects purement techniques de la prise de risques, les approches Big Data intégreront rapidement des données externes non directement liées à l’assuranciel. Cet apport des données externes, qui constitue un gisement de données non exploitées jusqu’à présent par l’assureur, deviendra la principale source de valeur liée à l’utilisation du Big Data. Il permettra de mettre en avant l’impact de divers facteurs exogènes sur les comportements des assurés.
La donnée, un actif comme un autre : les attentes des régulateurs sur la qualité des données
Solvabilité 2
Dans bien des cas, il ne sera pas nécessaire d’ajouter de strate organisationnelle lourde pour gérer les contrôles de qualité. Il sera possible et même préférable de venir « insérer » les activités de qualité des données dans l’existant. Il s’agira, avant tout, de mettre en place un process de pilotage qui récupère les bons indicateurs, via des systèmes de suivi d’activité existants : système qualité, suivi de performance et contrôle interne.
La qualité des données n’est rien d’autre qu’un dispositif classique de fiabilisation des activités opérationnelles, existantes et à venir.
Indiscutablement, la qualité des données gérées par l’assurance s’améliore d’année en année. Il y a de nombreuses explications à cette amélioration, mais la principale est en rapport avec l’existence du projet qualité des données (QDD) sous la directive Solvabilité 2. Jusqu’alors, il n’existait pas de référentiel donnant un cadre unique aux acteurs européens de l’assurance. Maintenant, législateur et assureurs parlent le même langage.
La monétisation des données : Value for Data
Pour l’assureur, la création de valeur réside dans l’application de méthodes d’analyse de données élaborées permettant de les contextualiser. Désormais, chacun mesure l’importance de valoriser les données. Même si elles n'ont pas toutes la même maturité technique ou stratégique par rapport à leur data, toutes les entreprises ont conscience de l’importance de l’acquisition et du traitement de données sur les clients. Lorsque l’usager tape une requête sur un moteur de recherche, il laisse des traces informationnelles qui sont son prolongement numérique et dont il devrait pouvoir maîtriser les usages ultérieurs. Ce n’est pas le cas. Il faut donc que les usagers réalisent la valeur des données qu’ils émettent et qu’ils puissent les contrôler et éventuellement en partager la valeur avec d’autres, selon des modalités à définir contractuellement.
L’application de l’IA est encore précoce. 82 % des assureurs se disent prêts à investir dans l’IA et ses dérivés technologiques au cours des cinq prochaines années. Cette technologie se caractérise par son aptitude à réaliser des tâches que l’homme est capable d’accomplir grâce son intelligence. Watson
Une nouvelle approche pour la tarification du risque
La tarification en assurance a pour objet de combattre le phénomène de sélection adverse liée à l’insuffisance d’information de l’assureur sur le risque proposé. Le traitement des données de masse permet de réduire ce phénomène, de mieux sélectionner et tarifer les risques et, enfin, de réduire les possibilités de fraude. Autrement dit, si l’assureur dispose de données fines, il est en mesure d’améliorer le zonage
La diminution de l’anti-sélection
Indéniablement, l’utilisation du Big Data permet une connaissance holistique du client. Il est alors légitime de s’interroger sur le devenir de la mutualisation et sur l’essence même de l’assurance : la prise de risque. La tarification à la personne (ou l’hyper segmentation) est contraire à la mutualisation des risques en assurance, mais elle permet à la fois de donner du contenu à la prévention et d’approcher une valeur du risque fondée sur la probabilité d’occurrence de sinistres.
Le champ d’opportunités techniques du Big Data est donc immense. Il offre une tarification plus fine, un meilleur ajustement des garanties et une estimation des risques en stock en instantané. Du côté du consommateur, il permet d’éviter les doubles garanties et de se convaincre qu’il dispose des garanties qui correspondent à ses besoins à un « juste prix » (pour lui).
Une mutualité en pleine mutation
La tendance à l’hyper segmentation et à la personnalisation des contrats pourrait mettre un terme à l’anti-sélection. A l’inverse, les avancées en matière de prédiction des risques font craindre une démutualisation des risques. Ce changement de paradigme entraînerait une remise en question de la nature même de l’assurance. Cependant, le poids des investissements nécessaires et l’obligation de porter les risques (même de médiocre qualité, comme en automobile), conduisent à modérer l’enthousiasme pour la tarification prospective.
Des modes de consommation en mutation
Vu sous l’angle du consommateur, le Big Data est une évolution favorable. Depuis le début des années 2000, la consommation ATAWAD
En 2019, l’industrie des logiciels ne propose plus que des licences d’utilisation de ses outils, alors que les forfaits illimités ne représentaient que 2 % des dépenses des ménages en 2007. Du côté de l’assurance, des stratégies collectives semblent émerger. L’exemple récent le plus marquant est l’e-constat automobile où les assureurs se sont rassemblés autour d’un projet commun. Il est désormais possible de remplir un constat à l’aide d’un smartphone, et de le transmettre automatiquement à son assureur en y joignant la position GPS du véhicule ou des photographies du sinistre.
Certes, ces nouveaux services sont plus complexes à mettre en œuvre mais certains sont déjà disponibles au sein d’applications proposées par les assureurs. Leur généralisation nécessitera une totale interconnexion entre le système d’information de l’assureur et l’e-constat, ce qui ne semble pas être le cas dans le format actuel. Tout en conservant le principe de mutualisation, fondement même de l’assurance, c’est une avancée en matière de gestion qui se profile via le Big Data pour les assurés et assureurs.
Une modification profonde des outils de marketing et de la consommation
Les clients sont de plus en plus écoutés. Leurs propositions sont prises en compte et permettent d’adapter les produits. C’est le phénomène de l’innovation participative ou crowd innovation. Le principe est simple, il consiste à demander des idées nouvelles sur des produits pour ensuite retenir les meilleures dans la construction du produit. Ford va même jusqu’à permettre l’accès aux API (Application Programming Interface) embarquées dans ses véhicules et donne la possibilité de les modifier.
Dans l’avenir, les consommateurs n'auront plus à s'adresser à une compagnie ou à un courtier pour souscrire à une assurance, celle-ci leur sera spontanément proposée lors des actes de la vie qui s'effectuent lors de la vente du bien. Par exemple, la signature d'un bail de location ou l'acquisition d'une résidence sont des moments clés auxquels les agents immobiliers ou les notaires intègreront une police adaptée et personnalisée lors de la transaction. Afin de concrétiser cette vision, la start-up américaine Lemonade prévoit de mettre ses services de souscription à la disposition de tous les partenaires qui le désirent. Ces derniers n'auront alors qu'à inclure quelques lignes de code dans leurs propres solutions pour établir un devis, conclure un contrat et enregistrer le paiement de la prime. Les applications sont fournies sous deux formes distinctes, l'une, très simple à incorporer, donnant accès à une assistante virtuelle qui prend en charge toutes les étapes de la relation, et l'autre, plus technique, permettant de maîtriser l'expérience client de bout en bout.
Objectif : « Data-driven »
Une entreprise « Data-driven »
Incontestablement, les GAFA
Vers des changements de paradigme assurantiel
L’émergence du Big Data portée par des algorithmes capables d’identifier des données efficientes et les utiliser quelle que soit leur source pousse les assureurs à s’interroger sur les principes de l’assurance : l’anti-sélection et l’assurabilité. Un bien est assurable si la création d’un contrat est financièrement viable, s’il est librement souscrit, s’il y a paiement d’une prime et s’il y a une indemnisation à la réalisation du risque. La tarification de la « prime pure »
L’arrivée du Big Data dans l’assurance pourrait modifier considérablement la façon dont les acteurs perçoivent l’assurance et la façon dont ils souscrivent et couvrent les risques. Plus précisément, le Big Data pourrait remettre en cause le principe de l’aléa nécessaire, notamment avec la fiabilité apportée par l’analyse prédictive. De ce fait, la collecte de données étant toujours plus précise, le risque et ses conséquences tarifaires seront connus dans le temps et dans l’espace. La question est évidemment cruciale pour les assurances de Santé, où la « prédictivité » est redoutée des clients et des praticiens.
L’aléa pourrait devenir le grand perdant de cette évolution dans la mesure où les analyses prédictives pointues pourront anticiper et prévenir sa survenance, au moins dans la grande majorité des cas.
Dès l’apparition du Big Data en assurance, de nombreux acteurs se sont empressés de pousser la réflexion à ses limites en dépeignant un marché de l’assurance où les tarifs seraient totalement individualisés et où certains assurés sortiraient de l’assurance du fait d’une incapacité à payer des primes d’assurance exorbitantes.
En revanche, l’aspect positif du Big Data est que la disponibilité d’informations permet à l’assureur de développer une réelle politique de prévention. De leurs côtés, les assurés auront un choix plus éclairé vis-à-vis de leurs contrats. Les contrats seront plus longs et plus complexes car les besoins seront mieux connus de part et d’autre. La démutualisation sera forte et les assureurs risquent de voir les « bons risques » leur échapper ou de devoir les assurer à un tarif très faible et difficile à supporter pour leurs frais généraux.
A moins que la réglementation ne vienne neutraliser l’utilisation du Big Data, les mesures peuvent porter sur le respect de la vie privée (RGPD) ou sur la segmentation (cf. l’interdiction de la sélection dans l’AERAS
Pourtant, si la probabilité est de mieux en mieux connue, le caractère aléatoire du contrat d’assurance reste toujours pertinent. La valeur ajoutée du contrat d’assurance résidera en amont de la tarification, dans l’identification des besoins, des risques déjà assurés et le degré d’aversion du client au risque. L’enjeu sera de passer d’un schéma indemnitaire à une combinaison de services et de prévention, et donc, à terme, de réinventer une partie du fonctionnement intrinsèque de l’assurance. Le Big Data peut ainsi modifier profondément le paysage concurrentiel du secteur, en remettant en cause la hiérarchie des compagnies existantes. Les fournisseurs de données peuvent, en effet, chercher à s’approprier une partie significative de la valeur ou se transformer eux-mêmes en assureurs, en soumettant les assureurs historiques à une forte anti-sélection de leur propre portefeuille.
L’impact sur les métiers
Une nouvelle science des risques est en train de naître de cette révolution méthodologique que sont les projets Big Data. De nouvelles méthodologies, mais aussi de nouveaux métiers tels que les Data scientist, les architectes Big Data, les experts en Data visualisation ou encore les Chief Data Officers (CDO) émergent. Ces nouvelles professions développent l’exploitation du Big Data dans les compagnies d’assurance.
Fonction émergente sur le marché, les CDO sont responsables de la maîtrise des données. Ils sont chargés, sur le long terme, du maintien et du développement continu du dispositif établi dans le cadre du projet « qualité de données » de Solvabilité 2. Les compétences des CDOdoivent être multiples et de haut niveau car il leur faut être présents sur des zones opérationnelles, fonctionnelles et managériales. Ils doivent avoir une expertise en Technologie de l’Information (acronyme anglais : IT), mais également de réelles compétences métiers propres à l’Assurance. Si ce rôle est à l’heure actuelle largement centré sur des problématiques de gouvernance (liées au RGPD), il est amené, à terme, à évoluer vers le « data management »
Leur principal rôle sera d’accompagner la transformation Data en s'impliquant dans les projets majeurs, et en participant activement à la conception, la priorisation, la valorisation et la sécurisation de la donnée dans les entreprises d’assurance. Une fois les données du périmètre Solvabilité 2 fiabilisées, les CDO travailleront sur les données externes puis, à long terme, sur le perfectionnement des indicateurs de pilotage de l’entreprise. Cela signifie que les CDO seront positionnés à un niveau élevé dans les organisations d’assurance, voire directement au Comité Exécutif. Transversalement, leur positionnement hiérarchique permettra d’agir sur toutes les fonctions et tous les métiers de l’entreprise.
L’ACPR rappelle que « le responsable d’une fonction clé
Les nouveaux modes d’évaluation des risques
L’évolution en cours, généralisée à l’ensemble des secteurs, devrait affecter le secteur de l’assurance à trois niveaux.
l’ouverture du secteur aux entreprises issues de la business intelligence non assurantielle est possible. Cela introduira des méthodologies utilisées dans d’autres secteurs. L’absence de compétence assurantielle ne sera pas nécessairement un frein à l’arrivée de tels acteurs. La mise en œuvre d’approches Big Data nécessite une vision disruptive sur de nombreux processus qui touchent au marketing et à la distribution, voire à la conception des produits ;
– les stratégies organisationnelles à mettre en œuvre pour tirer profit des nouvelles approches sont déjà inscrites dans les diverses réglementations (Solvency II, RGPD, DDA, notamment) ;
– la recherche de la taille critique nécessaire pour exploiter les ressources du Big Data devrait promouvoir la consolidation du secteur.
En matière de Risk Management, la Robotic Process Automation (RPA) est une méthode émergente qui permet d’automatiser les tâches récurrentes au niveau des fonctions de « back office ». La RPA est destinée à jouer un rôle essentiel dans l’évaluation et le contrôle des risques de demain. L’analyse des données apportées par le Big Data permet d’effectuer un travail de vigilance sur la concentration des risques. Le cas d’une surexposition aux inondations, comme ce fut le cas à Lourdes en 2013, deviendrait évitable par le biais d’une meilleure évaluation et une meilleure dispersion du risque. Le partage du risque est seul utilisable dans l’exemple de Lourdes, puisque le système légal français des catastrophes naturelles exclut toute discrimination sur le taux de prime et toute exclusion.
La connaissance du risque quasiment holistique qu’offre le Big Data permet aux assureurs d’agir sur les évènements pouvant survenir, pour limiter les conséquences. Ce changement de paradigme aura des conséquences sur les business models des assureurs historiques. Les business models actuels sont fondés sur l’interprétation du marché et le positionnement stratégique de l’entité sur son marché. Ils génèrent des décisions radicalement opposées de la part des dirigeants. L’analyse des réalités statistiques offertes par le Big Data compte moins que l’intime conviction des dirigeants.
Alors qu’elle devrait nourrir l’ensemble des fonctions de l’entreprise et assister les décisions stratégiques de nos entreprises, la data est encore assimilée aux directions des Systèmes d’Information. Pour réussir leur stratégie data, les entreprises d’assurances devront investir en ressources intellectuelles et informatiques afin de tirer profit des données abondantes. Cette démarche qualitative permettra de devenir « Data-driven » et d’adopter des stratégies fondées uniquement sur les données observées.
À l’égal de la stratégie de la maitrise des risques, la stratégie « data driven » n’est envisageable que si elle est collective et comprise par l’ensemble des parties prenantes de l’entreprise. Cette intelligence collective passe notamment par la diffusion d’une « culture » de la data au sein de toute l’organisation mais aussi auprès des actionnaires. En effet, optimiser la qualité et la quantité des données ne permettra pas de devenir une entreprise « Data-driven » si le management et la communication efficaces ne l’accompagnent pas.
Le Big Data donne lieu à une reconsidération par les compagnies d’assurance de leurs grands principes de mutualisation des risques et de leur chaîne de valeur. Jusqu’ici, l’assurance était dépendante des données historiques, statistiques et agrégées. Désormais, l’accès en temps réel aux données comportementales et personnalisées peut créer de nouveaux produits individualisés, incluant davantage de prévention des risques. En contrepartie, cette immédiateté d’informations sur les clients permet aux nouveaux acteurs de mesurer avec précision le prix actuariel du risque et de calculer des primes « exactes ».
Ces nouvelles possibilités donnent naissance à un champ concurrentiel inédit, où de nouveaux entrants plus agiles, plus proches des clients et plus innovants peuvent transformer l’expérience d’achat de l’assurance. Ce marché était jusqu’ici dominé par les acteurs traditionnels avec une assise financière forte, garantissant avant tout la solvabilité et la sécurité à leurs clients. Pour les compagnies d’assurances historiques, le défi est donc de parvenir à développer des écosystèmes d’innovation exhaustifs pour faire émerger de nouveaux business models et capitaliser sur des partenariats avec de jeunes pousses innovantes ou en devenir actionnaires, le tout à l’échelle mondiale.
Conclusion
L’avènement des nouvelles technologies – que constituent le Machine Learning, l’IoT (Internet des objets), l’IA et les API – va modifier profondément le rapport au risque des assureurs. Les assureurs se préparent à une accessibilité d’informations en temps réel. L’apparition de ces nouvelles technologies répond au besoin de service immédiat et de transparence de la génération Z. Le mouvement de transformation digitale des acteurs traditionnels, soutenu par les AssurTechs, entraînera un bouleversement du business model et des métiers historiques de l’assurance.
La diversification des services à disposition de leurs clients, l’approche prédictive et la nouvelle mutualisation/segmentation des risques composent le triptyque de l’assurance de demain. Cette nouvelle donne peut paraître complexe dans un secteur où la réglementation pilote la plupart des processus. Cependant, si la majorité des réglementations sont construites pour protéger le client, bien exploiter les données pour mieux servir l’assuré est la plus efficiente forme de protection. Les outils du Big Data seront ainsi des outils majeurs de l’évolution du métier d’assureur, dans l’intérêt, in fine, de l’assuré.