Les réglementations bancaires et assurantielles (comme BCBS239, IFRS 9 ou encore Solvency 2) ont poussé les institutions financières à mettre en œuvre des dispositifs de gestion de la qualité des données. Si les réponses à ces réglementations ont entraîné la mise en œuvre de dispositifs plus ou moins poussés et ambitieux en fonction des acteurs concernés, les efforts entrepris ont tous été conséquents avec pour seul objectif la compliance.
Cependant, et en dépit du fait qu’il s’agisse d’une démarche de mise en conformité avec les attentes des régulateurs, il apparaît intéressant de se poser la question du retour sur investissement des efforts consentis. En effet, au-delà de l’apport qualitatif qui découle de la mise en qualité des données – décisions de gestion et pilotage basées sur des données exactes et exhaustives produites en temps et en heure entre autres, ce dispositif peut porter d’autres fruits et contribuer directement aux bénéfices métiers et à la maîtrise des risques.
Un dispositif de qualité des données, facteur de retour sur investissement
Pour valoriser la valeur ajoutée quantitative que le dispositif de gestion de la qualité des données peut apporter, il convient de le penser de manière plus globale, comme un instrument de mesure généralisé. En effet, dans sa forme complète, celui-ci doit être doté d’une capacité de monitoring dynamique de la qualité des données. Et les observations produites par cet instrument de mesure peuvent trouver de nombreuses applications.
En premier lieu, la mise en œuvre d’un dispositif de monitoring s’appuie sur les différents travaux généralement déjà initiés par les différents acteurs de la place : politique de gouvernance des données, dispositif organisationnel, inventaire des données et formalisation d’un dictionnaire de données (détaillant les caractéristiques des données concernées : données, définition, source, fréquences de mise à jour, responsabilités techniques et fonctionnelles…). Ces travaux constituent le socle pour construire un monitoring de la qualité des données, outillé, performant, souple et évolutif qui permette d’évaluer les données sur différents axes : format, exhaustivité et surtout cohérence. Cet outillage peut être élaboré en interne, directement par les équipes en charge du suivi de la qualité des données, ou bien des solutions autoporteuses existent par ailleurs, qui capitalisent sur leurs propres modèles de données et sont une bonne alternative pour les acteurs de taille plus réduite pour se doter d’un outillage performant pour superviser la qualité de leurs données.
Le monitoring de la cohérence des données – le format et l’exhaustivité sont par construction simples à mettre en œuvre – fait appel à des approches de machine learning, d’analytics et de data visualisation qui sont transposables efficacement d’une donnée/opération à l’autre. Cette capacité permet d’identifier rapidement les données/opérations qui s’éloignent de la norme inférée – via machine learning
Cette identification des données ou d’opérations incohérentes va pouvoir être mise à profit pour cibler, lister et hiérarchiser des actions en fonction de l’importance du phénomène à corriger. À titre d’exemple, ces approches vont ainsi permettre de mettre en exergue :
– un processus commercial incorrectement appliqué, matérialisé par des clients sous-équipés ;
– un processus d’octroi de crédit appliqué de manière non systématique conduisant l’établissement de crédit à prêter en dehors de la grille tarifaire prévue.
Il est ainsi possible de mettre en évidence le manque à gagner, de le quantifier et de prioriser les actions à mettre en œuvre afin de corriger ou de limiter le phénomène ciblé… et de suivre l’efficacité des mesures correctrices entreprises.
Corollairement, le dispositif de gestion de la qualité des données outillé de manière performante, va également permettre de contribuer à la gestion des risques – au-delà des risques liés à la qualité des données – sur le périmètre couvert. Ce dispositif va ainsi l’alimenter en cartographiant les zones de risques par l’identification exhaustive des dysfonctionnements de processus sur son périmètre d’application. Ces dysfonctionnements pouvant être de différentes natures, à titre d’exemple :
– opération frauduleuse ;
– RWA incohérent au regard des caractéristiques de l’actif concerné ;
– devoir de conseil non respecté par un assureur/mutuelle avec la fourniture d’un contrat d’assurance non adapté à l’assuré avec en outre un impact sur le ratio sinistre sur prime du produit considéré.
Ce dispositif va également être en capacité de jauger l’impact réel des dysfonctionnements relevés. En effet, la mesure systématique des écarts à la norme observés sur les données / opérations permet de construire simplement une vision agrégée et la mesure de l’impact correspondant et de statuer – tout en le documentant par la même occasion – sur le caractère matériel ou non du fait observé.
Ici encore, le dispositif de gestion de la qualité des données peut donc jouer un rôle mesurable sur la gestion des risques par l’organisation en l’alimentant d’une part et en la dotant d’un instrument de mesure d’autre part.
Une généralisation essentielle du dispositif de qualité des données
Pour donner sa pleine mesure, il est en revanche essentiel que le dispositif de gestion de la qualité des données soit outillé et que cet outillage soit en mesure de permettre l’évaluation la cohérence des données et des opérations auxquelles il est appliqué, dans leur exhaustivité (c’est-à-dire sur l’ensemble des données et non sur base d’échantillon), y compris si ces données et opérations sont le fruit d’approches basées sur du machine learning.
Il faut également que la couverture du dispositif soit la plus large possible. Il s’agit de dépasser la simple réponse à une contrainte réglementaire pour couvrir des périmètres fonctionnels qui ne sont pas concernés directement ou indirectement par la réglementation.
À titre d’exemple, de nouveaux besoins existent et tirent parti d’un environnement de données maîtrisé. En effet, les nouveaux usages internes basés sur des approches machine learning, dont le développement constitue une lame de fond, sont massivement consommateurs de données. Pour pouvoir être mises en œuvre, ces approches apprennent et utilisent des données. Que celles-ci soient identifiées, documentées et répertoriées au préalable – pour pouvoir être sélectionnées – et qu’elles soient mises en qualité est un facteur de gain de temps important.
Ces nouveaux usages tirent bénéfice d’un dispositif de gestion de la qualité des données efficace et actif et appellent de la souplesse de la part de celui-ci, car elles sont également productrices de données qui vont nécessiter à leur tour d’être intégrées au périmètre couvert par ce dispositif. En outre, ces approches nécessitent également parfois la création de nouvelles sources de données qui doivent également être raccordées au dispositif existant. La capacité et la simplicité d’intégration de nouveaux périmètres au sein du dispositif, la capacité à le faire évoluer et le faire vivre est donc critique.
Conclusion
Le dispositif de gestion de la qualité des données peut donc offrir de la rentabilité. Il peut contribuer de manière quantitative et qualitative à la valeur ajoutée de l’organisation s’il est pensé plus globalement. Il peut s’envisager comme dispositif d’identification de poches de business non optimales et de suivi de leur optimisation. Il peut également s’envisager comme dispositif de contribution à l’environnement de maîtrise des risques pour les identifier, les quantifier et les suivre. On peut ainsi imaginer intégrer en face de chaque objectif métier ou de chaque risque, un monitoring qualité des données spécifique et dédié.
Ces valeurs ajoutées dérivées reposent néanmoins sur certains préambules. D’un point de vue technique, il faut que l’outillage de supervision permette d’identifier et de matérialiser les cas d’incohérence. Le dispositif de gestion de la qualité des données doit être appliqué de manière exhaustive, sur l’ensemble des données et opérations de son périmètre d’application. Plus ce périmètre est large, plus la valeur ajoutée du dispositif est importante. Et dans un environnement SI en perpétuelle évolution, et c’est une tendance de fond, il est impératif que le dispositif soit généralisable.
Ainsi, plus globalement, en tant que dispositif généralisé et permettant de suivre la correcte application des initiatives business ou la maîtrise des risques ne faut-il pas envisager la gestion de la qualité des données comme un moyen efficace d’optimisation des revenus et de contrôle des activités, et à ce titre penser son intégration à part entière à un tableau de bord de pilotage de l’organisation ?