Système d'information

La qualité des données comme vecteur de compétitivité

Le grand nombre de données de qualité que doivent livrer très rapidement les banques dans le cadre du Comprehensive Assessment représente un véritable défi pour le SI de l'établissement.

systèmes d'information

L'auteur

Revue de l'article

Cet article est extrait de
Banque & Stratégie n°324

Évaluation complète des banques : un bilan de santé éprouvant

Si les résultats de l'Évaluation globale et des stress-tests réalisés dans le cadre de l'instauration du Mécanisme de supervision unique (MSU) seront connus à la fin de l'année, on peut d'ores et déjà tirer quelques enseignements de ce processus inédit dans l'histoire bancaire mondiale.

Dans tous les secteurs d'activité et dans toutes les entreprises du globe, le XXIe siècle sera centré sur la donnée. Celle-ci, Big Data ou pas, est déjà la source d'innovations très diverses : développement de nouveaux produits et services, création de nouveaux business models ou de nouvelles sources de revenus, optimisation, fidélisation client, amélioration des traitements médicaux, sécurité, lutte contre la fraude, etc.

Mais un bon programme analytique dépend avant tout de la qualité des données sur lesquelles il repose. Certains scandales financiers (JPMorganChase, manipulation du Libor…) ont notamment prouvé que les différentes divisions d'une société ne partageaient pas leurs informations, que les directions du risque éprouvaient des difficultés à obtenir en temps utile des données pertinentes, et que lorsqu'elles ces données leur parviennent, elles sont souvent difficilement exploitables, pour des problèmes de qualité. Mais dans le cadre de l'Évaluation globale, point de salut : le régulateur ne saurait se contenter de données erronées.

Il est vrai qu'il est particulièrement compliqué, pour une banque présente à l'international, de disposer de données cohérentes : elles entretiennent de multiples SI, souvent dans plusieurs langues. Les produits eux-mêmes disposent fréquemment d'appellations différentes, sans parler des différentes devises et règles comptables, qu'il convient également de prendre en compte. De plus, dans le cas de l'Évaluation globale, la dimension « temps » joue également : le délai pour répondre à l'ensemble des contraintes est extrêmement court.

Un modèle de données unique

Pour répondre aux demandes de la Banque centrale européenne (BCE), l'institution financière doit idéalement disposer d'une infrastructure technique capable de centraliser l'ensemble des informations utiles historisées et reposant sur un modèle de données unique. Cette base de données unique et historisée doit s'appuyer sur un référentiel unique de produits et sur un dictionnaire des parties et contreparties couvrant l'ensemble de leurs activités et de celles de leurs filiales. Tous les éléments doivent être liés entre eux (exposition, garantie, provisions). À défaut, la banque doit interroger chaque système individuellement, puis, après vérification, consolider les données, ce qui est particulièrement complexe et chronophage.

La difficulté consiste en outre à identifier les opérations intra-banques (c'est-à-dire entre la maison mère et ses filiales) qui apparaissent deux fois dans les états.

Étant basées sur des positions (de marché), les données ainsi consolidées doivent pouvoir être rapprochées avec la comptabilité, afin de refléter la position exacte de la banque. Ce processus de réconciliation est également très complexe, ce qui explique – entre autres – le délai particulièrement long de publication des rapports annuels.

En matière de qualité de données, plusieurs challenges apparaissent lors des contrôles :

  • certains sont purement techniques : pour certaines opérations, la devise ou la date réelle de l'opération manque ;
  • d'autres relèvent du domaine opérationnel : il convient par exemple de vérifier les taux d'intérêt appliqués à des opérations par rapport à la moyenne et l'écart standard d'autres opérations conclues le même jour.

Des outils performants, modulaires et polyvalents

Avec l'avènement récent des technologies d'analyse des Big Data, il est désormais possible de développer rapidement une infrastructure haute performance, qui tire parti d'un modèle de données permettant d'unifier l'ensemble des éléments dans une base historisée. L'éditeur peut également offrir des outils de contrôle aussi bien techniques que métiers, ainsi que la flexibilité nécessaire pour créer tout type de fichier depuis cette base.

Cette flexibilité est d'autant plus essentielle que les régulations, d'une part, ne cessent de se multiplier et, d'autre part, réclament un niveau de détail toujours plus important. Aujourd'hui, par exemple, les contrôleurs réclament le contenu détaillé des portefeuilles, ce qui n'était pas le cas auparavant. Avec le besoin accru de contrôler des opérations toujours plus complexes, on comprend pourquoi les banques ont intérêt à développer des infrastructures qui ne soient pas statiques.

Les banques devraient être déchargées de ces calculs (puisque le régulateur pourrait les prendre en charge afin d'uniformiser les méthodes de calcul), mais elles devront néanmoins toujours lui fournir les données pertinentes et répondre à de nouvelles demandes.

Par ailleurs, de plus en plus de banques recourent à des outils qui leur permettent de calculer et de suivre en temps réel leur exposition crédit et marché. Là aussi, traditionnellement, elles s'appuyaient sur des processus manuels, impliquant de multiples systèmes et traitements de nuit (batch) qui, par leur longueur, exposaient l'entreprise à d'importants risques. Aujourd'hui, il existe des calculateurs qui tirent parti d'une puissante plate-forme de gestion des risques combinée à une infrastructure analytique haute performance, pour évaluer précisément et rapidement l'exposition aux risques, comparer les chiffres avec les seuils de tolérance prédéfinis et, au final, prendre les bonnes décisions.

Ces calculateurs offrent notamment aux traders une image claire de leur exposition en temps réel qui leur permet, à un instant T, de renforcer leurs investissements ou au contraire de les limiter. De leur côté, les contrôleurs de risque suivent également les risques en temps réel et sont en mesure de calculer l'exposition globale de la banque sur les marchés mondiaux. Ensemble, ils peuvent également procéder à des simulations pour analyser l'impact de n'importe quelle décision sur les pertes et profits de la banque.

Au-delà de la conformité

Au-delà des problématiques de conformité et d'exposition aux risques, ce type d'infrastructure peut aider les banques à dégager une connaissance particulière de leurs activités, sur laquelle elles peuvent innover et baser d'autres décisions : elles peuvent examiner la rentabilité de chacun de leurs clients, améliorer leur efficacité opérationnelle en analysant chaque structure de coût et se différencier de leur concurrence afin d'obtenir un avantage concurrentiel, par la création d'un nouveau produit, etc.

C'est le cas, par exemple, de la Banque Nationale de Grèce [1] qui, en basculant d'un système de gestion des risques développé en interne vers un environnement intégré et hautes performances, a réduit de moitié le délai de production d'analyses diverses. Ceci lui a permis de réduire le nombre de ressources dédiées au reporting et d'augmenter celles dédiées aux analyses (des risques crédit, de fraude, etc.). Cette banque a su profiter d'une réforme due à une évolution réglementaire pour transformer en profondeur sa stratégie analytique globale.

[1] Voir « Reduce report generation from weeks to seconds », disponible à l'adresse http://www.sas.com/en_us/customers/national-bank-of-greece.html.

 

Sommaire du dossier

Évaluation complète des banques : un bilan de santé éprouvant

Articles du(des) même(s) auteur(s)

Sur le même sujet