Quel constat faites-vous aujourd’hui en matière de gestion informatique et de stockage des données dans le domaine bancaire ?
Les banques vont devoir changer leur façon de penser leur informatique, en particulier le stockage des données. Ce changement est la conséquence de l’évolution rapide des métiers de la banque ; intrinsèquement, leur système informatique, construit progressivement depuis 20 ou 30 ans, fonctionne bien. Mais alors que le principal atout d’une banque a longtemps été son réseau de guichets, aujourd’hui, et de plus en plus, l’interface entre la banque et son client devient l’application sur smartphone, appelée « App », très loin du concept de l’agence. Or l’informatique n’a pas été conçue pour servir ce type de services.
En outre, les clients veulent souvent avoir une réponse quasi instantanée, sans passer par un conseiller. C’est majoritairement le cas des générations les plus jeunes, entre 20 et 30 ans, comme le montre la montée en puissance des banques 100 % en ligne auprès de cette clientèle.
Les banques expliquent cependant que les clients confrontés à une opération plus complexe souhaitent pouvoir discuter avec un conseiller…
Cela reste vrai pour négocier un prêt immobilier, mais la plupart des clients réalisent une telle opération au maximum trois fois dans leur vie. Et les clients se renseignent au préalable sur Internet et arrivent chez le conseiller en sachant précisément ce qu’ils cherchent ou ce qu’ils attendent de leur banque. Même dans le cas de transactions complexes, les banques ne peuvent plus espérer être la seule source d’information de leurs clients.
Que peuvent faire les grands réseaux pour repenser leur informatique, compte tenu de l’héritage complexe qu’ils ont à gérer, en l'occurrence des systèmes de 30 ans d’âge organisé en strates successives ?
Cette évolution ne peut se faire que par phases successives. Nous préconisons d’aller vers une nouvelle architecture fondée sur un « software defined data center », en utilisant des technologies qui sont à la fois compatible avec les applications métiers existantes, et avec les architectures des « App » pour smartphone. Le bon modèle consiste à poser les jalons du futur sans écarter le passé.
Mais il faut une impulsion et une volonté très forte de la part de la direction générale ; en effet, dans toute organisation, le changement est difficile. Ainsi, dans beaucoup d’établissements, la direction IT garde la maîtrise de la technologie et la capacité de dire aux responsables des métiers ce qu’ils peuvent faire ou pas. Or ceux-ci voient aujourd’hui arriver des industriels de l’Internet comme eBay, Pay Pal et autres, qui écrasent les marges et proposent des services que les SI bancaires ne pouvaient jusqu’à présent pas fournir. C’est une transition très dérangeante pour le secteur bancaire et pour l’industrie IT, qui avait une relation un peu privilégiée avec les états-majors bancaires.
L’externalisation ne serait-elle pas aussi une solution ?
Les banques ne peuvent pas se permettre d’externaliser certains services, notamment le stockage des données, car les risques liés à l’utilisation de ces dernières sont aussi importants que ceux liés à l’utilisation de l’argent de leurs clients. C’est vraiment leur métier de protéger ces informations.
Une architecture en « software defined » permet d’utiliser les mêmes technologies que les grands services cloud, avec les mêmes bénéfices en matière de contrôle des coûts, tout en gardant le contrôle de leur infrastructure. Ainsi les banques pourront déployer un stockage peu onéreux et trouver leur place dans la concurrence mondiale autour du Big Data et des applications pour smartphone.
En quoi consiste une technologie « software defined » ?
L’infrastructure de type « software defined » correspond à l’idée que toutes les fonctions informatiques peuvent être faites sur des serveurs standards et que c’est le software qui définit comment se comportent ces derniers. C’est le type d’infrastructure qui a permis la croissance exponentielle des services cloud comme Google, Facebook, Amazon AWS ou Microsoft Azure. C’est radicalement différent des architectures traditionnelles, qui reposent sur des silos applicatifs et des équipements dédiés pour le stockage de données et pour le réseau.
Le concept de « software defined » permet ainsi de modifier l’infrastructure informatique en fonction des demandes des applications, alors que jusqu’à présent, les infrastructures, une fois déployées, étaient à peu près immuables. Cela augmente considérablement la flexibilité et la rapidité de réaction de l’ensemble.
Dans cette transition, le hardware devient du matériel générique, des serveurs standards. C’est un changement radical : les besoins de ressources d’infrastructure s’évalueront en termes de volume nécessaire, sans se préoccuper de la forme que cela prendra, car le logiciel est là pour adapter aux applications les ressources physiques, le réseau, le stockage et le calcul. Du coup, le stockage se consomme comme une ressource peu chère, hautement disponible et fiable, performante et partagée entre les applications.
Comment s’organise la protection des données ?
Nous avons notamment travaillé sur un mécanisme qui permet au système de « se guérir » lui-même : il repère les pannes et écarte les disques défaillants. Les opérateurs interviennent ainsi de moins en moins dans le système.
Différents mécanismes existent pour protéger les données. Le premier consiste à détecter très vite les données manquantes ou la disparition de données. En outre, nous protégeons les données soit en les répliquant simplement, soit en utilisant des modèles et des calculs mathématiques pour les recréer. C’est historiquement ce que les informaticiens ont toujours fait, mais la différence vient d’un système de plus en plus distribué. On reconstruit donc ces données de façon de plus en plus rapide et cette distribution permet au système de continuer à fonctionner globalement en cas de panne d’un disque. Or les gros systèmes utilisent des milliers de disques et une panne sur l’un d’entre eux est un événement quasiment quotidien. La résolution de ces événements doit donc être complètement automatisée. C’est révolutionnaire pour les départements informatiques, car aujourd’hui, les acteurs traditionnels vendent au département informatique de pouvoir changer un disque en 4 heures.
Nous échangeons donc un service haut de gamme, mais très cher en RH (un technicien sur site 24 heures sur 24), par la fiabilité et l’automatisation procurées par le logiciel.
Comment gérer la croissance exponentielle des données ?
À l’heure actuelle, les banques ne peuvent pas garder toutes les données ou informations collectées, car cela revient trop cher. Pourtant, avec les technologies de Big Data, ces données, correctement exploitées par un Data Scientist, peuvent être une mine d’or.
L’architecture de type « software defined » permet de rendre le coût du stockage suffisamment bas pour envisager de garder toutes les données issues des transactions ou des interactions entre l’établissement et ses clients.
Quelles sont les économies réalisées ?
L’architecture « software defined » génère de nombreuses sources d’économie : matériel générique, et donc moins cher, meilleure utilisation des ressources grâce à la mutualisation (absence de silos), automatisation des tâches, réduction des pannes, pérennité de l’infrastructure (migration de données superflue)… Il en résulte une réduction du coût total d’exploitation d’un facteur 2 à 4. En pratique, nous constatons que nos clients augmentent les capacités stockées à coût constant plutôt que de réduire les budgets.
Certaines banques ont-elles déjà réorganisé leur système de cette façon ?
Nous avons déjà deux clients bancaires aux États-Unis, où se font jour des initiatives fortes des directions bancaires pour faire évoluer l’informatique à marche forcée : plusieurs établissements, comme Fidelity ou Wells Fargo, se sont exprimés publiquement sur ce sujet. On ne constate pas le même sentiment d’urgence dans les banques européennes, qui voient encore souvent les SI comme un outil à l’appui des métiers, et non comme un aspect stratégique de leur activité, sans compter les enjeux sociaux. Mais elles y viendront : cette transformation est inexorable et elle est aussi une opportunité pour les banques d’avoir une meilleure interaction avec leurs clients.