Le baromètre du Big Data est officiellement passé du stade expérimental à celui des déploiements de grande envergure sur le marché des services financiers en 2016. Les banques, compagnies d’assurances et cabinets de gestion d’actifs comptent aujourd’hui parmi les principaux utilisateurs de ces nouvelles technologies.
L’année 2017 s’annonce ainsi décisive pour les institutions financières et les éditeurs de logiciels, qui collaboreront davantage pour améliorer la productivité des entreprises et maximiser la valeur qu’elles peuvent tirer du Big Data. Cette accélération verra le jour sur fond de sept tendances qui devraient rythmer et marquer cette nouvelle année.
Les banques optent pour le cloud public
Ce qui était jadis considéré comme totalement irréaliste est aujourd’hui une réalité. L’adoption par les banques de solutions accessibles sur le cloud reste forte et prend différentes formes. Alors que les infrastructures de cloud privé ont prévalu ces dernières années, 2017 devrait être marquée par un intérêt accru et une augmentation conséquente des projets de cloud hybrides.
L’objectif pour les services financiers est de voir plus clairement ce que représente une adoption massive de cloud public. Cette interrogation porte non seulement sur le stockage et la puissance de traitement des données, mais également sur le développement agile d’applications. Pour résoudre efficacement ces questions, les banques vont devoir casser les codes de gestion du Big Data et maîtriser les concepts de mise à jour, de synchronisation et de gestion des actifs de données. En effet le développement d’applications de nouvelles générations se fait de manière itérative incluant des mises à jour du code qui peuvent être quotidiennes. Il est fondamental que les plateformes Big Data supportant ces applications soient adaptées à de tels usages et supportent nativement des déploiements dans le cloud, dans les datacenters des clients ou dans les deux en mode hybride.
Vers un cocktail de technologies open source et propriétaires
Cette année, le débat entre les technologies open source et propriétaires va évoluer. Les banques se rendent compte qu’une approche 100 % open source s’avère techniquement plus complexe que prévu dans un contexte où leurs activités et leurs exigences croissent considérablement. L’écosystème open source est composé de multitude de composants logiciels, qu’il est nécessaire d’assembler, d’intégrer, de supporter et de maintenir. Cela n’entraîne pas uniquement des coûts humains mais peut dans certains cas impacter l’agilité des banques. C’est pourquoi on observe très souvent le déploiement de solutions hybrides open source et propriétaire dans les grandes banques mondiales.
De plus, les éditeurs de solutions ayant un business model exclusivement open source sont dans le collimateur car bon nombre d’entreprises ne comprennent pas bien les coûts réels que leurs solutions représentent, particulièrement lorsqu’elles sont déployées à grande échelle. En effet, même si le logiciel est gratuit, son exploitation, son support et sa maintenance nécessitent de maintenir des compétences humaines dans l’entreprise. Ce coût est rarement évalué en amont.
C’est pourquoi la valeur apportée par le logiciel au métier doit rester le critère clé dans le choix d’une solution logicielle et non son caractère open source ou Propriétaire. Ce n’est pas une simple question de fournisseur. L’activité des banques et les emplois du secteur informatique sont en jeu. Certaines décisions prises par de grands services financiers en faveur d’initiatives informatiques vont modifier la façon dont ces environnements sont déployés. Certaines grandes banques procéderont à des déploiements portant sur la gestion des risques et la conformité qui conjugueront des solutions à la fois open source et propriétaires.
Intégrer les données historiques et celles collectées en temps réel
Si les entreprises du secteur financier (traders institutionnels, fournisseurs de moyens de paiement et autres éditeurs de cartes de crédit) ont toujours conservé l’historique de leurs données, elles poussent désormais plus loin leur analyse pour améliorer leur prise de décision. Au cours de la dernière décennie, ces entreprises ont considérablement progressé dans leur utilisation des environnements qui travaillent en temps réel. L’intégration des données historiques et en temps réel, qui exploite des volumes de données considérables, représente aujourd’hui une priorité.
À titre d’exemple, les algorithmes de trading gèrent parfaitement des volumes de données en temps réel, même si ces systèmes ne vont généralement pas assez loin. Dans la plupart des cas, ils n’associent pas d’autres sources de données datées pour informer les traders du comportement historique des clients et des schémas de trading. C’est pourtant une fonctionnalité courante dans le secteur du commerce électronique, où les moteurs de recommandation de systèmes intègrent achats en temps réel et historique des clients.
S’agissant des cartes ou des moyens de paiement, on assiste à une forte accélération des moyens numériques fonctionnant en temps réel. Ici encore, l’exploitation des données historiques peut apporter la dimension contextuelle nécessaire pour améliorer l’engagement des clients ou fournir des données plus détaillées à d’autres intermédiaires présents dans le processus de paiement, améliorant ainsi la sécurité et les initiatives de lutte contre les fraudes.
Les services financiers se tournent vers l’Internet des objets et le streaming
L’Internet des objets a passionné les spécialistes du Big Data l’année dernière. Si ce sujet était évident pour certains secteurs (compagnies d’assurances et industrie manufacturière, par exemple), ce n’était pas le cas pour les services financiers. Dans ce domaine, les applications de base concernent les communications mobiles ou les distributeurs automatiques, et il en ira de même cette année. De plus, cette année, les discussions devraient davantage s’intéresser à la façon dont les « objets » peuvent être associés aux activités de dépenses ou de paiement qui pourraient apporter une valeur ajoutée au consommateur.
Dans le secteur financier, le streaming des données peut accroître la vélocité, l’accès et l’ubiquité des données de marché tout au long du cycle de vie d’une entreprise financière, ce qui réduit les coûts et l’utilisation, notamment en middle et back-office. En 2017, la discussion devrait évoluer à propos de la manière dont les banques définissent les points connectés (« extrémités »), à mesure qu’elles explorent l’utilisation massive des données associées aux flux d’événements. Il faudra également s’attendre à voir s’accélérer l’adoption de solutions de streaming qui permettent aux banques d’exécuter en continu des calculs concernant les risques financiers, la surveillance ou les transactions.
Le Big Data et la technologie blockchain à l’assaut des services financiers
En 2016, les services financiers ont montré un très vif intérêt pour la technologie blockchain. Étant encore à ses balbutiements, son utilisation et son avenir dans les services financiers restent flous. Quelle est la valeur légale des contrats inscrits dans une blockchain publique par rapport à une blockchain privée ? Les smart contracts (appelés ainsi car ils s’exécutent automatiquement sur la blockchain, sans aucune intervention humaine), leur définition et la façon dont ils sont appliqués diffèrent selon qu’il s’agisse d’une blockchain privée ou publique. Par exemple, les consortiums actuels de registres comptables privés semblent s’établir aux côtés de partenaires connus et de confiance. Cela limite la marge de manœuvre des différents partis et le débat juridique sur les smart contracts. Tandis que dans une blockchain publique, n’importe qui peut être sur le marché. En quoi fonctionner via une blockchain est-ce différent ou plus avantageux vis-à-vis des actuelles opérations de règlement ou de compensation ? Le cas échéant, quels sont les avantages d’une collaboration avec des plateformes de Big Data ? Nombre de technologies émergentes soulèvent des interrogations similaires, mais en 2017, les services financiers vont passer à la vitesse supérieure.
Les grands livres comptables constituent une manière fascinante de gérer des transactions, notamment lorsque les workflows (ou charges de travail) sont répétitifs. Les domaines à explorer de façon prioritaire sont la manière dont les blockchains peuvent améliorer la sécurité du Big Data, l’analyse des blockchains, ou les archives de conformité immuables pour les domaines transactionnels. Le géant de la finance State Street a annoncé sa décision d’étudier la faisabilité de cette technologie en 2017 dans des domaines tels que les prêts syndiqués, le prêt de titres et la gestion du « collatéral ».
En 2017, les services financiers devront se préparer à approfondir le sujet de la convergence entre la technologie blockchain et les plateformes de Big Data, ainsi que des essais de la technologie blockchain proprement dite.
L’automatisation opérationnelle comme source de rupture
Ces dernières années, le secteur des services financiers s’est rendu compte à quel point l’automatisation pouvait révolutionner certains services, notamment dans le domaine de la gestion de portefeuille. L’automatisation repose sur l’apprentissage automatique (machine learning), une technologie qui permet aux données d’améliorer les algorithmes chargés de prendre des décisions automatisées concernant la façon de traiter les données et les requêtes entrantes. Ces tâches sont considérablement améliorées par l’exploitation de volumes de données croissants.
Nombre de compagnies de services financiers commencent seulement à envisager un usage élargi de l’apprentissage automatique. À ce jour, c’est encore une activité de niche dans des domaines tels que les systèmes de trading automatisés ou le trading haute fréquence.
Des tâches simples automatisées, qui peuvent être associées à des opérations de middle office et de back-office (souscription de prêts, rapprochement de comptes ou développement de modèles de risque), recèlent une énorme valeur, tous segments confondus. Même si elles ne sont pas perçues comme étant à la pointe de l’intelligence artificielle, elles représentent une solide opportunité pour les institutions financières. Une adoption croissante de ces technologies est donc à prévoir au cours de l’année à venir, parallèlement à l’adoption des plateformes de Big Data.
Pénurie de compétences en analyse prédictive et sciences des données
L’apprentissage automatique facilite également l’analyse prédictive, une discipline qui continuera à susciter une formidable attention, car les banques disposant de groupes de sciences des données (data science) plus pointus vont repousser les limites de l’analytique. Outre l’utilisation d’ensembles de données à la fois volumineux et variés pour développer et améliorer les modèles prédictifs, les données en temps réel et historiques vont également être mises à contribution, comme vu précédemment. En interne, des compétences approfondies seront nécessaires pour faciliter l’application de techniques prédictives capables d’améliorer les méthodes analytiques humaines et descriptives existantes.
La gestion des risques (c’est-à-dire la modélisation des souscriptions et du crédit) est et demeurera l’un des domaines de prédilection de la technologie prédictive. En 2017, la cybersécurité, la sécurité de façon générale et l’activité des clients seront au centre de toutes les attentions. Dans ce contexte, les Data Scientists et les Data Engineers occuperont une place de plus en plus importante au sein des équipes d’évaluation quantitative et des risques. Par ailleurs, les entreprises les moins performantes auront des difficultés à pourvoir les postes vacants.
Investir à longue échéance
Si les banques, compagnies d’assurances et cabinets de gestion d’actifs comptent parmi les principaux utilisateurs du Big Data à travers le monde, la différence entre les entités qui le maîtrisent et les autres devrait se gommer avec le temps.
Les fondations mises en place et les investissements effectués depuis plusieurs années par de nombreuses institutions financières ont montré au marché financier que les solutions de gestion du Big Data sont à la fois bien réelles et profitables. À ce sujet, les banques seraient bien inspirées de suivre le conseil financier qu’elles ne manquent pas de prodiguer à leurs propres clients : sur les marchés financiers, il est toujours préférable d’investir à longue échéance que de jouer à court terme.