Intelligence artificielle

« Rendre les approches algorithmiques les plus transparentes possible »

Créé le

19.04.2018

-

Mis à jour le

29.05.2018

Un des challenges de l'intelligence artificielle est de rendre ses algorithmes suffisamment transparents pour que les professionnels et les régulateurs puissent comprendre les décisions.

Dans quels domaines travaillez-vous avec les établissements financiers ?

Nous intervenons autour des métiers du wealth management, pour fournir de nouveaux outils aux gestionnaires de relation client. En se fondant sur l’interaction du client avec son chargé de clientèle au cours du temps, ces outils peuvent par exemple identifier le moment où le client est susceptible de passer d’une relation auto-managée, à un service d’advisory où la banque prend des décisions pour son client en ayant des informations sur son niveau de risque, sa connaissance des produits, et ceux qu’il achète habituellement. Nous travaillons aussi dans une approche marketing de multi-équipement (en banque et assurance), sur les produits que le client est susceptible d’acheter, par rapport aux conditions de marché, à l’historique de ses achats précédents, et ceux de clients ayant un profil similaire.

Notre travail porte également sur la lutte contre l’attrition, pour identifier des clients susceptibles de partir chez un concurrent, ce que nous faisons aussi classiquement dans la banque de détail ou l’assurance. Nous intervenons également dans le cadre de la lutte contre la fraude et le blanchiment de capitaux, pour détecter les profils ou transactions sensibles sur la base de scénarios, et générer des nouvelles alertes ou réduire les fausses.

Enfin, dans la gestion d’actifs, nous aidons les gestionnaires dans leur stratégie de construction de portefeuilles. Nous déterminons des segmentations de titres qui, pour un horizon donné, vont se comporter de la même façon, et peuvent donc présenter un risque s’ils sont réunis dans un même portefeuille.

Pour intéresser les institutions financières, ces solutions d'Intelligence artificielle (IA) doivent se traduire en bénéfices concrets, en termes de Return On Investment (ROI) supplémentaire, en augmentant le taux d'équipement ou en réduisant l'attrition et la fraude. Elles doivent aussi pouvoir expliquer leurs recommandations.

Quelles sont les limites des algorithmes en matière d'IA ?

Lorsqu’un événement rare se produit, comme ce fut le cas pour l’élection de Donald Trump ou le Brexit, un algorithme aura aujourd’hui du mal à en déduire les conséquences, car il s’appuie sur un historique qui n’intègre pas ce type d’événements imprévus. À l’inverse, un être humain a une préconception du monde qui l’entoure, dès le moment de sa naissance, qui se renforce par le processus d’éducation, et constitue ce que l’on appelle couramment le sens commun.

Ainsi un algorithme utilisé sur un marché financier sera performant dans des conditions de marché simples, c’est-à-dire avec une volatilité assez faible, et beaucoup moins dans des phases de grande incertitude, plus compliquées à modéliser. Ce sont les limites de fonctionnement de l’algorithme : personne n’a pour le moment réussi à lui donner le sens commun qu’intègre nativement un être humain. C’est l’un de nos sujets de réflexion.

Qu'en est-il du phénomène de boîte noire des algorithmes qui suscitent des inquiétudes notamment auprès des régulateurs ?

Les algorithmes restent encore trop souvent l’affaire des scientifiques. C’est un monde hermétique pour les professionnels de la finance qui n’ont pas ce background informatique. Le deep learning, notamment, véhicule un effet « boîte noire » particulièrement important, parce que ces algorithmes comprennent des successions de calculs très nombreux et complexes. Pourtant, au cours de ces calculs, on peut identifier des étapes qui présentent une importance particulière pour arriver au résultat final, les combinaisons les plus pertinentes de variables et les valeurs pour chacune des variables utilisées, qui orientent la décision finale. On peut ainsi rendre ces approches algorithmiques plus transparentes. Mais pour cela, il ne faut pas mettre en avant l’approche mathématique mais, au contraire, la traduire d’un point de vue du métier. Nous devons passer de la technique à l’usage, des mathématiques à une vision métier, pour transformer les explications scientifiques en un raisonnement compréhensible par un client. Nous voulons que les professionnels, mais aussi les régulateurs, puissent comprendre et analyser les décisions. Nous transformons la donnée en ROI, tout en intégrant une chaîne de conformité qui permet aux régulateurs d’auditer cette dernière, d’identifier les données impliquées dans les décisions prises par l’algorithme et de comprendre pourquoi il les prend et quelle est la performance globale du modèle auquel il est confronté, dans un processus parfaitement reproductible.

Comment fonctionnez-vous avec les établissements financiers ?

Nous travaillons avec les grandes institutions financières qui disposent de très nombreuses données, structurées, temporelles, regroupées en datalakes ou réparties dans des systèmes dispersés, à partir desquelles il faut pouvoir prendre des décisions les plus solides possibles.

Ce process appelle deux observations :

  • les données n’ont souvent pas la qualité requise pour qu’un système d’IA donne des résultats satisfaisants, même si les obligations réglementaires issues de Solvabilité 2 ou de Bâle III amènent les établissements financiers à travailler davantage sur la qualité de leurs données dans un objectif de gestion des risques. Il faut souvent des mois de travail sur le traitement des données avant de pouvoir les intégrer dans un algorithme ;
  • ensuite, si une grande partie des décisions sont automatisées, beaucoup d’entre elles doivent être validées par un être humain. Celui-ci doit notamment identifier et qualifier le nombre de mauvaises décisions, par rapport au nombre de bonnes décisions prises par les algorithmes, pour que le système mis en place soit pertinent et pas trop coûteux par rapport aux bénéfices que l’on en tire. Dans les cas les plus compliqués, si l’intervention humaine est trop fréquente pour que le système soit pertinent, le ROI sera déceptif.

Vous êtes donc plutôt en coopération avec les établissements financiers qu’en concurrence avec eux ?

En effet, les jeunes entreprises qui conçoivent des algorithmes embarquant de l’IA, auront du mal à les entraîner de manière performante s’ils n’ont pas accès à suffisamment de données. C’est pour cela que les FinTechs ont intérêt à travailler avec de grands groupes : elles peuvent apporter des idées nouvelles et savent les mettre en œuvre ; les banques ont la solidité financière, et un accès aux données en grande quantité.

Beaucoup se joue aujourd'hui autour de ce sujet de l’accès aux données. La régulation marque une volonté d’ouverture de cet accès par les banques, mais elle n'a pas encore vraiment imposé le type de données que ces dernières doivent libérer. Mais dans une perspective plus longue, nous passons progressivement d'un monde dans lequel le vendeur du service possédait la donnée, à un monde où le client du service est propriétaire de sa donnée. Nous allons même probablement arriver à un moment où le client pourra monétiser sa propre donnée, alors qu'aujourd'hui il la fournit gratuitement, sans être maître de l'usage qui en est fait. Il pourra décider de partager ses données, d'en retirer l'accès, voire de demander sa suppression dans certains réseaux.

Comment gérez-vous les questions d'éthique liées à l'utilisation de l'IA ?

L’être humain sera de plus en plus confronté à l’IA, et nous pensons que l’IA doit être un bien commun, et non une menace pour l’humanité.

Faire de l’IA un bien commun passe aussi par l’utilisation de données éthiques, de chaînes de traitement auditables, avec un résultat compréhensible… Ainsi nous pouvons renoncer à utiliser certaines données car elles ne sont pas pertinentes pour le problème traité. Cela exclut évidemment toute décision fondée sur des données raciales, de genre, d’opinion, de religion, et nous nous assurons que ces informations ne sont pas présentes dans notre algorithme, ni directement, ni indirectement car on peut être confronté à des biais subtils : par exemple en sélectionnant un quartier déterminé par une population majoritairement représentée par des origines spécifiques. Enfin, chez nous, cela passe aussi par le fait de recruter des collaborateurs de diverses nationalités et notre volonté de recruter davantage de femmes, l’IA restant aujourd’hui un domaine encore plutôt masculin. L’éthique est vraiment une stratégie globale.

À retrouver dans la revue
Revue Banque Nº821bis