Intelligence artificielle et finance : les nouveaux enjeux réglementaires

Par les perspectives qu’elle ouvre, la diffusion de l’intelligence artificielle pourrait rendre nécessaire d’aller plus loin que la loi pour une République numérique et le Règlement européen GDPR (General Data Protection Regulation).

L'auteur

  • Sebastien Raspiller
    • Sous-directeur du financement des entreprises et du marché financier
      Direction Générale du Trésor
  • Jean Rognetta, PME Finance-Europe Entrepreneurs
    • Président
      PME Finance-Europe Entrepreneurs

Revue de l'article

L’utilisation de l’intelligence artificielle (IA) dans le secteur financier n’est pas nouvelle. Apparu dès les années 1950, à partir d’un article d’Alan Turing, ce domaine de recherche n’en est pas à son premier engouement. La première « bulle », qui ne portait pas encore ce nom, a pris la forme des systèmes experts, apparus dès les années 1980 dans les banques et les compagnies d’assurance. Le désenchantement qui a suivi a duré jusqu’à l’émergence de deux technologies : le traitement automatique du langage naturel (NLP, d’après l’acronyme anglais) et la reconnaissance d’image. Couplées à l’augmentation incessante de la puissance de calcul, elles promettent une infinité d’applications. Leur influence commence déjà à s’exercer dans de nombreux domaines, de la santé publique à l’interface homme-machine.

De l’intelligence augmentée du conseiller à la décision autonome

Pour la banque et l’assurance, c’est la relation-client qui se trouve la première concernée. Ainsi en va-t-il du déploiement par le Crédit Mutuel d’IBM Watson sur 20 000 postes de conseillers clients. Le couplage avec le traitement de mégadonnées (Big Data) et les technologies auto-apprenantes (machine learning et deep learning) promet aux conseillers de disposer d’une « intelligence augmentée » s’appliquant à des données non structurées, exprimées en langage naturel. On automatise ainsi tout d’abord les réponses aux questions les plus simples et fréquentes, mais l’apprentissage profond promet d’étendre son domaine à des problématiques de conseil de plus en plus complexes. Quant aux robo-advisors, l'idée principale est de créer des conseillers virtuels capables, à l’aide de questions posées au client, de cerner son profil de gain et de risque, pour lui proposer un produit d’investissement adapté. Le besoin est réel et le gain potentiel important.

Plus généralement, l’IA permet de découvrir des corrélations voire des structures non apparentes. Elle peut alors prendre un rôle prédictif, qui ne s’applique pas seulement aux besoins du client mais peut s’étendre à de nombreuses activités (jusqu’au trading sur les marchés). Une fois que l’algorithme fait la preuve de son efficacité, on peut lui attribuer une valeur prescriptive, qui cadre le comportement humain. L’étape ultime consistant à le laisser prendre seul des décisions, comme dans le cadre des jeux qui ont fait le succès médiatique de l’IA.

Repenser les responsabilités

Se pose dès lors la question de la responsabilité de l’établissement financier vis-à-vis de ses clients. Une récente guidance de la SEC [1] a rappelé aux gestionnaires que la responsabilité finale leur incombe. Mais cette problématique réglementaire restera très mouvante. À ce jour, les utilisations de l’IA dans la finance relèvent ainsi de l’application, par des automates, d’algorithmes auto-apprenants pour résoudre des problèmes dans un cadre bien défini. Au fur et à mesure que les « décisions machiniques » s’implanteront et se généraliseront, les questions se multiplieront.

Il peut sembler pertinent de faire le parallèle avec l’encadrement des véhicules autonomes. Simple aide à la conduite à ce stade, ils ne pourront se généraliser que si les responsabilités respectives des conducteurs, des constructeurs et des programmeurs seront clairement établies. Le débat en la matière ne fait que commencer et il n’épuise pas la problématique : une fois les responsabilités établies, le code de la route devra sans doute évoluer pour s’adapter aux technologies.

L’IA et le risque

Pour la gestion d’actifs et la finance de marché, on semble passer d’une course à la vitesse à une course à la finesse. La vitesse n’est plus le centre d’intérêt qu’elle a été en finance quantitative. L’IA permet aujourd’hui d’accéder à des signaux et motifs plus subtils, au sein de données plus complexes et en expansion permanente, et de les exploiter pour prendre des décisions mieux informées – ce qui est l’essence de la finance. Tout autant que l’automatisation des processus de trading, les algorithmes de machine learning promettent en effet des gains d’efficacité et de performance ainsi qu’une réduction du risque opérationnel. Certaines start-up offrent déjà des outils d’analyse complexe, permettant de diminuer les prises de risque ou d’analyser de grandes quantités de données externes.

Schématiquement, les questionnements soulevés par l’IA en matière de risques relèvent de cinq ordres, ainsi que l’a relevé la Commission finance au sein de France IA (lire Encadré) :

  • automatisation et responsabilité : au fur et à mesure que de plus en plus de tâches et de décisions seront déléguées aux algorithmes, la notion de responsabilité se brouillera ;
  • auditabilité : le processus de décision des IA est opaque par construction, rendant la compréhension d’une décision algorithmique parfois impossible. Cela pourrait rendre plus complexes à détecter par exemple les abus de marché ;
  • prédictibilité et fiabilité : comme tout programme informatique, une IA est sujette aux bogues, au piratage et aux erreurs de mise en œuvre. Une IA peut aussi être mal conçue et comporter des erreurs intrinsèques, ou des « angles morts » face à des situations inédites. Il est déjà parfois attribué aux programmes de trading automatique la capacité de perturber les marchés, sans que cela ne soit nécessairement la seule cause ;
  • assurabilité et risque systémique : la diffusion de l’IA fait naître de nouveaux risques et modifie les grands domaines d’expertise de l’assurance (e-santé, véhicules autonomes…). L’hypothèse d’un nouveau risque systémique semble lointaine : le risque principal que pose l’IA est celui d’un manque de maîtrise et d’une mauvaise utilisation, ou d’un jeu de données test truqué, plutôt que d’algorithmes qui décideraient par eux-mêmes de prendre leurs libertés. Mais les marchés financiers pourraient en revanche faire l’objet d’une cyberattaque spécifique, voire généralisée : dans la finance comme ailleurs, le déploiement de l’IA posera des questions nouvelles en termes de cybersécurité ;
  • discrimination et vie privée : la disponibilité et l’utilisation des données, notamment des données personnelles, sont au cœur du développement de l’IA. L’utilisation de signaux faibles couplée à l’opacité des décisions algorithmiques pourrait mener à de nouvelles formes de discrimination, compliquées à identifier et donc à combattre. En matière financière, les réglementations LAB-FT se croisent donc avec les réglementations CNIL et la directive GDPR (General Data Protection Regulation).

Un cadre réglementaire qui doit s’adapter…

Le développement des algorithmes d’IA dépend largement de la quantité de données disponibles. Les start-up françaises se plaignent ainsi du manque de données accessibles, alors que les États-Unis prennent la direction inverse, adoptant des mesures volontaristes. La SEC est ainsi en train de créer un entrepôt de données unique sur toutes les transactions des marchés financiers.

Afin de changer d’échelle, plusieurs pistes doivent être explorées, aussi bien à l’échelon national qu’européen : une concertation plus fluide entre régulateurs, institutions de Place et FinTechs ; une gouvernance des données qui offrirait un cadre balisé pour créer un terrain favorable à l’innovation ; la poursuite des efforts de mise à disposition des données publiques (Open Data) ; une incitation à mettre en place des plates-formes anonymisées en Open Data – une telle incitation peut être l’occasion de donner une prime aux entreprises qui donnent du pouvoir au consommateur sur ses données. Cela implique cependant d’aller plus loin que la loi République numérique et le règlement européen GDPR.

La question de l’audit des logiciels se posera également avec une acuité croissante au fil du développement de l’IA. Prendront un relief de plus en plus important la propriété intellectuelle sur le logiciel et la capacité à accéder au code source des algorithmes. Enfin, la sécurité ne manquera pas de gagner en importance pour les établissements financiers et leurs régulateurs.

…mais qui bénéficiera aussi de l’IA

Cependant, l’IA offre également des perspectives importantes dans la compliance. Par exemple, la start-up américaine Neurensic offre, grâce à ses algorithmes, de pouvoir détecter en temps réel des comportements frauduleux sur les marchés financiers. Plus généralement, la détection de fraude devrait se trouver facilitée par un audit plus exhaustif et rapide grâce aux données et à l’IA.

En conclusion, l’IA est en passe de transformer les métiers financiers, du service client jusqu’à l’investissement. Au même moment, la place doit se mesurer simultanément à d’autres enjeux technologiques majeurs : la blockchain et les technologies de bases de données distribuées ; les processus d’automatisation robotisés (RPA) ; la cybersécurité. Un groupe pluridisciplinaire et représentatif pourrait avoir pour fonction d’assurer une veille technologique et instaurer un dialogue fluide avec les régulateurs, et évoluer le cas échéant vers la création de consortiums suivant l’exemple de la blockchain. C’est ce que France IA a proposé.

 

[1] SEC, Guidance update, février 2017, n° 2017-02.

 

Sommaire du dossier

Intelligence artificielle : jusqu’où les machines peuvent-elles assister les financiers ?

Articles du(des) même(s) auteur(s)

Sur le même sujet