Intelligence artificielle : jusqu’où les machines peuvent-elles assister les financiers ?

Dossier réalisé par Séverine Leboucher

Introduction

Intelligence artificielle : jusqu’où les machines peuvent-elles assister les financiers ?

Les progrès récents de la science informatique en matière d’apprentissage machine séduisent les institutions financières qui expérimentent ces nouveaux outils. Optimiser sa stratégie de trading, renforcer sa gestion des risques, fluidifier sa relation client, anticiper les fraudes, etc. : l’ordinateur peut épauler l’humain dans de nombreuses tâches. Sans être une solution miracle.

Intelligence artificielle et finance

Entre ses thuriféraires, qui voient dans les ordinateurs le banquier de demain, et les techno-sceptiques, qui dénoncent un feu de paille, que vaut l’intelligence artificielle (IA) pour le secteur financier ? Pour répondre à cette question, encore faut-il distinguer ce que cette discipline, vieille de soixante ans, apporte de plus à la science informatique aujourd’hui. Selon le chercheur Jean-Gabriel Ganascia, le renouveau que connaît l’IA depuis quelques années est indissociable des progrès du Big Data : plus on collecte de données, plus il faut des outils performants pour les traiter ; or l’intelligence artificielle a justement progressé en la matière, grâce aux techniques d’apprentissage profond, progrès eux-mêmes rendus possibles par l’augmentation des capacités de calcul des ordinateurs. La boucle semble bouclée. L’IA connaît d’ailleurs son heure de gloire en 2015, lorsque AlphaGo, système créé par DeepMind, filiale de Google, devient le premier programme à battre un joueur professionnel de jeu de go.

Données massives, problèmes complexes à résoudre, enjeux élevés… la finance apparaît dès lors comme un terrain naturel pour l’exploitation des capacités de l’IA et des technologies de machine learning associées. Stratégie de trading, scoring de crédit, détection des fraudes, gestion des risques sont parmi les champs en test, sans oublier la relation client, que les progrès de l’ordinateur pour comprendre et répondre en langage naturel permettent de virtualiser.

Pourtant, lorsque l’on passe à la phase d’expérimentation, la réalité devient plus complexe. La réglementation, en particulier sur l’utilisation des données personnelles et leur sécurité, en est une cause. Mais ce sont aussi les longs travaux nécessaires pour « éduquer » la machine qui pèsent sur les organisations, ne rendant pas toujours l’outil rentable. La pertinence de certaines de ses caractéristiques intrinsèques est parfois même questionnée. Ainsi, faut-il laisser l’algorithme apprendre seul, dans des métiers où la maîtrise du risque est une dimension clé ? Quand on sait qu’un robot ne donnera toujours qu’une probabilité de bonne réponse, faut-il le laisser répondre directement au client ? Dans quelle mesure l’intelligence rationnelle d’une machine saura-t-elle mieux que l’homme tirer parti de marchés financiers modelés par l’irrationalité humaine ? Ces questions que se posent les acteurs financiers testant l’IA soulignent le fait que, comme le rappelle Jean-Gabriel Ganascia, « l’intelligence artificielle n’est pas magique ».

Dossier réalisé par Séverine Leboucher

Sommaire

Le dossier que vous souhaitez consulter est payant ou réservé à nos abonnés.

Vous êtes abonné.
Merci de vous identifier.

Achetez ce contenu à l'unité
Tarif : 15.00 euros TTC
Banque & Stratégie