Cet article appartient au dossier : Rétrospective 2017 : Banque, Finance, Assurance.

Rétrospective

Intelligence artificielle : premiers tests, premiers enseignements

L'auteur

Pour en savoir plus

Revue de l'article

Cet article est extrait de
Revue Banque n°815

Numéro double 815-816 : Prospective 2018 - Rétrospective 2017

Même si ses prémices remontent aux années 1940, l’intelligence artificielle (IA) connaît depuis le début de la décennie un nouvel élan. En cause, l’explosion du Big Data : on dispose de plus en plus de données que l’être humain ne peut analyser sans l’aide de machines et c’est ce foisonnement d’informations qui permet en parallèle aux machines d’être plus intelligentes. Ce cercle vertueux n’enthousiasme pas que les chercheurs : les entreprises, et parmi elles, les institutions financières, s’en saisissent également. Beaucoup d’expérimentations sont menées. Certaines touchent à l’automatisation d’opérations répétitives, allant au-delà des RPA [1], comme l’analyse des e-mails entrants proposant une réponse adaptée plus rapidement ou encore les FAQ dynamiques permettant de trouver plus intuitivement une information dans une documentation complexe. Précurseur, le Crédit Mutuel vient ainsi de généraliser ce type d’outils à ses 20 000 conseillers clientèle en 2017 après un an de test. Par ailleurs, beaucoup d’applications se concentrent sur les fonctions support des établissements (détection de la fraude, conformité…). L’analyse des risques est bien entendu également concernée, par l’affinage des algorithmes de scoring de crédit. L’IA vient étendre les capacités des algorithmes de trading en mettant en lumière des corrélations que le gérant d’actifs n’aurait pas vues. Enfin, l’IA, c’est aussi la capacité pour la machine d’intéragir avec les êtres humains, via des interfaces écrites (chatbots) ou vocales (Siri d’Apple, Alexa d’Amazon…). Certains établissements les mettent directement en contact de la clientèle, comme Orange Bank qui, dès son lancement, a confié à son chatbot Djingo, le rôle de SAV de premier niveau.

Si ces premières expérimentations montrent une profusion de cas d’usage, elles dévoilent également les premières limites de ces outils. L’intelligence artificielle n’est pas magique, répètent souvent ceux qui l’ont pratiquée. L’apprentissage de la machine est chronophage et implique un travail de fond sur les process et la documentation internes. L’équipe projet du Crédit Mutuel a ainsi dû annoter un échantillon de 10 000 e-mails de clients avant de commencer à entraîner son outil d’IA. Par ailleurs, les réponses renvoyées par les machines sont de nature probabiliste : le client n’est sûr qu’à 90-95 % (dans les meilleurs cas) que l’information qu’on lui donne est la bonne, ce qui pousse à une utilisation de l’IA plus comme support et aide à la décision, qu’en totale autonomie. De même, l’analyse poussée de données massives permise par l’IA ne fournit des conclusions que sous forme de corrélations : elle ne sera pas capable de discerner si c’est la hausse de telle variable qui entraîne la baisse de telle autre, ou bien l’inverse. Une limite que doivent garder en particulier en tête les gérants d’actifs. Enfin, l’intelligence artificielle porte en elle l’image d’une « boîte noire » difficile à auditer. Il s’agit donc de faire en sorte que les algorithmes prédictifs ne renvoient pas seulement un résultat mais aussi le raisonnement sous-jacent. C’est à partir de celui-ci que l’intelligence, humaine cette fois, fera progresser sa compréhension des problèmes et émerger de meilleures réponses.

 

Ils ont dit

Quand une banque singapourienne embauche un assistant virtuel

« Kai Banking, notre plate-forme conversationnelle basée sur les technologies d’intelligence artificielle de la start-up Kasisto, est un bon exemple de la manière dont nous accueillons les innovations technologiques pour rendre la banque plus interactive et intuitive pour nos clients. De fait, Digibank met à la disposition des clients tous les services d’une banque et leur permet de gagner un temps précieux en les dispensant de se rendre en agence pour leurs transactions bancaires. […]

À certains égards, l’assistant virtuel de Digibank peut faire davantage qu’un employé humain dans un centre de relation client. Par exemple, si vous demandez à un de ces agents “Combien ai-je dépensé pour mes courses le mois dernier ?”, il lui faudrait un certain temps pour compiler les données et vous fournir un chiffre. Notre plate-forme, au contraire, analyse vos données bancaires en temps réel et peut donc vous fournir l’information instantanément. Nous avons par ailleurs entraîné l’assistant virtuel pour qu’il soit capable de répondre à plusieurs milliers de questions, de sorte qu’une demande peu fréquente – à laquelle un employé humain mettra du temps à répondre – obtiendra vraisemblablement une réponse plus rapide et plus précise grâce à l’assistant virtuel. »

Sandeep Lal, Group Head of Digital Bank, DBS, Banque & Stratégie n°361, septembre 2017, pp. 26-28.

 

Une personnalité juridique pour les robots ?

« Les robots sont un vieux fantasme humain. Anges ou démons, ils hantent l’imaginaire de l’homme qui y voit sa propre capacité de création. Le Parlement européen a adopté en février 2017 un rapport recommandant à la Commission européenne d’adopter des règles spécifiques sur les robots en leur attribuant la personne juridique, des droits et même un patrimoine [2]. La raison ? L’arrivée de robots de plus en plus “intelligents” où il devient de plus en plus difficile – voire impossible – de déterminer la responsabilité en cas de dommage causé par ledit robot.

En fait, le raisonnement est le suivant : plus un robot est autonome – c’est-à-dire capable de prendre des décisions et de les mettre en pratique sans intervention humaine –, moins il peut être considéré comme un “outil” contrôlé par un tiers (le fabricant, le propriétaire, l’utilisateur, le concepteur…). Autrement dit, plus un robot apprend par lui-même (deep learning), plus il devient autonome, plus il échappe au contrôle d’un tiers. Or de telles machines peuvent être amenées à provoquer des accidents et causer des dommages à des tiers. Se pose alors la question de la responsabilité et de la réparation du préjudice. S’il n’est pas possible de déterminer avec précision qui – concepteur, fabricant, propriétaire ou utilisateur – est responsable du dommage causé par le robot, que faire ? »

Hubert-de-Vauplane, avocat associé, Kramer Levin Naftalis & Frankel LLP, Revue Banque n°807, avril 2017, pp. 16-17.

 

Machine learning : un bon outil pour le credit scoring ?

« L’IA entend inférer des comportements, des mécanismes et corrélations à partir de l’exploitation de grandes masses de données issues du passé. Par rapport au data mining classique, l’apprentissage peut ne pas être supervisé par un être humain, mais au contraire se faire de manière parfaitement automatique (machine learning), c'est-à-dire sans qu’un expert ne suive le processus de sélection et de construction pas à pas des variables retenues dans l’algorithme. […] Toutefois, la recalibration en temps réel et de manière absolument automatique présente deux inconvénients. D’une part, le modèle peut ne pas être connu de l’établissement financier à un instant donné. Ce premier point pose un problème car un modèle prédictif doit rester transparent et explicable auprès du superviseur pour être reconnu comme modèle interne de mesure des fonds propres. De la même façon, la réalisation du backtesting annuel (i. e. la mesure empirique de la capacité prédictive du modèle) ne sera pas aisée à réaliser de manière transparente avec un modèle changeant, devant être communiqué aux superviseurs. D’autre part, les variables retenues comme les plus discriminantes dans le modèle prédictif peuvent aboutir de facto à exclure complètement certaines populations de l’accès au crédit, ce qui peut poser des problèmes légaux. De même, des fraudes plus ou moins massives peuvent biaiser le processus d’inclusion ou d’exclusion des informations dans le modèle, sans qu’il soit aisé de les détecter en amont en l’absence d’apprentissage supervisé. »

Benoît Cougnaud, Associé, Azerrisk Advantage, Banque & Stratégie, n°361, septembre 2017, pp. 10-12.

 

[1] Robotic process automation.

[2] Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL).

 

Sommaire du dossier

Rétrospective 2017 : Banque, Finance, Assurance

Articles du(des) même(s) auteur(s)

Sur le même sujet