Transparence et intelligence artificielle – Libres propos en droit bancaire

Créé le

23.07.2020

1. Le monde de la banque est traversé par la grande vague de l’intelligence artificielle (IA), cette quatrième révolution industrielle que connaît notre époque et qui façonne les contours de l’avenir proche. De l’analyse automatisée des milliers de courriels que reçoit le conseiller en agence, pour l’aider à fournir une réponse, à la programmation de robots conversationnels, en passant par l’ouverture d’un compte par reconnaissance faciale : les applications nouvelles sont nombreuses. Toute la gamme des services bancaires est transformée par la révolution digitale[1]. En effet, ce qui est offert au client fait l’objet d’innovations constantes, qu’il s’agisse des moyens de paiement, les premiers concernés sur le plan chronologique[2], ou encore de l’épargne et du crédit. La façon d’offrir le service au client est également profondément affectée. Produits et méthodes : tels sont les terrains de prédilection du changement. Que ce soit la banque transactionnelle, celle de tous les jours, ou la banque relationnelle, celle des projets de plus long terme[3], les deux modèles ont emprunté le virage numérique. Et sans doute n’est-ce que le début de l’histoire. À la faveur de ce que l’imagination et les capacités technologiques laissent entrevoir, ces cas d’usage devraient probablement se développer de manière exponentielle. Les profits espérés sont vertigineux[4].

2. La digitalisation et l’« algorithmisation » n’étaient pas inconnues du domaine bancaire[5] et financier[6]. L’informatique et les algorithmes ont toujours joué un rôle important. L’invention du distributeur de billets avait déjà marqué son époque[7]. Et « il faudrait écrire une histoire technologique de la banque tant l’activité bancaire est liée à la technique et à ses progrès dans les sociétés humaines »[8]. Mais l’innovation digitale a récemment emprunté un tournant décisif, à la faveur du développement de l’apprentissage automatique, l’une des dimensions les plus sophistiquées de l’IA[9]. L’algorithme apprend de lui-même, grâce à la multitude d’exemples étiquetés (ou non, en cas d’apprentissage non supervisé) ; il gagne en autonomie. En banque, l’IA s’était certes déjà déployée à certains égards, si l’on entend largement cette notion comme la réplication informatique des principales facultés cognitives[10]. Mais l’autonomie et la capacité d’apprentissage, qui marquent le passage de l’algorithme « déterministe » à l’algorithme « apprenant »[11], ont bouleversé le secteur. L’apprentissage automatique, auquel est souvent assimilée la notion d’IA[12], laisse augurer d’impressionnantes évolutions. Le scoring de crédit en est l’un des premiers terrains d’application[13].

3. Cette disruption a des conséquences concrètes. Tout d’abord, la transformation enfante ses propres acteurs, unis sous l’étiquette sémantique de « FinTech ». La définition est ambigüe et renvoie à des réalités diverses[14]. L’expression n’est pas réservée au cercle restreint de jeunes start-up qui, comme le veut le sens communément admis, proposent de « faire » de la finance d’une nouvelle manière, en ayant notamment recours aux opportunités offertes par l’IA. Les établissements traditionnels se lancent pleinement dans l’aventure[15], si bien qu’il est peut-être préférable d’évoquer, plus largement, la notion de services FinTech, c’est-à-dire de services financiers disruptifs.

Ensuite, le monde bancaire classique a lui-même évolué. À l’extérieur, des collaborations se nouent. En interne, le modèle se transforme. Lab et factory se constituent au sein des grands établissements pour développer ces services nouveaux. Le recrutement évolue[16] et au pays des algorithmes, l’ingénieur est en passe de devenir roi. Enfin, le métier emprunte un tournant. Assisté, aidé, augmenté, le collaborateur bancaire trouve dans l’IA un support qui lui permet de dégager du temps pour mieux se centrer sur la relation clientèle. Le virtuel aide au réel ; la banque de demain en est l’un des meilleurs exemples.

4. La médaille a son revers. Considérations sociales[17], « algorithmisation » du management : les craintes sont légion. L’une d’entre elles, liée à l’apprentissage automatique, trouve une résonnance particulière en droit bancaire. Les modèles d’IA seraient opaques[18]. L’algorithme, dans certains cas les plus complexes, formerait une sorte de boîte noire dont il serait radicalement impossible de décomposer l’ensemble des éléments qui ont permis d’aboutir à la décision[19]. L’opacité n’est pourtant pas envisageable dans le monde bancaire. Comment s’assurer que le modèle n’a pas été affecté de biais dans la prise de décision, étant donné qu’il serait impossible d’en comprendre le fonctionnement ? En effet, « l’utilisation d’algorithmes d’apprentissage profond, qui se nourrissent de données aux fins de personnalisation et d’aide à la décision a fait émerger la crainte d’une reproduction des inégalités sociales dans l’algorithme de décision »[20]. Dès lors, « comment accepter l’injustifiable dans des domaines aussi décisifs pour la vie d’un individu que l’accès au crédit ? »[21].

5. Tandis que les experts informatiques poursuivent leurs recherches sur l’explicabilité, la transparence, en éthique et en droit, s’est imposée comme un élément de réponse. Il faudrait ouvrir cette boîte noire. Les chartes, rapports, résolutions et recommandations proposant un cadre pour l’utilisation des solutions IA se multiplient[22], provoquant certainement « confusion et saturation »[23]. Dans l’ensemble de ces documents, la transparence est devenue incontournable[24]. Elle forme une sorte de droit commun, un principe s’inférant de la multiplicité des textes y faisant référence. Ce n’est guère étonnant. L’homme s’est toujours senti mû par le besoin de savoir, lorsque la prouesse – technique hier, technologique aujourd’hui – dépasse l’entendement. Désormais, chacun s’accorde sur l’intérêt de favoriser la transparence des modèles. Légitimant l’utilisation des applications nouvelles[25], elle permettrait le développement d’une IA « digne de confiance »[26], dont la concrétisation est assurément « une épopée qui sera probablement décisive pour le siècle à venir »[27]. Or l’on sait combien, dans le secteur bancaire, la confiance est un élément indispensable pour la prospérité de l’entier système. Aussi est-il important d’envisager comment la transparence peut se déployer dans cette variété d’innovations récentes caractérisant les services de banque.

6. Nul ne doute que la transparence des systèmes d’IA peut être une réponse[28]. Mais encore faut-il déterminer ses modalités pour que le concept ait un contenu concret. Comment doit-on l’entendre ? Là réside le point central des réflexions. L’étude de la notion, dans le contexte du domaine bancaire, permet de rendre compte de l’existence de deux types de transparence : par la divulgation (I.), puis par la compréhension (II.).

I. La transparence par la divulgation

7. La transparence renvoie intuitivement à l’idée de divulgation, c’est-à-dire porter à la connaissance d’un tiers un élément. Assurer la transparence d’un modèle d’intelligence artificielle reviendrait alors à dévoiler ses principaux ressorts. La formule est toutefois vague et il est important de déterminer avec précision ce qu’il convient de divulguer. Tantôt il s’agira de révéler l’existence du système d’intelligence artificielle (1.), tantôt l’on songe à son fonctionnement (2.).

1. Divulguer l’existence du système

8. L’interaction avec un système IA – et donc son existence – doit-elle être divulguée à l’utilisateur ? Cette question est essentielle[29], car elle touche au cœur des rapports entre l’homme et la machine. Les dirigeants bancaires n’hésitent plus à communiquer autour des utilisations que leurs établissements font des systèmes d’IA[30]. Cette divulgation n’est pas toujours ciblée sur une application particulière, mais elle traduit le sentiment général que l’IA n’avance pas masquée dans les banques. Le superviseur financier de Singapour a d’ailleurs énoncé une recommandation explicite sur cette forme particulière de transparence : « pour renforcer la confiance du public, l’utilisation de système d’intelligence artificielle devrait, de manière proactive, être dévoilée à l’utilisateur, comme un élément de la communication globale »[31].

9. Mais plus spécifiquement, faut-il révéler qu’un système IA est à la manœuvre, lorsque le client interagit, au téléphone ou sur la messagerie d’un réseau social, avec un agent conversationnel bancaire ? Bien sûr, la divulgation du système ne suscite parfois pas de difficultés[32]. Le client confronté au robot l’accueillant en agence, ainsi qu’il en va d’une expérience récente à Toulouse[33], est évidemment au courant qu’il est en relation avec un système IA. Par ailleurs, des applications portent en elles-mêmes la marque de l’utilisation d’un tel système, conformément à leur modèle opérationnel. Des FinTechs opérant dans le secteur du conseil financier automatisé (robo-advisors) reposent dans certains cas sur l’utilisation d’algorithmes d’apprentissage automatique et en font un argument décisif de communication lorsqu’elles déploient leur offre au public. La divulgation procède alors de leur existence. En revanche, dans d’autres situations, le système pourrait nécessiter une révélation, car l’interaction artificielle est délicate, sinon impossible, à déceler.

10. Cette recommandation est couramment évoquée par les différents projets réfléchissant à un encadrement des usages de l’IA, dont ceux émanant des instances communautaires[34]. Le Parlement européen, dans sa résolution du 12 février 2019, souligne que « l’utilisation des systèmes d’IA doit être clairement identifiée dans les interactions avec les utilisateurs »[35]. Le Livre blanc de la Commission européenne s’est également prononcé en ce sens, estimant que « des informations devraient être clairement fournies aux citoyens lorsqu’ils interagissent avec un système d’IA et non avec un être humain »[36]. La prescription est reprise par l’OCDE[37], dans ses principes de mai 2019, et par la Déclaration de Montréal, adoptée en 2018, laquelle précise expressément que « tout utilisateur d’un service qui recourt à des agents conversationnels doit pouvoir identifier facilement s’il interagit avec un SIA ou une personne »[38]. Une banque devrait être dans l’obligation de divulguer à son client qu’il est au contact d’une IA[39].

11. Il faut également satisfaire à cette exigence lorsque le client fait l’objet d’une décision entièrement automatisée, fût-il ou non directement en contact avec ledit système. Cette préconisation, dans la Déclaration de Montréal[40], est une obligation avec le RGPD[41]. Son article 22 énonce, sous certaines exceptions, qu’une personne a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé[42]. Le considérant 72 du règlement donne d’ailleurs l’exemple du rejet automatique d’une demande de crédit[43]. Mais encore faut-il que cette personne soit tenue au courant de l’action du système afin de faire valoir son droit. L’article 13 prévoit que l’existence d’une telle prise de décision doit être portée à la connaissance de la personne concernée[44]. L’attribution exclusivement automatisée d’un crédit, sans intervention humaine, selon un logiciel sous-jacent d’apprentissage automatique, ne peut s’envisager sans avertir le client de l’existence du système d’IA. En revanche, la situation est plus complexe lorsque le recours à l’IA n’est pas exclusif. Il suffit d’imaginer un prêt accordé par un établissement à l’aide d’un logiciel IA facilitant un scoring plus fin, mais dont la décision finale revient au conseiller. Peut-on contraindre la banque à révéler ce processus ? La réponse est négative et doit le rester. Le recours à l’IA est ici un élément de méthodologie interne, parmi d’autres, que prend en compte le conseiller. La décision n’est pas exclusivement automatisée ; l’élément humain demeure[45].

12. La divulgation de l’existence d’un système d’IA, soit parce qu’il interagit directement avec le client, soit parce qu’il est le support d’une décision entièrement automatisée l’affectant, devrait devenir une obligation s’imposant aux établissements bancaires. Mais ce n’est toutefois que l’une des dimensions de la transparence par la divulgation.

2. Divulguer le fonctionnement du système

13. L’idée que certains algorithmes d’apprentissage automatique puissent être des boîtes noires est bien connue[46]. Or, la peur de l’opacité informatique est exacerbée dans un domaine aussi essentiel pour le quotidien des citoyens que la banque. Les algorithmes, surtout lorsqu’il s’agit d’apprentissage profond, ont leurs limites[47]. Il est parfois impossible de retracer comment la séquence est parvenue au résultat. Cette situation est difficile à admettre, car le processus peut reproduire une discrimination[48]. Comment saisir les raisons qui ont conduit au refus étant donné que l’informatique ne peut lui-même tout expliquer ? Comment contester la décision de refus d’octroi d’une carte de crédit, si l’on ne peut en exposer valablement les motifs et repérer les biais ? Les informaticiens, encouragés par le rapport Villani[49], continuent de travailler sur l’explicabilité. Les éthiciens, puis les juristes, ont trouvé, semble-t-il, une solution. Il faudrait divulguer le code pour dévoiler le fonctionnement de l’algorithme. L’équation serait simple : le code étant disponible, l’algorithme deviendrait transparent et l’utilisation de l’IA socialement acceptable. Cette conception de la divulgation, que l’on pourrait qualifier de « sèche », est présente dans la législation française, l’administration y étant soumise, sur demande de l’administré, par l’article L. 311-3-1 du Code des relations entre le public et l’administration, lorsqu’une décision individuelle est fondée sur un traitement algorithmique. Et peut-être trouve-t-on la même idée dans le RGPD[50], lequel impose de communiquer « des informations utiles concernant la logique sous-jacente » du traitement des données en vue d’une prise de décision automatisée[51].

14. Le droit financier n’est pas étranger à cette logique de divulgation du code tout en circonscrivant les limites[52]. Elle est possible, mais au profit du régulateur, ce qui démontre l’intérêt d’une démarche tenant compte du destinataire de l’information[53]. En matière de trading algorithmique, et notamment à haute fréquence (ci-après THF), l’AMF peut obtenir le code. Selon l’article L. 533-10-5, 2 du Code monétaire et financier, les opérateurs THF « documentent la nature de leurs stratégies de négociation algorithmique ». De surcroît, l’AMF peut, « à tout moment, demander aux prestataires des informations complémentaires sur la négociation algorithmique à laquelle ils ont recours et sur les systèmes utilisés pour cette activité ». L’objectif est d’assurer une transparence du système en permettant, par cette divulgation sollicitée, à l’AMF d’ouvrir la boîte noire[54]. En tout état de cause, le régulateur financier dispose de la possibilité d’accéder à ces d’informations grâce à l’article L. 621-8-4 du Code monétaire et financier, qui lui permet d’obtenir « tous documents ou informations, quel qu’en soit le support, utiles à l’exercice de sa mission de veille et de surveillance ». Or, l’algorithme est une information au sens de ce texte. Et l’on trouve le même type de dispositions en matière bancaire. Par application de l’article L. 612-24, alinéa 2, le secrétaire général de l’ACPR pourrait obtenir la transmission d’un algorithme dont il estimerait, par exemple, que ce dernier est à la source de biais dans ses résultats.

15. Certains des projets récents n’ont pas repris le principe d’une divulgation sèche et générale[55] ou s’en sont tenus à une révélation limitée de l’algorithme avec pour seule finalité le contrôle par les autorités publiques[56]. D’autres estiment que le processus devrait être documenté sans pour autant pencher pour une révélation de principe[57]. Cela étant, la communication de l’algorithme, hors du cadre des autorités publiques, n’est pas envisageable. Il s’agit d’une « idée préconçue », d’un « dogme qu’il convient de démystifier »[58]. Le Parlement européen reconnaît que « la divulgation du code informatique lui-même ne résoudra pas le problème de la transparence de l’IA parce qu’il ne révélerait pas les biais inhérents qui existent et ne permettrait pas d’expliquer le processus d’apprentissage automatique »[59]. En effet, transmettre l’algorithme à l’utilisateur rencontre plusieurs obstacles. Une telle révélation porte atteinte au secret des affaires[60] et au respect de la propriété intellectuelle[61]. L’algorithme qui aide le conseiller à se décider, pour l’obtention d’un financement, peut reposer sur des choix stratégiques, et notamment sur des éléments confidentiels sur lesquels l’établissement a voulu insister, sans pour autant que ceux-ci ne soient des biais discriminants. Ensuite, la publication du code ne revêt guère d’utilité dans la mesure où « l’algorithme restera toujours structurellement opaque »[62]. Il s’agit d’une réalité informatique : certains algorithmes demeurent pour l’instant inexplicables, en ce qui concerne le résultat atteint. L’on peut bien sûr se lancer dans de fines recherches sur l’explicabilité[63]. Mais la problématique n’est dès lors plus juridique. Enfin, l’algorithme, « derrière un voile de codes que nous ne pouvons ni facilement lire ni facilement comprendre »[64], revêt une part de mystère pour le juriste et plus généralement pour le consommateur. Le langage informatique est indéchiffrable et l’on se trouvera bien en peine pour le comprendre, une fois que le code a été transmis. On peut connaître ce que l’on met dedans (les inputs), et ce qui en ressort (les outputs), sans pour autant assimiler la séquence qui permet de passer de l’un à l’autre si elle est dévoilée, à supposer même que celle-ci puisse d’ailleurs être expliquée. La divulgation n’est donc guère intéressante et pourrait nuire à la transparence. L’on aurait l’impression que cette dernière est assurée par la seule divulgation quand pourtant l’objet de celle-ci est indéchiffrable pour le quidam[65]. Dans ce cas, la transparence n’est rien d’autre qu’un alibi.

16. La conception traditionnelle de la transparence, au sens d’une divulgation, revêt un intérêt si elle est soigneusement circonscrite. Pour ce qui concerne la révélation du système, celle-ci ne doit devenir une obligation que si l’IA est en interaction directe avec le client ou si l’adoption d’une décision entièrement automatisée repose sur un tel système. S’agissant de la divulgation du fonctionnement, et de l’algorithme source, seul le régulateur et les autorités publiques devraient pouvoir en être les destinataires. Pour le reste, l’exigence de transparence revient à esquisser les contours d’une autre de ses facettes : la compréhension.

II. La transparence par la compréhension

17. Se cantonner à la divulgation du code n’est pas suffisant, ni même nécessaire. Pour lutter efficacement contre l’opacité de certains algorithmes d’apprentissage automatique, leur fonctionnement doit être compris. Cette compréhension, qui passe tout à la fois par l’explication (1.) et l’évaluation (2.), permet la mise en place d’une IA digne de confiance.

1. Expliquer

18. Compte tenu du langage informatique, un client n’est pas en mesure de comprendre les raisons qui, par exemple, ont conduit à ce que l’on refuse sa demande. Aussi convient-il de « traduire » ce code, c’est-à-dire d’en restituer le fonctionnement dans un langage clair, compréhensible et accessible pour le client. L’enjeu n’est pas de divulguer le code, mais d’expliquer à l’utilisateur la démarche que le logiciel emprunte, dans tous ses éléments, pour parvenir à la décision l’ayant affecté. Une décision peut en effet, sous les réserves précitées, être explicable, sans pour autant qu’elle soit intelligible. C’est pour cette raison que la compréhension est un élément central de la réflexion. Cette position est adoptée par de nombreux instruments déjà cités. Les lignes directrices du groupe d’experts de l’Union évoquent la notion d’« explicabilité technique ». Celle-ci suppose que « les décisions prises par un système d’IA puissent être comprises et retracées par des êtres humains »[66]. Le Parlement européen « fait observer que les systèmes d’IA devraient pouvoir être expliqués aux humains et devraient fournir des informations utiles », tandis que l’OCDE rappelle, pour permettre la transparence, la nécessité de « favoriser une compréhension générale des systèmes d’IA »[67]. Quant à elle, la Déclaration de Montréal est éloquente : « les décisions des SIA affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation »[68]. Récemment, l’ACPR a proposé, dans un document de réflexion, le concept de « niveaux d’explication » qui tente de « résumer la profondeur d’une explication dans une seule métrique »[69]. Le niveau 1, dit d’« observation », estime que l’explication pourrait être obtenue, par exemple, « de façon analytique, par une fiche descriptive de l’algorithme, des modèles produits et des données utilisées […], sans nécessiter une inspection du code ni des données elles-mêmes »[70].

19. La transparence change profondément de dimension. Traditionnellement entendue, celle-ci revient à donner à voir ce qu’il y a derrière l’objet de l’opacité. La divulgation assure imparfaitement cette fonction lorsqu’elle est confrontée aux algorithmes d’apprentissage automatique. En matière d’IA, la transparence doit revenir à mettre à la disposition du consommateur les moyens de comprendre, par une explication, le système et ses résultats. En somme, il faudrait distinguer, au sein même de l’étiquette éthique de la transparence, l’explicabilité, d’essence plus technique[71], et l’explication, laquelle ressort du travail de l’établissement bancaire lui-même. Se pose alors la question de ce qu’il faut expliquer et dans quelles occasions. En premier lieu, l’explication doit s’articuler autour, non seulement du fonctionnement même du système, dans ses principaux paramètres, mais également en tenant compte de la qualité des données entrées et de ce qui en ressort. Ainsi doit-on être en mesure d’expliquer et de démontrer au client que le jeu de données est lui-même exempt de biais[72] et qu’à tout le moins, si ceux-ci sont techniquement impossibles à effacer, des mécanismes sont prévus pour en corriger les effets. C’est ce que résume en partie la Déclaration de Montréal, selon laquelle « la justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications que l’on exigerait d’un être humain prenant le même type de décision »[73]. En second lieu, quand ? L’explication devrait intervenir dès que le client la demande lorsqu’il est concerné par une prise de décision entièrement automatisée, ce qui est, pour l’instant dans le domaine bancaire, rarement le cas en pratique. Dans les hypothèses où l’humain s’appuie sur un système d’IA pour se décider, il revient alors à l’établissement de s’interroger quant au point de savoir si la transparence, en fournissant une explication très précoce, ne peut devenir un outil de communication intéressant. En tout état de cause, en cas de contestation de la décision, l’établissement devrait alors transmettre les éléments d’explication du système d’IA. En d’autres termes, l’édiction d’une telle obligation ne devrait pas avoir, en principe, de conséquences a priori mais uniquement en cas de difficultés ultérieures.

20. L’explication du fonctionnement du système dans un langage compréhensible est au cœur de la transparence. On mesure combien le contentieux sera peut-être nourri par cet effort de pédagogie et de restitution. L’intelligibilité implique une part de subjectivité et la trop grande simplification peut parfois aussi conduire à une forme d’opacité. Il demeure qu’entre la mise à disposition d’une information se voulant claire et accessible et la divulgation d’un code ontologiquement indéchiffrable pour le profane, le choix est rapidement effectué. Mais pour parachever l’édifice, la compréhension, comme élément de la transparence, doit également passer par une évaluation.

2. Évaluer

21. La compréhension, parce qu’elle demande une maîtrise des principaux mécanismes du système, ne peut se passer d’une évaluation, afin de s’assurer techniquement que le processus fonctionne de manière socialement acceptable. Stress-tests algorithmiques, audits, études d’impact[74] : ces éléments devraient être expérimentés et multipliés, ainsi que des auteurs l’ont déjà justement proposé[75]. Des obligations circonstanciées de reporting, pour ce qui concerne les décisions prises à l’aide d’un outil IA, pourraient être adoptées, contraignant les établissements bancaires y recourant dans leurs processus décisionnels tournés vers la clientèle, à rendre compte de leur activité algorithmique auprès de l’ACPR. L’autorité n’est elle-même pas hostile à recourir à l’usage de techniques reposant sur l’IA pour vérifier les obligations auxquelles sont astreints les assujettis[76].

22. Dans ce contexte, l’audit des algorithmes est une facette importante de la transparence de l’IA, visant à une meilleure compréhension des modèles d’apprentissage automatique. C’est dans cet esprit que le rapport Villani propose la constitution d’« une fonction assermentée d’audit des algorithmes »[77]. Il s’agit de créer un corps d’experts dont les compétences leur permettraient de « procéder à des audits d’algorithmes et de bases de données sur pièce, et procéder à des tests par tous moyens requis. » Les experts testeraient alors l’équité et la loyauté du programme et « le fournisseur du système pourrait être contraint à leur ouvrir une application particulière permettant de tester son programme sur des masses d’utilisateurs artificiels »[78]. Sans doute n’est-il pas nécessaire de créer à cette fin une nouvelle autorité administrative indépendante. Mettre en place une sorte d’autorité centrale de l’audit algorithmique ajouterait une source de complexité au paysage déjà encombré des AAI. Mieux vaudrait privilégier la voie d’un rattachement desdits experts aux autorités existantes : AMF et ACPR.

 

23. En conclusion, la transparence des modèles d’IA mérite d’être repensée. Le contexte bancaire au sein duquel de nouvelles solutions se déploient en est l’illustration. L’intérêt du client doit être nécessairement conjugué avec celui de l’établissement. Transparence par la divulgation, transparence par la compréhension, telles sont les deux facettes de ce qui constitue une exigence au cœur de l’encadrement de l’IA et qui favorise cette heureuse conjugaison. Faut-il pour autant réglementer en ce sens ? La réponse est affirmative, tout en conservant à l’esprit que « le couple innovation/protection constitue le point d’équilibre de toute régulation »[79]. On a justement avancé que l’éthique, en matière d’IA, était « la première étape d’une marche vers le droit »[80]. Elle permet en effet d’évoquer la question d’un encadrement sans forcément se trouver immédiatement face à l’écueil de la critique consistant à voir dans l’instrument juridique un élément bridant l’innovation. Les réflexions sur l’éthique doivent se poursuivre, car elles suscitent l’avènement, dans le monde juridique, de certains concepts importants. Ainsi en va-t-il de la transparence, gage de la confiance que l’utilisateur met dans l’IA. Or, la banque ne peut se passer de confiance. Mais il faut « remettre le droit au centre du processus normatif »[81].

Il demeure que l’on ne saurait se lancer seul dans la réflexion sur un éventuel encadrement législatif des usages de l’IA dans le domaine bancaire. Une stratégie globale, au moins à l’échelle communautaire, doit être entreprise. La concurrence entre les places est saine[82]. Mais sans une démarche commune, le risque serait que se développent ailleurs des approches moins « ethical friendly ». Une telle asymétrie serait néfaste pour le « développement vertueux »[83] des services FinTech. Pourtant, celui-ci s’impose rapidement. Peut-être est-il moins loin que l’on ne le pense ce temps où l’on pourra tout simplement payer avec son doigt, chemin faisant vers la lune, comme l’a si joliment filmé récemment James Gray, dans Ad Astra (2019), une illustration pour le moins significative de la digitalisation du domaine bancaire.

 

[1]  N. Mathey et G. Bourdeaux, « Vers une régulation des FinTechs ? », RD Bancaire et fin., mars 2017, dossier 15, n° 1; v. égal., N. Martial-Braz, « L’apport du numérique au droit bancaire : l’émergence des FinTechs », RD bancaire et fin., janv. 2017, dossier 2, n° 1 ; OCDE (2019), L’Intelligence artificielle dans la société, Éditions OCDE, Paris, p. 64 et s.

 

[2]  N. Mathey et G. Bourdeaux, art. préc., n° 1.

 

[3]  Sur cette distinction, v. O. Klein, « Stratégies de la banque de détail face à la révolution technologique », Rev. éco. fin, 2019/3, n° 135, p. 193.

 

[4]  Accenture évalue à 500 milliards de dollars le montant que peuvent récupérer les banques dans le secteur des paiements : Two ways to win in payements, Accenture Global Payments Pulse Survey, 2019. Capgemini évoquait 512 milliards, d’ici 2020 : Capgemini Research Institute, Growth in the Machine. How financial services can move intelligent automation from a cost play to a growth strategy, 2018, p. 5.

 

[5]   M. Teller, « Du droit et des algorithmes. Libres propos sur la notion d’algorithme, cet impensé du droit », Mélanges AEDBF, vol. VII, Revue Banque Édition, 2018, p. 263.

 

[6]   H. de Vauplane, « Les FinTech et la réglementation bancaire et financière », Banque et Stratégie, n° 339, sept. 2015, p. 32 ; v. égal. l’étude de Baker & McKenzie, Ghosts in the machine. AI, risks and regulation in financial markets, 2016.

 

[7]   L. Weill, « L’impact des Fintech sur la structure des marchés bancaires », Rev. éco. fin, 3-2019, n° 135, p. 181 ; D. W. Arner, J. Barberis et R. P. Buckley, « FinTech, RegTech, and the Reconceptualization of Financial Regulation », 37 Nw. J. Int’l L & Bus. 2017, p. 371, spéc. p. 378.

 

[8]  N. Mathey, « Les enjeux juridiques de la digitalisation du secteur bancaire », RD Bancaire et fin., nov.-déc. 2019, Dossier 49.

 

[9]  Ch. Brumer et Y. Yadav, « Fintech and the Innovation Trilemma », Geo. L.J., n° 107, 2019, p. 235, spéc. p. 270.

 

[10]  V. par ex., J.-G. Ganascia, Intelligence artificielle, Vers une domination programmée ?, Le Cavalier Bleu, 2017, p. 33.

 

[11]  Pour une explication, v. le rapport de la CNIL, « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle », déc. 2017, p. 18 et s.

 

[12]  C’est le parti terminologique de  l’ACPR, « Intelligence artificielle : enjeux pour le secteur financier. Document de réflexion », déc. 18, p. 7 : « […], il semble utile, pour l’objet de ce document, de restreindre le concept d’IA à des programmes qui disposent au minimum d’une capacité d’apprentissage autonome, autrement dit aux algorithmes de machine learning ». C’est à eux que s’intéressent également le second document de l’ACPR : ACPR, Gouvernance des algorithmes d’intelligence artificielle dans le secteur financier, Document de réflexion, juin 2020.

 

[13]   Ch. Hurlin et Ch. Pérignon, « Machine Learning et nouvelles sources de données pour le scoring de crédit », Rev. éco. fin, 3-2019, n° 135, p. 21.

 

[14]  N. Mathey et G. Bourdeaux, art. préc., n° 1 ; v. égal., distinguant diverses étapes chronologiques dans le sens de FinTech : D. W. Arner, J. Barberis et R. P. Buckley, « The evolution of FinTech : a new post-crisis paradigm ? », Geo. J. Int’l L., n° 47, 2016, p. 1272.

 

[15]  N. Martial-Braz, art. préc., n° 1.

 

[16]  H. de Vauplane, art. préc. (dans le domaine financier)

 

[17]  A. Lelièvre, « Les banques américaines pourraient perdre 200 000 emplois dans la prochaine décennie », Les Échos, 2 oct. 2019.

 

[18]  V. déjà le rapport du Conseil d’État, Le Numérique et les droits fondementaux, 2014, La Documentation Française, p. 23 (à propos de la transparence nécessaire lorsque les algorithmes sont utilisés pour prendre des décisions à l’égard d’une personne) ; E. Jouffin, « Faut-il redouter l’IA ? », Banque et droit, hors-série, oct. 2019, p. 7.

 

[19]  Parmi l’abondante littérature sur le problème de la boîte noire, v. le rapport Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, mars 2018, p. 140 et s. ; M. Teller, art. préc., spéc. p. 265 ; Y. Meneceur, L’intelligence artificielle en procès. Plaidoyer pour une réglementation internationale européenne, Bruylant, 2020, p. 160.

 

[20]  Rapport Villani, préc., p. 142.

 

[21] Ibid., p. 142.

 

[22]  Pour une recension, v. G. Loiseau et A. Bensamoun (dir.), Droit de l’intelligence artificielle, LGDJ, coll. « Les intégrales », 2019, par H. Barbier, n° 15 et s.

 

[23]  C. Castets-Renard, « Comment construire une intelligence artificielle responsable et inclusive ? », D. 2020, p. 225.

 

[24]  G. Loiseau et A. Bensamoun, op. cit., par H. Barbier, n° 45 et s..

 

[25]  Rapport Villani, préc., p. 142 : « à long terme, l’explicabilité de ces technologies est l’une des conditions de leur acceptabilité sociale ».

 

[26]  Selon le groupe d’experts indépendants de haut niveau sur l’IA mis en place par la commission européenne, la transparence est l’une des exigences pour une IA dite « digne de confiance » : HLEG on AI, Ethics Guidelines for Trusworthy AI, Avr. 2019.

 

[27]  M. Teller, « Éthique et IA : un préambule pour un autre droit », Banque et Droit, Hors-série, oct. 2019, p. 38.

 

[28]  L’ACPR privilégie le concept de niveau d’explication : v. ACPR, « Gouvernance des algorithmes… », doc. préc., p. 14 et suiv.

 

[29]  S. Merabet, Vers un droit de l’intelligence artificielle, Thèse, Aix-Marseille, dir. H. Barbier, 2018, n° 325.

 

[30]  V. Chocron, « Le Crédit Mutuel déploie le robot d’intelligence artificielle Watson dans son réseau », Le Monde, 20 avr. 2017.

 

[31]  Monetary Authority of Singapore, Principles to Promote Fairness, Ethics, Accountability and Transparency (FEAT) in the Use of Artificial Intelligence and Data Analytics in Singapore’s Financial Sector, 13e recommandation, p. 12.

 

[32]  S. Merabet, thèse précitée, n° 327, considérant qu’il n’est pas nécessaire de divulguer ce qui est évident.

 

[33]  J.-B. Bernardeau, « Toulouse : un robot pour accueillir les clients d’une agence Crédit Agricole », Le Figaro, 9 mars 2019.

 

[34]  HLEG on AI, op. cit., p. 22.

 

[35]  Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne  globale sur l’intelligence artificielle et la robotique (2018/2088(INI), n° 175.

 

[36]  COM(2020) 65 final, Livre blanc. Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance, févr. 2020, p. 23.

 

[37]  OCDE, Recommandation du Conseil sur l’intelligence artificielle, OECD/LEGAL/0449.

 

[38]  Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, 2018 : v. le 5e principe, point 8.

 

[39]  Pour d’autres fondements, de lege lata, v. S. Merabet, thèse précitée, n° 326. Pour la Commission, «aucune information ne devrait être fournie, par exemple, dans des situations où il est d’emblée évident pour les citoyens qu’ils interagissent avec un système d’IA », v. Livre blanc, préc., p. 23.

 

[40]  Décl. préc., point 9 ; v. égal. le point 8 : « tout utilisateur devrait savoir si une décision le concernant ou l’affectant a été prise par un SIA ».

 

[41]  Règl. (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 : JOUE, 4 mai 2016, L. 119/1.

 

[42]  Le RGPD caractérise « une régulation émergente des ressources de l’IA » : A. Sée, « La régulation des algorithmes : un nouveau modèle de globalisation », RFDA, 2010, p. 830.

 

[43]  Règl. préc., cons. n° 72.

 

[44]  N. Martial-Braz, « L’apport de l’intelligence artificielle à la banque. Enjeux et contraintes en matière de données à caractère personnel », RD bancaire et fin., nov.-déc. 2019, dossier 53, spéc. n° 16.

 

[45]  L’ACPR fait observer que certains humains peuvent hésiter à prendre des distances avec les résultats de l’algorithme, par crainte de voir leur responsabilité engagée (v. not. p. 23, évoquant une éventuelle tendance à suivre systématiquement les résultats de l’algorithme).

 

[46]  Rapport Villani, préc., p. 140.

 

[47]  En programmation classique, le modèle est par définition explicable : v. ibid., préc., p. 141.

 

[48]  À propos des biais genrés « qui peuvent apparaître à plusieurs étapes du processus algorithmique », dans la modélisation et la constitution des bases de données, v. J. Charpenet et C. Lequesne Roth, « Discrimination et biais genrés. Les lacunes juridiques de l’audit algorithmique », D. 2019, p. 1852.

 

[49] Ibid., p. 145.

 

[50]  La modification du droit français n’a pas été exactement similaire, v. N. Martial-Braz, « L’apport de l’intelligence artificielle à la banque… », art. préc., n° 16 ; v. égal. J. Rochfeld, « L’encadrement des décisions prises par algorithme », Dalloz IP/IT, 2018, p. 474.

 

[51]   Règl. préc., art. 13 et 14. La question de savoir si le RGPD offre un droit à l’explication (Right to explanation) donne lieu à un débat important et à une littérature abondante : v. S. Wachter, B. Mittelstadt et L. Floridi, « Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation », Int’l Data Privacy Law, 2017, 7 (2), p. 76 ; v. estimant que le RGPD ne répond pas utilement à toutes les difficultés liées à l’opacité, C. Castets-Renard, « Accountability of Algorithms in the GDPR and Beyond : A European Legal Framework on Automated Decision-Making », Fordham Intellectual Property, Media and Entertainment Law Journal, 2019, vol. 30, art. 3, p. 91.

 

[52]   L’exploitant d’une plateforme doit « délivrer au consommateur une information loyale, claire et transparente » (C. conso., art. L. 111-7). Certains dispositifs d’IA peuvent être concernés : v. G. Loiseau et A. Bensamoun (dir.), op. cit., par H. Barbier, spéc. n° 48.

 

[53]  C’est du reste la position de l’ACPR, dans son document de juin 2020, lorsqu’elle théorise ses niveaux d’explication.

 

[54]  Cela aura un impact sur le recrutement des régulateurs (comp. H. de Vauplane, art. préc., à propos de l’évolution du profil des collaborateurs du domaine financier).

 

[55]  V. les recommandations de l’OCDE.

 

[56]  V. la 4e règle du 5e principe de la Déclaration de Montréal.

 

[57]  HLEG on AI, op. cit., p. 22.

 

[58]  M. Teller, « Éthique et IA : un préambule pour un autre droit », art. préc., spéc., p. 42.

 

[59]  PE, résol. préc., n° 166.

 

[60]  C. Sappa, « Le secret des affaires dans la société algorithmique : une présence profitable », RTD com. 2019, p. 847 ; v. égal. S. Merabet, thèse précitée, n° 336.

 

[61]  N Weinbaum et M. Delamorinière, « Algorithmes en milieu bancaire : une équation à deux inconnues entre propriété et transparence », Banque et Droit, n° 176, nov.-déc. 2017, p. 22.

 

[62]  M. Teller, « Éthique et IA : un préambule pour un autre droit », art. préc., spéc., p. 42.

 

[63]  Étant entendu que « l’explicabilité d’un système […] pourrait réduire sa précision » : HLEG on AI, op. cit., p. 22.

 

[64]  M. Teller, « Du droit et des algorithmes… », art. préc., spéc. p. 270.

 

[65]  Ce qui, en un sens, s’apparenterait à de l’ ethical washing, au sens où l’expose C. Castets-Renard, art. préc.

 

[66]   HLEG on AI, op. cit., p. 22, estimant que « dès qu’un système d’IA a une incidence sur la vie des personnes, il devrait être possible d’exiger une explication appropriée du processus de décision du système d’IA ».

 

[67] OCDE, rec. précitées.

 

[68]   Il s’agit de la 2e règle du 5e principe.

 

[69]  ACPR, doc. préc., juin 2020, p. 14.

 

[70] Ibid., p. 14 ; le niveau 2 évoque également la notion de « présentation simplifiée d’éléments explicatifs ».

 

[71]   Laquelle peut toutefois avoir un intérêt, si elle est techniquement possible, dans le cadre d’une expertise plus poussée et, par exemple, dans le cadre d’un dialogue entre le régulateur et l’établissement bancaire.

 

[72]   Ainsi évolue-t-on effectivement, pour ce qui concerne le domaine bancaire, de la notion de Big Data à celle de Smart Data, v. M. Teller, « Éthique et IA : un préambule vers un autre droit », art. préc.

 

[73]   Décl. Préc., 2e règle, 5e principe.

 

[74]  C. Castets-Renard, art. préc.

 

[75]  Sur ces approches, v. M. Teller, « Éthique et IA : un préambule vers un autre droit », art. préc., évoquant également l’idée d’une approche contrefactuelle permettant de tester l’algorithme pour déterminer si des biais existent.

 

[76]  ACPR, « Intelligence artificielle : enjeux pour le secteur financier », préc., p. 28. Prévoir la transparence, dans une stratégie by design, dès la conception du modèle est une piste importante.

 

[77]  C. Villani, rapport préc., p. 143.

 

[78] Ibid., p. 143 ; v. égal. Castets-Renard, art. préc.

 

[79]  H. de Vauplane, « L’environnement réglementaire des FinTechs au sein de l’Union européenne », Banque et Stratégie n° 373, oct. 2018.

 

[80]  M. Teller, « Éthique et IA : un préambule vers un autre droit », art. préc.

 

[81]  C. Castets-Renard, art. préc.

 

[82]  Comme le fait observer un auteur, « l’environnement réglementaire et le mode de fonctionnement du régulateur constituent des éléments de décision dans le choix du pays d’accueil » : H. de Vauplane, « Quelle réglementation pour les FinTech », Revue Banque n° 799, sept. 2016.

 

[83]  Selon l’expression de N. Martial-Braz, « L’apport du numérique au droit bancaire : l’émergence des FinTechs », art. préc.

 

À retrouver dans la revue
Banque et Droit Nº192