Toute innovation bénéficie d’une période de grâce pendant laquelle elle peut se développer sans contrainte. En France ou en Europe, cela dure généralement jusqu’à ce que son utilisation professionnelle, ou son impact sur les consommateurs ou les marchés, atteigne un niveau suffisant pour attirer l’attention des régulateurs. En matière d’intelligence artificielle (IA), plus que de l’AI Act, la contrainte réglementaire vient surtout du Règlement général sur la protection des données (RGPD), et plus précisément des lignes directrices du G29 sur la prise de décision automatisée et le profilage, désormais pleinement avalisées par l’EDPB (European Data Protection Board).
Les contraintes réglementaires liées à l’IA sont très inégalement réparties selon les activités. Ainsi, la banque de financement et d’investissement, avec des usages de l’IA concentrés principalement sur la surveillance des opérations de marchés et la lecture automatique de documents, en est pratiquement exempte. Dans le premier cas, l’activité est encadrée par le règlement abus de marchés, et les sanctions décidées par les autorités de marchés et les autorités judiciaires, ce qui laisse peu de risques à encadrer au niveau des banques, tant par le RGPD que par l’AI Act. L’analyse de documents, de son côté, reste encore totalement libre.
Il en va tout autrement de l’usage de l’IA dans la banque de détail, avec des degrés variés de contraintes réglementaires selon les cas.
Blanchiment, financement du terrorisme, fraude
Le RGPD et la 4e Directive Lutte contre le blanchiment des capitaux et le financement du terrorisme (LCB-FT) ayant été rédigés à la même période, les textes s’autoréférencent, et la pratique est admise dans tous ses composants, y compris tout usage de l’IA, que ce soit pour le contrôle des listes de sanctions ou pour l’analyse transactionnelle. La Commission nationale Informatique et Libertés (Cnil) est la seule, en France, à avoir exigé une analyse d’impact pour la mise en place de systèmes de détection LCB-FT.
L’AI Act est quant à lui muet sur le sujet, ce qui signifie qu’il n’a pas rangé la LCB-FT dans les traitements IA à haut risque pour les individus. Malgré cela, la Fédération bancaire européenne s’est inquiétée de savoir si les traitements LCB-FT pouvaient entrer dans la définition des traitements IA à haut risque « visant à déterminer la probabilité qu’une personne physique commette une infraction ». Cela est très peu probable. En effet, la classification d’un client en « risque élevé LCB-FT » signifie juste que, de par son activité, son lieu de résidence ou les produits et services utilisés, il est plus exposé au risque de blanchiment que des clients à risque moindre. L’usage de l’IA dans ce domaine ne vise pas (encore) à déterminer la probabilité a priori qu’un client s’apprête à blanchir de l’argent ou commette ou un acte terroriste. Les banques peuvent donc normalement être tranquilles sur le sujet.
Concernant la lutte antifraude, le RGPD ne prévoit pas de contraintes spécifiques, et en France, la position de la Cnil sur le sujet a radicalement changé au cours des 15 dernières années. Là où, par le passé, il était encore interdit de conserver des listes de fausses identités, les interconnexions de fichiers et les algorithmes de détection à machine learning sont désormais communément admis.
Dans l’AI Act, le texte finalisé (quoique non encore voté) exclut spécifiquement des traitements IA à hauts risques la lutte contre la fraude dans les services financiers. Même si le texte ne passe pas tel quel, il est peu probable que le sujet fasse l’objet de restrictions en définitive.
Credit scoring et credit pricing
L’activité la plus impactée, en particulier parce qu’elle a pris une ampleur considérable au cours des dernières années, est l’utilisation de l’IA dans l’évaluation du risque de crédit. Qu’il s’agisse de catégorisation client, d’octroi de crédit ou de pricing personnalisé, tous ces aspects rencontrent des obstacles réglementaires croissants.
Dans ses lignes directrices sur le profilage, le G29 a explicitement exclu le score de crédit de la base légale « nécessaire pour l’exécution d’un contrat », renvoyant le sujet vers l’intérêt légitime. Sachant qu’il précise quelques paragraphes plus loin que l’intérêt légitime implique de respecter les droits fondamentaux des personnes, et donc que le système utilisé doit pouvoir garantir la non-discrimination.
Dans ce texte, le G29 laisse encore une marge de manœuvre importante aux banques. L’AI Act est en revanche allé beaucoup plus loin, en classant parmi les traitements IA à hauts risques « les systèmes d’IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit ». La seconde partie de la phrase est particulièrement surprenante. En effet, s’il est compréhensible que les législateurs cherchent à éviter la discrimination dans l’accès au crédit, ce qui est expliqué dans le considérant correspondant, il est beaucoup plus difficile de justifier cette mesure dans le cas des notations de crédit, qui ne sont pas directement liées à l’octroi, et dont l’effet sur les individus est très indirect.
Quoi qu’il en soit, ce classement n’a fait l’objet d’aucune remise en question lors des trilogues, et l’ensemble des contraintes associées (déclaration publique des systèmes, conception orientée des jeux de données, documentation, logs, accréditation) s’appliquera aux systèmes d’IA développés, modifiés ou mis en place par les banques sur ces thématiques à compter de l’entrée en vigueur du règlement. Seuls échapperont à ces contraintes les systèmes auto-apprenants déjà en place dont les modifications, même postérieures à l’entrée en vigueur du règlement, étaient prévues en tant que fonctionnalités des systèmes dès leur mise en service.
Quant aux systèmes d’IA prévus mais non encore élaborés à l’entrée en vigueur de l’AI Act, le texte finalisé comporte l’obligation d’obtenir le consentement des personnes pour tester les IA sur des données réelles, sauf à utiliser les sandboxes réglementaires... un cas peu probable dans le cas des établissements financiers.
Même s’il s’agit de lutter contre la discrimination dans l’accès aux services financiers, les mesures sont jugées par beaucoup comme excessives. Comme cela est rappelé dans la réponse de la FBE, les exigences de transparence du RGPD et de la directive sur le crédit à la consommation, ainsi que les contraintes de gouvernance et de maîtrise des risques des établissements de crédit, couvrent déjà une bonne partie des sécurités pertinentes. Néanmoins, il faut se rappeler que peu de temps encore avant l’arrivée du RGPD, la Cnil refusait des systèmes de scoring comportant des critères discriminants tels que le sexe ou le lieu de résidence, quand bien même les statistiques leur donnaient raison. Il était donc évident que des systèmes d’IA, par définition plus ouverts dans leur construction, seraient sujets à toutes les restrictions permettant de détecter ce type de « dérive » avant leur mise en place.
Au final, la marge de manœuvre des établissements est donc relativement mince : capitaliser sur les systèmes d’IA existants, les adapter de manière à ce que les améliorations ultérieures soient auto-induites, ou acquérir des systèmes qui bénéficient eux-mêmes de ces exemptions. Pour les établissements déjà largement équipés, il s’agit surtout d’une course contre la montre, afin d’avoir des systèmes conformes et évolutifs avant l’échéance réglementaire. Pour les autres, à l’exception des PME, qui en seront en grande partie exemptées, ces exigences créent une barrière à l’innovation qui risque de creuser encore l’écart existant.
Marketing et données sensibles
Alors qu’il s’agit d’un usage largement répandu dans le reste du monde, le G29 a mis un frein au profilage à usage marketing, en déclarant qu’il « serait difficile de justifier l’intérêt légitime comme base légale d’un profilage intrusif dans un objectif marketing ou publicitaire ».
Deux éléments sont déterminants dans cette déclaration : l’intérêt légitime et le profilage intrusif. Concernant la base légale, l’exécution d’un contrat étant exclue, reste le consentement des personnes. Dans le domaine bancaire, s’il est facile d’obtenir un consentement, à l’occasion d’une connexion Internet ou de CGV, celui-ci est rarement libre, et tout aussi rarement éclairé au sens du RGPD. La possibilité d’utiliser cette base légale reste donc amplement sujette à interprétation.
Concernant le profilage intrusif, dans le cadre de la banque de détail, lorsqu’une IA a accès à l’ensemble des écritures passant sur le compte d’un client, et acquiert très vite la capacité de les catégoriser, mesurer et interpréter en termes de mode de vie, on est en plein cœur de la définition du G29.
En conséquence, et sans que l’AI Act ait besoin d’en rajouter, il reste très délicat d’utiliser le profilage client détaillé dans un objectif de marketing.
L’autre grosse inquiétude des régulateurs est la capacité d’une IA à déduire des données sensibles à partir de données transactionnelles à l’origine non typées. Par exemple, une proportion importante de dépenses de santé dans les flux d’un compte peut amener à la création d’une donnée sensible concernant la santé du client. Le même problème se pose pour la localisation géographique des flux, si besoin combinée à un type de dépenses, etc.
Concernant les données sensibles induites par une IA, le G29 est très clair : s’agissant de catégories particulières de données, leur usage est limité aux cas prévus par la loi, sauf à disposer du consentement explicite du client pour ces catégories de données, ce qui a peu de chance d’arriver. En conséquence, les banques se retrouvent avec une marge de manœuvre très réduite, avec une IA qui peut produire un grand nombre de données sensibles induites, et l’interdiction de les utiliser dans leurs processus ultérieurs... sauf à prouver l’obligation légale. Sur ce dernier point, la LCB-FT reste évidemment une valeur sûre, l’évaluation de crédit pouvant être sujette à interprétation, avec de multiples précautions. En revanche, des cas comme le pricing assuranciel, pour lequel l’usage de l’IA ouvre pourtant des possibilités multiples, risquent d’être fermés aux établissements bancaires, qui en tant que courtiers n’ont pas d’obligation légale en la matière.
Incertitude sur les systèmes à vocation généraliste
Sur le sujet des données induites, l’introduction par le Parlement de la notion de « foundation model » a soulevé la question des données produites par des IA à vocation généraliste, dont les résultats sont réutilisés dans des systèmes avals. C’est typiquement, dans certaines banques, la préclassification des opérations clients et le profilage généraliste qui peut en découler pour des usages multiples. La proposition initiale du Parlement de catégoriser tous les systèmes à vocation généraliste comme systèmes d’IA à hauts risques, dans la mesure où la réutilisation ultérieure des données est inconnue, n’a finalement pas été retenue. Au lieu de cela, le texte finalisé de l’AI Act identifie dans deux articles différents des catégories spécifiques de ces systèmes d’IA :
– ceux dont on sait qu’il existe au moins une réutilisation ultérieure à haut risque, et qui donc sont d’office considérés comme à haut risque, en tant que composants du système complet ;
– ceux dont les volumes de données traitées, et d’autres critères qui seront introduits dans des textes de second niveau, les détermineront comme IA à risque systémique, avec une liste d’exigences spécifiques associées.
Le premier cas sera facilement identifiable. En effet, selon le RGPD, un traitement de données personnelles ne peut pas ne pas avoir de finalité. Certains des systèmes avals alimentés par le système à vocation généraliste devront donc être connus dès sa mise en place. Ce qui restera à surveiller, si aucun des usages initiaux n’est à hauts risques (autrement dit, ne touche à l’évaluation de crédit), est l’évolution ultérieure des usages avals.
Dans le second cas, le compromis issu des trilogues étant très récent, le contenu des textes de second niveau n’est pour l’instant pas prévisible. Il est toutefois improbable qu’une IA fonctionnant exclusivement sur les données internes d’un établissement bancaire atteigne les critères nécessaires pour être qualifiée de risque systémique.
En définitive, l’AI Act devrait avoir sur les établissements bancaires un effet moindre que le RGPD et ses textes associés, en particulier du fait de la liste restreinte des systèmes à haut risque. En revanche, la parution définitive du texte sera l’occasion de remettre à plat l’évaluation de la conformité des systèmes d’IA existants, ou prévus à court terme, avec l’ensemble des exigences réglementaires qui s’y appliquent.
À ce moment-là, il sera utile pour les banques de faire appel à toutes les synergies possibles entre réglementations, départements et processus internes, afin de réduire au minimum le poids des contraintes existantes. Cela leur permettra de dégager les ressources utiles pour faire face aux nouvelles exigences réglementaires.