1. La proposition de règlement sur l’IA poursuit un double objectif : protéger contre les risques liés à l’utilisation de l’IA tout en encourageant l’innovation. Le premier objectif de la proposition de règlement sur l’IA est d’établir un cadre juridique uniforme pour le développement, la mise sur le marché, la mise en service et l’utilisation de systèmes d’intelligence artificielle au sein de l’UE, dans le respect des valeurs de l’Union4. Concrètement, ce cadre réglementaire vise à imposer des règles contraignantes directement applicables aux différents intervenants tout au long de la chaîne de valeur de l’IA au sein de l’UE5 afin de protéger contre les effets potentiellement néfastes des systèmes d’IA, tout au long de leur cycle de vie, sur la santé, la sécurité et les droits fondamentaux consacrés dans la Charte des droits fondamentaux de l’Union européenne6. Le second objectif est de prévoir en parallèle un cadre permettant aux entreprises innovantes de se développer en faisant ainsi de l’UE un acteur de premier plan dans l’utilisation d’une IA digne de confiance7.
2. Un cadre réglementaire horizontal s’appliquant en cohérence avec les autres législations de l’Union déjà applicables aux secteurs d’activité utilisant des systèmes d’IA. Applicable à tout secteur d’activité8, la proposition de règlement sur l’IA instaure une réglementation horizontale9 harmonisée de l’IA requérant une cohérence avec la législation de l’Union existante par ailleurs applicable aux secteurs d’activité dans lesquels des systèmes d’IA à haut risque sont déjà utilisés10. Or il se trouve que le secteur bancaire est une terre d’élection de l’utilisation de la technologie d’IA mise au service des différentes activités de la banque11, allant de la relation client (de l’assistance avec le déploiement des chatbots12 ou de voicebots13 au conseil automatisé des robo-advice) à la gestion des risques (détection des fraudes, lutte contre le blanchiment, cybersécurité)14 en passant par le profilage15 et la notation (scoring) des clients. Conscient de cette réalité, le législateur européen a d’emblée indiqué qu’il conviendra « d’intégrer la procédure d’évaluation de la conformité et certaines des obligations procédurales des fournisseurs [d’IA] en ce qui concerne la gestion des risques, la surveillance après commercialisation et la documentation dans les obligations et procédures existantes au titre de la directive 2013/36/UE [dite “directive CRD”]16 » (soulignement ajouté) qui régit le cadre prudentiel des établissements de crédit17. En sens inverse, le législateur a également précisé qu’ « afin d’éviter des chevauchements », les obligations prévues par le règlement sur l’IA (i) pour les établissements de crédit, fournisseurs18 de systèmes d’IA à haut risque, de mettre en place un système de gestion de la qualité et (ii) pour les établissements de crédit, utilisateurs de systèmes d’IA à haut risque, de surveiller le fonctionnement du système sont réputées remplies dès lors que les règles relatives aux dispositifs, processus et mécanismes de gouvernance interne prévues par la directive CRD19 s’appliquent déjà à ces établissements20. Cela étant, la BCE semble vouloir aller au-delà de cette osmose équilibrée entre les obligations imposées entre le cadre réglementaire de l’IA et celles prévues par la réglementation sectorielle bancaire en soulignant que la proposition de règlement sur l’IA devrait s’appliquer sans préjudice des obligations prudentielles plus strictes incombant aux établissements de crédit prévues par la réglementation sectorielle. La BCE, dans son avis du 29 décembre 202121, a mentionné l’exemple du contrôle des dispositifs d’externalisation incombant aux établissements de crédit utilisateurs d’IA en vertu de la directive CRD22 laquelle est complétée par les orientations de l’ABE relatives à l’externalisation23. Selon la BCE, ces orientations de l’ABE devraient s’appliquer en cas d’externalisation par les établissements de crédit de systèmes d’IA.
3. Une définition large des systèmes d’IA nécessitant encore des clarifications notamment pour le secteur bancaire. En ce qui concerne la définition d’un système d’IA telle qu’elle est énoncée à l’article 3 du règlement proposé, elle est plus précise24 que la première définition proposée initialement par la Commission européenne le 21 avril 2021 qui restait vague en raison de l’objectif de neutralité souhaité de la réglementation de l’IA par rapport aux évolutions rapides des innovations technologiques de l’IA25. Si cette définition plus précise a permis d’exclure les systèmes logiciels ou les approches de programmation traditionnels plus simples, ainsi que les systèmes fondés sur les règles définies uniquement par les personnes physiques pour exécuter automatiquement des opérations26, des incertitudes subsistent encore, sur l’inclusion dans cette définition, de certaines technologies de l’IA utilisées depuis longtemps par les établissements de crédit.
4. Une approche fondée sur les risques liés à une utilisation des systèmes d’IA susceptible de porter atteinte aux droits fondamentaux. Présentation générale. La proposition de règlement impose aux fournisseurs, aux développeurs et aux utilisateurs d’IA des obligations différenciées en fonction de catégories prédéfinies de risques27 inhérents à tel ou tel usage de systèmes d’IA. Plus le risque lié à l’utilisation de tel ou tel système d’IA est élevé, plus les obligations sont strictes. Les usages des systèmes d’IA, tout au long de la chaîne de valeur de l’IA, sont classés en quatre catégories de niveaux de risque28 par rapport à l’atteinte potentielle aux droits fondamentaux29 selon que l’utilisation du système d’IA présente i) un risque inacceptable, ii) un haut risque, iii) un risque limité, ou iv) un risque faible. En dehors des systèmes d’IA à niveau de risques dit « inacceptables » et donc interdits30, ces obligations impliqueront le respect de certaines exigences, plus ou moins renforcées, en fonction des trois autres catégories de risques. Au plus haut de l’échelle de gradation de ces trois autres catégories de risques, se situent les usages31 des systèmes d’IA classés comme « systèmes d’IA à haut risque »32 dont certains sont présumés à haut risque33 dès lors qu’ils sont visés dans la liste des huit domaines mentionnée à l’annexe III au règlement sur l’IA34. Ces usages impliqueront le respect d’exigences renforcées35 en matière de système de gestion des risques36, de gouvernance des données, de documentation technique, d’enregistrement, de transparence, de contrôle humain effectif 37 et de mesure de la robustesse technique et de cybersécurité38. Au plus bas de l’échelle, figurent les systèmes d’IA à risque faible39 qui sont librement utilisables. Entre les deux, certains systèmes d’IA à risque limité impliquent des obligations de transparence, mises à la charge des fournisseurs et des déployeurs de certains systèmes d’IA notamment destinés à interagir directement avec des personnes physiques40.
Implications pour le secteur bancaire. En ce qui concerne le secteur bancaire, l’approche réglementaire fondée sur les risques est un modèle de régulation bien connu des établissements de crédit fondamentalement régis par des règles prudentielles41 qui permettent de vérifier si les risques pris par un établissement ne sont pas excessifs et ne portent pas préjudice à leur obligation de gestion saine et prudente. Cela étant, au cas présent, l’approche fondée sur les risques, prévue par la proposition de règlement, est différente de la précédente voire inversée puisque le risque n’est pas appréhendé par rapport à la protection de l’établissement de crédit mais par rapport à la protection des droits fondamentaux au sens de la Charte de l’UE qui concernent donc les personnes physiques. Dès lors que le règlement sur l’IA entend promouvoir une IA axée sur l’humain au moyen d’une approche fondée sur les risques permettant de garantir un niveau de protection élevée des droits fondamentaux des personnes physiques, les établissements de crédit devront renforcer leur processus décisionnel en intégrant cette nouvelle dimension.
5. Des activités bancaires classées comme des systèmes d’IA à haut risque alors qu’elles sont déjà fortement encadrées par la réglementation bancaire. Parmi les huit domaines de systèmes d’IA classés à haut risque au sens de l’article 6, paragraphe 2 de la proposition de règlement et dont la liste est énumérée à l’annexe III à cette proposition, figurent les systèmes d’IA utilisés pour évaluer la solvabilité de personnes physiques ou établir leur note de crédit42. L’article 6, paragraphe 3 de la proposition de règlement sur l’IA précise en outre qu’un système d’IA visé à l’annexe III dont font partie les systèmes d’IA utilisés pour évaluer la solvabilité de personnes physiques ou établir leur note de crédit est toujours considéré comme étant à haut risque lorsqu’il effectue un profilage de personnes physiques43.
Or les établissements de crédit utilisent régulièrement des modèles pour évaluer la solvabilité des personnes physiques (creditworthiness) ou établir une notation de crédit (credit scoring). Ils seraient donc assujettis aux nouvelles obligations, découlant du classement des systèmes d’IA comme système d’IA à haut risque, les systèmes d’IA utilisés pour évaluer la solvabilité de personnes physiques ou établir leur note de crédit. Dans ces conditions, les nouvelles obligations liées à la fourniture ou à l’utilisation de systèmes d’IA à haut risque par les établissements de crédit pourraient faire double emploi44, voire impliquer potentiellement des contradictions avec l’actuelle réglementation européenne bancaire. Cette dernière impose déjà des exigences en matière de gouvernance interne et de gestion des risques applicables dans le cadre de la fourniture de leurs services, y compris lorsqu’ils font usage de systèmes d’IA. La mise en œuvre de ces nouvelles obligations pourrait, en outre, engendrer des surcoûts inutiles pour l’industrie bancaire tout en freinant le plein exercice du cœur de métier des banques qui consiste principalement en l’octroi de crédits pour financer l’économie.
Il convient, certes, de relever que le règlement proposé sur l’IA vise à une meilleure articulation avec la directive dite « CRD » relative au cadre prudentiel des établissements de crédit en prévoyant que certaines obligations relatives aux systèmes de gestion de la qualité incombant aux établissements de crédit en tant que fournisseurs de systèmes d’IA à haut risque sont réputées remplies dès lors que les règles relatives à la gouvernance interne prévues par CRD sont respectées45. Il en est de même, s’agissant des obligations de surveillance du fonctionnement du système d’IA à haut risque incombant aux établissements de crédit en tant que déployeurs46 de systèmes d’IA à haut risque47. Mais cela ne concerne qu’une partie des nombreuses obligations renforcées48 prévues par la proposition de règlement. En outre, la proposition de règlement sur l’IA ne prévoit pas l’articulation avec les autres réglementations bancaires régissant les activités de crédits à la consommation49 ou immobiliers50 qui encadrent précisément l’évaluation de la solvabilité des personnes physiques et les décisions basées sur des traitements automatisés de données y compris via la technologie de l’IA51.
6. Une exigence d’analyse d’impact sur les droits fondamentaux par les banques utilisant des systèmes d’IA à haut risque pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit. La proposition de règlement52 prévoit une obligation, pour les déployeurs53 de systèmes d’IA à haut risque, destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou pour établir leur note de crédit54, (donc principalement les banques) et avant la mise en service de ces systèmes, d’effectuer une analyse de l’impact sur les droits fondamentaux de l’utilisation de ces systèmes. Cette nouvelle obligation d’analyse d’impact sur les droits fondamentaux, qui n’est pas actuellement pas prévue dans la réglementation bancaire, constituerait un frein à l’exercice habituel de leur métier d’octroi de crédits dont l’évaluation préalable de la solvabilité est déjà une obligation réglementaire55. En effet, les décisions sont souvent déterminées sur la base de la technique dite du scoring56. Il convient, par ailleurs, d’avoir à l’esprit que la protection des données à caractère personnel fait partie des droits fondamentaux tels qu’ils sont protégées par la Charte des droits fondamentaux de l’UE57. Dès lors que l’analyse d’impact peut concerner la protection des données personnelles58, il convient de rappeler que les établissements de crédit sont déjà tenus de respecter le règlement (UE) 2016/679 dit « RGPD »59. En ce qui concerne plus précisément le credit scoring, le RGPD doit en effet être pris en compte : une décision récente de la CJUE60 a conclu, pour la première fois, que (i) le credit scoring s’apparente au profilage61 au sens de l’article 22 du RGPD et (ii) qu’il constitue en tant tel une « décision individuelle automatisée » au sens de cet article, lorsque les banques lui accordent un rôle déterminant dans la décision ou non d’octroi de crédits62. Dans ce sens, la décision, fondée sur un credit scoring, est en principe interdite sauf si notamment la personne y consent. La problématique demeure identique en cas de credit scoring ou de profilage63 basé sur l’IA d’autant plus que ce dernier est défini dans le règlement sur l’IA par référence à la définition prévue par le RGPD. Cette importante dimension « respect du RGPD » soulevée par les risques induits par l’IA explique sans doute le fait que la CNIL n’a pas tardé à se manifester et a publié le 8 avril 2024 ses premières recommandations sur le développement des systèmes d’IA de manière respectueuse des droits des personnes conformément au RGDP64.
7. Un encadrement spécifique pour les systèmes d’IA à usage général en plein essor dans le secteur bancaire. Initialement non régis par la proposition initiale du règlement sur l’IA par la Commission européenne, les systèmes d’IA à usage général65 (ou plus communément « IA générative ») dont les modèles à usage général66 sont capables de générer du texte, des images et d’autres contenus (comme ChatGPT4)67 sont désormais encadrés, à l’instigation du Parlement européen, via par un régime plus strict68 compte tenu de leur puissance69 et de leur capacité à manipuler. Ces exigences encore plus strictes vont des obligations de transparence avant leur mise sur le marché par les fournisseurs, à des exigences plus fortes pour les modèles d’IA à usage général présentant un risque systémique70 en passant par le respect du droit d’auteur. Les établissements de crédit ayant recours l’IA générative, qui est en plein essor principalement dans le service fourni aux clients et dans l’optimisation des processus internes,71 lesquels sont déjà eux-mêmes considérés comme des systèmes à haut risque devront se poser la question de l’articulation entre ce régime propre aux modèles d’IA et celui encadrant les systèmes d’IA à haut risque. Des clarifications seront nécessaires à cet égard.
8. Une clarification nécessaire sur l’enchevêtrement de plusieurs autorités de surveillance en matière d’utilisation de l’IA par le secteur bancaire déjà fortement supervisé. La proposition de règlement prévoit un système de gouvernance partagé (i) entre le niveau de l’UE impliquant plusieurs organismes72 et (ii) le niveau national auprès des autorités nationales compétentes73. Dès lors que les systèmes d’IA sont assimilés à des produits74, l’autorité de surveillance du marché est définie75 comme l’autorité nationale prévue par le règlement (UE) 2019/1020 sur la surveillance du marché et la conformité des produits76. Cela pose question en termes de conflits de normes en cas d’utilisation de systèmes d’IA par les banques, sachant que la législation européenne de 2019 régissant la sécurité des produits garantit un niveau élevé de protection des intérêts publics tels que, par exemple, la protection des consommateurs. Or, cette dernière est également une des finalités recherchées par la réglementation bancaire77. Conformément au principe « même activité, mêmes risques, même surveillance », les autorités de surveillance prudentielle en matière bancaire se positionnent en tant qu’autorités naturelles de surveillance du marché des systèmes d’IA lorsqu’ils sont utilisés, fournis ou déployés par des établissements de crédit. Plus précisément, la compétence de l’ACPR, autorité de surveillance des établissements de crédit, s’impose en tant qu’autorité nationale de surveillance du marché au sens de la proposition de règlement d’autant plus que ce dernier prévoit dans une autre disposition que, « pour les systèmes d’IA à haut risque mis sur le marché, mis en service ou utilisés par des établissements financiers régis par la législation de l’Union sur les services financiers, l’autorité de surveillance du marché aux fins du présent règlement est l’autorité nationale responsable de la surveillance financière de ces établissements en vertu de cette législation dans la mesure où la mise sur le marché, la mise en service ou l’utilisation du système d’IA est directement liée à la fourniture de ces services financiers. »78(soulignement ajouté)79. Reste à savoir si l’ACPR sera investie des pouvoirs de sanction dans ce domaine, le règlement sur l’IA prévoyant des amendes administratives pour non-conformité au règlement sur l’IA80 et leur montant est fixé soit, en fonction d’un pourcentage du chiffre d’affaires annuel global de l’entreprise incriminée au cours de l’exercice précédent, soit en montant prédéterminé, le plus élevé des deux étant retenu81.
9. Un cadre réglementaire encourageant néanmoins l’innovation. C’est la première fois, qu’une norme juridiquement contraignante comme la proposition de règlement sur l’IA prévoit la mise en œuvre de « bacs à sable réglementaires » dans le domaine de l’IA82, au niveau national, pour faciliter le développement et la mise à l’essai de systèmes d’IA innovants sous un contrôle réglementaire strict avant leur mise sur le marché. Les bacs à sable réglementaires de l’IA ont pour objectif (i) de favoriser l’innovation dans le domaine de l’IA afin de garantir la conformité des systèmes d’IA innovants avec le présent règlement et d’autres actes législatifs pertinents de l’Union et des États membres, (ii) de renforcer la sécurité juridique pour les innovateurs ainsi que (iii) le contrôle et la compréhension, par les autorités compétentes, des possibilités, des risques émergents et des conséquences de l’utilisation de l’IA83. Rapporté au secteur bancaire, les conclusions à la suite d’un bac à sable réglementaire sur un système d’IA pourraient être différentes entre les entités d’un même groupe bancaire selon que telle ou telle autorité nationale compétente se prononcent dans un sens de conformité ou de non-conformité.
Conclusion. Face à un secteur bancaire fortement concerné par les enjeux de la régulation de l’IA de par les gains liés à l’utilisation actuelle ou potentielle des outils d’IA, source d’innovation technologique dans tous ses domaines d’activité, le nouveau cadre réglementaire européen sur l’IA nécessite des clarifications liées notamment à son articulation avec la réglementation bancaire et prudentielle existante qui régit les activités des établissements de crédit y compris lorsqu’ils font usage de systèmes d’IA.
Certes, la proposition de règlement de l’IA apporte déjà des réponses en assurant une cohérence avec la réglementation bancaire en intégrant certaines obligations prévues par cette dernière dans le règlement sur l’IA ou en prévoyant l’application de la réglementation bancaire pertinente pour les établissements de crédit utilisateurs de systèmes d’IA. Cet alignement sur les obligations prévues par la réglementation bancaire se justifie, à la lumière de ce commentaire, par une analogie des approches et des méthodes (approche fondée sur les risques ainsi que la mise en place de dispositifs, processus et mécanismes de gouvernance interne).
Mais de nombreuses questions suscitées sur la mise en œuvre de ce règlement sur l’IA par le secteur bancaire subsistent et elles n’ont pas échappé à l’attention des autorités de surveillance. L’Autorité bancaire européenne a, par exemple, déjà annoncé qu’elle ferait le point sur la réglementation sur l’IA en réalisant une cartographie complète des mesures prudentielles existantes et à venir ainsi que des exigences de protection des consommateurs concernant l’utilisation de l’IA dans le secteur bancaire, en se concentrant principalement sur l’évaluation de la solvabilité des personnes physiques84. La BCE, quant à elle, a également manifesté sa volonté de clarifier les attentes prudentielles en complément des obligations similaires à celles prévues par la directive CRD incombant aux établissements de crédit utilisateurs de systèmes d’IA à haut risque prévues par le règlement sur l’IA85. Il reste à espérer que le besoin « d’explicabilité » des IA soit également respecté par les autorités de surveillance prudentielle lorsqu’elles feront également elles-mêmes usage de l’IA dans le contrôle prudentiel des établissements de crédit utilisateurs de systèmes IA86. n