Un atout décisif pour
la gestion des risques

Créé le

22.02.2024

Au cœur de la transformation du secteur bancaire, les technologies d’intelligence artificielle disposent d’un fort potentiel qu’il reste encore à exploiter pleinement. En France, des cas d’usage ont déjà été déployés et des projets sont en cours.

L’année 2023 restera dans les annales de l’Histoire comme celle de l’avènement grand public de l’intelligence artificielle (IA) générative1 avec des LLM (grands modèles de langage), comme GPT et ses concurrents.

L’utilisation de l’IA, traditionnelle ou générative, est au cœur des enjeux de transformation du secteur bancaire. Les principaux établissements de la place française ont tous des projets en cours, et des cas d’usage déployés. Cependant, l’exploitation du potentiel de l’IA est encore naissante et un travail considérable reste à accomplir pour un passage à l’échelle.

Société Générale a identifié plusieurs centaines de cas d’usage en IA et travaille à leur déploiement. Crédit Agricole a lancé dès 2016 un Data Lab, dans lequel des solutions d’IA sont développées pour les besoins internes. Crédit Mutuel a développé sa propre « factory interne ». BNP Paribas et BPCE ont également annoncé des initiatives.

L’IA générative ouvre des perspectives en matière d’automatisation des tâches, avec de nouveaux cas d’usage, notamment en matière de gestion des risques.

L’usage de l’IA est en cours de régulation. Une proposition de règlement européen2, l’Artificial Intelligence Act (AI Act), a été publiée le 21 avril 2021. Le Conseil européen a annoncé un accord politique3 le 8 décembre 2023.

Le texte définitif n’est pas connu, mais l’AI Act apportera des obligations4 :

– la cartographie de l’ensemble des modèles d’IA au sein du groupe bancaire (identification de la technologie utilisée, des usages, des référents) ;

– la classification des modèles par niveau de risque (nul et faible, moyen, élevé). Pour chaque famille de risque, des obligations réglementaires différenciées sont prévues. Une catégorie de risque inacceptable est introduite avec des usages prohibés ;

– des exigences sur la transparence des modèles, dont l’explicabilité ;

– l’obligation de recourir à un tiers indépendant, certifié par une autorité nationale, qui devra réaliser des audits réguliers de certains modèles classifiés à haut risque ;

– l’obligation de mise en œuvre d’une gouvernance des modèles.

De nouvelles obligations légales

Les directions des risques doivent gérer une inflation réglementaire avec la prise en charge de « nouveaux » sujets : DORA (Digital Operational Resilience Act), FiDA (Financial Data Access), exercice de stress-test cyber BCE, ou encore les cryptoactifs (MiCA, Markets in Crypto Assets).

Cela nécessite de fortes capacités de coordination et d’exécution des projets, ainsi qu’une vision transversale, complexifiant leur mise en œuvre opérationnelle. Dans ce contexte, l’IA, notamment générative, peut être un puissant levier d’optimisation de processus clés des dispositifs de gestion des risques.

L’IA traditionnelle a pris une place prépondérante dans la gestion des risques bancaires. Elle permet, entre autres, une optimisation du dispositif de détection anticipée des signaux faibles (early warning systems, EWS), révélateurs de potentielles difficultés financières des clients. En matière de gestion du risque de défaut, les principales banques françaises déploient des modèles prédictifs.

L’utilisation de l’IA peut également être source de gains opérationnels significatifs pour le risque de crédit, notamment pour les modèles d’octroi et réglementaires (A-IRB).

Les superviseurs et autorités eux-mêmes s’intéressent au sujet. L’Autorité bancaire européenne (EBA) a publié en août 2023 le résultat d’une consultation menée depuis 2021 sur l’utilisation des techniques de machine learning (ML) pour les modèles A-IRB5.

Le traitement du langage naturel par l’IA et son analyse automatisée des textes est appliqué par des banques pour assister les analystes crédit, notamment dans l’identification de « signaux faibles ».

Enfin, l’IA prend une importance croissante dans la gestion des risques de conformité, facilitant le traitement d’un volume croissant d’informations clients dans le cadre du KYC (Know Your Customer). Le ML est devenu un des piliers des modèles de lutte contre la fraude et le blanchiment d’argent et joue un rôle essentiel dans la prévention du financement du terrorisme.

L’avènement de GPT et des LLM a par ailleurs marqué une révolution dans le traitement du langage naturel, en automatisant la rédaction de textes et de codes informatiques avec un niveau de qualité inédit.

Ces technologies sont compatibles avec l’intervention humaine, afin de la cibler sur les tâches à haute valeur ajoutée. Les LLM amplifient les capacités de traitement du langage naturel. Ils vont renforcer significativement l’efficacité de l’IA et étendre son champ d’action.

Coûteuse et complexe, mais source d’efficacité

Du point de vue de la gestion des risques, l’utilisation des LLM introduit un nouveau spectre de risques réglementaires et opérationnels.

Sur les premiers LLM (et notamment GPT), l’utilisation de serveurs pour traiter les prompts6 introduit un risque significatif de fuite de données. Les enjeux de confidentialité des données et de conformité avec les réglementations (notamment RGPD) sont pris en compte par les banques dans leur usage des LLM : la plupart ont lancé des LLM sécurisés pour leurs employés, et des travaux d’amélioration par des spécialisations ciblées, notamment au travers de l’usage de RAG (Retrieval Augmented Generation).

L’intégration de code généré par IA soulève plusieurs interrogations. Un risque notable est le deskilling, un phénomène où le savoir-faire interne se perd face à une automatisation croissante. Préserver l’expertise en matière de développement de code et la maîtrise du code existant représente un défi majeur.

Enfin, le risque d’être surpassé par des concurrents maîtrisant efficacement l’IA est réel. Il est essentiel pour les banques d’apprendre à utiliser, à déployer et à industrialiser ces technologies, mais aussi d’acculturer les équipes, d’optimiser les coûts, et enfin de définir une gouvernance appropriée.

L’IA fait peser certaines menaces sur les banques, mais il s’agit d’une opportunité importante pour la gestion des risques, aux niveaux stratégique et opérationnel.

L’IA peut répondre de façon crédible à la multiplication des demandes des régulateurs et superviseurs : reportings portant sur des champs d’application toujours plus larges, nouveaux sujets tel que les risques ESG à couvrir et posant des défis conséquents en matière d’accès aux données, etc.

Tout l’enjeu pour les banques est de tirer profit de ces nouvelles technologies, coûteuses et complexes à mettre en œuvre, mais source d’efficacité en matière de gestion des risques.

À retrouver dans la revue
Revue Banque Nº890
Le « machine learning » dans les modèles IRB
Selon l’EBA, l’usage des techniques de ML dans les modèles IRB est à ce stade limité à certains travaux de modélisation. Le ML est appliqué aux travaux de développement de modèle sur le paramètre de la probabilité de défaut (PD). Il l’est plus rarement pour les autres (LGD, EAD). Au niveau de la validation de modèle, les techniques de ML sont également utilisées, notamment pour développer des modèles challengers, en complément des metrics traditionnels de validation.
Trois cas d’usage en matière de gestion des risques
Une importante banque française a développé des plateformes internet de suivi de l’actualité réglementaire et juridique. Grâce aux algorithmes de traitement du langage naturel (NLP), elle automatise la classification des articles publiés en ligne, les achemine vers les équipes pertinentes et génère des alertes si cela est pertinent.
Un système avancé de détection de fraude par chèque a été mis au point grâce à l’IA. Ce projet pluriannuel a abouti à la création de modèles d'IA surpassant en efficacité les approches traditionnelles basées sur des règles métier.
Dans le cadre des exigences réglementaires Loan Origination Monitoring (LOM, www.eba.europa.eu/regulation-and-policy/credit-risk/guidelines-on-loan-origination-and-monitoring), une solution d’identification des signaux faibles et forts s’appuyant sur l’IA a été développée. La banque s’est dotée d’une plateforme web automatisée, qui facilite la collecte d'informations, élargit le périmètre des données analysées (ex : avis clients en ligne) et optimise le processus d’ensemble via l’IA générative.
Notes :
1 L’IA générative se concentre sur la création de données, de contenu
ou de choses artistiques, de façon indépendante. Elle diffère de l’IA classique, qui se concentre sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes (définition BPI
 France).

2 Proposition de Règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle et modifiant certains actes législatifs de l’Union : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A52021PC0206.
3 Législation sur l’intelligence artificielle: le Conseil et le Parlement parviennent à un accord sur les premières règles au monde en matière d’IA - Consilium (europa.eu).
4 Obligations listées sur la base des textes et communications des instances européennes de janvier 2024. Ceci est valable pour les banques, mais également pour l’ensemble des secteurs visés par le règlement, trans-sectoriel.
5 « Report on the Use of Machine Learning for Internal Ratings-Based Models », communiqué : https://www.eba.europa.eu/publications-and-media/press-releases/eba-publishes-follow-report-use-machine-learning-internal.
6 Le prompt, en français « consigne », est une instruction ou une question donnée à un modèle de langage pour générer une réponse ou un contenu spécifique.