Face à des exigences réglementaires en constante évolution et une complexification des risques, les banques doivent sans cesse adapter leur dispositif de contrôle interne et de conformité. L’intelligence artificielle (IA) a ici toute sa place. Objectif : mettre en place une automatisation intelligente du contrôle. L’IA permet d’automatiser des contrôles récurrents présentant des tâches répétitives et chronophages, réduisant les contrôles manuels et limitant ainsi les erreurs humaines. Outre des gains de précision et de fiabilité des contrôles, les banques peuvent alors redéployer leurs ressources sur des missions à plus forte valeur ajoutée, comme la sensibilisation et l’accompagnement des opérationnels ou encore l’analyse et la compréhension des risques émergents.
Prenons l’exemple des contrôles Know Your Customer (KYC). Vérifier les documents justificatifs (statuts, Kbis, organigrammes, pièces d’identité, justificatifs de revenus, etc.) est une tâche chronophage, sujette à erreur. Avec de la reconnaissance optique de caractères (OCR) couplée à des algorithmes de validation, l’IA peut automatiser l’analyse de ces pièces, en vérifiant l’authenticité, la cohérence et la conformité en temps réel. Résultat : des processus plus fluides, mieux sécurisés, et un renforcement du dispositif de Lutte contre le blanchiment et le financement du terrorisme (LCB-FT).
Viser les opérations suspectes
De son côté, le machine learning apporte une approche plus intelligente, dynamique et efficace dans le screening des transactions et la priorisation des alertes selon leur criticité (suspecte, inhabituelle et faux positif). Les approches traditionnelles basées sur des règles statiques comme mots clés, seuils, liste de sanctions ou de Personnes politiquement exposées (PPE), etc. génèrent un nombre important de faux positifs et mobilisent inutilement les équipes de conformité. Apprenant en permanence à partir des données passées, le machine learning détecte en temps réel et en continu des comportements suspects, inhabituels ou à risque susceptibles d’indiquer, avant qu’elles ne se matérialisent, des tentatives de blanchiment d’argent, de financement du terrorisme ou de fraude. Et ce, sans programmation explicite. Il en résulte un filtrage plus pertinent, une réduction des faux positifs et une réactivité accrue.
Les modèles LLM (Large Language Models) offrent, eux, une assistance dans la construction d’un plan de contrôle grâce à leur capacité à analyser et à synthétiser un large volume de données d’entrée : textes réglementaires, procédures et politiques internes, rapports d’audit et résultats de contrôles précédents, registre des incidents, profils de risques... Ils permettent ainsi d’identifier des zones de risque et de proposer des contrôles adaptés. Par exemple, pour définir un plan de contrôle sur le process d’octroi de crédit aux particuliers. L’IA peut s’appuyer sur les procédures internes d’octroi, la politique de gestion des risques, les incidents historiques de non-conformité (par exemple des dossiers d’octroi incomplets) ainsi que sur la réglementation de l’Autorité de contrôle prudentiel et de résolution (ACPR) relative au devoir de vigilance et à l’analyse de solvabilité, afin de générer des points de contrôle, les éléments à vérifier, leur fréquence et les preuves de contrôle attendues. Le clustering, lui, permet de construire des échantillons statistiquement représentatifs, en sélectionnant au sein de vastes données, des groupes cohérents. Associés à la datavisualisation, ils facilitent la vérification visuelle de cette représentativité et la détection des zones à risque.
Connaissez-vous tous
les nouvelles règles ?
En matière de conformité documentaire, cette fois, l’IA permet de comparer automatiquement les procédures internes avec les textes réglementaires et d’identifier les écarts. Grâce aux technologies de Natural Language Processing (NLP) et aux LLM, l’IA réalise un gap analysis et suggère des plans d’action pour mettre à jour les politiques internes, garantissant une conformité proactive. L’IA peut même automatiser la veille en analysant un grand volume de textes réglementaires et en extrayant les obligations nouvelles. De la même façon, la réactivité et la disponibilité des chatbots d’IA facilitent l’accès à l’information et permettent un apprentissage dynamique et interactif. Les chatbots peuvent fournir des réponses instantanées aux questions avec un renvoi vers les référentiels, les règles du Groupe/régulateurs, les textes sources, les bibliothèques de bonnes pratiques, les formations pertinentes sur le sujet ou point de contrôle recherché.
Enfin, l’IA peut exploiter des algorithmes prédictifs pour identifier des tendances sectorielles annonçant l’émergence de nouveaux risques à intégrer dans l’exercice de cartographie des risques. L’IA est capable de détecter des corrélations entre différents facteurs (réglementation, marchés, incidents historiques et externes, etc.) pour anticiper les risques avant qu’ils ne se matérialisent. L’IA permet de modéliser des scénarios de risque avec leur probabilité d’occurrence (basée sur des tendances historiques et actuelles) et leur impact futur (financier, réputationnel, opérationnel) calculé grâce à des modèles.
Trois mots clés : fiable, cohérent et traçable
Que d’opportunités... Encore faut-il respecter quelques règles. Déjà, l’efficacité de l’IA dépend de la qualité des données, car des informations erronées peuvent compromettre la fiabilité de ses résultats. Une gouvernance adaptée assure leur fiabilité, cohérence, et traçabilité tout en assurant un usage éthique, sécurisé, conforme aux exigences réglementaires. L’intégration de l’IA dans les fonctions sensibles de la banque s’accompagne d’un cadre réglementaire de plus en plus strict, au niveau européen notamment.
Un, le Règlement général sur la protection des données (RGPD) en vigueur depuis mai 2018, qui vise à protéger les données personnelles. Sur ce point, non seulement la gestion des données utilisées par l’IA doit être en conformité avec le RGPD, les banques doivent mettre en place des mesures de protection des données telles qu’un cryptage des données, un stockage sécurisé afin de lutter contre les violations et les accès non autorisés. Ainsi, la mise en place d’une gouvernance des données est essentielle. Car les données sensibles sont attrayantes pour les cyberattaquants.
Second texte majeur : le Digital Operational Resilience Act (DORA) en application depuis janvier 2025, qui renforce la résilience opérationnelle des entités financières face aux risques liés aux technologies de l’information et de la communication. Sans oublier le Règlement européen sur l’IA (AI Act) en application depuis août 2024, qui encadre le développement et l’utilisation de l’IA tout en garantissant la sécurité, la transparence et le respect des droits fondamentaux. La Commission européenne a publié en juillet 2025 un code de bonnes pratiques (article 56 de l’AI Act), fixant des lignes directrices pour une mise en conformité.
Savoir faire vivre l’homme
et la machine
Ces initiatives illustrent la volonté de l’Union européenne de créer un environnement éthique tout en promouvant l’innovation technologique. Sur le sujet, les algorithmes d’IA fonctionnent souvent de manière opaque, rendant leur processus décisionnel difficilement compréhensible, d’où la qualification de « boîtes noires ». L’IA apprend à partir de données, sans être explicitement programmée, pour prendre des décisions. Cela peut engendrer des décisions involontaires erronées et discriminatoires. Si la base de données contient des biais, ces derniers peuvent être reproduits et amplifiés par l’IA, influençant ainsi ses décisions. Il est donc essentiel de garantir que les décisions prises par l’IA soient explicables et auditées par les experts humains.
L’IA s’appuyant souvent sur des services, des données ou des technologies fournis par des tiers, cela entraîne des risques liés à la qualité des données, la sécurité des algorithmes, la conformité réglementaire, la transparence décisionnelle et la dépendance technologique. Une gestion des relations avec les tiers incluant des processus d’évaluation, de surveillance et de gouvernance est nécessaire. Enfin, l’IA soulève des enjeux humains et organisationnels, nécessitant une évolution des pratiques, des rôles et des structures ainsi qu’un accompagnement du changement. Ainsi, l’IA n’a pas vocation à remplacer le jugement humain : elle le renforce, à condition que les banques la déploient avec transparence, vigilance et de manière éthique. Elle représente donc une opportunité majeure pour renforcer l’efficacité et la réactivité du contrôle interne et de la conformité.