Productivité

Question pour l’IA : quid
de la responsabilité en cas
de son utilisation dans
la conformité réglementaire ?

Créé le

27.11.2024

-

Mis à jour le

12.12.2024

L’intelligence artificielle peut être particulièrement utile dans la maîtrise des risques réglementaires, pour débusquer clients et opérations à risque, gérer les alertes, voire préparer les déclarations de soupçon. Mais les établissements doivent aussi s’interroger sur une question majeure d’un point de vue réglementaire.

L’intelligence artificielle (IA) couvre un large éventail de technologies permettant aux machines de simuler l’apprentissage et la résolution de problèmes afin d’accomplir des tâches variées. En 2023, l’IA générative a marqué un tournant : elle a rendu possible la création de contenus originaux (texte, images, vidéos). Pour y parvenir, elle repose sur des grands modèles de langage et s’appuie sur de vastes volumes de données. Mais elle exige un ajustement constant pour garantir sa précision et sa pertinence.

Pour le secteur bancaire, l’IA introduit un nouveau paradigme, en raison de sa capacité d’apprentissage et de traitement de données massives. Notamment en matière de conformité réglementaire et de maîtrise des risques. Objectif ? Automatiser et optimiser des processus critiques, ce qui permet d’augmenter la précision tout en réduisant les délais et les coûts.

Très utile pour le profilage client

La première application se situe évidemment sur la connaissance client. L’usage de l’IA sur le processus de KYC (Know Your Client) transforme et optimise la vérification d’identité. Par ricochet, elle fait progresser la conformité réglementaire. Favorisant l’automatisation de tâches répétitives, l’IA renforce la précision des vérifications documentaires permettant de détecter des anomalies ou des signes de falsification. Elle participe ainsi au renforcement de la lutte contre la fraude.

L’IA permet également de mettre à jour les profils de risque des clients en temps réel, grâce à l’utilisation de multiples données incluant l’analyse comportementale. Le nom de ce processus ? Le profilage dynamique ! L’IA participe à segmenter efficacement et rapidement les clients en groupes ayant des caractéristiques communes. Avec cette approche, la mise en place de mesures de surveillance spécifiques est facilitée, tout comme la priorisation des alertes issues des dispositifs de surveillance.

Pour prévenir la criminalité financière, le filtrage de la couverture médiatique négative est sans doute l’un des éléments les plus importants pour prévenir la criminalité financière. Là encore, l’IA peut être utilisée pour effectuer un filtrage continu des médias en temps réel à la recherche d’informations négatives. Elle permet non seulement de réduire le temps et le coût de ce processus, mais également de prendre des mesures immédiates pour atténuer les risques associés à un client.

Un usage aujourd’hui limité sur la surveillance des opérations

À la surveillance des clients s’ajoute celle des opérations. L’Autorité de contrôle prudentiel et de résolution (ACPR) s’y était intéressée avec la publication d’une revue thématique sur le sujet en avril 2023. Son constat d’alors ? Si l’usage de l’IA dans les systèmes de surveillance automatisée se développe, il est encore peu répandu. L’ACPR indiquait aussi que les institutions financières n’opèrent pas systématiquement de consolidation entre les différents comptes et produits d’un même client. Dans la pratique, seule une minorité d’établissements étaient en capacité de bloquer les flux suspects au moyen d’outils générant des alertes en temps réel.

Pourtant, les systèmes basés sur des règles fixes et des seuils statiques génèrent souvent un nombre important de faux positifs. Par ailleurs, ils ne sont pas en capacité de détecter certains types de transactions présentant pourtant un caractère atypique. Alors que l’IA offre l’immense opportunité de détecter de nouveaux schémas et des circuits complexes de blanchiment avec une précision accrue, grâce à un apprentissage continu sur les données transactionnelles (historique et temps réel) et les données relatives aux clients (données structurées internes et externes, et données non structurées, de type articles de presse, réseaux sociaux).

Tentés par une déclaration
de soupçon prérédigée
 ?

Dans la suite du processus, l’IA a aussi sa place. D’abord, dans l’amélioration de l’efficacité opérationnelle du processus de traitement des alertes. Elle fournit une meilleure visualisation des données requises pour son analyse, mais aussi aide à prioriser les alertes. Cette priorisation est faite par attribution d’un score de risque (faible, moyen, élevé), en fonction de la gravité de l’anomalie, du profil de risque client, des historiques de transactions et des comportements passés. L’IA apporte ainsi au chargé de conformité une évaluation du risque de façon à l’accompagner dans sa décision.

L’étape suivante, la rédaction des déclarations de soupçon, est un exercice chronophage : il nécessite de procéder à une analyse détaillée du schéma suspicieux et des clients concernés. L’IA générative aide à la rédaction des déclarations de soupçon en proposant des narratifs prérédigés, facilitant le travail des investigateurs et limitant les risques d’omission d’informations cruciales.

Interrogations sur les boîtes noires

Les modèles d’IA peuvent être répartis en deux grandes classes : les modèles de Machine Learning (ML) et les modèles de Deep Learning (DL). Ces derniers possèdent l’avantage d’être très flexibles. Ils présentent en conséquence une meilleure capacité de détection des schémas complexes de blanchiment d’argent. Mais les modèles de DL sont aussi très opaques, ce qui leur vaut l’appellation de boîtes noires ! Autrement dit, il est impossible pour un être humain de comprendre le raisonnement suivi par le modèle pour arriver à un résultat final.

L’interprétabilité est pourtant une propriété fondamentale des outils de sécurité financière dans la mesure où les institutions financières, pour des raisons de conformité et de transparence, sont tenues de documenter chaque signalement aux autorités compétentes avec les éléments d’analyse qui ont conduit à suspecter un client. Autres difficultés éventuelles : l’obtention des jeux de données de qualité et en quantité suffisante, sans oublier la propension de l’IA à générer des réponses fausses (on parle d’hallucinations) ou la complexité à mesurer la performance des modèles.

L’appui de la loi sur l’IA

Reste la question majeure à ce jour. L’introduction de l’IA dans les dispositifs de lutte contre le blanchiment est assez nette dans les dispositifs de connaissance des clients, mais reste encore assez discrète dans les dispositifs de surveillance. Pour autant, l’IA est amenée à se développer de manière exponentielle jusqu’à devenir une nouvelle norme. Reste qu’indépendamment de la technologie utilisée, les institutions financières doivent rester en mesure d’expliquer les résultats issus des dispositifs de surveillance. Ainsi, au-delà de l’enjeu technologique du déploiement de solutions innovantes d’IA, c’est la question de la responsabilité qui se pose.

Pour y répondre, les institutions financières devront penser la place de l’humain face à l’IA, définir le niveau de supervision humaine le plus efficace, garantir la robustesse des systèmes, la sécurité des données, la transparence et l’explicabilité, et définir une gouvernance impliquant la direction, les trois lignes de défense, les fonctions support et les métiers. Pour y parvenir, les institutions financières peuvent déjà s’appuyer sur la loi européenne sur l’IA, entrée en vigueur en août 2024, qui propose un cadre de régulation basé sur une approche par les risques. Elles pourront également s’appuyer sur des réglementations déjà en vigueur comme le règlement sur la résilience numérique (DORA) et le règlement sur la protection des données (RGPD).

À retrouver dans la revue
Revue Banque Nº898