Lutte contre le blanchiment

Sans l’homme, l’intelligence artificielle est en échec

Créé le

24.08.2023

Dans le cadre de la lutte contre l’argent sale, les apports potentiels de l’intelligence artificielle (IA) et ses limites sont clairement identifiés. La combinaison de l’IA et de l’humain est, elle, gagnante.

Complexe et illicite, le blanchiment consiste à faire passer pour légaux ou légitimes des fonds obtenus illégalement, ce qui permet aux criminels de dissimuler l’origine de leur argent. Cette définition bien connue de tous pose les bases d’hypothèses afin de créer les modèles de détection, car les éléments clés sous-jacents au blanchiment d’argent que sont le maquillage et la dissimulation ne nous permettent pas d’être certains d’avoir une information intègre et exploitable dans le cadre de l’entraînement d’algorithmes d’IA.

Les efforts de lutte contre le blanchiment d’argent continuent d’évoluer, car les criminels trouvent de nouveaux moyens d’exploiter les vulnérabilités du système financier, en particulier sa tendance réactive (les institutions financières adaptent leurs contrôles en réaction à une attaque) et ce, même si ces dernières, le régulateur et les services de l’État tentent de rester vigilants dans l’élaboration et l’application de mesures visant à détecter, prévenir et stopper ces activités illégales. Ici, l’IA ou, plus précisément, les algorithmes d’apprentissage automatique peuvent apporter une aide précieuse.

Pour identifier les activités suspectes qui peuvent sous-tendre une activité illicite, l’IA analyse de grands volumes de données, y compris des enregistrements de transactions, des profils de clients et des modèles de comportement. L’IA permet aussi d’améliorer les systèmes de surveillance des transactions en automatisant l’analyse en temps réel afin de signaler les transactions inhabituelles, d’identifier les schémas suspects et de générer des alertes pour une enquête plus approfondie par les professionnels de la conformité. Les algorithmes d’IA sont capables d’apprendre en permanence à partir de nouvelles données et de s’adapter à l’évolution des techniques de blanchiment d’argent, améliorant ainsi la précision de la détection. En intégrant des modèles d’apprentissage automatique, les institutions financières l’évaluent plus efficacement et prioriser les clients ou les transactions à haut risque, en allouant des ressources pour une diligence raisonnable et une surveillance accrue.

À titre d’exemple, les modèles de traitement du langage naturel (NLP) extraient des informations pertinentes liées aux risques de blanchiment d’argent, aux changements réglementaires ou aux schémas illicites émergents, aidant ainsi les responsables de la conformité à rester informés et à prendre les mesures nécessaires. Les algorithmes d’IA peuvent aussi analyser des réseaux complexes de transactions financières afin d’identifier les liens entre les entités impliquées dans des activités de blanchiment d’argent. En examinant les flux de fonds, l’IA met au jour des relations cachées et potentiellement détecter des schémas de blanchiment d’argent qui impliquent plusieurs parties ou transactions.

Quoi qu’il en soit, toutes ces capacités ne restent que théoriques car seule une base informationnelle qualifiée et de qualité permet aux approches de fournir des résultats exploitables pour lutter contre les activités criminelles, en commençant par un étiquetage précis, c’est-à-dire que les transactions portant le label « authentique » le soient réellement. Si nous nous focalisons maintenant sur les techniques des criminels destinées à dissimuler la nature illicite de leurs fonds, nous pouvons immédiatement voir les implications sur les données et sur les hypothèses des modèles sous-jacents.

Focus sur les méthodes criminelles

Il s’agit dans un premier temps de s’intéresser aux structurations qui consistent à décomposer de grosses sommes d’argent en petites transactions afin d’éviter les seuils de détection et les obligations de déclaration. Ceci engendre naturellement et mécaniquement un empoisonnement de la base de données transactionnelles, et nécessite l’utilisation d’approches de modélisation adaptées – telles que celles basées sur les graphes – afin de capturer et de recombiner les séquences de façon à reconstruire la stratégie frauduleuse. Une deuxième technique consiste à utiliser des sociétés écrans afin de dissimuler la véritable propriété et les mouvements de fonds. Encore une fois, ceci peut engendrer un empoisonnement de la base informationnelle. Des juridictions off-shore dotées de réglementations laxistes et de lois sur le secret peuvent être utilisées pour masquer l’origine réelle de l’argent. Cependant, ici, une approche de clustering, c’est-à-dire l’identification puis le regroupement de transactions passant par des zones identifiées comme facilitant le blanchiment d’argent, constitue un moyen de traiter ce flux à part. Une autre approche consiste en une manipulation des factures et des transactions commerciales afin de surestimer ou sous-estimer la valeur des biens ou des services, facilitant ainsi les mouvements de fonds à travers les frontières. Encore une fois, ces situations nécessitent un traitement particulier, car la réponse n’est pas binaire, mais in fine la base de données s’en retrouve empoisonnée.

Par ailleurs, les criminels peuvent exploiter l’IA afin de manipuler les systèmes de surveillance des transactions basés sur des technologies similaires en exploitant leurs faiblesses ou en trouvant les moyens d’échapper à la détection, telles les attaques « adversariales ». Celles-ci agissent en compromettant la précision et la fiabilité des systèmes de détection du blanchiment d’argent basés sur l’IA. Il est donc nécessaire de poursuivre la recherche et le développement de modèles robustes, capables de résister à de telles attaques, tel que le machine learning adversarial.

Enfin, les modèles utilisés pour détecter le blanchiment d’argent ont parfois besoin d’accéder à des données financières et personnelles sensibles. Il est essentiel de garantir une protection adéquate de celles-ci, leur chiffrement et le respect des réglementations en matière de protection de la vie privée afin d’empêcher des usages abusifs.

Fiabiliser les systèmes

Il est important d’adopter une approche équilibrée de l’utilisation de l’IA dans la lutte contre le blanchiment d’argent, en combinant les capacités technologiques avec l’expertise et la surveillance humaines. La collaboration entre les institutions financières, les organismes de réglementation et les experts en IA est cruciale pour développer des systèmes efficaces et éthiques. Mais si cet outil est capable d’une grande puissance, il ne peut fonctionner efficacement en tant que solution autonome de prévention.

En effet, les criminels adaptent constamment leurs techniques pour échapper à la détection. Les modèles basés sur des données historiques peuvent avoir du mal à suivre les méthodes de blanchiment d’argent émergentes et sophistiquées. Ainsi, les modèles doivent être continuellement réentraînés sur les données les plus récentes pour maintenir leur efficacité : en raison de l’adaptation permanente des criminels aux systèmes de prévention, le flux d’information est par nature non stationnaire (ou seulement localement stationnaire). Cela signifie que les données passées ne sont pas nécessairement représentatives de comportements actuels ou futurs et lors de la phase d’entraînement des algorithmes, le risque de biaiser ceux-ci en les alimentant de caractéristiques erronées est très élevé. En effet, les modèles ont besoin de grandes quantités de données d’entraînement de haute qualité pour apprendre et détecter avec précision les activités illicites. Des données d’entraînement en quantités limitées ou biaisées sont susceptibles de conduire à des performances sous-optimales et à un nombre plus élevé de faux positifs ou de faux négatifs. Les institutions financières se plaignent régulièrement de la quantité de faux positifs nécessitant une vérification humaine des lignes de transaction reportées. Si les symptômes sont souvent traités, les causes sous-jacentes ne le sont pas. Nous revenons ici au problème principal : les bases de données empoisonnées, c’est-à-dire ayant un étiquetage erroné, empêchent les algorithmes d’apprendre les caractéristiques propres à chaque classe et et donc d’obtenir par la suite des résultats.

De la théorie à la pratique

Il est également nécessaire d’accorder une attention particulière aux faux négatifs, c’est-à-dire de traiter spécifiquement les transactions qui ont été considérées authentiques alors qu’elles étaient frauduleuses. Le praticien ne doit pas hésiter à considérer que certaines d’entre elles ont un sous-jacent criminel, car cela lui permettra de changer de perspective. En fin de compte, si le blanchiment d’argent représente 2 000 milliards d’euros par an, la probabilité qu’au moins une transaction criminelle ait transité par votre entité est proche de 1, et je pense que le premier pas vers une fiabilisation des systèmes est de ne pas partir du principe que notre institution a réalisé ou réalisera un sans-faute, cette philosophie est d’ailleurs partagée par le machine learning adversarial. Il est important de noter que les éléments discutés ne sont pas que théoriques, ils sont principalement le résultat d’expériences d’ampleur réalisées dans le monde professionnel grâce auxquelles les banques sont passées de parfois plus de 95 % de faux positifs à moins de 3 %.

Le déploiement de modèles d’IA pour la prévention du blanchiment d’argent doit se conformer à des cadres réglementaires et juridiques stricts. Les lois sur la protection de la vie privée, les réglementations celle des données et les restrictions sur le partage d’informations financières sensibles peuvent limiter la disponibilité et l’utilisation des données nécessaires à l’entraînement de modèles efficaces.

Les modèles utilisés dans la prévention contre le blanchiment d’argent sont souvent complexes et difficiles à interpréter. Le manque de transparence et d’explicabilité peut empêcher de comprendre comment les systèmes d’IA prennent leurs décisions. Les responsables de la conformité et les régulateurs ont besoin de modèles interprétables cependant la fiabilité et la précision de la détection du blanchiment d’argent par l’IA peut s’en trouver impactée. La prévention contre le blanchiment d’argent fait appel non seulement à des solutions technologiques, mais aussi à l’expertise humaine. Les agents de conformité et les experts financiers expérimentés possèdent une connaissance du domaine, une intuition et une compréhension du contexte que les modèles d’IA ne sont pas en mesure de saisir intégralement. Le jugement humain et la prise de décision sont essentiels pour enquêter sur les activités suspectes, identifier les faux positifs et les faux négatifs, et prendre des décisions éclairées. Les approches quantitatives peuvent générer des alertes faussement positives, signalant des transactions ou des clients légitimes comme suspects. Elles entraînent alors des enquêtes inutiles et des coûts supplémentaires pour les institutions financières. Plus inquiétants sont les faux négatifs, c’est-à-dire les transactions illégitimes qui sont traitées comme si elles étaient légitimes. En effet, une confiance excessive dans les modèles d’IA, sans surveillance ni examen humain, peut conduire à écarter des risques réels ou à des angles morts dans le processus de détection. Pour relever ces défis, il est essentiel d’adopter une approche holistique qui associe technologies et expertise humaine, des cadres réglementaires solides, une surveillance continue et une collaboration entre les institutions financières, les régulateurs et les organismes chargés de l’application de la loi.

L’IA doit être considérée comme un outil précieux pour renforcer les efforts humains dans la prévention contre le blanchiment d’argent, plutôt que comme une solution autonome.

À retrouver dans la revue
Revue Banque Nº883