États-Unis : des algorithmes pour épauler le superviseur des marchés

Créé le

01.09.2017

-

Mis à jour le

06.09.2017

La SEC américaine, comme d’autres parmi ses homologues internationaux en charge de la surveillance des marchés financiers, n’est pas restée insensible aux atouts de l’intelligence artificielle lorsqu’il s’agit d’analyser d’importantes masses de données en un minimum de temps pour dégager des résultats pertinents. Le responsable de sa division des études économiques et du risque a décrit, dans un discours de juin dernier [1] , les expérimentations de son département en matière d’IA et de machine learning. En laissant l’ordinateur analyser les masses de données issues des publications officielles des entreprises émettrices, les chercheurs du département ont constaté qu’ils pouvaient identifier des thèmes récurrents coïncidant avec l’existence d’une fraude dans la déclaration. L’application des technologies d’IA se fait en deux temps :

une première étape vise, pour la machine, à étudier le langage et à déceler des tendances latentes, non connues au préalable des analystes, au sein d’une masse de données non nécessairement structurées. Cette étape fait appel à de l’apprentissage machine « non supervisé » ;

une seconde étape consiste à utiliser la connaissance des équipes en charge de l’instruction des dossiers et de l’application des sanctions pour « entraîner » la machine à interpréter les résultats de la première étape sur la base des expériences passées. C’est de l’apprentissage machine « supervisé ».

Le tout appliqué à une base de données sans cesse incrémentée de nouveaux documents. Une analyse rétroactive des résultats de cette méthode a montré que ces algorithmes étaient cinq fois meilleurs qu’une analyse aléatoire des mêmes documents. Mais cette technique, si elle permet de savoir quasiment en temps réel la probabilité d’une fraude, a toutefois un inconvénient majeur : celui de soulever des « faux positifs », c’est-à-dire des alertes lancées sur des cas où rien de répréhensible n’a été commis. L’intervention humaine est donc une étape critique et indispensable, l’IA se révélant essentiellement comme un outil de priorisation du travail des contrôleurs, qui peuvent se concentrer sur les cas présentant le plus de risques. Les dépositions de témoins et l’accumulation de preuves documentaires doivent continuer de jouer un rôle central dans le montage des dossiers de sanction. Et le dirigeant de la SEC de conclure : « les ordinateurs n’en sont pas à conduire par eux-mêmes des examens de conformité. Ils n’en sont même pas proches. Il est prématuré de penser que l’IA est notre prochain régulateur de marché. » S.L.

 

1 Scott W. Bauguess, Acting Director and Acting Chief Economist, DERA: “The Role of Big Data, Machine Learning, and AI in Assessing Risks: a Regulatory Perspective”, 21 juin 2017.

À retrouver dans la revue
Banque et Stratégie Nº361
Notes :
1 Scott W. Bauguess, Acting Director and Acting Chief Economist, DERA: “The Role of Big Data, Machine Learning, and AI in Assessing Risks: a Regulatory Perspective”, 21 juin 2017.