Le superviseur face à l’IA : entre risque émergent et nouvel instrument de contrôle

Créé le

04.09.2017

-

Mis à jour le

06.09.2017

En introduisant des modèles sophistiqués d’analyse de données, conduisant à des décisions d’investissement, l’intelligence artificielle génère de nouveaux risques que le superviseur doit appréhender. Simultanément, elle lui offre de nouveaux outils pour mieux exercer sa mission de contrôle.

Faites-vous une différence entre les technologies de Big Data et celles d’intelligence artificielle (IA) ?

L’IA ne me semble pas pouvoir exister sans le Big Data : les deux notions sont liées de manière symbiotique. Pour traiter et analyser efficacement les masses de données du Big Data, il faut des outils et ces derniers sont souvent des instruments basés sur l’IA et le machine learning.

De quelle manière les marchés financiers ont-ils recours à l’IA ?

Nous constatons un large éventail d’applications de l’IA dans l’industrie des services financiers. Certains cas d’usage ont été poussés par des facteurs liés à l’offre – des avancées technologiques, une plus grande disponibilité des données… – ou à la demande – la volonté de dégager davantage de profits, d’optimiser l’allocation des capitaux, ou encore la nécessité de répondre aux exigences réglementaires… Certaines institutions y ont recours pour « backtester » des modèles et anticiper l’impact sur les marchés de certaines positions de trading importantes. Grâce à ces technologies, des hedge funds et des courtiers guettent des signaux pour trouver des rendements non corrélés ou de l’alpha, ainsi que des moyens d’optimiser l’exécution de leurs ordres. Actuellement, l’IA intéresse aussi les institutions, tant privées que publiques, dans le cadre de la conformité réglementaire.

Comment ces nouvelles technologies s’articulent-elles avec d’autres pratiques plus anciennes comme la gestion quantitative ?

L’IA et le machine learning peuvent, selon moi, servir à deux choses : améliorer la qualité des critères de risques utilisés pour la gestion quantitative et élargir le champ des facteurs utilisés pour générer de l’alpha. Des informations aussi diverses que l’évolution des offres d’emploi d’une entreprise diffusées sur son site, les prises de parole informelles de son management, le suivi des données sur les transactions par carte, et jusqu’au nombre de voitures sur le parking d’un magasin, peuvent être analysées grâce à ces technologies. La boîte à outils du gérant d’actifs s’agrandit.

L’objectif est-il d’aller encore plus vite ou plutôt de rendre le traitement de ces données plus intelligent ? Faster ou smarter en somme ?

Cela dépend des cas d’usage. Pour une utilisation à des fins réglementaires, où il est nécessaire d’analyser un volume de données très important, je pense qu’il faut des outils à la fois intelligents et rapides.

Quels principaux bénéfices et risques voyez-vous à l’utilisation de l’IA ?

En optimisant le traitement des informations, que ce soit pour gérer des actifs, prendre des décisions de crédit, monter des contrats d’assurance ou interagir avec le client, ces technologies contribuent à rendre le système financier plus efficace. De même, quand elles sont appliquées au champ réglementaire, elles améliorent l’efficacité de la supervision.

Mais elles s’accompagnent de risques que nous, régulateurs, devons étudier. Nous nous inquiétons en particulier des effets de réseau qui se créent lorsque l’usage de ces outils se généralise à travers le marché : une dépendance se crée entre les entreprises qui les utilisent et des tiers, nouveaux entrants parfois non régulés, comme les fournisseurs de données. Si un problème émerge, pour quelque raison que ce soit, parmi ces données partagées par beaucoup d’institutions, alors on peut redouter un effet de réseau.

L’autre difficulté majeure induite par ces nouveaux outils est la difficulté à les auditer. On ne sait pas quelles conséquences non intentionnelles peut avoir l’utilisation d’un algorithme d’IA. Cela peut créer des risques que le superviseur macroprudentiel ne parvient pas à monitorer correctement. Cela renvoie à la question de l’opacité des modèles utilisés.

N’est-ce pas une difficulté à laquelle vous avez déjà été confrontés, par exemple face aux algorithmes de trading?

Les modèles qui résultent de l’IA et du machine learning sont très difficiles, voire impossibles à interpréter. Or les institutions financières qui les utilisent et qui obtiennent les résultats escomptés ont tendance à négliger le fait que ces modèles sont peu interprétables. Un défaut qui rend difficilement prévisible leur impact sur les marchés, lorsqu’ils sont utilisés à grande échelle.

C’est en particulier vrai pendant les périodes de risque systémique. En effet, ces modèles ont été développés et entraînés récemment, c’est-à-dire sur une période de très faible volatilité. Ils ne sont donc pas optimisés pour une phase de retournement économique significatif. C’est pour nous une source d’inquiétude.

Quelles alternatives existe-t-il si ces modèles sont quasi impossibles à comprendre ?

En tant que superviseur, nous devons développer une gamme de compétences qui nous permettent de mieux analyser ces outils. Quant aux acteurs de marché, ils doivent mettre en place une gouvernance et des protocoles adaptés pour s’assurer du bon contrôle de ces modèles. Par exemple, il faut prévoir des exercices de backtesting pour vérifier leur robustesse, ou encore de stress-tests, pour prévoir leur réaction dans des périodes tendues. Les entreprises doivent comprendre comment le modèle fonctionne et faire en sorte que cette connaissance soit partagée par ses salariés en interne.

Qu’en est-il de la responsabilité ? Doit-elle se partager entre différents intervenants ?

Les acteurs de marché peuvent déléguer à la machine des tâches, mais pas leur responsabilité. C’est à eux de répondre de la performance de leurs modèles.

Qu’en est-il des nouveaux entrants dont vous parliez ?

C’est une question que nous sommes en train d’étudier.

Les trois autorités européennes (EBA, EIOPA et ESMA) ont publié fin 2016 un document de consultation sur l’utilisation du Big Data par les institutions financières [1] . En avez-vous tiré des conclusions dans le domaine de l’IA ?

Il existe une interdépendance entre l’IA et le Big Data, dans la mesure où ces deux technologies ont besoin l’une de l’autre pour bien fonctionner. L’IA a donc été incluse dans cet article qui contenait des références et des questions spécifiques à ce domaine. Comme les deux sujets sont liés, l’opinion des trois autorités sur la régulation pertinente à mettre en place, ainsi que les avantages et les risques de ces technologies, est valable pour les deux. Même s’ils ne font pas toujours explicitement référence au Big Data ni à l’IA, certains textes de loi européens existants s’appliquent aux entreprises financières utilisant de tels instruments, par exemple ceux en matière de protection des données, de concurrence et protection du consommateur.

Ainsi, la législation du secteur financier comprend diverses exigences en matière prudentielle, d’organisation ou de conduite des affaires que les institutions ayant recours au Big Data et à l’IA doivent appliquer. Par ailleurs, le règlement général sur la protection des données (RGPD), récemment adopté, est susceptible d’affecter la manière dont les institutions financières utilisent le Big Data. Le règlement va en particulier renforcer les droits des consommateurs qui pourront accéder et corriger leurs données personnelles, se reposer sur un droit à l’oubli explicite, refuser l’exploitation de leurs données dans certaines circonstances, être prévenus lorsqu’une faille de sécurité des données est constatée ou encore être mieux informés sur les politiques de protection des données personnelles des entreprises. De plus, un nouveau droit leur est accordé pour la portabilité de leurs données : il permettra à un consommateur de recevoir d’un de ses prestataires, ses données personnelles, dans un format structuré, communément utilisé et exploitable par un ordinateur, afin de les transférer à un autre.

Au-delà des risques soulevés par ces nouvelles technologies, vous souligniez que l’IA peut-être utile aux superviseurs dans l’exercice de leur travail de contrôle. De quelle manière ?

Nous sommes en train de vivre un changement de génération dans notre manière de superviser. Avant la crise financière, nous pratiquions un contrôle des marchés essentiellement ex-post. Aujourd’hui, grâce au Big Data, à l’IA et au machine learning, nous pouvons agir de manière plus proactive. C’est un virage plus facile à prendre pour l’ESMA qui a été créée récemment et qui n’a donc pas de système d’information historique (legacy) à gérer.

Je pense que c’est le devoir des superviseurs d’employer les méthodes les plus efficaces pour traiter les données collectées. Il a fallu dix ans pour mettre en place une réponse réglementaire à la crise financière. Cela nous a conduits à demander beaucoup de données aux acteurs, afin d’assurer un monitoring des marchés. Si le superviseur n’a pas les moyens de traiter ces données reçues, cela sape le travail mené par le régulateur. Il doit utiliser ces données.

Jusqu’à ce que la machine fasse un jour le travail à elle toute s seule ?

Les outils sont de plus en plus sophistiqués et deviendront plus pertinents avec le temps. Mais il ne faut pas non plus trop attendre de l’IA et du machine learning à court terme. Les technologies plus traditionnelles de traitement de l’information restent la pierre angulaire du travail du superviseur.

 

1 Joint Committee Discussion Paper on the Use of Big Data by Financial Institutions, du 19 décembre 2016 au 17 mars 2017.

À retrouver dans la revue
Banque et Stratégie Nº361
Notes :
1 Joint Committee Discussion Paper on the Use of Big Data by Financial Institutions, du 19 décembre 2016 au 17 mars 2017.