Cet article appartient au dossier : Reporting réglementaire : est-on allé trop loin ?.

Supervision

La moisson de données des banques centrales

Dans le cadre de leurs nouvelles missions post-crise et à l’heure du Big Data, les banques centrales s’intéressent aux données granulaires, c’est-à-dire actif par actif, des établissements financiers. Un changement de méthodologie profond.

L'auteur

Revue de l'article

Cet article est extrait de
Revue Banque n°801

Reporting réglementaire : est-on allé trop loin ?

La BCE est gourmande, en tout cas de données, mais elle veut pouvoir varier les recettes… C’est par une métaphore pâtissière que Sabine Lautenschläger, la vice-présidente du Mécanisme de supervision unique (MSU) au sein de la BCE, a expliqué en juillet dernier [1] le nouveau paradigme des banques centrales en matière de statistiques : « Privilégier des données granulaires, c’est comme demander aux banques les ingrédients de base – le chocolat, la crème, la farine, les œufs, le beurre et le sucre – plutôt que de leur demander une part de Sachertorte [2], a illustré l’Allemande. Lorsque l’on a tous ces ingrédients, on peut cuisiner toute une variété de gâteaux simplement en les mélangeant différemment et sans avoir besoin de refaire son marché. » Dit avec des mots plus techniques, il s’agit pour les banques centrales de passer d’une collecte d’agrégats à celle de données granulaires, de statistiques « macro » à des statistiques « micro ». Une petite révolution pour les superviseurs.

Nouveaux besoins, nouvelles méthodes

Leurs motivations pour ce changement profond de méthodologie sont multiples. En premier lieu, les banques centrales ne veulent plus perdre des informations qui peuvent leur être utiles pour leurs missions, en particulier les nouvelles : politiques monétaires non conventionnelles, surveillance du risque systémique et politiques macroprudentielles. Or les moyennes contenues dans les agrégats calculés par les établissements peuvent cacher des vérités que pourrait par exemple révéler la distribution des données individuelles. Ainsi, que signifie réellement une accélération du crédit aux entreprises ? Que les agents économiques ont un regain d’appétit pour l’investissement – ce qui est positif – ou que les conditions de prêts sont à ce point assouplies que les banques prennent trop de risques – ce qui l’est moins ?

La collecte des données granulaires est aussi, pour les banques centrales, l’occasion de réduire les délais de production des statistiques. C’est particulièrement vrai pour celles qui n’existent pas encore et qui peuvent être nécessaires pour prendre une décision précise. « L’information brute peut être organisée et agrégée de différentes manières selon la question spécifique à laquelle on est confronté. C’est un enjeu clé lorsque l’on sait qu’il faut de trois à cinq ans pour développer de nouvelles statistiques agrégées », justifiait ainsi Sabine Lautenschläger.

Harmonisation et intégration

L’objectif est aussi d’optimiser les process. Mettre fin à la culture des « silos », conduisant à des reportings multiples à différentes autorités, est en haut de la liste. Les superviseurs doivent pouvoir s’échanger les informations, préalablement standardisées, et faire en sorte qu’une même donnée puisse servir à plusieurs fins – détermination de la politique monétaire, supervision microprudentielle, surveillance macroprudentielle, élaboration des statistiques macroéconomiques. L’intégration au sein de la BCE de la mission de supervision bancaire favorise ce mouvement de décloisonnement, comme le rappelait le thème de la précédente conférence sur les statistiques de la BCE en 2014 : « Vers l’Union bancaire : opportunités et challenge pour la statistique ». Depuis, l’Eurosystème travaille à la mise en place d’un cadre de reporting plus homogène, autour du projet de European Reporting Framework (ERF) et des dictionnaires communs comme BIRD (Bank’s Integrated Reporting Dictionnary). AnaCredit, la base de données en cours de développement pour les crédits est un exemple de ces nouveaux process (voir Encadré).

Derrière ces projets d’harmonisation et d’intégration, il y a l’enjeu de la qualité des informations remontées. « Toutes les parties prenantes nationales, les médias, l’opinion publique mais aussi les chercheurs demandent de plus en plus de données, en particulier sous forme granulaire. Nos propres équipes de recherche formulent de plus en plus de demandes. Si nous ne répondons pas à ces requêtes, les “mauvaises” données supplanteront les “bonnes” », mettait ainsi en garde Jacques Fournier, directeur général des statistiques de la Banque de France lors d’une conférence de l’EIFR en septembre dernier. Mais face aux terabytes de données en question, les banques centrales doivent s’équiper avec les technologies adaptées. « Nous ne pouvons pas continuer de travailler comme avant, au risque sinon d’être ensevelis sous des données de qualité médiocre », insistait Jacques Fournier. D’où le projet de Datalake, auquel travaille actuellement la Banque de France (lire Encadré).

Vers l’externalisation du reporting ?

Que va impliquer ce changement de paradigme pour les institutions financières ? Tout d’abord, d’importants travaux sur leurs systèmes d’information pour les faire dialoguer avec ceux de leur superviseur. Mais après cette phase de construction, Sabine Lautenschläger promet des économies significatives « parce que les exigences statistiques deviendront plus stables dans le temps et que les demandes de données ad hoc pour des dossiers spéciaux ou urgents seront minimisées ». Elle assure également que les établissements pourront profiter eux aussi des informations plus complètes et harmonisées recueillies par leurs autorités sur « la solvabilité de leurs contreparties, notamment étrangères ».

Mais ce que souhaiteraient les banques, c’est que ce reporting granulaire remplace les formulaires agrégés qu’elles remplissent aujourd’hui, en somme que la production de reportings soit externalisée aux banques centrales. La question est soulevée par la BCE, mais reste pour l’instant non tranchée. Tout au plus, les arguments en faveur d’une cohabitation des deux systèmes – double vérification des informations et complémentarité des approches – sont-ils nuancés par la nécessité de limiter la charge de reporting à ce qui est strictement nécessaire. « La collecte des données micro et celle des données macro sous la forme que nous connaissons aujourd’hui ne peuvent pas perdurer en parallèle pour toujours », concède simplement Sabine Lautenschläger.

Ne plus pouvoir dire « nous ne savions pas »

Une collecte aussi extensive soulève aussi des questions de responsabilité. Les banques centrales seront nécessairement garantes de la sécurité de ces données et du respect de leur confidentialité. Un chantier en soi. Au-delà, que se passerait-il en cas de crise ? « Je ne vois pas ce que des informations aussi granulaires vont apporter au superviseur. Il veut être intrusif mais ce faisant, il prend aussi des responsabilités, souligne un banquier français. Si demain une banque fait faillite, on lui demandera des comptes, car il avait toutes les informations à disposition. Ce n’est pas son rôle mais celui de la banque, qui a un management responsable pénalement pour ces questions. » En 2014 déjà, lors de la conférence de la BCE sur les statistiques, Anne Le Lorier, sous-gouverneur de la Banque de France, avait soulevé ce point : « Collecter plus de données nous donne davantage de responsabilités vis-à-vis du grand public, car nous ne serons alors plus en position de dire “nous ne savions pas”. »

 

[1] Discours d’ouverture de la 8e conférence sur les statistiques de la BCE, le 5 juillet 2016, sur le thème « Central Bank Statistics: moving beyond the aggregates ».

[2] Gâteau au chocolat autrichien.

 

Sommaire du dossier

Reporting réglementaire : est-on allé trop loin ?

Articles du(des) même(s) auteur(s)

Sur le même sujet