Supervision

Vers un encadrement strict de l’innovation

Les Bourses seraient-elles responsables de l’emballement des marchés ? Pourraient-elles faire les frais de la course à l’innovation à laquelle elles se livrent, qui s’est trouvée exacerbée en Europe avec l’entrée en vigueur de la Directive MIF ?

illustration

Face à la concurrence nouvelle de MTF positionnées essentiellement sur le trading qui, pour se différencier, ont misé lourdement sur des baisses tarifaires, couplées à la diminution des temps de latence, il a fallu que les Bourses traditionnelles s’alignent.

Qui dit liquidité, dit commissions de transaction, et attractivité pour les listings. Toutes les Bourses ont misé, pour se développer, sur une clientèle de traders haute fréquence, car ceux-ci génèrent des volumes – et donc des commissions – toujours plus importants (voir Encadré). Pour attirer davantage de ces « clients idéaux », Bourses comme MTF ont consenti à d’importants investissements. Elles rivalisent d’ingéniosité dans leurs offres, pour proposer toujours plus d’avantages à ceux de leurs clients qui génèrent les volumes d’ordres les plus importants. La latence est certainement l’avantage concurrentiel sur lequel toutes consentent les investissements les plus lourds.

En septembre 2009, NASDAQ OMX, avec un temps de latence de 250 microsecondes, détenait le record de la rapidité. En ​2011, le LSE promet un temps de latence de 125 ​microsecondes pour 99 % des ordres passés, via sa plate-forme Millenium IT. En moins de 2 ans, les temps de latence ont été réduits de moitié.

Pour améliorer encore la rapidité d’exécution, les Bourses multiplient également les offres de colocation : elles rapprochent de leurs bureaux les serveurs de leurs clients. Le pas de cotation (ou tick size, voir Lexique) est également un avantage concurrentiel dont jouent de nombreuses Bourses.

Des impacts difficilement mesurables

Des critiques se font rapidement jour sur ces pratiques dont les fondements relèguent les fondamentaux économiques et l’intelligence humaine au second plan, pour se muer en comparateurs de prix extrêmement élaborés…

Oui mais voilà : le 6 mai 2010, la machine s’est emballée aux États-Unis. Ce jour-là, le Dow Jones chuta de 10 % pendant quelques minutes, puis remonta tout aussi rapidement. Ce « flash crash » fit perdre en un instant 862 millions de dollars aux actions américaines. Cet épisode démontre les dangers réels d’un système qui, jusqu’à présent, posait essentiellement des questions d’éthique. Le rapport de la SEC, rendu public en septembre 2010, est sans équivoque à ce sujet. C’est fort logiquement que le G20, réuni à Séoul en novembre 2010, s’est emparé du sujet (voir Encadré).

Le fait est que les risques associés au THF (risque systémique, distorsion de concurrence, manipulation de marché) sont difficilement mesurables. Au mois de mai 2011, l’AMF regrette [1] l’absence de statut ou de certification de nombre de traders haute fréquence : certains ne peuvent être identifiés à cause du recours au DMA (Direct Market Access, voir Lexique). En conséquence, l’AMF ne peut tracer les établissements à l’origine des transactions dans le cadre de ses enquêtes sur d’éventuelles manipulations des cours, les listings de transactions ne fournissant pas toutes les informations nécessaires.

Liquidité/volatilité : attention, mélange explosif !

Selon les conclusions de l’IOSCO sollicité par le G20, présentées dans un document de consultation [2], le « flash crash » du 6 mai 2010 a montré aux régulateurs que les volumes échangés ne constituaient pas nécessairement un indicateur fiable de la liquidité d’un marché, particulièrement lorsque la volatilité est importante. En d’autres termes, la liquidité n’est pas toujours le signe de la bonne santé d’un marché.

La récente crise dite « de la dette souveraine », qui a secoué les marchés au mois d’août 2011, ne devrait pas contribuer à atténuer l’humeur des politiques et des régulateurs (voir Encadré).

Demain, en Europe comme aux États-Unis, l’activité des traders haute fréquence devrait être beaucoup plus sévèrement encadrée, comme en témoignent les récents travaux de différents organes de supervision et de réglementation (voir Encadré).

Les Bourses elles-mêmes n’échapperont pas aux fourches caudines des instances, qui semblent, en tout cas au stade des consultations, démontrer une certaine convergence dans les solutions proposées. Dans la perspective du projet de révision de la MIF publié en décembre 2010 [3], l’ESMA soumet à consultation [4] un durcissement notable des obligations de reporting des différentes parties prenantes des marchés financiers. À l’instar de la CFTC et de la SEC américaines, elle s’intéresse également à la pratique du DMA.

Là encore en phase avec les régulateurs américains, IOSCO propose de réfléchir à des structures tarifaires qui tiendraient compte de la proportion d’annulations d’ordres au regard des ordres passés, d’imposer des minimum [5], ou encore d’un temps minimum de « stockage » dans les livres d’ordre.

Des méthodes de coupe-circuit à l’étude

Les régulateurs s’inquiètent enfin de savoir comment mettre en place des mécanismes de « coupe-circuit » efficaces, afin de stopper un potentiel emballement des ordres liés à la pratique du trading haute fréquence.

Outre les problématiques induites par une éventuelle influence négative sur la formation des prix, les régulateurs s’intéressent de plus en plus aux offres des Bourses, craignant que cette course à la rapidité ou à la performance, en augmentant le coût d’entrée sur les marchés, n’introduise des distorsions de concurrence. En effet, les coûts des investissements consentis pour supplanter les Bourses concurrentes sont intégrés dans les offres tarifaires et supportés par les sociétés d’investissement qui font encore la part belle à l’humain dans leur stratégie.

Certains observateurs défendent même l’idée d’une taxe sur les institutions qui investissent pour cologer leurs ordinateurs sur les plates-formes de marché et dont les pratiques font supporter un coût supplémentaire à leurs partenaires.

Face au durcissement quasi certain des conditions d’exercice de leur profession et à l’augmentation des coûts de mise en conformité réglementaire, bien des « boutiques » de traders et des plates-formes électroniques d’échange pourraient se retrouver en grande difficulté financière. Il faut rappeler que Chi-X et BATS, qui comptent pourtant parmi les MTF les plus importantes du marché, peinent dans les conditions actuelles à être rentables. La phase de concentration que beaucoup attendaient pour 2011 aura peut-être finalement lieu, mais pour des raisons de survie.

[1] « Le trading haute fréquence vu de l’AMF », Arnaud Oseredczuck, chef du service de la surveillance des marchés, mai 2011.

[2] IOSCO, « Regulatory issues raised by the impact of technological changes on market integrity and efficiency », juillet 2011.

[3] DG Marché Intérieur et Services, « Public consultation – Review of the Markets in Financial Instruments Directive (MiFID) », 10 décembre 2010.

[4] ESMA, « Consultation paper - Guidelines on systems and controls in a highly automated trading environment for trading platforms, investment firms and competent authorites », juillet 2011.

[5] Il est à noter qu’en Europe, les Bourses ont déjà fait des tentatives d’autorégulation en la matière, grâce aux travaux de la FESE (Federation of European Stock Exchanges) : http://www.fese.be/_lib/files/Implementation_Dates_and_Chosen_Models_12APR10.pdf.

 

Sommaire du dossier

Infrastructures de marché : halte au dopage technologique !

Articles du(des) même(s) auteur(s)

Sur le même sujet