Square

Calcul haute performance : le temps de la rationalisation est venu

Créé le

22.08.2011

-

Mis à jour le

16.06.2017

La course à la puissance et à la vitesse n’est plus le seul critère pris en compte pour définir les besoins en calculs haute performance des banques. Dans ce domaine aussi, les réalités budgétaires et réglementaires forcent les banques à chercher au maximum les économies.

« Aujourd’hui, les banques veulent faire toujours plus de calculs, en investissant moins, voire en se désinvestissant », estime Fehd Bouab, gestionnaire des ventes conseil et projets système informatique au sein du cabinet d’ingénierie Aneo. « Elles sont dans l’économie, et veulent ne plus créer de nouveaux centres serveurs, voire en fermer certains. » Pourtant, il constate que paradoxalement, le nombre de cœurs de processeurs dédiés au calcul haute performance n’a jamais été aussi important dans les banques françaises. « Nous sommes passés en quelques années de quelques centaines, voire d’un millier, de cœurs dans les grandes banques françaises à plusieurs dizaines de milliers » poursuit le même spécialiste. Comment réconcilier ces deux besoins contradictoires : le besoin de puissance et la recherche d’économie ?

Temps de latence ou puissance de calcul?

Suivant l’endroit où est utilisé le supercalculateur, les besoins ne sont pas tout à fait identiques. Pour Jean-Luc Assor, responsable du secteur engineering HPC et semiconducteurs chez HP France, « il y a deux secteurs distincts pour le HPC dans le domaine financier : le calcul des risques et le trading haute performance.  Dans le premier cas, on calcule l’exposition de la banque aux risques financiers par rapport aux différentes opérations faites par les traders durant la journée. Dans l’autre, on est dans le domaine où il faut exploiter toutes les possibilités par rapport aux variations des cours pour prendre des positions assez volatiles et dans une fenêtre de décision très courte, de l’ordre de la seconde.»  Pour le high frequency trading, la quantité de données et la puissance brute importent moins que la vitesse d’exécution. « Ce qui compte, c’est le temps de latence sur le réseau. Les banques voudraient débrider au maximum le réseau pour gagner des micro-, voire des nanosecondes, qui se traduisent en gain ou en pertes de millions de dollars », constate Stéphane Hilby, responsable marché serveurs et finance chez Intel. Ici, il n’y a pas de secret : « Il faut traiter peu de données mais très vite », constate son collègue Stanislas Odinot, responsable avant-vente technique chez Intel. « Il faut éliminer tous les goulets d’étranglement du réseau : ajouter de la mémoire cachée dans les cœurs, accélérer les barrettes mémoire, améliorer les entrées/sorties, optimiser les logiciels, etc. » Les avancées les plus intéressantes dans le domaine du HPC servent plus le domaine du calcul de risque. Selon Jean-Luc Assor, « les besoins [sont] exponentiels en puissance de calcul : plus on fait de simulations de scénarios, plus l’analyse est pertinente, et plus on a une image fine de la position ».

Plus de cœurs pour plus de puissance

Plusieurs technologies permettent de gagner de la puissance, sans pour autant nécessiter de multiplier les machines et donc d’ajouter de la consommation électrique et des mètres carrés aux datacenters des banques. Au cœur des ordinateurs, les processeurs deviennent stratégiques. La multiplication des cœurs, jusqu’à 10 pour certains serveurs actuels, permet de multiplier le nombre de tâches que peuvent exécuter simultanément les ordinateurs. Intel travaille sur des puces dites MIC (pour many integrated core – massivement multicœur). L’une de ces puces, connue sous le nom de code Knight Ferry, contient une trentaine de cœurs et s’installe sur une carte PCI Express. En test actuellement dans le département risque d’une grande banque française (qui utilise également d’autres systèmes de multiplication des cœurs), elle devrait donner naissance à un processeur commercialisé courant 2012. Une autre solution, promue par Intel, est l’utilisation de cartes accélératrices dédiées utilisant le même jeu d’instruction que les processeurs principaux et n’impliqueraient donc pas d’utiliser un langage différent pour tirer parti de ce supplément de puissance, contrairement aux architectures hybrides à base de GPU (ou processeurs graphiques), promues entre autres par nVidia avec ses cartes Tesla. « Pour un même rendement énergétique de 200 W, nous mettons à disposition jusqu’à 512 cœurs de calcul dans un GPU contre 6 à 8 cœurs pour un CPU » explique Stéphane Quentin, porte-parole de nVidia. « Nous ne remplaçons pas le CPU, nous le complétons. De plus, nous pouvons ajouter des GPU aux installations déjà existantes au fil de la charge de travail. Il suffit d’avoir des connecteurs PCI Express disponibles [pour y brancher les cartes, NDLR]. » Au rythme actuel des progrès des processeurs graphiques, la prochaine architecture des cartes Tesla devrait doubler la puissance de calcul brut dès l’an prochain.

Réécrire le code

Magique ? Pas tout à fait, car quelle que soit la méthode utilisée pour multiplier les cœurs (et même si aucune n’est exclusive des autres), il faut quand même faire un travail de développement. Les applications – qu’elles soient développées en interne ou achetées auprès d’un éditeur – doivent apprendre à travailler avec tous ces cœurs en même temps, ce qui implique de les réécrire. D’autant que, dans une même application, certaines tâches peuvent facilement être parallélisées (c’est le cas de l’algorithme de Monte-Carlo, largement utilisé dans les simulations de risques), d’autres non. Le bénéfice à escompter en production ne sera pas aussi beau que celui annoncé par les fondeurs en puissance brute. Heureusement, Intel, Nvidia et leurs concurrents fournissent des outils pour faciliter ces réécritures : librairies mathématiques, outils de développement, etc.

Quitte à réinventer, pourquoi ne pas revoir les données qui entrent dans la prise en compte des calculs ? C’est l’idée qui soutend le stream computing promu par IBM. « Dans le futur, nous récupérerons des informations structurées et non structurées [fil d’actualité, météo, courriers électroniques, voire potins, NDLR] pour les corréler, les classer et en fournir une analyse en moins d’une milliseconde » affirme Michel Teyssedre, Chief Technique Officer d’IBM France. Il existe déjà des bribes logicielles de ce projet comme l’Info Stream Server. Et la firme prévoit l’application commerciale du programme Watson, qui a remporté le jeu Jeopardy en février 2011, à des applications bancaires. « Là, non seulement Watson amène l’information, mais il prendra également des décisions. »

À retrouver dans la revue
Revue Banque Nº739