Calcul haute performance : le temps de la rationalisation est venu

La course à la puissance et à la vitesse n’est plus le seul critère pris en compte pour définir les besoins en calculs haute performance des banques. Dans ce domaine aussi, les réalités budgétaires et réglementaires forcent les banques à chercher au maximum les économies.

carte Tesla

L'auteur

Pour en savoir plus

images
  • Michel Teyssedre, CTO IBM France

    Michel Teyssedre, CTO IBM France

  • Stephan Hilby, responsable marché Serveurs et Finance chez Intel

    Stephan Hilby, responsable marché Serveurs et Finance chez Intel

Revue de l'article

Cet article est extrait de
Revue Banque n°739

Infrastructures de marchés : halte au dopage technologique !

« Aujourd’hui, les banques veulent faire toujours plus de calculs, en investissant moins, voire en se désinvestissant », estime Fehd Bouab, gestionnaire des ventes conseil et projets système informatique au sein du cabinet d’ingénierie Aneo. « Elles sont dans l’économie, et veulent ne plus créer de nouveaux centres serveurs, voire en fermer certains. » Pourtant, il constate que paradoxalement, le nombre de cœurs de processeurs dédiés au calcul haute performance n’a jamais été aussi important dans les banques françaises. « Nous sommes passés en quelques années de quelques centaines, voire d’un millier, de cœurs dans les grandes banques françaises à plusieurs dizaines de milliers » poursuit le même spécialiste. Comment réconcilier ces deux besoins contradictoires : le besoin de puissance et la recherche d’économie ?

Temps de latence ou puissance de calcul?

Suivant l’endroit où est utilisé le supercalculateur, les besoins ne sont pas tout à fait identiques. Pour Jean-Luc Assor, responsable du secteur engineering HPC et semiconducteurs chez HP France, « il y a deux secteurs distincts pour le HPC dans le domaine financier : le calcul des risques et le trading haute performance. Dans le premier cas, on calcule l’exposition de la banque aux risques financiers par rapport aux différentes opérations faites par les traders durant la journée. Dans l’autre, on est dans le domaine où il faut exploiter toutes les possibilités par rapport aux variations des cours pour prendre des positions assez volatiles et dans une fenêtre de décision très courte, de l’ordre de la seconde.» Pour le high frequency trading, la quantité de données et la puissance brute importent moins que la vitesse d’exécution. « Ce qui compte, c’est le temps de latence sur le réseau. Les banques voudraient débrider au maximum le réseau pour gagner des micro-, voire des nanosecondes, qui se traduisent en gain ou en pertes de millions de dollars », constate Stéphane Hilby, responsable marché serveurs et finance chez Intel. Ici, il n’y a pas de secret : « Il faut traiter peu de données mais très vite », constate son collègue Stanislas Odinot, responsable avant-vente technique chez Intel. « Il faut éliminer tous les goulets d’étranglement du réseau : ajouter de la mémoire cachée dans les cœurs, accélérer les barrettes mémoire, améliorer les entrées/sorties, optimiser les logiciels, etc. » Les avancées les plus intéressantes dans le domaine du HPC servent plus le domaine du calcul de risque. Selon Jean-Luc Assor, « les besoins [sont] exponentiels en puissance de calcul:plus on fait de simulations de scénarios, plus l’analyse est pertinente, et plus on a une image fine de la position ».

Plus de cœurs pour plus de puissance

Plusieurs technologies permettent de gagner de la puissance, sans pour autant nécessiter de multiplier les machines et donc d’ajouter de la consommation électrique et des mètres carrés aux datacenters des banques. Au cœur des ordinateurs, les processeurs deviennent stratégiques. La multiplication des cœurs, jusqu’à 10 pour certains serveurs actuels, permet de multiplier le nombre de tâches que peuvent exécuter simultanément les ordinateurs. Intel travaille sur des puces dites MIC (pour many integrated core – massivement multicœur). L’une de ces puces, connue sous le nom de code Knight Ferry, contient une trentaine de cœurs et s’installe sur une carte PCI Express. En test actuellement dans le département risque d’une grande banque française (qui utilise également d’autres systèmes de multiplication des cœurs), elle devrait donner naissance à un processeur commercialisé courant 2012. Une autre solution, promue par Intel, est l’utilisation de cartes accélératrices dédiées utilisant le même jeu d’instruction que les processeurs principaux et n’impliqueraient donc pas d’utiliser un langage différent pour tirer parti de ce supplément de puissance, contrairement aux architectures hybrides à base de GPU (ou processeurs graphiques), promues entre autres par nVidia avec ses cartes Tesla. « Pour un même rendement énergétique de 200W, nous mettons à disposition jusqu’à 512cœurs de calcul dans un GPU contre 6à 8cœurs pour un CPU » explique Stéphane Quentin, porte-parole de nVidia. « Nous ne remplaçons pas le CPU, nous le complétons. De plus, nous pouvons ajouter des GPU aux installations déjà existantes au fil de la charge de travail. Il suffit d’avoir des connecteurs PCI Express disponibles [pour y brancher les cartes, NDLR]. » Au rythme actuel des progrès des processeurs graphiques, la prochaine architecture des cartes Tesla devrait doubler la puissance de calcul brut dès l’an prochain.

Réécrire le code

Magique ? Pas tout à fait, car quelle que soit la méthode utilisée pour multiplier les cœurs (et même si aucune n’est exclusive des autres), il faut quand même faire un travail de développement. Les applications – qu’elles soient développées en interne ou achetées auprès d’un éditeur – doivent apprendre à travailler avec tous ces cœurs en même temps, ce qui implique de les réécrire. D’autant que, dans une même application, certaines tâches peuvent facilement être parallélisées (c’est le cas de l’algorithme de Monte-Carlo, largement utilisé dans les simulations de risques), d’autres non. Le bénéfice à escompter en production ne sera pas aussi beau que celui annoncé par les fondeurs en puissance brute. Heureusement, Intel, Nvidia et leurs concurrents fournissent des outils pour faciliter ces réécritures : librairies mathématiques, outils de développement, etc.

Quitte à réinventer, pourquoi ne pas revoir les données qui entrent dans la prise en compte des calculs ? C’est l’idée qui soutend le stream computing promu par IBM. « Dans le futur, nous récupérerons des informations structurées et non structurées [fil d’actualité, météo, courriers électroniques, voire potins, NDLR] pour les corréler, les classer et en fournir une analyse en moins d’une milliseconde » affirme Michel Teyssedre, Chief Technique Officer d’IBM France. Il existe déjà des bribes logicielles de ce projet comme l’Info Stream Server. Et la firme prévoit l’application commerciale du programme Watson, qui a remporté le jeu Jeopardy en février 2011, à des applications bancaires. « Là, non seulement Watson amène l’information, mais il prendra également des décisions. »

 

Articles du(des) même(s) auteur(s)

Sur le même sujet