Comment définiriez-vous l’informatique quantique ?
Sergio Gago (S. G.) : Dans l’informatique classique, l’unité de base de l’information est le bit, qui a une position binaire de 0 ou 1. En informatique quantique, cette unité de base est le qubit, qui peut se trouver simultanément dans une superposition d’états 0 et 1. Cette propriété unique, associée à l’intrication et à l’interférence, permet aux ordinateurs quantiques d’effectuer certains calculs à une vitesse exponentielle par rapport aux ordinateurs classiques.
Dans les services financiers, l’informatique quantique pourrait notamment permettre des percées dans le domaine de la conformité réglementaire des capitaux, de l’optimisation des portefeuilles, de la négociation à haute fréquence et de la tarification des produits dérivés.
Pour l’heure, l’informatique quantique est encore immature, car il reste beaucoup à faire en termes de mise à l’échelle du matériel et du développement des algorithmes. Jusqu’à présent, l’avantage quantique, c’est-à-dire la résolution d’un problème réel plus efficace qu’avec un ordinateur classique, n’a pas été atteint.
Pourquoi est-il important d’aborder rapidement l’informatique quantique ?
S. G. : L’informatique quantique suit la même trajectoire que l’intelligence artificielle (IA) et de nombreux chercheurs mènent des recherches dans ce domaine. Il faut savoir que l’article de recherche original qui a fait naître l’intérêt pour l’IA a été publié, en 2017, par un groupe de chercheurs de Google sous le titre « Attention is all you need ». À l’époque, personne n’aurait pensé qu’il serait si utile !
Les entreprises doivent agir vite, car elles risquent de perdre leur avantage concurrentiel. L’une des raisons principales est liée à la cybersécurité : actuellement, les algorithmes de cryptage conventionnels sont difficiles à résoudre pour les ordinateurs classiques. Mais à l’avenir, les ordinateurs quantiques pourraient être utilisés pour vaincre ou casser les algorithmes de cryptage traditionnels. Ce changement est à l’origine du besoin de cryptographie postquantique ou d’algorithmes cryptographiques qui résistent aux attaques de l’informatique quantique. Certains pays comme la France investissent dans ce domaine et les sociétés de services financiers devraient faire de même.
À quel moment l’informatique quantique pourrait-elle poser un risque pour la cybersécurité ?
S. G. : Beaucoup considèrent qu’il est possible d’avoir un ordinateur quantique cryptographique d’ici à la fin de la décennie. Cependant, dans le cadre des attaques dites « harvest now, decrypt later », autrement dit « récolter maintenant, déchiffrer plus tard », les cybercriminels pourraient déjà stocker des données en prévision du moment où les ordinateurs quantiques parviendront à enfreindre les normes de cryptage existantes. Certaines entreprises stockent actuellement beaucoup de données dans leurs systèmes. Si, à la question « Disposez-vous actuellement d’informations qui seront pertinentes dans les dix prochaines années ? », la réponse est oui, il est alors absolument essentiel que ces entreprises sécurisent dès maintenant leurs données et leurs clients à l’aide de nouvelles méthodes de cryptage. Cela s’applique particulièrement aux sociétés qui traitent des infrastructures critiques comme les télécommunications et les services publics, mais aussi les institutions financières.
Quels sont les autres cas d’utilisation pour le secteur financier ?
Carmen Recio (C. R.) : Il existe trois principaux domaines d’application : l’optimisation, la simulation/modélisation et le machine learning quantique.
Dans le domaine de la simulation, le principal exemple est Monte Carlo, une technique mathématique utilisée pour estimer les résultats possibles d’un événement incertain, inventée par John von Neumann et Stanislaw Ulam pendant la Seconde Guerre mondiale, afin d’améliorer la prise de décision dans des conditions incertaines. Cette méthode est coûteuse et longue à mettre en œuvre. Mais, grâce aux techniques d’informatique quantique, le temps d’exécution pourrait être considérablement réduit. Voici quelques exemples de cas d’utilisation de simulation sur lesquels nous travaillons : la modélisation des inondations, l’analyse des risques, l’évaluation des produits dérivés ou l’analyse de sensibilité.
Dans le domaine de l’optimisation, nous nous concentrons principalement sur les versions les plus difficiles de l’optimisation de portefeuille. Le quantique pourrait nous permettre d’envisager des représentations plus complexes et plus réalistes, une plus grande granularité dans nos variables (en considérant des actifs au lieu de groupes d’actifs par exemple), ou d’ajouter de nouvelles fonctionnalités comme le rééquilibrage dynamique des portefeuilles, tout en garantissant la recherche d’une solution de bonne qualité.
Le troisième domaine est le machine learning quantique. En d’autres termes, comment le quantum computing (QC) peut améliorer l’IA et inversement. Les applications dans ce domaine pourraient notamment concerner l’amélioration de certains aspects des méthodes classiques d’apprentissage automatique, comme l’expressivité ou la précision. Quelques exemples d’applications de machine learning quantique sont la détection des fraudes, les tâches de prévision telles que la prédiction de la récession ou des catastrophes naturelles.
Certaines entreprises ont-elles pris de l’avance ?
C. R. : Parmi les sociétés de services financiers les plus avancées dans le domaine de l’informatique quantique, on peut citer JP Morgan, HSBC ou BBVA, qui ont toutes réuni des équipes de QC. Mais au-delà de ces noms, la grande majorité des institutions financières sont encore très hésitantes. Chez Moody’s, nous avons lancé cette année une formation « Quantum for quantitative finance » et, en partenariat avec Multiverse Computing, QFStudio, une plateforme permettant aux utilisateurs d’accéder aux technologies quantiques et d’inspiration quantique en tant que service.
Quels sont actuellement les principaux obstacles au développement de l’informatique quantique ?
S. G. : Le talent est la clé du succès de l’informatique quantique. Nous avons besoin d’experts en algorithmes quantiques, généralement des physiciens, des informaticiens ou des mathématiciens, ainsi que de personnes issues de l’industrie des services financiers, afin de réunir les deux mondes. L’une des raisons pour lesquelles de nombreuses sociétés financières n’investissent pas dans le QC est le retour sur investissement, pour lequel il faut compter entre trois et six ans. Dans les années 90, un certain nombre de personnes auraient sans doute indiqué que l’IA en production ne serait jamais possible. Puis des percées ont été réalisées. Nous prévoyons un calendrier similaire pour l’informatique quantique.
Quelles sont les prochaines étapes ?
C. R. : Au cours des dix dernières années, nous avons assisté à une véritable explosion : les ordinateurs quantiques sont désormais accessibles dans le cloud, le nombre de qubits est passé de 1 à 5, puis à plus de 200. Des progrès incroyables ont été réalisés l’année dernière, tant sur le plan théorique qu’expérimental, en particulier dans le domaine de la correction d’erreurs. L’objectif actuel est de passer à l’ère de l’informatique quantique tolérante aux erreurs (Fault Tolerant Quantum Computing, FTQC), qui sera l’autoroute de l’informatique quantique. Les erreurs seront corrigées, ce qui améliorera considérablement la précision des calculs. Le nombre de qubits sera plus élevé, ce qui permettra de résoudre des problèmes toujours plus importants. Les durées de vie des qubits seront plus longues, ce qui permettra d’achever les calculs. Comme nous ne sommes pas encore entrés dans l’ère du FTQC, les affirmations d’utilité et d’avantage doivent être accueillies avec scepticisme.