« Les investissements européens dans l’intelligence artificielle (IA) représentent moins de 5 % des investissements mondiaux », constatait publiquement début mai Éric Hazan, Partner du fonds d’investissement Ardabelle et auteur, avec Frédéric Salat-Baroux, d’un livre remarqué, Révolution par les territoires. Empiriquement, le pourcentage est peut-être un peu différent dans la finance. Mais les institutions financières européennes accusent tout de même un net retard d’investissement en IA par rapport à leurs homologues américaines et asiatiques.
Quelques chiffres illustrent ce décalage : la première banque américaine, JPMorgan Chase, a dépensé plus de 17 milliards de dollars en technologies l’an dernier et 15 milliards en 2023, tandis que sa rivale Citigroup a investi 12 milliards et Bank of America près de 11 milliards. En face, les grands groupes européens disposent de budgets nettement inférieurs. Par exemple, HSBC autour de 6 milliards, Deutsche Bank près de 5 milliards et Barclays un peu plus d’un milliard.
L’Europe a insuffisamment investi
Conséquence directe : malgré un secteur financier historiquement pionnier dans l’adoption de l’IA, ce sous-investissement relatif fait craindre une perte de compétitivité stratégique. Les banques européennes risquent de passer à côté des dernières avancées en matière d’analyse prédictive, d’automatisation des processus ou de personnalisation des services, domaines où l’IA joue désormais un rôle clé. De fait, dans l’indice Euromoney de maturité en IA de 50 grandes banques mondiales, seulement deux établissements européens figurent dans le top 10, dominé par les groupes nord-américains. Leur nom : HSBC et UBS ! Ces écarts laissent entrevoir un risque de déclassement des acteurs européens sur la scène financière internationale si aucune réaction d’ampleur n’est engagée.
Le retard d’investissement européen s’accompagne d’une dépendance croissante aux solutions d’IA développées hors d’Europe, en particulier par les Big Techs américaines (OpenAI, Google, Microsoft...) et, dans une moindre mesure, chinoises (Deepseek, Qwen d’Alibaba...). Cette situation soulève d’importants enjeux de souveraineté numérique pour le secteur financier européen, qu’il s’agisse de la confidentialité des données, de l’accès aux technologies critiques ou de la maîtrise des outils analytiques avancés.
Question de confidentialité des données
Premier enjeu : la confidentialité des données bancaires et financières. L’utilisation de modèles d’IA externes implique souvent d’y injecter des données sensibles (transactions clients, profils de risque, etc.). Or, nombre d’institutions redoutent une perte de contrôle sur ces informations confidentielles. Plusieurs grandes banques – y compris européennes – ont ainsi, initialement, interdit ou strictement limité l’usage de services comme ChatGPT par leurs employés, par crainte d’une fuite des données internes vers des plateformes externes. Cette prudence illustre le dilemme auquel font face les établissements européens : bénéficier des apports de l’IA tout en protégeant le secret bancaire et les données clients, conformément aux exigences réglementaires (RGPD, secret professionnel, etc.). Depuis, la vague s’est déchaînée : aux systèmes développés par les DSI s’ajoutent les applications officieuses, voire presque clandestines, développées dans les métiers. Mais la contrainte des données reste entière.
Le Vieux Continent soumis
aux infrastructures externes
Deuxième enjeu : l’accès aux infrastructures et modèles d’IA critiques. Les modèles de pointe – notamment les grands modèles de langage (LLM) – requièrent une puissance de calcul colossale pour leur entraînement et leur déploiement. Le seul réel moyen d’y avoir accès passe par les Big Tech américaines. Les trois principaux fournisseurs d’infrastructure cloud, Amazon Web Services, Microsoft Azure et Google Cloud – tous américains – concentrent l’essentiel des capacités de calcul en IA.
Cela place les acteurs européens dans une position de dépendance : sans ces infrastructures, il est difficile d’exploiter pleinement l’IA générative. Cette dépendance pose un risque stratégique : en cas de tensions géopolitiques ou de changement des conditions d’utilisation, l’accès des institutions financières européennes à ces outils critiques pourrait être compromis. Plus largement, cela pose la question de la souveraineté technologique : comment s’assurer que l’Europe conserve la maîtrise de technologies désormais centrales pour l’allocation du crédit, la gestion des risques ou la détection des fraudes ?
Un risque de perte d’expertise
Enfin, la maîtrise intellectuelle et opérationnelle des outils d’IA constitue le troisième enjeu. En s’en remettant à des modèles « boîte noire » développés à l’étranger, les acteurs financiers européens risquent de perdre en expertise interne. À terme, ils pourraient dépendre des feuilles de route d’innovation fixées par d’autres, et voir leur capacité à innover localement réduite. De plus, la conformité aux réglementations européennes (par exemple les exigences d’explicabilité des algorithmes dans le futur AI Act) peut s’avérer délicate, avec des solutions tierces aux mécanismes internes peu transparents.
Et puis... Donald Trump. Il n’a pas fallu cent jours au président des États-Unis pour éroder toute confiance dans son pays. Au point que des géants comme Microsoft, dans le but de rassurer les Européens, laissaient entendre, début mai, qu’ils pourraient scinder leurs opérations, si nécessité s’en faisait sentir.
L’opportunité de l’open source
Face à ces constats, des pistes d’action concrètes émergent. Le développement de modèles maison – ou à défaut l’adoption de modèles open source éprouvés – semble pouvoir préserver un avantage compétitif et garantir une IA « de confiance » alignée avec les valeurs européennes. Le levier le plus souvent mis en avant tient à l’adoption de solutions d’IA open source et open weights, comme celles du français Mistral, mais aussi la série des Llama de Meta, des Qwen d’Alibaba... et surtout DeepSeek.
Les solutions d’IA open source et open weights offrent une voie prometteuse pour réduire la dépendance aux géants extra-européens. Contrairement aux modèles propriétaires opaques, les modèles ouverts peuvent être audités, adaptés et hébergés sur des infrastructures maîtrisées. Fin 2024, la start-up DeepSeek – issue d’un hedge fund de HangZhou – a dévoilé un LLM entièrement ouvert, DeepSeek v3, puis un modèle également ouvert de « raisonnement », DeepSeek-R1, développés en quelques mois pour une poignée de millions de dollars.
Ces LLM gratuits ont réussi la prouesse de rivaliser sur certains tests avec les meilleurs modèles américains – et ce en s’appuyant sur du matériel moins avancé mais optimisé. La démarche de DeepSeek, combinant efficacité économique et ouverture du code, montre qu’une alternative est possible face aux approches fermées et coûteuses. Celles-ci ont vite repris la main : o3 d’OpenAI, Gemini 2.5 de Google et Claude 3.7 Sonnet d’Anthropic arrivent à des niveaux sophistiqués qui restent hors de portée des modèles open source. Mais ce n’est sans doute là que l’affaire de quelques mois.
Pour la donnée, la prime à la taille
Un avantage des modèles open source et open weights est qu’ils peuvent être réentraînés par leur utilisateur. Un modèle comme DeepSeek, porté dans un cloud privé et réentraîné avec des données propriétaires, peut offrir une solution compétitive en investissant dans la sécurité des données. Cependant, cela n’est accessible qu’aux entreprises financières d’une taille suffisante pour disposer d’une quantité suffisante et importante de données et de moyens appropriés. Il se crée ainsi une prime à la taille dans des métiers, comme la gestion d’actifs, où les petites et moyennes sociétés sont encore nombreuses.
Pour combattre cette tendance, certains, comme Muriel Faure, vice-présidente de l’Association Française de la Gestion financière, proposent de mutualiser les données financières pour créer des modèles puissants. Individuellement, chaque banque ou société de gestion ne dispose que de ses propres données historiques, souvent cloisonnées et insuffisantes pour rivaliser avec les gisements de données des géants du numérique. D’où l’idée de mettre en commun certaines données, de façon sécurisée, afin d’entraîner des IA plus performantes sur des cas d’usage d’intérêt général. « L’utilisation accrue de l’IA au sein des sociétés de gestion ouvre la voie à une mutualisation des données, permettant d’optimiser les modèles sur des cas d’usage communs, notamment en matière réglementaire », observe Muriel Faure.
L’union fait la force
Concrètement, cela pourrait passer par la création de pools de données sectoriels (par exemple, un entrepôt de données mutualisé pour détecter plus efficacement les fraudeurs à l’échelle de plusieurs banques) ou par des initiatives de partage sécurisé via des technologies de préservation de la confidentialité (enclaves sécurisées, fédération d’apprentissage, etc.). Cela pourrait même permettre d’unir les forces face aux colosses étrangers : une seule institution européenne ne peut rivaliser avec la masse de données de Google ou Alibaba, mais plusieurs unissant leurs ressources pourraient entraîner des IA d’un niveau équivalent, tout en conservant la maîtrise des données sur le sol européen.
Des initiatives commencent à voir le jour en ce sens. En France, l’Autorité de contrôle prudentiel et de résolution, le régulateur bancaire, a lancé une expérimentation collaborative sur la mutualisation de données appliquée à la lutte antiblanchiment. En joignant leurs bases de transactions suspectes, plusieurs banques ont pu améliorer les algorithmes de détection d’opérations illicites, réduisant les faux positifs et renforçant l’efficacité globale du dispositif. Ce projet pilote, utilisant des Privacy Enhancing Technologies pour garantir la confidentialité, préfigure ce que pourrait être une coopération data driven à l’échelle de l’Europe financière. Ou du moins de la France.