Square

Rencontre avec… Yannick Martel, cofondateur de Bleckwen

« L’IA n’est pas isolée : elle entre dans un processus global »

Créé le

19.09.2019

Spécialiste de l’intelligence artificielle appliquée à la fraude financière, Yannick Martel était présent lors de la journée AI for Finance au Palais Brogniart, le 3 septembre dernier. Il fait le point sur les développements techniques de sa société, après ses débuts l’an dernier au salon Money 2020 Europe. Il analyse les réticences des banques face à cette solution et dessine les possibles perspectives qui lui sont liées.

Faisons un point sur Bleckwen, qui développe une solution de détection de fraude basée sur l’intelligence artificielle. Vous l'avez lancée au moment de Money 20/20 Europe en septembre 2018… où en est-elle près de 18 mois plus tard ?

Nous avons commencé par faire un spin-off. En 2018, nous n’étions qu’une business unit à l’intérieur d’une société plus grande qui s’appelait Ercom. Elle venait de lancer sa marque propre : Bleckwen. Depuis janvier, Ercom a été racheté par Thalès, et Bleckwen a pris son envol. Nous sommes devenus une société indépendante, avec un P-DG, David Christie, qui a été nommé par des actionnaires à cette date. Nous avons réalisé une levée de fonds, une série A en mai, de 9 millions d’euros, qui a été mené par RIN Capital.

Combien de personnes travaillent chez Bleckwen ?

Nous sommes une quarantaine de personnes, principalement à Paris, et avec quelques collaborateurs à Londres.

Votre offre a-t-elle évolué ?

Du point de vue technique, lors de notre rencontre en juin dernier [1] , nous commencions à peine le développement de la solution industrielle. Cette solution a été développée, mais elle reste évidemment en cours d’amélioration. Nous avons déjà réalisé plusieurs livraisons à notre client de référence, qui est le même que celui dont nous avions parlé l’an dernier.Nous n’avons pas encore le droit de donner le nom, mais c’est une grande banque française. La mise en place technique est déjà faite : nous traitons les transactions, mais ce n’est pas utilisé par les utilisateurs (c’est-à-dire le personnel de la banque, ndlr ). Normalement, nous devrions passer en production très prochainement.

Votre système reste donc en phase d’apprentissage pour cette banque ?

Tout à fait. Cette grande banque a choisi de faire fonctionner la solution un certain temps à vide pour pouvoir la comparer par rapport au système en place actuellement. Suivra une phase de reparamétrage pour améliorer la performance du détecteur.

L’ancien système était-il déjà basé sur de l’IA ?

Non, c’est un système à base de règles. Avec des règles très simples, que nous savons reproduire très facilement. Ensuite, la solution sera améliorée avec des process plus sophistiqués.

Une offre étendue dans la lutte contre le blanchiment et le terrorisme

Avez-vous d’autres clients dans le domaine de la finance ?

Tout à fait. Nous terminons un pilote avec Carrefour Banque sur la fraude au crédit. Le pilote s’est autofinancé rapidement au bout de quelques mois. Nous espérons pouvoir poursuivre notre coopération avec eux. Nous allons également démarrer très prochainement une expérimentation avec une autre très grande banque française. D’abord, sur la fraude au virement, et ensuite sur la fraude à la carte de crédit, qui est un domaine nouveau pour nous. Nous parlons également avec d’autres banques en France et en Angleterre principalement.

L’accent est-il toujours mis sur la banque de détail ou envisagez-vous également d’autres secteurs financiers ?

Nous travaillons principalement dans la banque de détail et, potentiellement, dans la banque de grandes entreprises, puisque notre système peut aussi protéger les virements de ce type de clientèle. Mais le domaine d’extension sur lequel nous travaillons actuellement est celui de la lutte contre le blanchiment et le financement du terrorisme. Nous avons des prototypes en cours que nous souhaitons rajouter à notre plate-forme. Celle-ci permet à la base d’appliquer de l’analyse comportementale et de l’iA pour détecter des phénomènes rares et des phénomènes de criminalité financière. Donc, de la fraude, mais également du blanchiment ou du financement du terrorisme.

Travaillez-vous avec des organismes gouvernementaux ?

Nous avons quelques échanges avec Tracfin et l’ACPR, que nous souhaitons continuer et approfondir. Nous ne sommes pas dans les pilotes de l’ACPR. Nous avions répondu à la consultation qu’elle avait lancée sur la période de janvier-février 2019 et en avons tiré un Livre Blanc [2] . Nous pensons avoir des choses à leur apporter, parce que nous avons une expérience très opérationnelle sur l’IA explicable, qui fait partie intégrante de nos produits. Nous effectuons également des recherches sur la mutualisation et la fédération. La grande question est de savoir comment les banques peuvent tirer parti des enseignements des autres banques, pour ne pas rester seules et vulnérables face aux fraudeurs – qui ont une visibilité totale –, mais sans nécessairement partager les données. Nous avons des idées très concrètes sur la manière d’opérer cela.

L’IA doit être explicable pour affiner la détection des fraudes

Comment vous distinguez-vous des autres start-up qui utilisent l'AI pour lutter contre la fraude ?

Beaucoup d’acteurs sont plutôt généralistes et proposent une plate-forme d’IA, qui ensuite peut être appliquée à la lutte contre la fraude, au marketing ou au support client. Nous ne faisons que de la lutte contre la criminalité financière. C’est important parce que les méthodes, les algorithmes, les démarches et même les technologies sont très spécifiques. Nos Data Scientists ont tous de l’expérience dans ce domaine. Certaines sociétés, en général américaines ou anglaises, font aussi de l’IA explicable appliquée à la lutte contre la fraude, mais face à elles, nous proposons une approche plus modulaire, capable de mieux intégrer les modèles des banques et s’intégrer plus facilement dans leur système d’information.

Peut-on arriver à des modèles de lutte contre la fraude basés sur l’IA sans passer par un contrôle humain ?

Non, l’objectif n’est pas se passer d’une intervention humaine, mais de mieux collaborer pour rendre l’expertise de l’être humain plus efficace. Comme le rappelle la CNIL, « une décision doit toujours être explicable par un être humain au client. » Il est important de garder un être humain pour savoir analyser et justifier les décisions du système. Nos efforts vont plutôt porter sur l’amélioration le fonctionnement global du système de l’IA et de l’être humain, plutôt que d’améliorer le fonctionnement de l’IA seule.

Vous voulez, à chaque fois, que l’IA puisse dire : « voilà pourquoi je soupçonne qu’il y a une fraude »…

En fait, il y a deux sujets. Le premier est le cas que vous décrivez : je veux savoir pourquoi il y a une alerte, pourquoi je soupçonne une fraude ; ou, dans le même registre, pourquoi le système n’a pas émis d’alerte alors que je me rends compte que cela aurait dû être le cas…Le deuxième aspect est plus global : lorsque je mets un système en production et que je base un processus critique sur ce système, je veux m’assurer qu’il va effectivement fonctionner d’une manière qui me convient, et que je vais pouvoir expliquer le fonctionnement du système, cette fois-ci, de manière un peu plus globale. Sur les sujets d’antiblanchiment et d’antiterrorisme, où la banque a une responsabilité forte devant la société et le régulateur, l’explication globale devient importante.

Les banquiers ont besoin d’être rassurés sur le machine learning

On parle beaucoup des biais des IA. Comment les éliminez-vous ?

C’est un sujet délicat. Il faut tout d’abord avoir un algorithme suffisamment performant, qui n’introduit pas de biais en soi en modélisant le phénomène. Il faut aussi s’assurer de le faire fonctionner de sorte à éviter le surapprentissage avec des techniques de data science classique. Ensuite, il faut comprendre ce que l’algorithme a appris et s’assurer qu’il n’y a pas de biais dans cet apprentissage.

Comment les banques perçoivent-elles l’IA ?

Elles montrent à la fois de l’intérêt et de la méfiance. En particulier, les agents qui travaillent sur les sujets de risque et conformité veulent comprendre ce que fait le système, parce que c’est leur poste, leur crédibilité personnelle qui sont en jeu. Aujourd’hui, un gros effort d’éducation, d’explication doit être mené. Toutes les semaines, j’ai plusieurs réunions avec des banques pour présenter notre système. Et souvent, il y a besoin de beaucoup d’explications sur ce qu’est le machine learning : « Est-ce réellement plus performant que les règles ? Pourquoi est-ce plus performant ? Qu’est-ce que je gagne ? Qu’est-ce que je perds ? » Aujourd’hui, ceux qui adoptent notre système sont plutôt des early adopters. Les grandes banques anglaises traditionnelles ont le même type réticence que leurs homologues françaises, même si elles manifestent un peu plus d’intérêt pour les technologies et un peu plus de facilité à les adopter. La différence est plus entre les banques traditionnelles et les néo-banques qui sont plus prêtes à essayer et expérimenter.

Avez-vous des FinTechs parmi vos clients ?

Non, mais nous essayons. L’obstacle, avec les petites banques, est d’être face à des interlocuteurs qui sont beaucoup plus habitués à faire par eux-mêmes. Ils peuvent y parvenir, parce que ce sont des sociétés assez techniques, mais cela risque de leur coûter très cher, et d’être assez long avant d’arriver au bon niveau d’expertise.

Propos recueillis par Stéphanie Chaptal

 

1 Lire « Money 20/20 Amsterdam – Un salon entre ouverture et sécurité », Revue Banque n° 822, p. 42.
2 À télécharger sur https://www.bleckwen.ai/resources/.

À retrouver dans la revue
Revue Banque Nº836
Notes :
1 Lire « Money 20/20 Amsterdam – Un salon entre ouverture et sécurité », Revue Banque n° 822, p. 42.
2 À télécharger sur https://www.bleckwen.ai/resources/.