Le dilemme de la boîte noire : faut-il tout expliquer ?

Créé le

19.02.2024

-

Mis à jour le

12.03.2024

Le fonctionnement des systèmes basés sur l’intelligence artificielle est souvent difficile à appréhender. Comment expliquer une décision prise par une machine sur des dizaines de milliards de critères ? Comment répondre aux exigences en matière de transparence ? La nécessité de décrypter le travail de l’algorithme et le degré de précision requis varient selon les cas.

Recommandations de produits basées sur l’historique d’achat, assistants personnels comme Chat GPT, Siri ou Google Assistant, filtres anti-spam, assistances à la conduite : l’intelligence artificielle (IA) est de plus en plus présente dans nos vies quotidiennes à travers des usages plus ou moins clairement identifiés par les consommateurs. Qu’en est-il dans les domaines de la banque et de l’assurance ?

Historiquement, ces deux secteurs ont utilisé au cœur de leur activité des quantités importantes de données. C’est donc logiquement que le champ de l’IA puis, plus récemment, celui de l’IA générative (GenAI) ont fait l’objet de travaux approfondis par certains acteurs des services financiers. Leurs équipes de recherche et développement travaillent depuis de nombreuses années à concevoir des algorithmes de prise de décision sophistiqués.

Ces algorithmes ont rapidement présenté des applications concrètes prometteuses tout au long de la chaîne de valeur. Cependant, seule une modeste partie d’entre elles ont été rapidement adoptées et déployées. Parmi les facteurs expliquant cette relative inertie, le déficit d’explicabilité des résultats produits est certainement l’un des plus fondamentaux. Comment, en effet, accorder sa confiance à ce qui est souvent perçu – et littéralement désigné – comme une « boîte noire » ?

Ce terme fait référence à un système dans lequel les entrées et les sorties sont connues, mais dont le fonctionnement interne est inconnu. Il faut admettre que c’est le cas de nombreux modèles d’IA, et notamment de GenAI, qui reposent sur des milliards de paramètres. Côté pile, ce fonctionnement leur permet de proposer des résultats d’une précision et d’une performance incomparables, leur conférant notamment la capacité de générer du texte, des images et du code. Côté face, cette complexité empêche généralement de comprendre ou d’expliquer quels paramètres entrent en compte dans ce qui est formulé par la machine.

Si cette notion de boîte noire semble généralement peu problématique lorsque l’algorithme a pour but de recommander des contenus – comme un titre sur une plate-forme de streaming musical –, elle est naturellement considérée avec davantage d’attention lorsqu’il s’agit de l’univers de la banque et de l’assurance.

Les prédictions générées dans le monde professionnel, et en particulier dans le secteur économique, sont engageantes pour les entreprises, et nécessitent à ce titre une exigence toute particulière sur la performance et la compréhension d’un système « intelligent ». Pour autant, toutes les applications ne se valent pas : si l’explicabilité de l’algorithme est un prérequis pour certains cas d’usage, elle est moins importante pour d’autres applications.

Démystifier la prise de décision

Prenons l’exemple des chatbots reposant sur la technologie de la GenAI. Selon toute évidence, ces outils sont appelés à être de plus en plus utilisés dans les années à venir. Pour les usages internes tels que la recherche et la synthèse d’informations, la priorité est donnée à l’efficacité des résultats : si les premiers tests sont concluants, les collaborateurs utiliseront cette technologie pour gagner en productivité, sans chercher à comprendre comment fonctionnent ces bots. L’explicabilité est alors secondaire. En effet, les recommandations formulées par l’algorithme ne sont pas critiques dans ce scénario. Elles ont le rôle d’une fonction support, et n’ont aucun impact direct sur les clients.

En revanche, la situation est différente en ce qui concerne les cas d’usage cœur de métier, tels que la tarification en assurance ou le credit scoring en banque de détail. L’explicabilité des systèmes intégrant de l’IA est essentielle, avec différents niveaux d’attentes selon les objectifs et les utilisateurs concernés. En tarification automobile par exemple, nous pouvons discerner trois types d’acteurs :

– les consommateurs, en premier lieu, doivent être en mesure de comprendre les effets d’un changement de véhicule (ou d’ajout d’un second conducteur etc.) sur la variation du tarif comme c’est déjà le cas pour les solutions de tarification non fondées sur l’IA. Il s’agit ici d’un niveau basique d’explicabilité ;

– les autorités de contrôle doivent quant à elles être en mesure de valider la conformité des résultats avec la régulation, par exemple en ce qui concerne les règles de non-discrimination entre les hommes et les femmes. Il s’agit d’un niveau avancé d’explicabilité ;

– les instances dirigeantes de la compagnie d’assurance, enfin, doivent pouvoir valider, en toute connaissance des méthodes et des données, une grille tarifaire complète potentiellement produite par l’IA, avec des impacts conséquents sur l’attractivité de l’offre et sur la profitabilité d’un portefeuille. Le niveau requis de compréhension est alors très avancé et les comités de validation du tarif impliquent des travaux importants sur l’explicabilité.

Au service de la stratégie

Il est incontestable que l’adoption de l’IA représente une avancée majeure pour les secteurs de la banque et de l’assurance, tant sur le plan de l’efficacité opérationnelle qu’en matière de personnalisation des services. Cependant, dans ces métiers qui reposent par essence sur l’utilisation de données critiques et complexes, dans des cadres fortement réglementés, la question de l’explicabilité de l’IA revêt une importance stratégique.

L’explicabilité permet non seulement de démystifier la prise de décision automatisée, mais également de la remettre en cause si nécessaire pour, in fine, l’améliorer. Elle est cruciale pour assurer la conformité aux normes légales et éthiques, notamment en matière de non-discrimination et de protection des consommateurs. Nous avons vu qu’il existe des champs d’application moins sensibles, où il est parfaitement acceptable de faire confiance à des systèmes ayant fait la preuve de leur robustesse.

Ouvrir la boîte noire des algorithmes est un travail complexe et coûteux. Il est donc indispensable de flécher cet effort vers les cas d’usage prioritaires, avec bon sens, en conformité avec toutes les obligations réglementaires existantes et à venir. C’est à ce prix que se gagnera la confiance de l’ensemble des parties prenantes, indispensable à l’essor de l’IA et de ses indiscutables bénéfices.

À retrouver dans la revue
Revue Banque Nº890