Square
 

Le dilemme de la boîte noire : faut-il tout expliquer ?

Créé le

19.02.2024

-

Mis à jour le

12.03.2024

Le fonctionnement des systèmes basés sur l’intelligence artificielle est souvent difficile à appréhender. Comment expliquer une décision prise par une machine sur des dizaines de milliards de critères ? Comment répondre aux exigences en matière de transparence ? La nécessité de décrypter le travail de l’algorithme et le degré de précision requis varient selon les cas.

Recommandations de produits basées sur l’historique d’achat, assistants personnels comme Chat GPT, Siri ou Google Assistant, filtres anti-spam, assistances à la conduite : l’intelligence artificielle (IA) est de plus en plus présente dans nos vies quotidiennes à travers des usages plus ou moins clairement identifiés par les consommateurs. Qu’en est-il dans les domaines de la banque et de l’assurance ?

Historiquement, ces deux secteurs ont utilisé au cœur de leur activité des quantités importantes de données. C’est donc logiquement que le champ de l’IA puis, plus récemment, celui de l’IA ...

À retrouver dans la revue
Revue Banque Nº890
RB