Algorithme

Ethique de l’intelligence artificielle : expliquer « l’explicabilité »

Faut-il imposer une obligation d’explication des décisions algorithmiques ? Pour éclairer ce débat, l’auteur a cherché à définir en quoi consiste l’« explicabilité » de l’intelligence artificielle et quelles obligations elle crée à l’égard des concepteurs et des opérateurs de solutions fondées sur l’apprentissage-machine et les algorithmes.

Ehtique de l'IA : expliquer "l'explicabilité"

L'auteur

  • XAVIER VAMPARYS
    • Chargé de mission IA
      CNP Assurances
    • Chercheur invité
      Telecom Paris, Institut polytechnique de Paris

Revue de l'article

Cet article est extrait de
Revue Banque n°842

Services financiers : Faut-il avoir peur des BIG TECHS ?

Dans le débat public, l’intelligence artificielle (IA) est souvent présentée comme l’instrument de notre entrée dans un monde dystopique qui n’aurait plus besoin de nous. Cette vision anxiogène est parfois alimentée par les esprits les plus brillants et avertis [1] qui craignent que cette technologie nous échappe et que la machine, non satisfaite d’avoir dépassé l’homme, le fasse disparaître.Dans le champ économique, même si les cas d’usage restent pour l’essentiel à développer, le procès de l’intelligence artificielle semble déjà instruit : l’IA est suspectée de servir exclusivement les ...
Lire la suite >>

L'article que vous souhaitez consulter est payant ou réservé à nos abonnés.

Vous êtes abonné.
Merci de vous identifier.

Achetez ce contenu à l'unité

Tarif : 5.00 euros TTC
Revue Banque

Articles du(des) même(s) auteur(s)

Sur le même sujet