Cadre réglementaire

Intelligence artificielle : vers une réglementation ?

Dans le secteur financier, les applications fondées sur l’IA sont encore peu développées. Cependant, toutes les conditions sont réunies pour une évolution rapide et généralisée des techniques d’intelligence artificielle : disponibilité et diversité des données, performance des équipements informatiques et développement des offres. Le cadre réglementaire actuel est-il adapté à cette évolution ?

Quel cadre réglementaire pour l'IA ?

L'auteur

Pour en savoir plus

image
  • Intelligence artificielle

    Intelligence artificielle

Revue de l'article

Cet article est extrait de
Revue Banque n°839

Numéro double 839-840 : Prospective 2020 - Rétrospective 2019

Les définitions de l’intelligence artificielle (IA) sont nombreuses. Selon la formulation retenue par le Document de réflexion sur l’IA de l’ACPR [1], c'est une technologie qui a pour objectif d’imiter les différentes fonctions cognitives (perception, raisonnement, apprentissage, etc.) ou de reproduire des compétences humaines. Le concept d’IA est souvent restreint à des programmes qui disposent d’une capacité d’apprentissage autonome.

Pour la banque et l’assurance, les projets d’lA présentent des degrés d’avancement disparates [2]. Ils portent notamment sur l’octroi de crédit, la prévention de la fraude ou la gestion du cyber-risque. La maîtrise de l’IA représente des enjeux de compétitivité et d’amélioration des services. Son usage comporte également des risques parmi lesquels la difficile explicabilité des décisions, les effets des biais des algorithmes, l’atteinte à la vie privée et la dépendance technique à quelques acteurs incontournables.

La gouvernance de l’IA doit-elle se structurer autour de règles juridiques ou éthiques ?

Le droit actuel est-il applicable ?

L’intelligence artificielle représente une technologie innovante et prometteuse. Comment en assurer un développement maîtrisé sans freiner l’innovation ? En l’absence de règles spécifiques à l’IA, les règles juridiques actuelles peuvent-elles s’y appliquer ? Des pans entiers du droit classique sont remis en question par l’IA dont la propriété intellectuelle, la protection de la vie privée et la responsabilité.

Comment les principes de la propriété intellectuelle sont-ils perturbés par l’IA ? Pour valoriser l’innovation, la question de la protection des composantes de l’IA est centrale : logiciels, données et algorithmes [3]. Les logiciels sont protégés par le droit d’auteur, à condition de comporter une part d’originalité. Les données peuvent bénéficier de la protection sui generis des bases de données [4], à condition de prouver un investissement substantiel du producteur et d’être conformes au droit des données personnelles [5]. Si les algorithmes ne sont pas protégeables en tant que tels, leur mise en forme pourrait être protégée par le droit d’auteur quand ils sont intégrés à un logiciel. Il faut préciser que les méthodes mathématiques ne sont pas protégeables, ni par le brevet [6] ni par le droit d’auteur [7].

La protection par le secret des affaires [8] peut être une solution mais les exigences de transparence prévues par la protection des données personnelles peuvent se heurter à ce mécanisme [9]. De plus, la loi pour une République numérique [10] prévoit que les codes sources des algorithmes utilisés par l’administration soient des documents communicables. Entre transparence des algorithmes et protection de l’innovation, l’équilibre est à construire. « Beaucoup de ces enjeux soulevés par les algorithmes constituent aujourd’hui un angle mort du droit » selon le rapport Villani [11]. En pratique, la mise en œuvre de ces protections peut encore se complexifier quand le système d’IA génère lui-même de nouvelles règles et données. A qui appartient l'ensemble de données généré par une intelligence artificielle ? Ici, l’IA défie les notions juridiques traditionnelles d’originalité et d’auteur.

Les règles de protection des données personnelles sont mises à l’épreuve face au développement de l’IA. Le RGPD et la Loi Informatique et Libertés [12] encadrent l’usage des données personnelles et interdisent la prise de décision par la seule machine. La loi pour une République numérique [13] s’inscrit dans la même logique que le RGPD, quand elle renforce l’obligation faite à ceux qui déploient des algorithmes d’en informer les personnes concernées. Mais face aux biais pouvant entraîner une discrimination et à la grande quantité de données nécessaire à l’IA, comment exploiter celles-ci tout en maintenant l’impératif de protéger les libertés individuelles ? Comment appliquer le principe de transparence quand les systèmes sont complexes et évolutifs ?

Les règles classiques de la responsabilité sont-elles toujours appropriées face aux nouveaux défis de l’IA ? Les instruments du droit positif de la responsabilité peuvent être exploités. Les parties impliquées peuvent aménager les contours de leur responsabilité mais ces conditions, en droit français, ne sont ni opposables aux consommateurs ni à un tiers qui subirait un dommage. Si un robot génère un préjudice, la question de la responsabilité sera complexe. Sans doute faut-il penser en termes de chaîne de responsabilité, depuis le concepteur du système jusqu’à son utilisateur, en intégrant celui qui va entraîner ce système apprenant. L’expérience pratique de l’IA montrera si les régimes actuels du droit de la responsabilité sont à adapter.

D’autres questions apparaissent conjointement au développement de l’IA comme son impact sur le droit du travail ou le droit de la santé.

Faut-il promouvoir l’éthique ou le droit ?

La confrontation des nouveaux usages de l’IA aux règles juridiques classiques a ouvert un large débat et encouragé les réflexions de différents organismes pour normer l’IA. Une normalisation juridique mondiale semble utopique au regard des disparités des régimes légaux régionaux. La norme éthique, sans caractère obligatoire, est néanmoins une préfiguration de la norme juridique. Pour accompagner l’IA en plein développement, faut-il légiférer ou promouvoir des règles éthiques ? Cette question est au centre des réflexions de nombreuses institutions publiques en France, au plan européen et international. Quels sont les travaux majeurs ?

Les contributions françaises

Dès 2014, le Conseil d’État consacre son étude annuelle au numérique et aux droits fondamentaux. L’étude formule des recommandations invitant à « repenser les principes fondant la protection des droits fondamentaux ». Parmi ces principes, le Conseil d’État prône l’auto-détermination informationnelle, la protection des données personnelles et la loyauté des traitements, c’est-à-dire la fidélité à l’intérêt des utilisateurs.

Le Sénat publie, le 29 mars 2017, un rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée » [14]. Les principes majeurs énoncés sont de favoriser des algorithmes et des robots sûrs, transparents et justes. Une autre préconisation majeure de ce rapport est de se garder d’une contrainte juridique trop forte sur la recherche en IA.

La CNIL se penche également sur les enjeux éthiques des algorithmes et de l’intelligence artificielle et en publie ses travaux en décembre 2017. Fruit d’un débat public animé par la Commission, la publication explore les promesses et les risques associés à ces technologies. Les recommandations de la CNIL sont de rendre les systèmes compréhensibles en renforçant le droit existant, de promouvoir le design des algorithmes au service de la liberté humaine, de construire une plate-forme nationale d’audit et d’encourager le développement de l’éthique.

Le 28 mars 2018, le Parlement propose un autre rapport précité sur ce thème : « Une stratégie pour la France en matière d’IA ». Selon Cédric Villani, son rapporteur : « La France doit réaffirmer sa souveraineté et définir un cadre de confiance pour l’utilisation de l’IA au bénéfice de ses citoyens, en tenant compte du cadre européen. » Le rapport formule diverses recommandations notamment celles de penser des droits collectifs sur les données et de promouvoir une gouvernance spécifique de l’éthique en IA.

Pour le secteur de la banque et de l’assurance, l’ACPR publie, en décembre 2018, un document de réflexion : « Intelligence artificielle : enjeux pour le secteur financier ». Sa rédaction encourage à s’assurer de la fiabilité des algorithmes et à définir une gouvernance appropriée : « Il peut y avoir un risque à édicter trop tôt des normes qui fassent obstacle au développement de certains usages de l’IA dans le secteur financier. Inversement, il apparaît toutefois important que le développement de l’usage de l’IA s’accompagne d’une réflexion pratique sur les formes adaptées de leur gouvernance, au regard d’objectifs réglementaires technologiquement neutres. »

Les réflexions européennes

Le Conseil européen, au travers de sa commission européenne pour l’efficacité de la justice (CEPEJ) propose, le 3 décembre 2018, une Charte éthique sur l’utilisation de l’IA dans les systèmes judiciaires.

Une résolution du Parlement européen sur une Politique industrielle sur l’IA et la robotique est rendue publique le 12 février 2019. Le Parlement veut promouvoir un environnement réglementaire favorable au développement de l’IA et envisager avec précaution toute loi ou réglementation globale de l’IA.

Le 8 avril 2019, c’est la Commission européenne, au travers de son groupe d’experts en intelligence artificielle (AI HLEG [15]), qui partage ses Lignes directrices sur l’éthique de l’IA. La Commission encourage notamment le contrôle humain, la sécurité et la robustesse, le respect de la vie privée, la transparence, la non-discrimination et l’équité ainsi que la responsabilisation.

L’OCDE publie sa Recommandation du Conseil sur l’IA le 22 mai 2019. Cette Recommandation promeut dix principes pour accompagner le développement de l’IA, dont la transparence et l’explicabilité, la robustesse, la sécurité et la responsabilité. Elle vise aussi à favoriser la coopération internationale au service d'une IA digne de confiance.

Le Conseil de l’Europe [16] annonce le 11 septembre 2019 la création d’un Comité IA ad hoc. Son objectif est d’« examiner la faisabilité et les éléments potentiels, sur la base de larges consultations multipartites, d'un cadre juridique pour le développement, la conception et l'application de l'intelligence artificielle ». Ce même Conseil de l’Europe, lors de sa Conférence des ministres de la justice des 14 et 15 octobre 2019 consacrée à la justice en Europe face aux défis du numérique, fait part de la publication d’une Charte éthique européenne pour l’utilisation de l’IA dans les systèmes judiciaires. La Conférence promeut également des Lignes directrices sur les implications de l'IA en matière de protection des données.

Sur la scène internationale

Comme chaque rupture technologique, l’IA aura des implications majeures sur la scène internationale [17]. Elle constitue déjà un levier de puissance, tout particulièrement entre les États-Unis et la Chine. Et l’Europe reste dans la course. Quant à une gouvernance mondiale de l’IA, elle reste à bâtir.

Quelles sont les contributions de la Chine et les États-Unis sur la gouvernance de l’IA ? En Chine, le 28 mai 2019, les Universités de Pékin et Tsinhua publient les Principes de Beijing sur l’IA. Il est à noter que le texte est cosigné par l’Académie des sciences chinoise et un groupe d’industriels de l’IA, comme Alibaba et TenCent. Aux États-Unis, le ministère de la Défense propose le 31 octobre 2019 des Recommandations pour un usage éthique de l’IA [18].

De par sa dimension internationale, l’Unesco [19] affiche son ambition de définir les principes éthiques fondamentaux qui encadreront les développements de l’IA. Dans le cadre d'une conférence organisée à Paris le 4 mars 2019, « Principes pour l’IA : vers une approche humaniste ? », Audrey Azoulay, directrice générale de l’institution, prend position : « Il est certainement prématuré de vouloir réglementer l’IA au niveau mondial, mais il est plus que temps de définir un socle de principes éthiques qui encadreraient cette disruption. »

Enfin, le 3 décembre 2019, l'Unesco annonce être prête à élaborer des règles éthiques sur l'intelligence artificielle [20]. Le processus prévoit que l'Unesco réunira en 2020 un groupe d'experts ad hoc pour préparer un projet de texte. Une large consultation multipartite sur ce projet sera organisée entre mars et août, puis envoyée aux États membres afin qu’ils donnent un avis avant la fin du mois de septembre. Deux réunions intergouvernementales seront organisées en 2021 pour finaliser le texte de cet instrument normatif.

 

[1] ACPR, « Intelligence artificielle : enjeux pour le secteur financier », Document de réflexion, décembre 2018.

[2] « Sécurité des SI et IA : une alliance à forger ou un nouveau combat à mener ? », Colloque du Forum des Compétences, 12 novembre 2019.

[3] Ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. (source : dictionnaire Larousse)

[4] Directive du 11 mars 1996 transposée par la loi n° 98-536 du 1er juillet 1998.

[5] Cour de Cassation, 25 juin 2013.

[6] Article L611-10 du Code de la propriété intellectuelle.

[7] Directive du 14 mai 1991 et Arrêt CJUE SAS Institute /World Program Ltd, 2 mai 2012.

[8] Loi du 30 juillet 2018 sur le secret des affaires.

[9] Sabine Marcellin et Thibault du Manoir de Juaye, Le Secret des affaires, LexisNexis, 2019.

[10] Loi pour une République numérique du 7 octobre 2016.

[11] Rapport « Donner un sens à l’intelligence artificielle », sous la direction de Cédric Villani, 8 mars 2018.

[12] Article 4 du Règlement de protection des données personnelles et article 22 de la Loi Informatique et Libertés.

[13] Loi pour une République numérique du 7 octobre 2016 et décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l'objet de décisions individuelles prises sur le fondement d'un traitement algorithmique.

[14] Sous la direction de Claude de Ganay et Dominique Gillot.

[15] High-Level Expert Group on Artificial Intelligence.

[16] Institution créée en 1949 par le Traité de Londres qui comprend 47 États membres.

[17] Julien Nocetti, « Intelligence artificielle et politique internationale : les impacts d’une rupture technologique », Études de l’Ifri, Ifri, novembre 2019.

[18] AI principles : Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense.

[19] Organisation des nations Unies pour l’éducation, la science et la culture.

[20] « Changing relationship between Artificial Intelligence and Humans », Unesco roundtable.

 

Articles du(des) même(s) auteur(s)

Sur le même sujet