Les définitions de l’intelligence artificielle (IA) sont nombreuses. Selon la formulation retenue par le Document de réflexion sur l’IA de l’ACPR
Pour la banque et l’assurance, les projets d’lA présentent des degrés d’avancement disparates
La gouvernance de l’IA doit-elle se structurer autour de règles juridiques ou éthiques ?
Le droit actuel est-il applicable ?
L’intelligence artificielle représente une technologie innovante et prometteuse. Comment en assurer un développement maîtrisé sans freiner l’innovation ? En l’absence de règles spécifiques à l’IA, les règles juridiques actuelles peuvent-elles s’y appliquer ? Des pans entiers du droit classique sont remis en question par l’IA dont la propriété intellectuelle, la protection de la vie privée et la responsabilité.
Comment les principes de la propriété intellectuelle sont-ils perturbés par l’IA ? Pour valoriser l’innovation, la question de la protection des composantes de l’IA est centrale : logiciels, données et algorithmes
La protection par le secret des affaires
Les règles de protection des données personnelles sont mises à l’épreuve face au développement de l’IA. Le RGPD et la Loi Informatique et Libertés
Les règles classiques de la responsabilité sont-elles toujours appropriées face aux nouveaux défis de l’IA ? Les instruments du droit positif de la responsabilité peuvent être exploités. Les parties impliquées peuvent aménager les contours de leur responsabilité mais ces conditions, en droit français, ne sont ni opposables aux consommateurs ni à un tiers qui subirait un dommage. Si un robot génère un préjudice, la question de la responsabilité sera complexe. Sans doute faut-il penser en termes de chaîne de responsabilité, depuis le concepteur du système jusqu’à son utilisateur, en intégrant celui qui va entraîner ce système apprenant. L’expérience pratique de l’IA montrera si les régimes actuels du droit de la responsabilité sont à adapter.
D’autres questions apparaissent conjointement au développement de l’IA comme son impact sur le droit du travail ou le droit de la santé.
Faut-il promouvoir l’éthique ou le droit ?
La confrontation des nouveaux usages de l’IA aux règles juridiques classiques a ouvert un large débat et encouragé les réflexions de différents organismes pour normer l’IA. Une normalisation juridique mondiale semble utopique au regard des disparités des régimes légaux régionaux. La norme éthique, sans caractère obligatoire, est néanmoins une préfiguration de la norme juridique. Pour accompagner l’IA en plein développement, faut-il légiférer ou promouvoir des règles éthiques ? Cette question est au centre des réflexions de nombreuses institutions publiques en France, au plan européen et international. Quels sont les travaux majeurs ?
Les contributions françaises
Dès 2014, le Conseil d’État consacre son étude annuelle au numérique et aux droits fondamentaux. L’étude formule des recommandations invitant à « repenser les principes fondant la protection des droits fondamentaux ». Parmi ces principes, le Conseil d’État prône l’auto-détermination informationnelle, la protection des données personnelles et la loyauté des traitements, c’est-à-dire la fidélité à l’intérêt des utilisateurs.
Le Sénat publie, le 29 mars 2017, un rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée »
La CNIL se penche également sur les enjeux éthiques des algorithmes et de l’intelligence artificielle et en publie ses travaux en décembre 2017. Fruit d’un débat public animé par la Commission, la publication explore les promesses et les risques associés à ces technologies. Les recommandations de la CNIL sont de rendre les systèmes compréhensibles en renforçant le droit existant, de promouvoir le design des algorithmes au service de la liberté humaine, de construire une plate-forme nationale d’audit et d’encourager le développement de l’éthique.
Le 28 mars 2018, le Parlement propose un autre rapport précité sur ce thème : « Une stratégie pour la France en matière d’IA ». Selon Cédric Villani, son rapporteur : « La France doit réaffirmer sa souveraineté et définir un cadre de confiance pour l’utilisation de l’IA au bénéfice de ses citoyens, en tenant compte du cadre européen. » Le rapport formule diverses recommandations notamment celles de penser des droits collectifs sur les données et de promouvoir une gouvernance spécifique de l’éthique en IA.
Pour le secteur de la banque et de l’assurance, l’ACPR publie, en décembre 2018, un document de réflexion : « Intelligence artificielle : enjeux pour le secteur financier ». Sa rédaction encourage à s’assurer de la fiabilité des algorithmes et à définir une gouvernance appropriée : « Il peut y avoir un risque à édicter trop tôt des normes qui fassent obstacle au développement de certains usages de l’IA dans le secteur financier. Inversement, il apparaît toutefois important que le développement de l’usage de l’IA s’accompagne d’une réflexion pratique sur les formes adaptées de leur gouvernance, au regard d’objectifs réglementaires technologiquement neutres. »
Les réflexions européennes
Le Conseil européen, au travers de sa commission européenne pour l’efficacité de la justice (CEPEJ) propose, le 3 décembre 2018, une Charte éthique sur l’utilisation de l’IA dans les systèmes judiciaires.
Une résolution du Parlement européen sur une Politique industrielle sur l’IA et la robotique est rendue publique le 12 février 2019. Le Parlement veut promouvoir un environnement réglementaire favorable au développement de l’IA et envisager avec précaution toute loi ou réglementation globale de l’IA.
Le 8 avril 2019, c’est la Commission européenne, au travers de son groupe d’experts en intelligence artificielle (AI HLEG
L’OCDE publie sa Recommandation du Conseil sur l’IA le 22 mai 2019. Cette Recommandation promeut dix principes pour accompagner le développement de l’IA, dont la transparence et l’explicabilité, la robustesse, la sécurité et la responsabilité. Elle vise aussi à favoriser la coopération internationale au service d'une IA digne de confiance.
Le Conseil de l’Europe
Sur la scène internationale
Comme chaque rupture technologique, l’IA aura des implications majeures sur la scène internationale
Quelles sont les contributions de la Chine et les États-Unis sur la gouvernance de l’IA ? En Chine, le 28 mai 2019, les Universités de Pékin et Tsinhua publient les Principes de Beijing sur l’IA. Il est à noter que le texte est cosigné par l’Académie des sciences chinoise et un groupe d’industriels de l’IA, comme Alibaba et TenCent. Aux États-Unis, le ministère de la Défense propose le 31 octobre 2019 des Recommandations pour un usage éthique de l’IA
De par sa dimension internationale, l’Unesco
Enfin, le 3 décembre 2019, l'Unesco annonce être prête à élaborer des règles éthiques sur l'intelligence artificielle