Square
 

Les États-Unis entendent « gouverner » l’intelligence artificielle

Créé le

14.11.2023

-

Mis à jour le

21.11.2023

« Les États-Unis montrent la voie », a annoncé d’entrée Joe Biden, qui a signé le 30 octobre un décret d’envergure visant à encadrer l’usage de l’Intelligence artificielle (IA). Le président américain s’appuie sur la loi de 1950 (Defense Production Act) lui conférant un pouvoir de contrôle des industries en cas de menace sur la sécurité nationale. « Pour concrétiser les promesses de l’IA et gérer les risques, nous devons gouverner cette technologie – et non l’inverse », a-t-il rappelé.

Pour « protéger les Américains des risques potentiels des systèmes d’IA », l’ordonnance présidentielle propose d’établir des normes de sécurité et de protection de la vie privée, avec la création de l’Institut national des normes et de la technologie (National Institute of Standards and Technology) et d’un programme de cybersécurité fédéral. Les principaux développeurs de l’IA générative (GenAI) devront désormais partager les résultats des tests de sécurité avec le gouvernement fédéral. Afin de prévenir les fraudes et les contenus détournés par l’IA (les deep fakes), le texte prévoit aussi le développement d’outils d’authentification et de détection des contenus générés par celle-ci ainsi que l’utilisation d’un label pour les identifier.

Mais cela répond-il aux risques posés par l’IA au secteur financier ? Pour Michael Wellman1, professeur d’informatique et d’ingénierie à l’université du Michigan, ce décret est un pas dans la bonne direction, car il comprend que la mise en place de garde-fous appropriés pour l’IA sera nécessairement un processus itératif. « L’IA est une cible mouvante qui continuera à nous surprendre », note-t-il.

Une initiative soutenue

Les nouvelles méthodes d’IA ont le potentiel d’amplifier la manipulation des marchés et d’automatiser de nouveaux schémas de fraude en exploitant la capacité de communiquer en langage naturel. La création d’un institut spécialisé dans la sécurité de l’IA est une bonne idée. Pour le professeur, le secteur financier dispose déjà d’une infrastructure réglementaire substantielle et il est logique de tirer parti des agences existantes dans le cadre de la stratégie de réglementation de l’IA dans le secteur financier.

Daniel Gorfine2, P-DG de Gattaca Horizons et ancien directeur de l’innovation de la Commodities Futures Trading Commission (CFTC), soutient également l’initiative : « Il est important que les régulateurs et les intermédiaires adoptent des technologies de pointe en matière de surveillance des transactions basées sur l’IA afin de détecter les mauvais acteurs qui utilisent ces technologies pour manipuler les marchés. » Il regrette néanmoins que le décret n’encourage pas l’utilisation de l’IA pour améliorer la conformité réglementaire globale, détecter et prévenir les fraudes et les manipulations, et garantir l’intégrité du marché. Enfin, comme le reconnaît le décret, la question des données et de la protection de la vie privée nécessitera encore une loi du Congrès américain.

À retrouver dans la revue
Revue Banque Nº886
Notes :
1 Michael Wellman a été auditionné devant la Commission bancaire du Sénat américain, le 20 septembre dernier, sur les risques de l’IA pour le secteur financier.
2 Daniel Gorfine a également fait partie des personnes auditionnées.
RB