IA : la France veut compter sur la scène internationale

IA

Revue de l'article

Après la vague d’expérimentation des technologies d’intelligence artificielle (IA) par les entreprises, en particulier financières, voici venu le temps politique. Fin mars, le mathématicien et député LREM Cédric Villani a rendu les 235 pages de son rapport « Donner un sens à l’intelligence artificielle » et, dans la foulée, le président de la République Emmanuel Macron a dressé au Collège de France son plan d’action pour faire de la France « l’un des leaders de cette intelligence artificielle ». Une prise de parole politique qui advient dans un contexte bien particulier, puisque Facebook et, par ricochet, l’ensemble des GAFAM, très en pointe en matière d’IA, sont sur le banc des accusés depuis l’affaire Cambridge Analytica. « Si nous voulons défendre notre manière d’aborder les questions de vie privée, […] si nous voulons maîtriser notre propre choix de société, […] nous devons être partie prenante de cette révolution de l’IA : c’est la condition pour avoir son mot à dire dans la conception de l’IA et la définition des règles qui la régissent », a ainsi exhorté Emmanuel Macron dans une interview fleuve au magazine américain Wired, spécialiste des nouvelles technologies [1].

Pour parvenir à compter sur la scène mondiale, le rapport Villani propose une approche à multiples facettes, de la recherche scientifique à la politique économique en passant par l’emploi et l’éthique, et s’adresse tant aux acteurs publics qu’aux entreprises privées. Ces dernières seront directement concernées par un certain nombre de propositions. Le rapport plaide ainsi pour la mise en place d’un « guichet unique d’information » pour guider les acheteurs de technologies d’IA vers les « pépites nationales » plutôt que les géants mondiaux. Il appelle aussi à la création d’instituts interdisciplinaires d’intelligence artificielle (3IA) réunissant chercheurs – dont on augmentera les salaires –, ingénieurs et étudiants. Dans ces « zones franches de l’IA », les entreprises pourront interagir avec les scientifiques via des contrats-cadres adaptés. La formation professionnelle devra également évoluer, selon le rapport, pour adapter de manière collective, les compétences des salariés dont les emplois sont les plus menacés par l’IA, quitte à « rompre, en partie, avec la seule logique de responsabilisation de l’individu concernant sa propre transition professionnelle ». Le financement de la formation devrait, lui aussi, évoluer, pour mieux tenir compte des nouvelles réalités du partage de la valeur ajoutée entre les acteurs historiques, dotés d’une forte masse salariale, et les concepteurs de logiciels d’IA par exemple. Enfin, le rapport exhorte à une réflexion éthique, en particulier dans les secteurs sensibles, citant la banque et l’assurance. Quelle responsabilité humaine dans les décisions prises par l’IA ? Quelle prise en compte des biais cognitifs dans les algorithmes utilisés ? Autant de questions qui renvoient à la notion de « boîte noire » que le rapport veut rendre transparente. La constitution d’un corps d’experts publics assermentés pour auditer les systèmes d’IA est ainsi proposée. Emmanuel Macron a, de son côté, promis 1,5 milliard d’euros d’argent public pour financer les filières d’IA, notamment via le nouveau Fonds pour l’innovation et l’industrie.

 

[1] www.wired.com, interview parue le 31 mars 2018.

 

Sur le même sujet