Fondements scientifiques

« L’intelligence artificielle n’est pas magique »

Des progrès récents de la science remettent sur le devant de la scène une discipline apparue dès les années 1950 : l’intelligence artificielle. Mais que recouvre exactement ce terme ? Et comment s’articule-t-il avec d’autres concepts comme celui d’apprentissage profond, de Big Data ou d’algorithmes prédictifs ? Le chercheur Jean-Gabriel Ganascia revient sur les concepts de base de sa discipline et met en garde contre les fantasmes qui l’accompagnent souvent.

L'auteur

  • Jean-Gabriel Ganascia, UPMC
    • Chercheur et expert en intelligence artificielle
      Université Pierre et Marie Curie (UPMC)
* Auteur des ouvrages « Intelligence artificielle : vers une domination programmée ? », Le Cavalier Bleu, 2017, et « Le mythe de la singularité : Faut-il craindre l'intelligence artificielle ? », Seuil, 2017.

Revue de l'article

Ces dernières années, l’intelligence artificielle (IA) a suscité un certain engouement mais les recherches la concernant sont bien plus anciennes. Pouvez-vous en retracer les grandes étapes ?

L’IA est une discipline scientifique née au cours de la seconde moitié du XXe siècle. Elle fait suite aux recherches sur la cybernétique des années 1940 – et notamment aux travaux du mathématicien américain Norbert Wiener – qui croisaient déjà différentes disciplines : ingénierie, philosophie, psychologie, sociologie… Une étape importante a été franchie avec les articles écrits par Alan Turing en 1948 et 1950 : le mathématicien et cryptologue britannique y décrit ce que l’on entend par « penser » lorsque l’on parle d’une machine. Pour lui, cette notion relève de l’illusion : on a l’impression que la machine est un être intelligent. Il estime qu’une telle machine pourrait être créée. En 1956, deux chercheurs américains, Marvin Minsky et John McCarthy, décident de lancer une nouvelle discipline scientifique qui aborderait la question de l’intelligence avec les machines. L’objectif était à la fois de mieux comprendre comment fonctionne l’intelligence et de mettre au point des applications pratiques permettant de simuler certaines des capacités de l’intelligence, comme lire, calculer, mémoriser, raisonner… Des fonds sont collectés auprès de la fondation Rockefeller. C’est ainsi qu’il y a une soixantaine d’années est née l’IA. Par la suite, la discipline a connu des hauts et des bas : beaucoup d’espoirs, puis des déceptions. La dernière vague d’enthousiasme a débuté en 2010.

Quel en a été le déclencheur ?

Deux facteurs ont joué. D’une part, il y avait la nécessité de traiter des données massives : la numérisation de la vie sociale et les progrès des capteurs (objets connectés, télescopes ultraperformants ou outils de séquençage du génome par exemple) ont permis de collecter des volumes de plus en plus importants d’informations. Il fallait être capable de les utiliser. D’autre part, la discipline avait fait des progrès et pouvait aider à tirer parti de ces immenses quantités de données.

De quelle nature étaient ces progrès ?

Les premiers travaux sur les réseaux de neurones formels, remontant à l’origine de la cybernétique en 1943, ont été repris. Au début, les techniques d’apprentissage de la machine, – par exemple le Perceptron développé en 1958 – donnaient des résultats limités. Mais depuis quelques années, on peut les mettre en œuvre sur de très grandes masses de données ; et plus il y a de données, meilleurs sont les résultats. De plus, les progrès en matière de capacité de calcul des ordinateurs ont permis de construire ces réseaux de neurones formels non pas sur trois couches – le minimum pour permettre l’apprentissage – mais sur 13 ou 15, générant des millions de connexions. C’est ce que l’on appelle l’apprentissage profond (deep learning) et cela donne un nouvel élan à l’apprentissage machine (ou apprentissage automatique).

Comment distinguer l'apprentissage machine de l'IA ?

L’IA s’intéresse à l’ensemble des facultés cognitives humaines. Pour schématiser, elles peuvent être regroupées en cinq grandes fonctions :

  • la perception, c’est-à-dire le fait d’être capable de construire une représentation à partir des informations collectées par des capteurs : il peut s’agir de reconnaissance de formes, de paroles, etc. ;
  • l’apprentissage, c’est-à-dire le fait d’acquérir des connaissances à partir d’exemples, par exemple de reconnaître des visages à partir de photos étiquetées , ainsi que le stockage de ces connaissances dans une représentation ;
  • le raisonnement, c’est-à-dire le calcul sur les représentations ;
  • l’expression, c’est-à-dire parler, échanger et communiquer les conclusions de ces raisonnements ;
  • l’action, c’est-à-dire décider.

L’apprentissage machine intervient en premier lieu dans le cadre de la deuxième fonction, mais peut aussi être appliqué à d’autres. C’est une sous-discipline de l’IA. Le deep learning est, quant à lui, une technique particulière d’apprentissage machine.

Le Big Data, les algorithmes et les robots sont trois concepts souvent associés à l’IA. Qu’ont-ils en commun ? En quoi sont-ils différents ?

Ce ne sont pas des concepts équivalents. Tout d’abord, le terme de « robot » vient de la science-fiction, plus précisément d’une pièce de théâtre tchèque de 1920 qui utilisait ce terme (venant du verbe russe qui signifiant « travailler ») pour désigner des travailleurs artificiels. La robotique consiste à fabriquer des dispositifs plus ou moins autonomes qui peuvent par exemple partiellement remplacer l’ouvrier sur la chaîne de montage, se déplacer seuls dans des milieux hostiles ou effectuer un acte chirurgical de manière télécommandée. Certains – qui intéressent le plus le grand public – sont qualifiés d’androïdes parce qu’ils imitent les hommes, mais leur utilité n’est pas encore démontrée. Enfin, citons les robots virtuels, logiciels qui œuvrent sur les ordinateurs ou Internet, par exemple pour procéder à des milliards d’opérations par seconde dans le domaine de la finance. Le robot fait intervenir différentes fonctions cognitives : la captation de l’information, son interprétation, c’est-à-dire ce que les psychologues appellent la perception, et enfin la prise de décision qui conduit à l’action. Les deux dernières recourent à des techniques d’IA. Les robots matériels comportent aussi des aspects mécaniques qui ne relèvent pas de l’IA ; en revanche, comme leur nom l’indique, les robots virtuels n’en comportent pas.

Le terme d’« algorithme » vient du nom d’un mathématicien perse, Al-Khwârizmî, qui est aussi à l’origine du mot « algèbre ». Stricto sensu, un algorithme est une méthode de calcul, une séquence d’opérations logiques avec un début et une fin. Pour prendre un exemple simple, lorsqu’on achète une baguette de pain à 1,10 euro avec un billet de 5 euros, on s’attend à recevoir 5 moins 1,10, soit 3,90 euros de monnaie – cette soustraction est un premier algorithme – tandis que la boulangère va plus vraisemblablement faire le complément de 1,10 à 5 – c’est un autre algorithme. Le résultat est naturellement le même. Les algorithmes sont au fondement de l’informatique et servent à l’écriture des programmes. Le terme a été employé ces dernières années pour spécifiquement désigner des programmes capables de prendre des décisions de façon automatique, sur la base de très grandes masses de données : le Big Data. Ce sont en réalité des systèmes prédictifs. Ils résultent d’un apprentissage dit supervisé : on leur donne un grand nombre d’exemples (des photographies, des lettres de l’alphabet entre autres) avec, pour chacun, son étiquette (la photo de Jean, de Pierre, etc. ou un A, un B, etc.). L’objectif est que la machine soit capable de trouver la bonne étiquette de nouveaux exemples – comme indiquer les noms des visages présents sur de nouvelles photos – sur la base de cet apprentissage. On peut prédire le risque avec les mêmes techniques. Cet apprentissage supervisé peut recourir à des techniques de deep learning ou à d’autres. Les algorithmes prédictifs sont créés grâce à des techniques d’IA.

Est-il toujours indispensable d’éduquer la machine ?

Oui, pour l’apprentissage supervisé, c’est indispensable : comme on vient de le voir, on définit les descripteurs de l’objet à reconnaître (les pixels d’une photo), on donne à la machine des exemples et leurs étiquettes. C’est l’apprentissage le plus utilisé, avec celui par renforcement. Dans ce dernier cas, la machine apprend en fonction de récompenses à court et à long terme, qu’elle essaie d’optimiser, moyennant des compromis. Il existe enfin d’autres systèmes d’apprentissage : algorithmes génétiques, apprentissage non supervisé…

La machine doit-elle apprendre en permanence ?

Cela dépend de ce que l’on cherche à faire mais c’est possible. Parfois, mieux vaut au contraire figer sa connaissance.

Le secteur bancaire a beaucoup utilisé des systèmes experts par le passé. Comment s’articulent-ils avec la notion d’IA ?

Les systèmes experts et les outils d’IA ont en commun d’utiliser la connaissance métier des humains. Dans le premier cas, cette connaissance préexiste et il s’agit de la transférer au système. Mais, dans le passé, il s’est avéré difficile d’acquérir ce savoir. On a donc essayé de l’obtenir automatiquement avec des techniques d’apprentissage, en exploitant de grandes masses de données.

La complexité de cet apprentissage n’est-elle pas une limite au développement de l’IA dans des applications métier ?

L’IA n’est pas magique. Elle est utile dans une réflexion, il faut lui donner une trajectoire. L’introduction de l’IA dans une organisation induit des transformations sociales qui dépassent la technologie elle-même. Il faut l’accompagner d’une réflexion sur les finalités poursuivies. Les dispositifs d’IA sont des systèmes dits sociotechniques, qui ne sont pas autonomes. Parfois, on ne prend pas assez en compte l’environnement, ce qui peut se traduire par des rejets.

En quoi l’IA peut-elle intéresser le secteur financier ?

Sans être spécialiste du domaine, il me semble que des techniques d’apprentissage machine capables d’acquérir des connaissances à partir de grandes masses de données peuvent être intéressantes pour anticiper les évolutions financières sur la base de l’étude rétrospective de séries temporelles. Comme le font déjà certains métiers, comme l’actuariat. Mais il faut garder à l’esprit que ce ne sont jamais des causalités que l’on obtient, mais simplement des corrélations.

S’appuyer sur des corrélations pour des décisions d’investissement quand on est gestionnaire d’actifs peut-il conduire à faire de mauvais investissements par exemple ?

Oui, c’est pour cela qu’il faut être très attentif à l’interprétation que l’on fait des résultats donnés par les outils d’IA. S’il existe une corrélation entre A et B, pour qu’elle devienne causalité, il faut s’assurer qu’il n’y a pas de cofacteurs qui interviennent. C’est l’exemple classique de la corrélation entre l’utilisation de crèmes solaires et les cancers de la peau : il ne faut pas oublier le cofacteur qui est l’exposition au soleil ! Le problème est que l’IA fait intervenir un très grand nombre de facteurs et qu’il faudrait donc tester le lien de causalité de chaque couple d’entre eux. Le Big Data empêche l’utilisation des outils de détection de causalité et on s’en tient donc à des corrélations. Il faut bien en avoir conscience quand on utilise l’IA.

D’autres métiers de la finance peuvent-ils être impactés ?

Des activités peuvent être automatisées : les conseils en placement, la conformité et le réglementaire, la monnaie et les paiements… Les changements sont importants mais cela implique aussi de nouvelles compétences nécessaires.

On voit apparaître des chatbots pour dialoguer avec les clients, les salariés… En quoi consistent-ils ?

Le principe des agents conversationnels est assez ancien. Il remonte aux années 60 et aux travaux de l’informaticien germano-américain Joseph Weizenbaum, à l’origine d’un agent conversationnel nommé « Eliza ». Les travaux sur les chatbots font aussi écho à l’article d’Alan Turing et à son test d’intelligence des machines. Ces agents conversationnels intéressent les entreprises qui voient en eux la possibilité de prendre la main sur l’extrémité de la chaîne de valeur, via l’interaction avec le client. Dans le cas de la restauration par exemple, le client échange avec un sympathique chatbot, lui dit ce qu’il a envie de manger et celui-ci se charge de trouver le bon restaurant, de commander et de livrer le plat. On peut imaginer quelque chose de similaire avec la banque où l’agent conversationnel jouerait le rôle de conseiller. Les grandes entreprises du numérique travaillent beaucoup sur cette question parmi lesquels Google avec Google Home, Amazon avec Echo et Alexa, Apple avec Siri et Viv, ou encore Microsoft avec Tay – le chatbot qui a défrayé la chronique l’an dernier [1] … Il est très délicat de mettre au point ces agents car une machine peut répondre de manière pertinente à des questions mais dans un champ sémantique donné. Or dans le cas d’un dialogue, l’échange est chaotique. Il est difficile de dire où ces travaux aboutiront.

Pour un non-expert, l’IA peut apparaître comme une boîte noire inquiétante. Comment la réguler ?

L’intégration de valeurs humaines et de règles éthiques au sein des dispositifs d’IA est un axe de travail. L’idée est d’avoir un superviseur à l’intérieur de la machine qui peut limiter son action en fonction d’un certain nombre de critères. C’est notamment le cas avec les systèmes qui apprennent de façon dynamique et qui peuvent donc être en partie imprévisibles. Ce superviseur s’assure ainsi que les opérations de la machine obéiront toujours à certaines normes, certaines prescriptions introduites a priori.

Qu’en est-il d’un contrôle externe à la machine ?

Cela renvoie au concept de conflit d’autorité. Il advient quand la décision prise par la machine diverge de celle que prend l’homme. Cela arrive régulièrement dans le cockpit d’un avion entre le pilote humain et le pilote automatique. Des techniques ont été développées pour permettre à la machine d’expliciter les arguments qui l’ont conduite à sa décision, pour les confronter à ceux de l’homme et ainsi permettre une prise de décision plus éclairée.

Un superviseur financier peut-il contrôler cette « boîte noire » ?

Il peut en comprendre le principe. Il est d’ailleurs extrêmement important dans le futur de ne pas déléguer à la machine la responsabilité de la décision. Elle doit apporter un éclairage et engager un dialogue.

Que pensez-vous de l’idée que les machines prendront un jour le pouvoir ?

C’est la question de la Singularité : pour certains, les machines vont prendre le pouvoir ou les êtres humains vont se greffer aux machines pour devenir immortels. Je crois qu’il est du devoir des scientifiques de dire qu’il s’agit de pure fiction. Ce sont des spéculations intéressantes mais qui ne reposent sur rien de tangible. Il ne faut pas croire que cela arrivera inéluctablement. Mon hypothèse, c’est que ces peurs servent de leurres ; elles masquent les stratégies des grands acteurs d'Internet ; en cela, elles empêchent le public de comprendre les véritables enjeux, qui sont d’ordre social et, surtout politique, de ces outils qui auront pourtant une importance considérable dans les années à venir !

Propos recueillis par Séverine leboucher

[1] Certains internautes avaient testé les limites de cet outil de Microsoft, déployé sur Twitter en mars 2016, pour lui « apprendre » des réponses racistes, sexistes voire négationnistes. Retiré après 24 heures, il est finalement abandonné au profit d’un nouveau bot : Zo, NDLR.

 

Sommaire du dossier

Intelligence artificielle : jusqu’où les machines peuvent-elles assister les financiers ?

Sur le même sujet