Articles en relation
D’entrée de jeu, le ton est donné : Défis et opportunités d’un monde où l’IA nous dépasse. Dans ce monde dangereux, la question est évidemment de savoir comment agir, décider et de nous demander qui, de l’humain ou de l’intelligence artificielle (IA), décidera de notre avenir. La dramatisation fait partie du projet éditorial de Jean-Philippe Desbiolles et Grégoire Colombet, ce qui le rend d’emblée sympathique.
L’ouvrage, d’une lecture très aisée, propose une introduction simple et concrète à la question de la présence de l’IA dans la vie professionnelle. L’appartenance des auteurs à IBM confère à ce livre une aura très sérieuse. Jean-Philippe Desbiolles a été l’un des créateurs du centre de recherche d’excellence IBM Watson aux États-Unis, un groupe de recherche mythique. Grégoire Colombet, expert reconnu dans le domaine des applications de l’IA, dirige quant à lui la société IBM AI Decision Coordination.
Le style est léger et clair. Les auteurs n’hésitent pas à adopter une perspective narrative pour rendre vivant leur propos. Dans l’avant-propos, l’un des auteurs s’interroge – au cours d’une nuit d’angoisse – sur « le véritable impact de l’IA dans nos vies quotidiennes » (p. 9) et fait part de son malaise face à cet objet bizarre. Grâce à une rencontre de hasard, qu’il interprète comme une synchronicité jungienne (p. 11), il voit poindre la « fin des illusions » (p. 12), telle La Fin du rêve (1972), le roman de science-fiction de Philip Wylie. Cet avertissement l’amène à proposer sa compréhension de l’IA. S’ensuit l’interrogation inévitable sur l’omniscience potentielle de l’être humain ou de l’intelligence « artificielle », au double sens du terme1, que l’auteur applique à l’évolution des métiers à venir. L’image traditionnelle du pilote d’avion, qui doit reprendre les commandes si l’IA défaille, est judicieusement convoquée2.
Dépassionner l’approche
Le premier chapitre nous éclaire sur ce qu’est l’IA, à partir de considérations sur la notion d’artificialité. Une référence à Daniel Kahneman, psychologue et économiste israélo-américain, montre que l’IA touche à un niveau émotionnel et non rationnel, ce qui expliquerait les réactions toujours passionnées sur ce thème et certains biais cognitifs dans son usage3. Un retour sur son histoire permet de saisir comment la machine a pris place dans la vie professionnelle des financiers, avec l’exemple du traitement des chèques frauduleux. Une discussion sur la nature de l’IA, simple ou augmentée, introduit le débat sur « qui fait quoi, où et comment » entre humain et machine. L’émergence des données massives (big data ou mégadonnées) est abordée dans le contexte de la nouvelle IA4.
Puis les auteurs décrivent l’expérience Cavern, dont le but est de mesurer l’efficacité de la collaboration entre l’humain et les algorithmes par rapport à des prises de décisions humaines seules ou algorithmiques seules5. Il s’agit de déterminer un seuil de complexité au-delà (ou en deçà) duquel il y a collaboration efficace humain-machine. C’est en quelque sorte la clé du livre. S’il ne s’agit ni de rejeter en bloc l’IA ni de lui déléguer toutes nos décisions, il est absolument indispensable de disposer d’un critère de seuil de partage6.
Du score de confiance à la prise de décision
Le chapitre 2 touche l’objectivation du critère de décision : objectiver l’IA, rédigé à partir de l’expérience fondatrice ObjectivAIze présentée à l’AFIHM. Il établit une discussion raisonnée sur les courbes ObjectivAIze, avec la notion de score de confiance. Grâce aux détails techniques du chapitre, on passe d’une généralité (l’IA est-elle bonne ou mauvaise ?) à la recherche concrète d’un critère de décision de son usage. Il s’agit de mesurer les conditions de mise en œuvre de la procédure et de mobilisation des hypothèses statistiques. Le style clair des auteurs y contribue grandement et c’est l’un des apports de cet ouvrage que de rendre des hypothèses scientifiques accessibles au grand public. Les auteurs concluent à l’intérêt de l’IA dans la prise de décision dans certaines situations, tout en rappelant l’importance et la nécessité de l’intelligence humaine dans cette prise de décision que les auteurs appellent « augmentée »7. Au-delà de la confrontation entre l’intelligence humaine et le « fantôme dans la machine »8 qui chercherait à prendre toutes les décisions sans (ou contre) l’humain, il s’agit d’objectiver un partage des rôles entre les deux. Mais l’on voit bien aussi que l’IA est « ce collègue qui dérange », gêne diffuse (angoissante ?) qui est l’objet du chapitre 3.
L’IA inquiète. La question de son éthique et de la recherche d’une « IA de confiance » qui affleure naturellement9. Les auteurs en rappellent les notions fondamentales, qui trouvent leur source dans le rapport de la Commission européenne du 8 avril 201910. Une relation cruciale apparaît : elle relie performance, incertitude et responsabilité, les comportements humains pouvant devenir source d’incertitude endogène. C’est un nœud gordien. Si on laisse une grande place à l’IA, n’y a-t-il pas un risque de robotisation des comportements humains, faisant perdre à des professionnels expérimentés leur intuition du risque, pour remplacer la notion de risque par celle d’erreur de comportements par rapport à une norme définie par des machines ? Les auteurs insistent : « Il est possible d’imaginer que l’intelligence augmentée mette partiellement en péril notre autonomie humaine » (p. 128). Dans le champ financier, j’ai abordé cette question pour la gestion des portefeuilles. Si l’IA influence la décision humaine, a-t-on affaire au désir des gérants ou à celui des machines ?11. La performativité des modélisations mathématiques du risque financier des algorithmes de gestion des portefeuilles donne une illustration de la « zone grise » (p. 131) de la collaboration entre l’humain et l’IA dont parlent les auteurs. Les gérants de portefeuille sont-ils autonomes ou pris dans une IA dévorante ?
De la prudence, et non de la précaution
Ici se pose l’une des questions centrales du livre. Les auteurs ne prétendent pas la résoudre mais la mettent « en exergue » (p. 135), pour la soumettre au lecteur.
À partir de mon expérience de la gestion de portefeuille, je ferais deux propositions. D’une part, il me semble important d’adapter l’attitude à adopter dans la prise en décision en présence d’incertitude en fonction de la notion de prudence et non de celle de précaution. Les réglementations adoptées ou les recommandations des commissions d’éthique résonnent en termes de précaution à prendre face aux dangers et non de prudence. Or l’homme précautionneux n’est pas l’homme prudent12. L’homme de la précaution, en cherchant à éviter les risques, peut en réalité augmenter le danger. D’autre part, ma seconde proposition serait de réintroduire la notion de hasard sauvage imaginée par Mandelbrot pour rendre compte initialement des questions informatiques. Mandelbrot fut l’un des plus prestigieux IBM Fellows du Centre de recherche Thomas Watson et Jean-Philippe Desbiolles a été à l’origine de Watson pour l’IA : il serait intéressant de retrouver ces intuitions nées dans le contexte des problèmes auxquels IBM fit face au début de l’ère informatique.
Les auteurs terminent le chapitre 3 par cette profession de foi : « Le Salut viendra de l’intelligence humaine, seule ou bien accompagnée » (p. 149) avec une majuscule au mot Salut, qui renvoie à une notion théologique.
Ce livre présente l’IA comme un défi posé à l’humain, qu’il s’agit de relever correctement. Or les machines ne font pas que simuler les apparences de décisions humaines, elles interrogent aussi la distinction fondamentale entre l’humain et le non-humain. L’autre, non humain, qui est-il ? N’est-ce pas de cette question cruciale que naît l’angoisse dont parlent les auteurs en introduction ? L’autre de l’humain est-il une machine qui lui ressemble au point que l’on pourrait s’y méprendre ? Des films comme Her (2013), de Spike Jonze, où la voix de Scarlett Johansson confère à la relation humain-machine une coloration amoureuse, font apparaître le rôle que pourrait jouer l’amour dans la clarification de cette question, qui renvoie au dualisme ou au monisme de l’IA13. Si l’être humain est imago Dei, alors, sans amour, l’IA ne peut être une imago hominis14. Ainsi, on ne saurait laisser l’IA décider du futur. D’où l’enjeu du critère d’objectivation du partage des rôles, thème de ce petit livre qui soulève des enjeux tout à fait passionnants.