Lu pour vous

Pour une IA « imago hominis » ?

Créé le

18.01.2024

-

Mis à jour le

24.01.2024

C’est à un exercice de réflexion et d’anticipation que nous convient Jean-Philippe Desbiolles et Grégoire Colombet dans « Humain ou IA ? Qui décidera du futur ? » Notre approche émotionnelle de l’intelligence artificielle ne doit pas nous faire perdre de vue la nécessaire et juste objectivation du partage des rôles entre humain et IA.

D’entrée de jeu, le ton est donné : Défis et opportunités d’un monde où l’IA nous dépasse. Dans ce monde dangereux, la question est évidemment de savoir comment agir, décider et de nous demander qui, de l’humain ou de l’intelligence artificielle (IA), décidera de notre avenir. La dramatisation fait partie du projet éditorial de Jean-Philippe Desbiolles et Grégoire Colombet, ce qui le rend d’emblée sympathique.

L’ouvrage, d’une lecture très aisée, propose une introduction simple et concrète à la question de la présence de l’IA dans la vie professionnelle. L’appartenance des auteurs à IBM confère à ce livre une aura très sérieuse. Jean-Philippe Desbiolles a été l’un des créateurs du centre de recherche d’excellence IBM Watson aux États-Unis, un groupe de recherche mythique. Grégoire Colombet, expert reconnu dans le domaine des applications de l’IA, dirige quant à lui la société IBM AI Decision Coordination.

Le style est léger et clair. Les auteurs n’hésitent pas à adopter une perspective narrative pour rendre vivant leur propos. Dans l’avant-propos, l’un des auteurs s’interroge – au cours d’une nuit d’angoisse – sur « le véritable impact de l’IA dans nos vies quotidiennes » (p. 9) et fait part de son malaise face à cet objet bizarre. Grâce à une rencontre de hasard, qu’il interprète comme une synchronicité jungienne (p. 11), il voit poindre la « fin des illusions » (p. 12), telle La Fin du rêve (1972), le roman de science-fiction de Philip Wylie. Cet avertissement l’amène à proposer sa compréhension de l’IA. S’ensuit l’interrogation inévitable sur l’omniscience potentielle de l’être humain ou de l’intelligence « artificielle », au double sens du terme1, que l’auteur applique à l’évolution des métiers à venir. L’image traditionnelle du pilote d’avion, qui doit reprendre les commandes si l’IA défaille, est judicieusement convoquée2.

Dépassionner l’approche

Le premier chapitre nous éclaire sur ce qu’est l’IA, à partir de considérations sur la notion d’artificialité. Une référence à Daniel Kahneman, psychologue et économiste israélo-américain, montre que l’IA touche à un niveau émotionnel et non rationnel, ce qui expliquerait les réactions toujours passionnées sur ce thème et certains biais cognitifs dans son usage3. Un retour sur son histoire permet de saisir comment la machine a pris place dans la vie professionnelle des financiers, avec l’exemple du traitement des chèques frauduleux. Une discussion sur la nature de l’IA, simple ou augmentée, introduit le débat sur « qui fait quoi, où et comment » entre humain et machine. L’émergence des données massives (big data ou mégadonnées) est abordée dans le contexte de la nouvelle IA4.

Puis les auteurs décrivent l’expérience Cavern, dont le but est de mesurer l’efficacité de la collaboration entre l’humain et les algorithmes par rapport à des prises de décisions humaines seules ou algorithmiques seules5. Il s’agit de déterminer un seuil de complexité au-delà (ou en deçà) duquel il y a collaboration efficace humain-machine. C’est en quelque sorte la clé du livre. S’il ne s’agit ni de rejeter en bloc l’IA ni de lui déléguer toutes nos décisions, il est absolument indispensable de disposer d’un critère de seuil de partage6.

Du score de confiance à la prise de décision

Le chapitre 2 touche l’objectivation du critère de décision : objectiver l’IA, rédigé à partir de l’expérience fondatrice ObjectivAIze présentée à l’AFIHM. Il établit une discussion raisonnée sur les courbes ObjectivAIze, avec la notion de score de confiance. Grâce aux détails techniques du chapitre, on passe d’une généralité (l’IA est-elle bonne ou mauvaise ?) à la recherche concrète d’un critère de décision de son usage. Il s’agit de mesurer les conditions de mise en œuvre de la procédure et de mobilisation des hypothèses statistiques. Le style clair des auteurs y contribue grandement et c’est l’un des apports de cet ouvrage que de rendre des hypothèses scientifiques accessibles au grand public. Les auteurs concluent à l’intérêt de l’IA dans la prise de décision dans certaines situations, tout en rappelant l’importance et la nécessité de l’intelligence humaine dans cette prise de décision que les auteurs appellent « augmentée »7. Au-delà de la confrontation entre l’intelligence humaine et le « fantôme dans la machine »8 qui chercherait à prendre toutes les décisions sans (ou contre) l’humain, il s’agit d’objectiver un partage des rôles entre les deux. Mais l’on voit bien aussi que l’IA est « ce collègue qui dérange », gêne diffuse (angoissante ?) qui est l’objet du chapitre 3.

$!Pour une IA « imago hominis » ?

L’IA inquiète. La question de son éthique et de la recherche d’une « IA de confiance » qui affleure naturellement9. Les auteurs en rappellent les notions fondamentales, qui trouvent leur source dans le rapport de la Commission européenne du 8 avril 201910. Une relation cruciale apparaît : elle relie performance, incertitude et responsabilité, les comportements humains pouvant devenir source d’incertitude endogène. C’est un nœud gordien. Si on laisse une grande place à l’IA, n’y a-t-il pas un risque de robotisation des comportements humains, faisant perdre à des professionnels expérimentés leur intuition du risque, pour remplacer la notion de risque par celle d’erreur de comportements par rapport à une norme définie par des machines ? Les auteurs insistent : « Il est possible d’imaginer que l’intelligence augmentée mette partiellement en péril notre autonomie humaine » (p. 128). Dans le champ financier, j’ai abordé cette question pour la gestion des portefeuilles. Si l’IA influence la décision humaine, a-t-on affaire au désir des gérants ou à celui des machines ?11. La performativité des modélisations mathématiques du risque financier des algorithmes de gestion des portefeuilles donne une illustration de la « zone grise » (p. 131) de la collaboration entre l’humain et l’IA dont parlent les auteurs. Les gérants de portefeuille sont-ils autonomes ou pris dans une IA dévorante ?

De la prudence, et non de la précaution

Ici se pose l’une des questions centrales du livre. Les auteurs ne prétendent pas la résoudre mais la mettent « en exergue » (p. 135), pour la soumettre au lecteur.

À partir de mon expérience de la gestion de portefeuille, je ferais deux propositions. D’une part, il me semble important d’adapter l’attitude à adopter dans la prise en décision en présence d’incertitude en fonction de la notion de prudence et non de celle de précaution. Les réglementations adoptées ou les recommandations des commissions d’éthique résonnent en termes de précaution à prendre face aux dangers et non de prudence. Or l’homme précautionneux n’est pas l’homme prudent12. L’homme de la précaution, en cherchant à éviter les risques, peut en réalité augmenter le danger. D’autre part, ma seconde proposition serait de réintroduire la notion de hasard sauvage imaginée par Mandelbrot pour rendre compte initialement des questions informatiques. Mandelbrot fut l’un des plus prestigieux IBM Fellows du Centre de recherche Thomas Watson et Jean-Philippe Desbiolles a été à l’origine de Watson pour l’IA : il serait intéressant de retrouver ces intuitions nées dans le contexte des problèmes auxquels IBM fit face au début de l’ère informatique.

Les auteurs terminent le chapitre 3 par cette profession de foi : « Le Salut viendra de l’intelligence humaine, seule ou bien accompagnée » (p. 149) avec une majuscule au mot Salut, qui renvoie à une notion théologique.

Ce livre présente l’IA comme un défi posé à l’humain, qu’il s’agit de relever correctement. Or les machines ne font pas que simuler les apparences de décisions humaines, elles interrogent aussi la distinction fondamentale entre l’humain et le non-humain. L’autre, non humain, qui est-il ? N’est-ce pas de cette question cruciale que naît l’angoisse dont parlent les auteurs en introduction ? L’autre de l’humain est-il une machine qui lui ressemble au point que l’on pourrait s’y méprendre ? Des films comme Her (2013), de Spike Jonze, où la voix de Scarlett Johansson confère à la relation humain-machine une coloration amoureuse, font apparaître le rôle que pourrait jouer l’amour dans la clarification de cette question, qui renvoie au dualisme ou au monisme de l’IA13. Si l’être humain est imago Dei, alors, sans amour, l’IA ne peut être une imago hominis14. Ainsi, on ne saurait laisser l’IA décider du futur. D’où l’enjeu du critère d’objectivation du partage des rôles, thème de ce petit livre qui soulève des enjeux tout à fait passionnants.

À retrouver dans la revue
Revue Banque Nº889
Notes :
1 Cette question fait l’objet d’une littérature abondante. On pourra se reporter à la synthèse de Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme, Gallimard, 2023.
2 L’ouvrage de Gérard Dubey et Caroline Moricot, Dans la peau d’un pilote de chasse. Le spleen de l’homme machine (Puf, 2016) fait un point sur la question de l’hybridation des décisions humaines – IA. Le film Sully (2016) de Clint Eastwood est également une réflexion sur ce thème, déjà abordé dans Space Cowboys (2000), qui fait apparaître l’importance de la reprise humaine des commandes d’un vaisseau spatial en difficulté.
3 La référence à Kahneman est incontournable, mais la remise en question de la théorie de l’homme rationnel ne se pose plus tout à fait aujourd’hui dans les mêmes termes qu’au moment de la théorie des perspectives de Kahneman et Tversky, bien que cette théorie reste valable dans un grand nombre de situations. Pour une exploration des pistes actuelles, consulter les approches de la QTD (Quantum Decision Theory). Certains paradoxes restent non résolus par la théorie des perspectives. Cf. ouvrage collectif dirigé par Peter Bruza, Donald Sofge, William Lawless, Keith van Rijsbergen et Matthias Klush, Quantum Interaction (Springer, 2009). Ce qui réintroduit la raison d’une manière différente que dans la théorie de l’homo economicus. Pas une raison « rationnelle » mais une raison « intriquée ».
4 Sur le rôle des mégadonnées, Jean Vioulac, Approche de la criticité (Puf, 2018), en particulier
le chapitre «
 La communauté cybernétique ».

5 33e conférence internationale de l’Association francophone d’interaction humain-machine (AFIHM), 2022.
6 Ce critère de seuil est l’objet de l’article présenté à l’AFIHM : « ObjectivAIze : Déterminer empiriquement les rôles respectifs de l’humain et de l’algorithme dans la prise de décision ».
7 On pourra revoir à titre pédagogique l’étonnant opus 7 de Mission Impossible, Dead Reckoning (2023).
8 Gilbert Ryle, La Notion d’esprit. Pour une critique des concepts mentaux, orig. 1949, trad. Suzanne Stern-Gillet, Payot, 2005.
9 Sur l’éthique de l’IA, une perspective récente dans l’ouvrage collectif dirigé par Marie-Hélène Parizeau et Soheil Kash, La Société robotisée. Enjeux éthiques et politiques, Presses de l’université Laval, 2019.
10 « Ethics guidelines for trustworthy AI », Commission européenne, 8 avril 2019.
11 « Modèle d’évaluation des actifs financiers, gestion indicielle et désir algorithmique – La comédie des erreurs », Revue Banque n° 869, juin 2022.
12 Au lieu d’incertitude, n’est-on pas aussi en présence d’ambiguïté numérique ? Voir par exemple « Ambiguïtés numériques », in François Romijn (dir.), Socio-Anthropologie, 46-2022.
13 Voir à nouveau mon commentaire de Mission impossible, op. cit.
14 Sur cette question, on pourra lire le dernier numéro de Recherches de Science religieuse (111/4 – oct.-déc. 2023), « L’intelligence artificielle : un défi à l’humain, imago dei ? ».