Petit lexique de l'intelligence artificielle

D'Alan Turing, pionnier de l'intelligence artificielle, au trading haute fréquence, tour d'horizon des mots, expressions et références nécessaires pour mieux comprendre l'intelligence artificielle.

L'auteur

  • Jean Michel Lefevre
    • Ingénieur Coordinateur stratégique Intelligence artificielle
      Groupe La Poste

Pour en savoir plus

Revue de l'article

Cet article est extrait de
Banque & Droit n°HS-2019-2

IA & Finance : Quels enjeux ? cybersécurité, régulation, éthique…

Alan Turing

Mathématicien et cryptologue anglais (1912-1954) ayant réussi à percer le code de la machine de chiffrement allemande Enigma durant la Seconde Guerre mondiale. Il est le créateur d’un test d’évaluation de l’intelligence artificielle fondée sur la conversation humaine.

Algorithme [1]

Un algorithme est une suite d’opérations ou d’instructions à appliquer dans un ordre déterminé afin d’obtenir un résultat donné.

Apprentissage supervisé/non supervisé

L’apprentissage supervisé s’effectue à partir d’exemples pour lesquels on connait la réponse (annotation), par exemple à partir de données du passé. Le modèle obtenu est donc une généralisation à partir d’exemples.

En apprentissage non supervisé, il n’y a pas de réponses prédéfinies associées aux exemples, on recherche alors des regroupements (des classes) des données d’entrées.

Arbres de décision

Modèles d’IA qui représente le problème sous la forme d’un arbre où chaque nœud correspond à un test sur une des variables d’entrées. Les « nœuds feuilles » sont alors affectés à une probabilité et les tests suivants sont effectués jusqu’à obtenir les nœuds terminaux. Les coefficients associant la probabilité à chaque feuille en fonction du test sont obtenus par apprentissage en minimisant l’erreur globale sur les données. Ces arbres peuvent être définis par un expert ou générés automatiquement à partir des données d’entrées.

Bagging

Méthode simple d’agrégation des résultats d’un modèle ensembliste (cf. infra) par moyenne (régression cf. infra) des résultats ou par vote (classification)

Biais

Erreurs dans la mise en œuvre d’un traitement issu des données collectées et/ou des modalités de leur traitement. Ces biais peuvent être :

– issus directement des variables utilisées (discriminatoires) ;

– implicites : issus de l’interaction de plusieurs variables qui n’apparaissent en soi discriminatoires ;

– issus de données de mauvaises qualités (redondantes, obsolètes, incomplètes…).

L’élimination totale des biais de toutes sortes apparaît comme un exercice extrêmement compliqué, pour ne pas dire impossible, notamment du fait de l’intervention humaine, laquelle est notamment marquée par la subjectivité.

Big Data (ou mégadonnées)

« Données structurées ou non dont le très grand volume requiert des outils d'analyse adaptés » [2]. Le traitement informatique de ces données massives se décrit selon trois critères cumulatifs, les « 3V » (volume, vélocité et variété). Le G29, dans une opinion consacrée à la limitation de la finalité des traitements [3], après avoir rappelé que la finalité s’entend d’amont en aval [4], précise qu’un traitement dans un but différent du but initial n’est pas nécessairement incompatible avec la finalité originelle.

Le Big Data et l’essor de l’IA sont étroitement liés, car le Big Data a permis l’apprentissage massif sur de grande quantité de données.

Boîte noire/boîte blanche

On parle de boîte noire pour un algorithme d’IA dont même le programmeur ne peut expliquer le résultat (par exemple, un réseau neuronal profond). À l’inverse, un algorithme « boîte blanche » fournit les étapes permettant de comprendre le résultat (modèles bayésiens, arbres de décisions).

Boosting

Méthode pour améliorer les résultats d’un modèle ensembliste (cf. infra) donnant, au travers d’un mécanisme d’apprentissage, une pondération supérieure aux résultats issus de modèles démontrant une pertinence particulière.

Bulle de pertinence algorithmique

Enfermement des internautes dans des stéréotypes uniquement fondés sur leurs traces, interprétées par des algorithmes. Ex. Facebook a déposé un brevet (4 août 2015) permettant à la banque d’examiner les notes de crédit des membres de son réseau social. […] Si le score de crédit moyen de ces membres atteint un score minimum, le prêteur continue à traiter la demande de prêt. Sinon, la demande de crédit est rejetée. Ex. Refus de crédits fondés sur la base du comportement d’autres individus avec lesquelles l’emprunteur a des caractéristiques communes (Rapport de la Federal Trade Commmission, « USA – Big Data, a tool for inclusion or exclusion ? », janvier 2016, pp. 9 et 10.)

Classification

Algorithme cherchant à ranger des objets (individus) dans des classes distinctes. L’appartenance d’un individu à une classe peut être multiple, partielle ou univoque. Les classes peuvent être connues à l’avance (apprentissage supervisé) ou non.

Corrélation et causalité

Deux notions souvent confondues à tort. La corrélation est le lien statistique entre deux variables. La causalité indique une relation de cause à effet entre deux variables. Même si on observe souvent des parapluies ouverts quand il pleut, ce n’est pas parce que l’on ouvre son parapluie qu’il va pleuvoir !

Courbe ROC (Receiving Operator Characteristic)

La courbe ROC représente, sous forme graphique, la performance d’un modèle de classification. Elle indique le taux de faux positifs et de vrais positifs suivant le seuil qui permet de prendre la décision. Plus l’aire sous la courbe est grande meilleur est le l’outil de classification.

Data

Synonyme de donnée. Les data sont la composante essentielle de l’économie numérique. 98 % des informations sont enregistrées sous forme numérique. « Prenez toutes les informations produites par l’humanité depuis l’aube des temps jusqu’en 2003. Maintenant, nous produisons la même quantité en tout juste deux jours » [5].

Éthique

En matière d’IA, l’éthique renvoie à la question de la place de la personne face au numérique. Ce dernier est-il au service des individus ou n’est-il qu’un outil au service d’intérêts plus ou moins opaques ? La question est celle de la confiance des utilisateurs, en relation avec une gouvernance stricte [6] ayant pour corollaire la transparence sur les finalités de traitement, la minimisation de la collecte, la restriction de l’utilisation, de la conservation et de la divulgation des données et leur pseudonymisation.

Explicabilité

Capacité pour l’humain à comprendre le pourquoi d’un résultat d’un système d’intelligence artificielle. Concept subjectif mais aujourd’hui sujet de nombreux travaux de recherche et au cœur des problématiques éthiques de l’IA : comment accepter une décision que l’on ne comprend pas faute d’explication ?

Un réseau neuronal profond est l’exemple même d’un système non explicable (boîte noire), un arbre de décision ou un modèle bayésien (cf. infra) fournissent des résultats plus facilement explicables (boîtes blanches).

Forêts aléatoires

Modèles ensemblistes obtenus à partir d’arbres de décisions générés automatiquement, soit en choisissant des sous-ensembles de données d’entraînement aléatoirement, soit en tirant au sort les variables d’entrées utilisées.

Intelligence(s)

« intelligence », du latin intellegentia (faculté de comprendre), dérivé du latin intellegere signifiant comprendre (inter « entre », et legere « choisir » ou ligare « lier »). En anglais, « intelligence » signifie « renseignement » ou « informations ». Enfin, le mot artificiel renvoie à la notion « d’artifice », soit des manœuvres destinées à dissimuler, travestir la réalité.

Selon la théorie des intelligences multiples proposée par Howard Gardner en 1983, et enrichie en 1993, il existerait huit formes d’intelligence [7].

IA sans data

Algorithmes qui cherchent à reproduire le raisonnement humain sans avoir recours à des méthodes d’apprentissages à partir de données. Les systèmes experts (cf. infra) en sont un bon exemple.

Intelligence artificielle (IA)

Terme apparu en 1956 [8]. L’IA est définie officiellement par la Commission d’enrichissement de la langue française comme le « Champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines » [9]. L’Union européenne a lancé un projet « Human Brain Project » ambitionnant d’ici environ 2024 à simuler le fonctionnement du cerveau humain grâce à un superordinateur.

Intelligence augmentée

Appellation de l’IA préférée par certains pour insister sur la nécessaire place de l’humain dans la boucle de décision.

Lois d’Asimov

Apparus en 1942 sous la plume d’Isaac Asimov [10] dans la nouvelle Runaround (Cycle fermé), ces principes sont avant tout des préceptes éthiques :

– loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;

– loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

– loi numéro 3 : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Au-delà de ces « trois lois » Isaac Asimov a imaginé une quatrième loi, dite « loi zéro », issue des robots eux-mêmes et généralisant la première loi, à l’humanité toute entière. Ces lois ont été complétées en janvier 2017 par les 23 principes de la conférence d’Asilomar qui s’est tenue en janvier 2017 (cf. infra).

Machine learning (Apprentissage automatique)

Ensemble d’algorithmes dont la performance s’améliore avec l’expérience et les données sans intervention humaine a posteriori. Le machine learning est notamment utilisé pour des besoins de marketing, de détection de fraude, de gestion de portefeuille et d’évaluation des risques (par exemple le scoring de risque).

Métiers de l’IA [11]

Data Scientist : expert qui élabore les algorithmes de machine learning.

Data Analyst : expert qui crée les bases ou lacs de données nécessaires à l’entreprise puis s’assure de leur bon fonctionnement. Les data analystes gèrent l’administration et l’architecture des bases et sont aussi en charge de la modélisation des données.

Data Ingénieur : ingénieur qui prépare les données utilisées par les algorithmes de machine learning en produisant des nouvelles variables à partir des variables existantes et en participant à la politique de stockage et de traitement des données.

Chief Data Quality Officer : il est en charge de s’assurer de la qualité des données utilisées par l’entreprise.

Chief Data Officer : sa mission est de gérer et exploiter l’information pour en tirer pleinement profit en mettant en œuvre les outils nécessaires. Il sensibilise également les diverses composantes de l’entreprise à la valeur de la donnée considérée comme un actif de l’entreprise.

Chief Digital Officer : il promeut le numérique et aide les métiers et les fonctions support à s’approprier les usages du « digital » pour mieux en saisir les opportunités. Outre la détermination d’une stratégie globale, il fixe également celle applicable à chaque métier-service.

Modèles bayésiens

Modèles constitués d’un réseau de règles, qui à partir de règles de distributions de probabilité, infèrent la distribution sur les variables de sorties. Les règles peuvent être définies par des experts et/ou apprise sur des données d’entrées.

Modèles ensemblistes

Modèles de classification ou de régression qui sont obtenus en mélangeant plusieurs modèles (éventuellement un grand nombre de modèles simples), soit issus d’algorithmes différents, soit ayant appris sur des sous échantillons différents des données d’entrées choisis aléatoirement. Le résultat final est obtenu pas différentes techniques : « bagging » ou « boosting » par exemple. Les modèles ensemblistes permettent d’obtenir des résultats avec moins de biais et de surapprentissage.

Natural Language Processing (NLP)

Traitement automatique des langages : permet d’analyser les données textuelles non structurées. Combinés à des techniques de traitement des sons, ces outils permettent également d’analyser des données vocales.

OCR

Lecture automatique de caractère d’imprimerie ou manuscrits à partir d’images.

Principes d’Asilomar [12]

Guide adopté à l’occasion de la « Beneficial AI 2017 » organisée par le « Future of Life Institute ». La conférence s'est tenue à Asilomar, en Californie mois de janvier 2017. À cette occasion a été adopté un guide de référence consacré au développement éthique de l'intelligence artificielle adopté par 816 scientifiques spécialisés dans l’intelligence artificielle ou la robotique et plus d’un millier de personnalités dont l’astrophysicien Stephen Hawking. Ce guide développe et complète les principes énumérés dans les lois d’Asimov.

Recherche opérationnelle

Domaine des mathématiques appliquées et de l’informatique qui cherche à obtenir une solution « optimale » dans de problèmes de grandes dimensions (avec énormément de solutions possibles). La programmation linéaire, la recherche du plus court chemin ans un graphe complexe sont des problèmes traités en recherche opérationnelle. Domaine déjà ancien qui connaît un regain d’utilisation avec l’essor des systèmes de prévisions.

Régression

Classe des problèmes d’IA en cherchant à prédire la valeur d’une variable continue à partir d’autres variables ; par opposition aux problèmes de classification.

La régression logistique utilise des méthodes de régression mais pour résoudre un problème de classification.

Réseaux neuronaux

Méthode de machine learning, apparue en 1943 [13], inspirée du fonctionnement du cerveau au travers d’une organisation fondée sur des unités simples se superposant en couches.

Les réseaux neuronaux dits profonds (deep learning) présentent un grand nombre de couches et apprennent avec un très grand ensemble de données.

Leur utilisation connaît actuellement un développement important de par la disponibilité de ces données (Big Data) qu’à leur performance et qu’au progrès des matériels spécialisés (GPU) qui permettent leur exécution rapide.

Très utilisées entre autres en vision par ordinateur mais aussi en finances, marketing, etc.

Il leur est reproché leur aspect « boîte noire » et le côté empirique de leur mise au point.

Robot

Dérivé du mot « robota » qui signifie travail en tchèque. Ex : Un chatbot [14] est un robot logiciel, pouvant répondre avec empathie aux questions des utilisateurs posées en langage naturel, de manière vocale ou textuelle.

Sérendipité [15]

Illustration de l’adage « le hasard fait bien les choses ». Peu importent les données traitées, leur qualité, leur nature et leur variété puisque des algorithmes sont en mesure, in fine, d’en tirer des informations commercialement utiles, même si leur découverte est le fruit d’un pur hasard.

Séries temporelles

Série de valeurs chronologique d’une même variable. En IA, les séries temporelles jouent un rôle important pour prévoir comment va évoluer dans le temps une variable mesurée dans le passé en fonction d’autres variables temporelles.

Les modèles les plus connus sont ARIMA, Prophet etc.

Surapprentissage

Ce dit d’un modèle qui « colle » tellement bien à ses données d’entraînement qu’il n’est pas capable de généralisation et donc fournira de piètres résultats avec de nouvelles données.

Support Vector Machine (SVM)

Les machines à vecteurs de support ou séparateurs à vaste marge sont un ensemble de techniques d’apprentissage supervisé renommé pour sa solidité théorique et sa grande efficacité et flexibilité

Systèmes experts

Les systèmes experts des années 1980-1990 décrivaient la connaissance d’experts dans un domaine sous forme de règles logiques qui s’enchaînaient. L’introduction de règles experts probabilistes dans un système d’IA moderne s’apparente à ces systèmes experts.

Trading algorithmique

Forme de négoce de titres dont les paramètres principaux sont définis de manière automatique [16]. L’AMF évoque aussi les algorithmes de négociation [17] ou bien encore les « dispositifs de traitement automatisé » (DTA), tandis que le Code monétaire et financier vise les « dispositifs de traitement automatisé générant des ordres de vente ou d'achat » [18]. Le trading algorithmique est compatible avec une intervention humaine limitée [19]. Cette forme de trading a, de plus en plus, recours à l’IA.

Trading haute fréquence (THF)

Trading algorithmique mettant en œuvre des programmes informatiques aptes à déterminer le moment, les prix ou les volumes des ordres en quelques fractions de seconde [20].

Ce trading se caractérise par une minimisation des latences, ainsi que la détermination par le système de l’engagement, la création, l’acheminement ou l’exécution d’un ordre sans intervention humaine et enfin un débit intrajournalier élevé de messages. Ce trading algorithmique exclut toute intervention humaine.

 

[1] Mot issu du nom du mathématicien perse Al-Khawarizmi (latinisé au Moyen-âge en Algoritmi). Vers l’an 820, Al-Khawarizmi a introduit en Occident la numération décimale. Toutefois, le premier algorithme est attribué à Euclide (300 av-JC), s’agissant du calcul du plus grand diviseur commun de nombres premiers.

[2] Journal officiel du 22 août 2014 : Avis : Vocabulaire de l'informatique.

[3] WP29 - Opinion 03/2013 on purpose limitation, 2 avril 2013.

[4] A savoir de la collecte en vue de finalités spécifiées, explicites et légitimes jusqu’aux traitements ultérieurs compatibles avec les finalités exprimées en amont.

[5] Neelie Kroes, vice-présidente de la Commission européenne en charge de l’agenda numérique, 7 novembre 2013.

[6] Intégrité des politiques de traitement, absence de manipulation, contrôle de la provenance des données….

[7] Intelligence logico-mathématique, verbo-linguistique, spatiale, intrapersonnelle, kinesthésique/corporelle, inter-personnelle, musicale/rythmique et naturaliste.

[8] Travaux de John Mc Carty et Marvin Minsky dans le cadre de l’Ecole d’été de Dartmouth.

[9] JO du 9 décembre 2018.

[10] Ecrivain de science-fiction (1920-1992).

[11] Issu du rapport ACPR, « Intelligence artificielle, enjeux pour le secteur financier », décembre 2018.

[12] https://futureoflife.org/ai-principles/.

[13] Le premier réseau neuronal opérationnel est le « Perceptron » (1957) développé par l’Université de Cornell.

[14] Le premier est créé par Joseph Weizenbaum en 1966. Il simulait un psychothérapeute nommé Eliza qui ne faisait que faire parler les patients, dans une logique de relance.

[15] De l’anglais « serendipity ». Le terme aurait été inventé par Horace Walpole (1717-1797), dans une lettre du 28 janvier 1754 à son ami Horace Mann, mais fut attribué à Ceylan lors de sa découverte.

[16] Directive 2014/65 du 15 mai 2014 concernant les marchés d’instruments financiers et modifiant la directive 2002/92/CE et la directive 2011/61/UE (dite MIF II) - Article 4-1-39 : «trading algorithmique», la négociation d’instruments financiers dans laquelle un algorithme informatique détermine automatiquement les différents paramètres des ordres, comme la décision de lancer l’ordre, la date et l’heure, le prix ou la quantité de l’ordre, ou la manière de gérer l’ordre après sa soumission, avec une intervention humaine limitée ou sans intervention humaine; ne couvre pas les systèmes utilisés uniquement pour acheminer des ordres vers une ou plusieurs plates-formes de négociation ou pour le traitement d’ordres n’impliquant la détermination d’aucun paramètre de négociation ou pour la confirmation des ordres ou pour exécuter les ordres de clients ou pour le traitement post-négociation des transactions exécutées.

[17] AMF, Notification des DTA (dispositif de traitement automatisé), 11 décembre 2014.

[18] Article L. 451-4.

[19] Directive MIF II, art. 17 et 48.

[20] Directive MIF II, art. 4-1-40.

 

Sur le même sujet