Nous imaginons tous un monde où l’intelligence artificielle (IA) pourrait éradiquer les maladies, prédire des catastrophes naturelles et offrir une éducation sur mesure à chaque enfant. A contrario, on imagine aussi un autre futur, où cette même intelligence artificielle pourrait surveiller nos moindres faits et gestes, décider de notre mérite ou amplifier les discriminations.
Dans le monde du travail, l’intelligence artificielle ne se contente plus de simplifier nos tâches. Elle prend aussi des décisions stratégiques, oriente les trajectoires professionnelles et façonne la démocratie. La technologie n’est plus seulement un levier d’efficacité. Cette force reconfigure la place de l’humain dans la société. Parmi les enjeux, il y a la transformation économique et sociale profonde de nos sociétés. Elle bouleverse la nature du travail et la structure des classes sociales. Elle redéfinit les métiers en général, du Chief Compliance Officer, au Chief Risk Officer, mais aussi des conseilleurs, jusqu’aux métiers de middle et back office.
L’IA est une rupture
L’IA n’est pas une simple innovation. Elle est une rupture. La cinquième révolution technologique. Un point de bascule possible qui interroge nos modèles économiques, nos valeurs et même notre humanité. Encore aujourd’hui, son ascension fulgurante divise les experts : certains y voient une formidable opportunité d’émancipation, tandis que d’autres redoutent un futur dominé par des algorithmes, où le travail, tel que nous le connaissons, pourrait disparaître.
Il ne faut pas que le débat se résume à un affrontement entre optimisme et catastrophisme. Il s’agit plutôt d’une question de contrôle : voulons-nous façonner l’IA à notre image, ou sommes-nous prêts à nous soumettre ?
Pour éclairer le débat, commençons par positionner l’IA dans les grandes évolutions économiques. Depuis les années 1980, l’économie mondiale suit un cycle d’offre, marquant une transition vers un capitalisme technologique. Avec l’IA, cette logique atteint son paroxysme : non seulement elle optimise le travail, mais elle en redéfinit la valeur même. Historiquement, nous vivons actuellement deux périodes de cycle long, démarré en avance aux États-Unis, et qui est en train de se généraliser en Europe.
Dans la première période, débutée en 1980 et achevée aux alentours de 2015, la contribution des innovations à l’emploi est négative.
En revanche, dans la seconde, récemment débutée et qui pourrait se poursuivre jusqu’en 2040 (2015-2040), la contribution des technologies devient peu à peu positive par la force de la destruction créatrice. Mais dans le même temps, sans que ce soit contradictoire, elle augmente le chômage et la précarité technologiques.
Des enjeux majeurs sociaux et économiques
Chaque révolution industrielle a modifié la structure du marché de l’emploi. Mais l’IA ne se contente pas de remplacer des tâches manuelles. Elle automatise aussi des processus décisionnels et stratégiques, menaçant ainsi des professions intermédiaires, de la finance au droit en passant par la santé. Elle refaçonne les métiers avec, à terme, le risque de creuser les inégalités si la création de valeur liée à l’enrichissement des métiers n’est pas plus équitablement partagée. Là où les précédentes mutations technologiques avaient permis d’élever les classes populaires vers des emplois plus qualifiés, la révolution numérique tend au contraire à polariser les statuts.
Nous sommes passés d’une structure sociale en forme de montgolfière, avec une classe moyenne forte, à une structure en sablier, où se creuse un fossé entre une élite ultra-compétente et une masse de travailleurs précaires. Loin d’une simple évolution du travail, l’IA interroge la cohésion sociale et le modèle démocratique. Le risque est grand d’aboutir à un monde où seuls quelques individus maîtrisant l’IA auront accès aux opportunités économiques, tandis que les autres seront relégués à des emplois précaires ou à une dépendance économique et technologique accrue.
Comment allons-nous gérer cette transition pour ne pas créer une société d’exclusion, tout en libérant les usages de l’IA sans ses excès ou biais, comme les excès de la finance lors de la crise de 2007 des subprimes ?
Être ou ne pas être entre de bonnes mains
L’IA n’est pas simplement une technologie, c’est un amplificateur de possibilités. Exemple : dans le domaine de la santé, une IA développée par DeepMind a découvert une solution pour prédire les maladies rénales quarante-huit heures avant qu’elles ne deviennent critiques. Dans le domaine de l’environnement, les algorithmes d’IA réduisent la consommation énergétique des data centers. Google affiche ainsi une baisse de 40 %. Dans le domaine de l’éducation, pour ne citer qu’un exemple, Khan Academy utilise une IA pour créer des parcours éducatifs personnalisés adaptés aux besoins de chaque élève.
Si elle est entre de bonnes mains grâce à des « experts modérateurs », l’IA peut résoudre certains des problèmes les plus complexes de notre époque. À titre d’exemples : lutte contre le changement climatique, inclusion sociale, création nette d’emploi. L’IA peut contribuer à enrichir les métiers par un partage de la création de valeur. Ici, la tension centrale est de libérer totalement l’IA pour qu’elle puisse s’épanouir, sans risquer de perdre le contrôle en chemin...
Une régulation nécessaire de l’IA
D’où la question majeure de la régulation. Les dérives sont déjà présentes dans les premières générations d’IA moderne, pourquoi ne le seraient-elles pas dans les suivantes ? Une IA non maîtrisée pourrait rapidement devenir un levier d’exclusion sociale, de domination technologique et de dérives, comme en témoignent déjà plusieurs faits médiatisés. Tel est le cas des chatbots de Facebook, qui développaient leur propre langage incompréhensible, de l’IA de Microsoft jugée discriminatoire, de celle de Google devenue violente ou encore de l’IA d’Amazon considérée comme discriminante pour le recrutement.
Non, l’IA n’est pas neutre. Elle reflète les biais de ses créateurs et les amplifie parfois. Une étude du MIT a révélé que les outils de reconnaissance faciale sont beaucoup moins précis pour les personnes non blanches, avec des taux d’erreurs allant jusqu’à 35 %. Amazon a dû abandonner un outil de recrutement automatisé, qui discriminait systématiquement certains CV. Il existe aussi des sujets sociétaux. Sommes-nous prêts à nous faire juger par un robot ? Par ailleurs, l’IA peut nous libérer, mais elle peut aussi devenir le gardien d’une prison invisible...
Sur la régulation, l’Europe a pris une position de pionnière avec l’IA Act. Ce texte instaure une classification des IA en fonction de leur niveau de risque et impose trois principes fondamentaux : la transparence des algorithmes pour limiter les biais et garantir des décisions équitables, une supervision humaine obligatoire pour les décisions à fort impact sociétal, et une interdiction stricte des usages abusifs, comme la notation sociale ou la surveillance de masse.
Des défis pour la gouvernance
La régulation seule ne suffira pas : une véritable révolution culturelle sera nécessaire au sein des entreprises et des institutions. La gouvernance des entreprises devra également évoluer : les conseils d’administration devront intégrer des comités d’éthique sur l’IA et assurer une formation des dirigeants sur ces sujets stratégiques.
Dans les débats autour de l’IA, des questions reviennent souvent : peut-on réellement maîtriser une technologie, la surveiller, la contrôler, la réguler, lorsque celle-ci est en perpétuelle évolution, et ce, sans étouffer les créateurs et les innovateurs qui la façonnent ? Faut-il privilégier la sécurité au détriment de la créativité, ou accepter une dose de risque pour libérer tout le potentiel de l’innovation ?
Quelques propositions et ultimes réflexions permettent d’entrevoir des solutions tangibles et des perspectives positives pour lui donner du sens. Déjà, l’Europe sait faire de jolies choses. Le RGPD en Europe protège ainsi la vie privée, tout en laissant la capacité aux entreprises de continuer à innover. Ensuite, il y a l’entrée en vigueur, en août 2026, de l’IA Act et l’accélération des programmes de mise en conformité. Enfin, au Royaume-Uni, des « bancs d’essai réglementaires » (regulatory sandboxes) donnent la possibilité de tester des innovations dans un cadre sécurisé.
De l’autre côté de l’Atlantique, le 21 janvier 2025, le Président Donald Trump a annulé un décret de 2023 de J. Biden qui obligeait les développeurs d’IA à partager avec le gouvernement les résultats de tests de sécurité avant le déploiement de leur système.
Les enjeux d’une coordination mondiale
D’autres s’interrogent pour savoir si l’on peut vraiment contrôler une technologie qui évolue plus vite que les lois ? La solution : créer un cadre réglementaire agile, qui évolue avec les avancées technologiques pour ne pas bloquer l’innovation.
Nous pouvons aussi favoriser une IA éthique et inclusive, même si le monde est profondément inégal. L’intelligence artificielle ne sera jamais parfaite. Mais elle peut être juste. L’IA ne devrait pas être un privilège réservé à une élite technologique, mais un outil inclusif, au service de tous. L’IA peut-elle vraiment être neutre et inclusive dans un monde marqué par des inégalités structurelles ? OpenAI prône la transparence en partageant une partie de ses recherches pour démocratiser l’accès à l’IA, Microsoft a développé des outils d’IA conçus pour identifier et corriger les biais algorithmiques. La solution ? Mettre en place un « label éthique IA » garantissant que les technologies respectent des principes fondamentaux, comme la transparence, la réduction des biais, et l’égalité d’accès.
Il faudra aussi encourager la coopération internationale, même si nous sommes dans un monde de rivalités politiques. Les défis posés par l’IA dépassent les frontières. Nos solutions doivent faire de même. Dans un monde où la technologie ne connaît pas de frontières, devons-nous laisser nos régulations s’arrêter aux lignes géographiques ? Le Partenariat mondial sur l’IA (GPAI) établit des standards éthiques à l’échelle mondiale, des projets de partage de données et de ressources entre universités et entreprises pour éviter une concentration excessive des pouvoirs. La solution ? Créer une « ONU de l’IA », un organisme dédié à la coordination internationale, pour établir des normes globales et surveiller les abus.