14 min de lecture

Ce que le guide de transformation par l'IA dit correctement — et là où il s'arrête

Un guide stratégique ouvert sur un bureau — la page de gauche remplie de graphiques et diagrammes, la page de droite montrant uniquement un grand point d'interrogation

Il y a une phrase qui revient dans pratiquement chaque présentation stratégique sur l’IA, chaque rapport de consultation, chaque conférence :

« L’IA n’est pas un projet technologique — c’est une transformation d’entreprise. »

C’est vrai. Je dis moi-même une version de cette phrase depuis quelques années. Et chaque dirigeant que je rencontre hoche la tête. On a tous compris — ce n’est pas qu’une question de technologie.

Et pourtant, 98% des organisations ne voient toujours pas de rendement sur leurs investissements en IA.

Un sondage de KPMG Canada auprès de 753 dirigeants d’entreprise (novembre 2025) révèle que 93% des organisations canadiennes disent utiliser l’IA — mais seulement 2% rapportent un rendement sur leurs investissements en IA générative. Soyons justes : beaucoup en sont encore aux premières étapes. 30% s’attendent à des résultats d’ici un an, et 61% disent que ça prendra de un à cinq ans. Mais même en tenant compte de cette patience, l’écart entre l’adoption et les résultats est difficile à ignorer. La recherche mondiale de BCG (2024-2025) raconte la même histoire : 74% des entreprises peinent à générer et mettre à l’échelle la valeur de l’IA, et seulement environ 5% obtiennent des résultats significatifs à grande échelle. La RAND Corporation est encore plus directe : plus de 80% des projets d’IA échouent — soit environ le double du taux d’échec des projets TI traditionnels.

Alors si on s’entend tous que ce n’est pas qu’une question de technologie — si ce constat est maintenant universellement accepté — pourquoi l’écart entre adoption et résultats reste-t-il aussi large?

Je pense que la réponse est que le guide est correct, mais incomplet. Il pose le bon diagnostic, puis s’arrête avant de prescrire le traitement. Dire « c’est une transformation d’entreprise, pas un projet technologique » c’est comme un médecin qui dit « votre problème n’est pas le symptôme, c’est la condition sous-jacente ». Vrai — mais qu’est-ce qu’on fait avec ça?

Après 25 ans comme dirigeant technologique — CIO, CTO, architecte en chef — dans des organisations de tailles et maturités très différentes, j’ai vu ce patron se répéter avec l’infonuagique, le big data, la transformation numérique. La technologie arrive. Les présentations stratégiques se rédigent. Les projets pilotes se lancent. Et puis la partie difficile commence — celle que le guide ne couvre pas.

La recherche de BCG le quantifie bien : les organisations qui réussissent avec l’IA à grande échelle allouent environ 10% de leurs ressources aux algorithmes, 20% à la technologie et aux données, et 70% aux personnes et aux processus. Ce 70% — le changement organisationnel, la refonte des processus, le côté humain — c’est exactement le territoire que le guide standard reconnaît mais ne cartographie pas.

Voici ce que j’observe quant à l’endroit où les choses déraillent réellement.

Quand le marteau cherche des clous

Le patron d’échec le plus courant que je vois est aussi le plus intuitif : les organisations adoptent l’IA comme une solution à la recherche d’un problème.

Ça commence généralement par de l’enthousiasme — et cet enthousiasme est légitime. Une équipe de direction voit ce que l’IA peut faire, observe les annonces des concurrents, et décide que l’organisation doit « faire de l’IA ». Une équipe est constituée, un budget est alloué, et le mandat ressemble à quelque chose comme : « Trouvez des cas d’utilisation à fort impact pour l’IA à travers l’entreprise. »

Ça semble raisonnable. C’est aussi à l’envers.

Les initiatives technologiques les plus efficaces auxquelles j’ai participé — celles qui ont réellement livré une valeur mesurable — partaient d’un problème d’affaires, pas d’une technologie. Quelqu’un a dit « On perd des clients parce que notre intégration prend six semaines » ou « Nos analystes passent 60% de leur temps à collecter des données au lieu de les analyser ». Le problème venait en premier. Le choix de l’outil suivait.

Quand on part de l’outil plutôt que du problème, on se retrouve dans un endroit prévisible : des cas d’utilisation techniquement intéressants mais stratégiquement marginaux. L’IA peut résumer des notes de réunion? Bien sûr — mais est-ce que ça empêchait quelqu’un de dormir? L’IA peut générer du contenu marketing? Utile — mais si votre goulot d’étranglement en marketing c’est la stratégie, pas la vitesse de production, vous avez automatisé la mauvaise chose.

La recherche de BCG sur l’IA à grande échelle le confirme. Leur analyse a révélé que 62% de la valeur de l’IA réside dans les fonctions d’affaires centrales — celles qui affectent directement l’avantage concurrentiel — pas dans les expériences périphériques. Les organisations qui mettent l’IA à l’échelle avec succès la déploient contre des problèmes qui font bouger l’aiguille sur les revenus, les coûts ou la position concurrentielle. Le facteur de différenciation, ce n’est pas la sophistication de l’IA. C’est si le problème qu’elle résout compte vraiment pour l’entreprise.

La solution semble presque trop évidente : commencer chaque conversation sur l’IA par le problème, pas par l’outil. Si la meilleure solution implique l’IA, parfait. Sinon, c’est parfait aussi. L’objectif n’est pas d’utiliser l’IA. L’objectif est de résoudre des problèmes d’affaires.

Le problème des attentes

Un enjeu connexe — et peut-être moins évident — est que nous sommes encore collectivement en train de déterminer dans quoi l’IA excelle vraiment. Et entre-temps, l’écart entre ce qu’on attend de l’IA et ce qu’elle livre de façon fiable génère une vague silencieuse de désillusion.

Ce n’est pas une critique de la technologie. C’est une observation sur un processus de maturation dans lequel on se trouve en plein milieu.

L’IA est extraordinaire pour certaines choses : la reconnaissance de patrons dans des ensembles de données massifs, la génération de premières ébauches, la synthèse d’information, l’accélération du développement logiciel, les tâches de classification. Et elle s’améliore rapidement. Quand elle est appliquée aux bons problèmes, l’impact est réel.

Mais l’IA a aussi de vraies limites qu’on apprend encore à prendre en compte. Elle peut halluciner — présenter avec assurance de l’information fabriquée comme des faits. Ses résultats ne sont pas toujours reproductibles. Elle peut avoir de la difficulté avec les tâches qui exigent un raisonnement logique strict ou une précision propre à un domaine. Elle a un côté « boîte noire » qui rend l’auditabilité et la traçabilité difficiles dans des contextes où ces qualités sont non négociables — conformité réglementaire, rapports financiers, décisions médicales.

Ce que j’observe dans plusieurs organisations est un décalage : des attentes calibrées au niveau de la démo la plus impressionnante, déployées dans des environnements qui exigent la fiabilité d’un système en production. La démo montre l’IA rédigeant une analyse stratégique parfaite. La réalité en production, c’est une IA qui a raison 85% du temps — ce qui, selon le domaine, peut être exceptionnel ou complètement inacceptable.

La recherche de Gartner va dans le même sens : ils projettent qu’au moins 30% des projets d’IA générative seront abandonnés après l’étape de la preuve de concept — qualité insuffisante des données, coûts croissants, valeur d’affaires floue. Pas parce que la technologie a échoué, mais parce que la valeur attendue n’a pas survécu au contact avec la réalité.

Quand les attentes sont mal calibrées, même de bonnes implantations d’IA se font étiqueter comme des échecs. L’organisation n’apprend pas la bonne leçon — « on doit appliquer l’IA différemment » — elle apprend la mauvaise : « l’IA ne fonctionne pas chez nous ».

La frontière qu’on n’a pas encore tracée

Il y a un enjeu plus profond sous la surface de ces deux problèmes, et je pense que c’est l’un des défis les plus importants — et les moins discutés — de l’adoption de l’IA en ce moment.

On est encore en train de déterminer ce qui devrait être fait par l’IA, ce qui devrait être fait par les systèmes TI traditionnels, et ce qui devrait rester entre les mains des humains.

Le réflexe actuel dans plusieurs organisations est de traiter l’IA comme une solution universelle — de tout faire passer par un modèle de langage ou un agent IA. Mais la réalité est plus nuancée. Certaines tâches sont bien adaptées à l’IA : tout ce qui implique le langage naturel, la reconnaissance de patrons, les données non structurées, ou des décisions où « assez bon » est réellement assez bon. D’autres tâches — celles qui exigent une cohérence parfaite, une traçabilité complète, des résultats déterministes, une auditabilité réglementaire — sont mieux servies par des systèmes traditionnels basés sur des règles. On construit des logiciels déterministes fiables depuis des décennies. Ça n’a pas cessé d’être utile.

Et certaines tâches — celles qui impliquent l’empathie, le jugement éthique, les relations avec les parties prenantes, la navigation dans l’ambiguïté — ont encore besoin d’êtres humains.

Les organisations qui se retrouvent en difficulté sont celles qui essaient de tout transformer en problème d’IA. Elles construisent un flux de travail propulsé par l’IA dont la moitié fonctionnerait mieux comme un processus automatisé traditionnel et le quart aurait vraiment besoin d’un humain dans la boucle. Le résultat est un système impressionnant en démo mais fragile en production — parce qu’on a demandé à l’IA de faire des choses pour lesquelles elle n’est pas adaptée.

Je crois que cette question — où est-ce que l’IA s’insère par rapport aux systèmes traditionnels et aux humains? — mérite une exploration beaucoup plus approfondie que ce que je peux lui accorder ici. C’est un sujet auquel je compte dédier un article complet bientôt, parce que tracer cette frontière correctement est, à mon avis, l’une des décisions de conception les plus conséquentes que les organisations auront à prendre dans les prochaines années. Pour l’instant, le point essentiel est celui-ci : les meilleures stratégies d’IA ne sont pas celles qui mettent l’IA partout. Ce sont celles qui mettent l’IA là où elle a sa place.

Le vacuum de leadership

C’est peut-être le patron le plus lourd de conséquences que j’ai observé — et le plus difficile à aborder, parce que personne n’est en faute.

Quand des projets d’IA se lancent dans la plupart des organisations, il y a une tendance naturelle chez les leaders d’affaires à prendre du recul et à laisser les spécialistes en IA prendre le volant. Ça se tient en surface : c’est une technologie nouvelle et complexe. Les gens qui la comprennent le mieux devraient mener. Les scientifiques de données, les ingénieurs ML, les consultants en IA — ils savent ce qui est possible, ils connaissent les outils, ils connaissent l’architecture.

Et donc, dans plusieurs organisations, les projets d’IA deviennent des initiatives technologiques qui touchent accessoirement aux processus d’affaires, plutôt que des initiatives d’affaires qui utilisent accessoirement la technologie.

Les premières étapes de ces projets se passent souvent bien. L’équipe IA construit un prototype impressionnant — un modèle qui fonctionne, une démo qui enthousiasme le comité de pilotage. Les progrès semblent rapides. Mais ensuite le projet doit passer du prototype à la production — s’intégrer aux vrais flux de travail, changer la façon dont les gens font réellement leur travail, gérer des cas limites qui exigent une connaissance approfondie du domaine — et l’élan s’essouffle.

Il s’essouffle parce que les spécialistes en IA, aussi talentueux soient-ils, n’ont pas la profondeur d’affaires pour prendre les bonnes décisions de conception à cette étape. Ils ne savent pas quels cas limites comptent le plus. Ils ne savent pas pourquoi le processus fonctionne comme il fonctionne, ni quelles parties prenantes doivent être embarquées. Ils peuvent construire une solution brillante — mais ils ne peuvent pas toujours dire si elle résout le bon problème de la bonne façon.

Pendant ce temps, les leaders d’affaires qui ont cette profondeur sont sur les lignes de côté, s’en remettant aux « experts ». Ils ont mentalement catégorisé ça comme un projet technologique — quelque chose qui appartient aux TI ou à l’équipe IA.

La recherche de McKinsey en 2025 sur les organisations performantes en IA souligne ce point : les organisations où les leaders seniors démontrent une prise en charge active des initiatives IA sont trois fois plus susceptibles d’obtenir des résultats significatifs. Et l’écart va au-delà de la posture de leadership — 55% des organisations performantes ont fondamentalement revu leurs processus d’affaires en déployant l’IA, soit près de trois fois le taux des autres organisations. Elles n’ont pas juste ajouté l’IA à des flux existants. Elles ont redessiné le travail lui-même. Ce genre de refonte ne vient pas des spécialistes en IA. Elle vient des leaders d’affaires qui comprennent le travail assez profondément pour le réimaginer.

Je veux être clair : ce n’est pas une question de blâme. Les spécialistes en IA font exactement ce pour quoi ils ont été embauchés. Et l’hésitation des leaders d’affaires est rationnelle — la technologie est nouvelle, la courbe d’apprentissage est réelle, et personne ne veut être la personne qui a ralenti les choses.

Mais le résultat est un écart structurel. Les gens qui connaissent la technologie ne connaissent pas assez profondément l’entreprise. Les gens qui connaissent l’entreprise ne se sentent pas habilités à mener. Et le projet dérive vers un espace où il est techniquement solide mais stratégiquement mal aligné.

Les organisations que j’ai vues réussir avec l’IA sont celles où les leaders d’affaires restent au volant — même quand ils sont inconfortables, même quand ils ne comprennent pas entièrement la technologie. Ils s’appuient sur les spécialistes en IA pour l’orientation technique, mais ils sont propriétaires de la définition du problème, des critères de succès et de la prise de décision. Ils traitent l’IA comme les générations précédentes de leaders traitaient les implantations de ERP ou les refontes de chaînes d’approvisionnement : comme une initiative d’affaires qui nécessite un partenariat technique, pas une initiative technique qui nécessite un apport d’affaires.

Ce que le guide devrait dire ensuite

Si la première page du guide de transformation par l’IA dit « c’est une transformation d’entreprise, pas un projet technologique », les pages qui suivent devraient dire quelque chose comme ceci :

Commencer par les problèmes, pas par les outils. Chaque initiative IA devrait débuter par un problème d’affaires dont quelqu’un est imputable de la résolution. Si vous ne pouvez pas nommer le problème en une phrase, vous n’êtes pas prêt à choisir la solution. Dire « l’IA doit pouvoir nous rendre meilleurs dans ce domaine » n’est pas suffisant.

Calibrer les attentes honnêtement. L’IA est puissante et s’améliore rapidement — et ce n’est pas de la magie. Basez vos attentes sur ce que la technologie livre de façon fiable aujourd’hui dans votre contexte spécifique, pas sur des démos ou ce qu’une autre organisation a rapporté. Laissez de la marge pour que la technologie mûrisse.

Mettre l’IA là où elle a sa place — et uniquement là. Tous les processus n’ont pas besoin d’IA. Tous les processus IA n’ont pas besoin de remplacer ce qui existait avant. Les implantations les plus efficaces combinent IA, systèmes traditionnels et jugement humain de façon délibérée — chacun faisant ce qu’il fait le mieux.

Garder les leaders d’affaires au volant. Les spécialistes en IA sont des partenaires essentiels, mais le projet devrait être mené par quelqu’un qui est propriétaire du résultat d’affaires. Si votre initiative IA est menée par l’équipe technologique avec un « apport » des affaires, les incitatifs structurels sont mal alignés.

Commencer petit et apprendre. Ce n’est pas un conseil nouveau, mais c’est remarquable à quel point il est souvent ignoré. Les organisations qui construisent une capacité IA durable sont celles qui commencent par quelque chose de presque trivialement simple, en tirent des apprentissages, et construisent à partir de là. Celles qui échouent commencent souvent par le cas d’utilisation le plus ambitieux parce que c’est celui qui a obtenu le financement.


Rien de tout cela n’est révolutionnaire. C’est un peu ça, le point.

Le guide de transformation par l’IA pose le bon diagnostic : c’est fondamentalement une question de comment les organisations fonctionnent, pas de quels modèles elles déploient. Mais le traitement — le travail spécifique et pratique de changer comment les initiatives IA sont conçues, menées et intégrées — cette partie est encore en train de s’écrire.

Et elle s’écrit non pas dans des présentations stratégiques ou des conférences, mais par les organisations qui font le travail — un projet à la fois, apprenant ce qui fonctionne, et s’ajustant.

Le Canada est passé du 4e rang à l’extérieur du top cinq du Tortoise Global AI Index entre 2022 et 2024. On n’a pas un problème de talent ni un problème d’investissement. On a un problème d’exécution — un écart entre comprendre ce qui doit être fait et réellement le faire.

Le guide nous a dit le « quoi ». Il est temps qu’on comprenne le « comment ».

Partager cet article

À propos de l'auteur

André Boisvert

André Boisvert

CIO/CTO et consultant stratégique

CIO/CTO et consultant stratégique accompagnant les organisations dans l'IA, la transformation numérique et la stratégie TI. Partage de perspectives stratégiques hebdomadaires sur la technologie d'entreprise.

LinkedIn

Articles connexes

Restez informé

Recevez chaque semaine des perspectives sur l'IA, la transformation numérique et la stratégie TI.