IA
11 min de lecture

L'Intent Engineering: la pièce manquante de votre stratégie IA?

Une boussole en laiton dont l'aiguille pointe vers VALEURS au lieu du Nord, posée sur une table de salle de conférence entourée de tableaux de bord IA et de graphiques de KPI

Le cas Klarna nourrit ma réflexion depuis quelque temps.

Leur agent IA de service à la clientèle était, selon tous les indicateurs mesurables, un succès. Dès le premier mois, il a traité 2,3 millions de conversations — les deux tiers de tous les clavardages du service à la clientèle. Le temps de résolution est passé de onze minutes à moins de deux. L’entreprise projetait des économies de 40 millions de dollars. Le PDG le comparait à l’équivalent de 700 agents à temps plein. Wall Street adorait l’histoire, les investisseurs adoraient l’efficacité, et chaque conférence en 2024 avait une diapositive sur le sujet.

Quinze mois plus tard, Klarna réembauchait des humains.

La satisfaction client avait chuté. Les problèmes complexes restaient non résolus. La marque — une entreprise bâtie sur la promesse de rendre les paiements sans friction — générait de la friction au seul point de contact où la confiance compte le plus. Le PDG Sebastian Siemiatkowski a admis le problème publiquement (Bloomberg, Fortune, Entrepreneur): « Le coût semble malheureusement avoir été un facteur d’évaluation trop prédominant… ce que vous obtenez, c’est une qualité inférieure. »

L’IA de Klarna n’a pas échoué. Elle a fait exactement ce qu’on lui avait demandé — résoudre les billets rapidement et réduire les coûts. Le vrai problème, c’est que personne n’avait pris le temps d’encoder ce que Klarna valorisait réellement: des relations client durables, la confiance envers la marque, le type d’expérience qui fait qu’on choisit Klarna plutôt qu’un concurrent.

L’IA a optimisé parfaitement. Mais pour la mauvaise chose.

L’évolution dont on ne parle pas

J’ai observé la conversation sur l’IA mûrir à travers deux phases distinctes — et je crois qu’il est grand temps d’en aborder une troisième.

Le prompt engineering était la première. Nous avons appris à parler à l’IA — à formuler des instructions qui produisaient des résultats utiles. Il répondait à la question: « Que peut faire votre IA? » De meilleures instructions signifiaient de meilleurs résultats, et toute une discipline a émergé autour de l’art de tirer le maximum d’un modèle donné.

Le context engineering est la phase actuelle. L’idée clé est que même des instructions parfaites échouent si l’IA n’a pas la bonne information. La génération augmentée par recherche (RAG), les bases de connaissances, les pipelines de données organisationnelles — ce sont autant de façons de répondre à une deuxième question: « Que sait votre IA? » Donnez à l’IA le bon contexte, et ses performances s’améliorent considérablement.

Les deux comptent. Mais après 25 ans à diriger des transformations technologiques, je peux vous dire — aucun des deux ne suffit.

L'évolution du Prompt Engineering au Context Engineering puis à l'Intent Engineering, présentée sous forme de marches ascendantes. Le Prompt Engineering demande 'Que peut faire votre IA?', le Context Engineering demande 'Que sait votre IA?', et l'Intent Engineering — la pièce manquante — demande 'Que veut votre IA?'
L'évolution du déploiement de l'IA: chaque étape résout le problème précédent mais en révèle un plus profond.

Il y a une troisième question que la plupart des organisations ne posent pas encore, et c’est celle qui sépare les entreprises qui tirent une vraie valeur de l’IA de celles qui génèrent une activité coûteuse:

« Que veut votre IA? »

C’est l’Intent Engineering — traduire les objectifs, les valeurs et les principes décisionnels d’une organisation en paramètres concrets sur lesquels l’IA peut agir. Pas des lignes directrices aspirationnelles. Des contraintes opérationnelles.

L’Intent Engineering n’est pas encore une discipline formalisée. Il n’y a pas de certification, pas de méthodologie établie, pas de manuel. Mais c’est en train de devenir un véritable espace-problème — et chaque organisation qui déploie l’IA à grande échelle finit par y trébucher, qu’elle ait un nom pour le désigner ou non.

À quoi ressemble le fossé d’intention

Klarna n’est pas un cas isolé. Le schéma se répète dans tous les secteurs chaque fois qu’une organisation déploie l’IA avec des objectifs techniques clairs mais sans encoder ses valeurs réelles.

Zillow l’a appris en 2021. Leur programme d’achat immobilier instantané propulsé par l’IA était optimisé pour la vitesse et le volume — acquérir le plus de propriétés possible, le plus rapidement possible. L’algorithme était techniquement brillant pour remporter les enchères. Il surpayait aussi systématiquement les propriétés, parce que personne n’avait encodé l’intention qui comptait: une évaluation précise avec des marges de risque conservatrices. Résultat: une perte de 528 millions de dollars en un seul trimestre, 2 000 mises à pied, et la fermeture complète du programme. L’IA a atteint son objectif. L’objectif était le mauvais.

Le schéma est toujours le même. L’IA atteint ses KPI techniques — résolution plus rapide, plus de transactions, meilleur débit — tout en érodant silencieusement quelque chose que l’organisation valorise réellement mais n’a jamais défini explicitement: la confiance des clients, la précision des évaluations, la qualité de la marque, le moral des employés.

Un graphique de divergence montrant les indicateurs mesurés de Klarna (vitesse de résolution, économies de coûts) en hausse tandis que les indicateurs non mesurés (satisfaction client, confiance envers la marque) chutaient, jusqu'à une correction de cap en mai 2025.
L'IA de Klarna a réussi sur chaque indicateur mesuré. Le problème, c'était ce qui ne l'était pas.

C’est le fossé d’intention. Et il existe parce que les organisations se sont habituées à des définitions vagues et aspirationnelles de leurs valeurs. « Centré sur le client. » « La qualité d’abord. » « L’humain au cœur de nos priorités. » J’ai vu ces phrases sur les murs des halls d’entrée de chaque organisation avec laquelle j’ai travaillé. Elles fonctionnent très bien quand ce sont les humains qui prennent les décisions, parce que les humains comblent intuitivement les lacunes. Un agent de soutien expérimenté à qui on a dit « nous sommes centrés sur le client » sait — sans avoir été explicitement programmé — que parfois la bonne décision est de passer vingt minutes avec un client mécontent, même si l’indicateur d’efficacité dit de garder ça en dessous de cinq. Ce jugement vient d’années d’expérience, d’avoir observé un gestionnaire faire exactement ce compromis, d’avoir absorbé une culture qui n’a jamais été documentée.

L’IA n’a pas ce luxe. L’IA a besoin de savoir: Quand la rapidité entre en conflit avec la rigueur, laquelle l’emporte? Dans quelles conditions? Dans quelle mesure?

Des valeurs vagues à l’intention opérationnelle

Alors, à quoi ressemble l’Intent Engineering en pratique? Je vais être honnête — on est tous encore en train de le découvrir. Mais après avoir participé à suffisamment de réunions où des déploiements d’IA ont été planifiés, lancés, et parfois annulés, je commence à en voir les contours.

Ce n’est pas un cadre technique qu’on installe. Ce n’est pas une couche logicielle qu’on achète. C’est le travail — organisationnel, humain, parfois inconfortable — de rendre explicite ce qui a toujours été implicite dans la prise de décision.

Cela signifie répondre à des questions que la plupart des organisations n’ont jamais été forcées de formuler clairement:

  • Frontières décisionnelles: Quand l’IA devrait-elle agir de façon autonome, et quand devrait-elle escalader vers un humain? Pas comme politique générale, mais pour chaque type de décision, avec des seuils spécifiques.
  • Hiérarchies de compromis: Quand deux valeurs organisationnelles entrent en conflit — rapidité contre qualité, coût contre expérience, cohérence contre personnalisation — laquelle a priorité, et dans quelles conditions?
  • Mécanismes de rétroaction: Comment l’organisation sait-elle que l’IA optimise pour un indicateur proxy plutôt que pour l’objectif réel? Quels signaux devraient déclencher une révision humaine?

Imaginez comment l’histoire de Klarna aurait pu se dérouler différemment avec un Intent Engineering explicite. Au lieu d’une seule cible d’optimisation — résoudre les billets le plus vite possible — l’IA aurait pu opérer dans un ensemble plus riche de contraintes: Résoudre les demandes courantes rapidement, mais pour les problèmes complexes, prioriser la qualité de résolution plutôt que la vitesse. Quand un client montre des signes de frustration, offrir un transfert vers un humain. Ne jamais laisser l’efficacité des coûts dépasser un seuil plancher de satisfaction client. Rien de tout cela n’est techniquement difficile. La partie difficile, c’est de s’entendre sur les valeurs, de les mettre par écrit, et de les rendre opérationnelles.

L’IA vous force à documenter votre culture

Voici la partie qui rend les dirigeants mal à l’aise: on ne peut pas encoder une intention qu’on n’a pas articulée.

Chaque organisation avec laquelle j’ai travaillé possède une culture qui vit dans les corridors — dans la façon dont les décisions se prennent réellement, par opposition à ce que dit l’affiche des valeurs. J’ai déjà vu deux VP passer une heure à débattre de ce que « la qualité d’abord » signifiait pour leur déploiement IA, pour finalement réaliser qu’ils opéraient sous des définitions complètement différentes depuis des années. Ça n’avait jamais posé problème auparavant, parce que leurs équipes étaient composées de personnes qui naviguaient l’ambiguïté grâce à leur expérience et leur bon jugement.

L’IA expose cette ambiguïté à grande échelle.

Quand on déploie un agent IA en lui disant d’être « centré sur le client », on est forcé de définir ce que ça signifie concrètement. Est-ce que ça veut dire ne jamais dire non? Escalader chaque cas limite? Absorber des coûts pour préserver la bonne volonté? Chaque organisation répond à ces questions différemment dans la pratique — sauf que les réponses vivent dans le jugement des employés expérimentés, pas dans un document.

L’Intent Engineering force la conversation que la plupart des organisations reportent depuis leur création: Qu’est-ce qu’on valorise réellement, non pas comme aspiration, mais comme pratique? Et est-on à l’aise d’encoder ça dans un système qui l’exécutera de façon cohérente, à grande échelle, sans aucun appel au jugement?

D’après mon expérience, les organisations qui font cet exercice honnêtement découvrent deux choses. Premièrement, que leurs vraies valeurs ne correspondent pas toujours à leurs valeurs affichées — et que combler cet écart en vaut la peine. Deuxièmement — et c’est le bénéfice inattendu — que le processus de définition de l’intention pour l’IA finit par améliorer la prise de décision dans toute l’organisation, parce qu’il force une clarté qui profite autant aux humains qu’aux machines.

La vraie course à l’IA

La conversation compétitive en ce moment porte sur les modèles — qui a l’IA la plus performante, la plus grande fenêtre de contexte, les meilleurs benchmarks. Je crois que cette conversation passe à côté de l’essentiel.

Les modèles sont de plus en plus banalisés. Tout le monde a accès aux mêmes capacités de pointe. Les organisations qui prendront l’avance ne seront pas celles qui ont l’IA la plus intelligente. Ce seront celles qui ont l’intention organisationnelle la plus claire — celles qui ont fait le travail ingrat de définir ce qu’elles valorisent vraiment et de l’encoder dans le fonctionnement de leur IA.

L’histoire de Klarna a une bonne fin. Ils ont reconnu le fossé, corrigé le tir, et opèrent maintenant un modèle hybride où l’IA gère les tâches routinières et les humains gèrent les moments qui exigent du jugement et de l’empathie. Siemiatkowski a recadré le service humain comme une offre « VIP » — reconnaissant, publiquement, que la connexion humaine a une valeur que l’IA ne peut pas reproduire. Ce n’est pas une histoire d’échec. C’est une histoire d’apprentissage.

Mais il a fallu un coup à la crédibilité de la marque et un virage public pour en arriver là. La question pour toutes les autres organisations est de savoir si elles peuvent tirer la même leçon sans en payer le même prix.

La question technologique — « Que peut faire votre IA? » — est largement répondue. La question des connaissances — « Que sait votre IA? » — est en voie d’être résolue. La question de l’intention — « Que veut votre IA? » — c’est là que vit l’avantage concurrentiel désormais. Et y répondre commence non pas par une initiative technique, mais par une conversation honnête sur ce que votre organisation valorise véritablement.

Les entreprises qui gagneront l’ère de l’IA ne seront pas celles qui ont les meilleurs modèles. Ce seront celles qui se connaissent assez bien pour les diriger. Et cette connaissance de soi? Elle commence par une conversation que la plupart des équipes de direction n’ont pas encore eue.

Partager cet article

À propos de l'auteur

André Boisvert

André Boisvert

CIO/CTO et consultant stratégique

CIO/CTO et consultant stratégique accompagnant les organisations dans l'IA, la transformation numérique et la stratégie TI. Partage de perspectives stratégiques hebdomadaires sur la technologie d'entreprise.

LinkedIn

Articles connexes

Restez informé

Recevez chaque semaine des perspectives sur l'IA, la transformation numérique et la stratégie TI.