Technologie · Innovation · Algérie
IA & AutomatisationCybersécuritéCloudCompétencesPolitiqueStartupsÉconomie Numérique

L’Intent Engineering : Pourquoi l’IA d’Entreprise Échoue Quand Elle Fonctionne Trop Bien

février 27, 2026

intent-engineering-enterprise-ai-failure

En janvier 2026, Klarna a rapporté que son agent de service client IA effectue désormais le travail de 853 employés à temps plein et a fait économiser à l’entreprise 60 millions de dollars. Au même cycle de résultats, le PDG Sebastian Siemiatkowski a admis publiquement que la stratégie avait coûté à l’entreprise quelque chose de bien plus précieux que l’argent économisé. Il essayait encore de le récupérer.

Ce n’est pas une autre histoire sur la surestimation de l’IA. C’est l’inverse. L’IA a fonctionné brillamment. Et c’était le problème.

La distinction entre l’IA qui échoue et l’IA qui réussit à faire la mauvaise chose devient rapidement le problème non résolu le plus important de la technologie en entreprise. Cela a maintenant un nom, un que l’industrie entendra beaucoup plus dans les mois à venir : l’intent engineering.

Le Problème Que le Prompt Engineering N’a Jamais Résolu

Au cours des trois dernières années, l’industrie IA a traversé deux phases distinctes de maîtrise des instructions. D’abord est venu le prompt engineering — l’art de rédiger des instructions précises qui guident les sorties des modèles. Il a appris à une génération de praticiens que la façon dont on communique avec l’IA compte. Mais à mesure que les modèles devenaient plus capables, le prompt engineering est devenu moins un goulot d’étranglement. Les modèles frontier d’aujourd’hui gèrent les instructions de manière robuste sans scaffolding élaboré de prompt.

Puis est venu le context engineering, popularisé par Andrej Karpathy et d’autres. C’était l’insight que ce qu’on injecte dans la fenêtre de contexte d’un modèle — les documents, exemples, résultats de récupération, contraintes — compte plus que le prompt lui-même. Le context engineering était une vraie avancée. Il a déplacé la conversation de « comment parler à l’IA » vers « ce dont l’IA a besoin de savoir ».

Mais le prompt engineering et le context engineering partagent tous deux une limitation fondamentale : ils opèrent au niveau de la tâche. Ils visent à obtenir la bonne sortie pour une seule interaction.

L’intent engineering opère au niveau organisationnel. Il pose une question entièrement différente : quand un agent IA prend une décision de manière autonome, cette décision reflète-t-elle ce que l’organisation valorise réellement ? Pas ce qui se trouvait le plus récemment dans la fenêtre de contexte. Pas ce qui était spécifié dans le prompt. Ce dont l’organisation a besoin.

Le prompt engineering dit aux agents quoi faire. Le context engineering dit aux agents quoi savoir. L’intent engineering dit aux agents quoi vouloir.

La Catastrophe Klarna : Une Étude de Cas en Succès Mal Aligné

Début 2024, Klarna a déployé un agent de service client alimenté par IA sur 23 marchés en 35 langues. Les chiffres étaient stupéfiants. Il a géré 2,3 millions de conversations le premier mois. Le temps de résolution moyen est passé de 11 minutes à deux. Le PDG projetait 40 millions de dollars d’économies annuelles.

Puis les clients ont commencé à se plaindre. Des réponses génériques. Un ton robotique. Zéro capacité à gérer quoi que ce soit nécessitant du jugement. À mi-2025, Siemiatkowski a déclaré à Bloomberg que si le coût avait été le facteur d’évaluation prédominant, le résultat était une qualité inférieure dans l’ensemble. Klarna a commencé à recruter frénétiquement les agents humains qu’elle avait licenciés quelques mois plus tôt.

L’interprétation réconfortante — celle qui a largement circulé en 2025 — est que l’IA ne peut tout simplement pas gérer les nuances. Une lecture plus précise, maintenant visible avec le recul, est que l’IA était extraordinairement douée pour résoudre les tickets rapidement, et résoudre les tickets rapidement était le mauvais objectif.

L’intention organisationnelle réelle de Klarna n’était pas « résoudre les tickets rapidement ». C’était « construire des relations durables avec les clients qui stimulent la valeur vie ». Mais personne n’a formalisé cette distinction. Personne ne l’a traduite dans un format utilisable par le système IA. Et ainsi l’agent a fait exactement ce pour quoi il était optimisé, avec une efficacité dévastatrice.

Quand un client fidèle depuis trois ans rencontrait une expérience frustrante, l’agent IA le traitait de manière identique à un tout nouvel utilisateur avec une question simple. L’agent ne savait pas que la rétention compte plus que la vitesse de résolution. Il ne savait pas que l’inadéquation du ton est un indicateur avancé de churn. Il ne savait pas que certains clients devraient être acheminés vers des humains — non pas parce que l’IA est incapable, mais parce que préserver la relation l’emporte sur le gain d’efficacité.

Ce ne sont pas des limitations de l’IA. Ce sont des lacunes d’intention. Les 700 agents humains qui ont été licenciés ont emporté avec eux une connaissance institutionnelle qui n’a jamais été capturée, jamais formalisée et jamais mise à disposition du système qui les a remplacés : la compréhension des clients qui ont besoin de patience, des situations nécessitant du jugement et des interactions qui construisent le capital relationnel qui stimule les revenus à long terme.

Le Fossé d’Intention à 200 Milliards de Dollars

Klarna n’est pas un cas isolé. C’est un avant-goût.

La dernière enquête mondiale sur l’IA de McKinsey a trouvé que 74 % des entreprises ne rapportent aucune valeur tangible des investissements IA — en hausse par rapport à 70 % l’année précédente, malgré un investissement moyen doublé. Plus d’argent qui rentre, rendements qui ne se matérialisent pas.

Le rapport 2026 State of AI in the Enterprise de Deloitte, sondant plus de 3 000 dirigeants dans 24 pays, a trouvé que 84 % des entreprises n’ont pas repensé les emplois autour des capacités IA et seulement 21 % ont un modèle mature de gouvernance des agents. Pendant ce temps, 70 % prévoient d’augmenter davantage leurs investissements IA. Plus de dépenses, même aveuglement structurel.

Salesforce a sondé 2 000 responsables IT seniors et a trouvé que si 86 % croient que l’IA agentique arrive dans les un à trois prochaines années, 74 % disent que leur organisation n’est pas prête. Les dirigeants pensent que les agents autonomes sont inévitables. Ils ont commencé à les payer. Mais presque aucun n’a résolu le problème fondamental de comment ces agents sauront ce que l’organisation veut réellement.

Peut-être qu’aucun produit n’illustre le fossé d’intention plus clairement que Microsoft Copilot. Quand Microsoft a lancé Copilot fin 2023, c’était la campagne de vente IA en entreprise la plus agressive de l’histoire. 85 % des entreprises Fortune 500 l’ont adopté. Et puis l’adoption a fortement stagné. Gartner a trouvé que seulement 5 % des organisations sont passées du pilote à un déploiement à plus grande échelle. Bloomberg a rapporté que Microsoft réduisait ses objectifs de vente internes après que la majorité des vendeurs n’ait pas atteint leurs chiffres. Même dans les entreprises ayant signé des contrats Copilot à six chiffres, les employés ont résisté — préférant ChatGPT ou Claude pour le vrai travail.

L’explication standard se concentre sur les problèmes UX et la qualité des modèles. Ce sont de vraies problèmes, mais pas le fondamental. Le problème fondamental est que Copilot a été déployé dans des organisations qui n’avaient pas fait le travail préparatoire pour le rendre utile. La plupart des entreprises ont imposé Copilot aux travailleurs du savoir sans définir comment il devrait s’intégrer dans les workflows, à quelles données organisationnelles il devrait accéder, quelles décisions il devrait influencer ou quels standards de qualité devraient s’appliquer. Le résultat : une IA techniquement fonctionnelle produisant des sorties organisationnellement inutiles. Des documents qui ne correspondaient pas à la voix de l’entreprise. Des résumés qui rataient l’essentiel des réunions. Des suggestions techniquement correctes mais stratégiquement fausses.

Encore une instance du fossé d’intention. Une IA déployée sans infrastructure d’intention organisationnelle.

Advertisement

Les Trois Couches de l’Intent Engineering

Quand on décompose ce que l’intent engineering requiert réellement, trois couches distinctes émergent. La plupart des entreprises sont bloquées à la première.

Couche 1 : Infrastructure de Contexte Unifiée

C’est la couche fondamentale — comment les données, processus et connaissances circulent vers les systèmes IA. Deloitte a trouvé que seulement environ 20 % des dirigeants ont la pleine confiance que leurs données sont prêtes pour l’IA. Seulement 14 % ont implémenté une stratégie de données entièrement unifiée. Le reste utilise l’IA sur des données fragmentées, incohérentes et partiellement accessibles.

L’impact pratique est dévastateur. Un agent IA essayant de répondre à une question client peut ne pas savoir que le client a un ticket de support ouvert dans un système, un changement de commande en attente dans un autre et un historique d’achats de haute valeur dans un troisième. Les données existent. Elles ne sont pas connectées d’une manière que l’agent peut voir.

Les organisations ont beaucoup investi dans le déploiement de modèles IA — 72 % ont commencé, selon Deloitte — mais l’investissement en architecture de données a stagné de 40 % en une seule année. Les entreprises achètent des outils plus vite qu’elles ne construisent les systèmes organisationnels qui rendent ces outils utiles.

Couche 2 : Boîte à Outils Cohérente pour les Travailleurs IA

Cette couche concerne la collaboration entre humains et agents. Quels outils existent ? Quels workflows sont conçus pour l’interaction humain-agent ? Où l’automatisation IA doit-elle remplacer l’effort humain, où doit-elle l’augmenter, et où le jugement humain doit-il être non négociable ?

La plupart des organisations n’ont aucun cadre pour ces questions. Le résultat est que les outils IA sont déployés isolément, sans intégration cohérente dans la façon dont le travail se passe réellement. Chaque département, parfois chaque équipe, utilise l’IA différemment, avec des attentes différentes, des standards de qualité différents et une compréhension différente de ce que l’IA est censée accomplir.

Couche 3 : L’Intent Engineering Proprement Dit

C’est la couche qui n’existe presque certainement pas dans votre organisation. C’est la discipline d’encoder la finalité organisationnelle dans des formats lisibles par machine et actionnables par les agents.

Les OKR traditionnels ont été conçus pour les personnes. Ils encodent des objectifs lisibles par les humains et supposent un jugement humain sur la priorisation, les arbitrages et l’ambiguïté. Quand vous donnez un OKR à quelqu’un, il l’interprète à travers des couches d’expérience professionnelle, de dynamiques d’équipe, de normes culturelles et de mémoire institutionnelle.

Un agent n’a pas dix ans d’expérience professionnelle. Il n’a pas l’intelligence sociale pour lire une salle ni la mémoire institutionnelle pour savoir que la dernière fois que quelqu’un a essayé une approche particulière, ça a créé un désordre.

Ce que l’intent engineering exige, c’est un nouveau type d’infrastructure — qu’on pourrait appeler une architecture de traduction des objectifs. En haut, vous avez besoin de structures d’objectifs que les agents peuvent interpréter et sur lesquels ils peuvent agir. Pas « augmenter la satisfaction client » — c’est une aspiration lisible par les humains. Un agent a besoin de savoir : quels signaux indiquent la satisfaction client dans notre contexte ? Quelles sources de données contiennent ces signaux ? Quelles actions suis-je autorisé à prendre ? Quels arbitrages suis-je habilité à faire — vitesse versus minutie, coût versus qualité ? Où sont les limites fermes que je ne dois pas franchir ?

En dessous, vous avez besoin de cadres de délégation : les valeurs organisationnelles traduites en limites décisionnelles. Les principes de leadership d’Amazon fonctionnent pour les humains parce que les humains peuvent interpréter « obsession client » par le jugement. Pour les agents, vous avez besoin d’arbres de décision spécifiques. Quand deux objectifs légitimes entrent en conflit, lequel l’emporte ? Dans quelles circonstances l’agent peut-il dévier de la procédure standard ?

Et ensuite la couche de mesure : les KPI organisationnels re-ingéniérés pour la responsabilité des agents. Pas seulement si l’agent a accompli sa tâche, mais s’il l’a accomplie d’une manière qui sert les objectifs plus larges de l’organisation. L’agent a-t-il résolu le ticket ? Oui. A-t-il construit une relation durable avec le client ? Non. Cette deuxième mesure est ce que l’intent engineering exige.

Pourquoi Cela N’a Pas Encore Été Construit

Une partie de la réponse est la pure vitesse. La course au déploiement IA a de loin dépassé l’infrastructure nécessaire pour la diriger. Les entreprises achètent des outils plus vite qu’elles ne construisent les systèmes organisationnels qui rendent ces outils utiles.

Mais la raison plus profonde est que la description de poste de personne ne dit pas « traduire l’intention organisationnelle en paramètres d’agents lisibles par machine ». Les rôles les plus proches — chief AI officer, responsable stratégie, VP des opérations — sont consumés par la course au déploiement elle-même. La discipline véritablement nouvelle de formaliser la finalité organisationnelle dans des formats structurés, interrogeables et actionnables par les agents n’a pas encore de foyer dans l’organigramme de l’entreprise.

L’Agent Development Kit de Google est l’une des premières tentatives techniques de formaliser des éléments de cela, séparant le contexte des agents en contexte de travail, mémoire de session, mémoire à long terme et artefacts, chacun avec une gouvernance spécifique. La recherche académique de Google DeepMind a proposé cinq niveaux d’autonomie des agents IA — opérateur, collaborateur, consultant, approbateur et observateur — chacun impliquant des exigences de gouvernance différentes.

Mais ce sont des échafaudages techniques. La pratique organisationnelle de l’intent engineering — le travail difficile de rendre les valeurs, priorités et hiérarchies d’arbitrage institutionnelles lisibles par machine — reste largement non construit.

La Course à l’Intention

La course dans l’IA d’entreprise ne porte plus sur les capacités des modèles. Les modèles convergent. Ils sont tous compétents. Ce qui diffère dramatiquement, c’est de savoir si les organisations ont l’infrastructure pour diriger ces capacités vers ce qui compte réellement.

Klarna avait accès à une IA de classe mondiale. L’IA a fonctionné. Elle n’était pas alignée sur ce dont l’entreprise avait réellement besoin parce que l’entreprise n’avait jamais formalisé ce dont elle avait réellement besoin d’une manière utilisable par un système IA. Ce n’est pas un problème technologique. C’est un problème d’infrastructure organisationnelle.

La prochaine vague de valeur IA en entreprise ne viendra pas de meilleurs modèles ou d’une autre licence Copilot. Elle viendra de l’architecture d’intention organisationnelle : rendre les objectifs, valeurs, cadres décisionnels et hiérarchies d’arbitrage de votre entreprise découvrables, structurés et actionnables par les agents. Elle viendra de la construction de l’infrastructure d’alignement qui permet aux agents de prendre des décisions non seulement techniquement correctes, mais stratégiquement cohérentes.

Les entreprises qui résolvent cela en premier auront un avantage concurrentiel réel et durable. Leurs agents fonctionneront de la façon dont l’organisation en a réellement besoin. Leurs concurrents debuggeront encore des chatbots coûteux.

Advertisement

🧭 Radar de Décision

Dimension Assessment
Pertinence pour l’Algérie Élevée — les entreprises algériennes déployant du service client IA et de l’automatisation font face au même fossé d’intention
Infrastructure prête ? Partielle — les outils IA sont disponibles mais l’infrastructure d’intention organisationnelle est largement absente
Compétences disponibles ? Non — l’intent engineering comme discipline n’existe pas encore dans les entreprises algériennes
Calendrier d’action 6-12 mois
Parties prenantes clés DSI, DAF, chefs de projets IA, équipes de transformation numérique
Type de décision Stratégique

En bref : Avant de se précipiter pour déployer des agents IA, les entreprises algériennes doivent d’abord formaliser ce qu’elles veulent réellement que ces agents optimisent — pas seulement les métriques faciles à mesurer mais les valeurs organisationnelles qui stimulent le succès à long terme.

Sources et lectures complémentaires

Laisser un commentaire

Advertisement