L’intuition qui s’est révélée fausse

Depuis un an, l’industrie de l’IA est obsédée par les agents.

Au lieu d’un seul chatbot qui répond aux questions, les développeurs construisent désormais des équipes d’agents IA : l’un écrit du code, un autre effectue des recherches, un autre planifie les tâches, et un autre examine les résultats. L’idée ressemble à une entreprise numérique entièrement composée de travailleurs logiciels.

En bref : Les organisations algériennes qui explorent les agents IA devraient privilégier les architectures à agent unique pour les tâches de raisonnement séquentiel, et ne déployer des systèmes multi-agents que pour des charges de travail véritablement parallélisables. Compte tenu des ressources de calcul limitées de l’Algérie, éviter la surcharge inutile du multi-agent peut produire de meilleurs résultats à moindre coût.

L’hypothèse derrière cette tendance semble évidente : si un seul agent IA est puissant, un groupe d’agents travaillant ensemble devrait être encore meilleur.

Mais un nombre croissant de recherches suggère que cette hypothèse pourrait être fausse.

Une étude menée par des chercheurs de Google Research et Google DeepMind a révélé que les systèmes multi-agents peuvent être significativement moins performants qu’un agent IA unique dans certaines tâches. Dans des expériences couvrant 180 configurations à travers quatre benchmarks, les configurations multi-agents ont réduit les performances de 39 % à 70 % sur les tâches de raisonnement séquentiel et de planification par rapport aux baselines à agent unique.

Les résultats remettent en question l’une des idées centrales de la vague actuelle d’IA agentique — et révèlent un problème que les constructeurs de systèmes IA complexes commencent seulement à affronter.

Le boom des agents

Les agents IA sont devenus l’une des tendances les plus importantes de l’intelligence artificielle.

Les grandes entreprises, dont OpenAI, Google DeepMind et Anthropic, construisent des frameworks pour soutenir les systèmes à base d’agents. Le marché de l’IA agentique devrait atteindre 98,26 milliards de dollars d’ici 2033.

L’attrait est évident : au lieu d’écrire chaque étape d’un flux de travail, les développeurs peuvent déployer un réseau de travailleurs IA pour gérer des opérations complexes. Un agent recherche, un autre rédige, un autre révise, et un coordinateur combine les résultats.

Mais construire ces systèmes s’avère plus difficile que prévu — et dans certains cas, contreproductif.

Quand plus d’agents a empiré les choses

Pour comprendre comment les systèmes d’agents se mettent à l’échelle, les chercheurs de Google ont testé 180 configurations multi-agents différentes à travers quatre benchmarks, évaluant cinq architectures canoniques d’agents — agent unique et quatre variantes multi-agents (indépendant, centralisé, décentralisé et hybride) — instanciées dans trois familles de LLM.

Les résultats étaient contre-intuitifs.

Pour les tâches pouvant être facilement divisées en sous-tâches indépendantes — comme l’analyse financière où chaque agent examine une entreprise différente — les systèmes multi-agents ont obtenu d’excellents résultats. Dans les benchmarks de raisonnement financier, la coordination centralisée a amélioré les résultats d’environ 80,9 % par rapport à un agent unique.

Mais lorsque les tâches nécessitaient un raisonnement séquentiel, où chaque étape dépend de la précédente, les performances se sont effondrées.

Dans ces scénarios, chaque architecture multi-agent testée a été moins performante que la baseline à agent unique — parfois jusqu’à 70 %.

Le problème ne venait pas des agents individuels. C’était la collaboration elle-même.

Le problème de coordination

Lorsque plusieurs agents collaborent, ils doivent constamment échanger des informations. Chaque agent ne reçoit qu’un contexte partiel, ce qui signifie qu’il doit s’appuyer sur les résumés d’autres agents pour comprendre l’ensemble du problème.

Ce processus crée un phénomène que les chercheurs décrivent comme la fragmentation de l’information.

À mesure que l’information circule entre les agents, les détails sont compressés ou perdus. De petits malentendus se propagent alors à travers le système. Un agent peut mal interpréter la sortie d’un autre agent, générant un résultat erroné que l’agent suivant traite comme un fait.

L’effet ressemble au jeu du téléphone arabe, où un message se déforme progressivement en passant de personne en personne — sauf que dans les systèmes IA, la distorsion se produit à la vitesse de la machine et peut se multiplier de façon exponentielle.

Les chercheurs de Google ont constaté que la surcharge de communication fragmentait le processus de raisonnement, laissant un « budget cognitif » insuffisant pour la tâche réelle. Dans certaines architectures étudiées, les agents indépendants amplifiaient significativement les erreurs par rapport aux approches de coordination centralisée. Les chercheurs ont attribué cela à la tension fondamentale entre l’autonomie des agents et la cohérence du système : plus les agents opèrent de manière indépendante, plus le risque que leurs erreurs individuelles se combinent plutôt que de s’annuler est grand.

Parallèle versus séquentiel : la distinction clé

La recherche met en lumière une distinction critique qui détermine si les systèmes multi-agents aident ou nuisent.

Les tâches parallèles peuvent être divisées en sous-tâches indépendantes que plusieurs agents gèrent simultanément. Les exemples incluent l’analyse de plusieurs documents, l’exécution de requêtes de données distribuées ou l’évaluation de différents scénarios en parallèle. Parce que les agents travaillent indépendamment et combinent les résultats ensuite, la collaboration peut véritablement améliorer les performances.

Les tâches séquentielles nécessitent un raisonnement strict étape par étape où chaque étape dépend de la précédente. Les exemples incluent le débogage logiciel, la planification stratégique, les longues chaînes de raisonnement et les processus de décision multi-étapes. Ces tâches dépendent du maintien d’un contexte cohérent à chaque étape — quelque chose qui devient considérablement plus difficile lorsque plusieurs agents sont impliqués.

La conclusion n’est pas que les systèmes multi-agents sont inutiles. C’est que la structure de la tâche détermine si l’ajout d’agents aide ou nuit. Ajouter des agents à un problème parallèle peut accélérer les résultats. Ajouter des agents à un problème séquentiel peut les détruire.

Advertisement

Pourquoi l’industrie croyait le contraire

L’hypothèse selon laquelle plus d’agents équivaut à de meilleurs résultats n’est pas apparue au hasard.

Pendant des années, le schéma dominant en IA a été que la mise à l’échelle améliore les performances. Des modèles plus grands sont plus performants. Plus de données d’entraînement améliore la précision. Plus de puissance de calcul produit de meilleurs résultats. Il semblait logique que plus d’agents suivraient la même règle.

Des recherches antérieures sur la collaboration IA avaient montré que des équipes de modèles pouvaient surpasser des modèles individuels grâce au raisonnement collectif — un résultat qui renforçait l’instinct de construire des réseaux d’agents plus importants.

Mais ces expériences portaient souvent sur des tâches qui bénéficient naturellement de la parallélisation. Les nouvelles recherches suggèrent que la structure de la tâche compte plus que le nombre d’agents.

La distinction est subtile mais importante : la mise à l’échelle fonctionne lorsque vous ajoutez de la capacité indépendante. Elle échoue lorsque vous ajoutez de la surcharge de coordination à un processus intrinsèquement séquentiel.

Confirmation dans le monde réel

Les études universitaires ne sont pas le seul endroit où apparaissent les limites du multi-agent.

Dans une expérience menée en 2025 par Microsoft Research appelée Magentic Marketplace, les chercheurs ont construit une place de marché en ligne simulée peuplée entièrement d’agents IA agissant comme acheteurs et vendeurs. L’expérience impliquait 100 agents côté client interagissant avec 300 agents côté entreprise à travers des tâches comme la commande d’un dîner selon les préférences de l’utilisateur.

Les résultats ont révélé plusieurs faiblesses : les agents peinaient à coordonner les rôles lorsqu’on leur demandait de collaborer vers un objectif commun, les performances se dégradaient fortement à mesure que les agents clients se voyaient offrir plus d’options, et les entreprises pouvaient utiliser certaines techniques pour manipuler les agents clients afin qu’ils achètent leurs produits. Les chercheurs ont conclu que les agents IA nécessitent encore un guidage humain significatif pour fonctionner efficacement dans des environnements complexes et ouverts.

Des schémas similaires sont apparus dans les déploiements en entreprise. Selon une recherche du Boston Consulting Group sur l’IA agentique, les entreprises déployant des systèmes multi-agents font face à des échecs de coordination, une dérive des objectifs et des comportements émergents difficiles à prévoir. Le BCG souligne que les environnements de test doivent faire émerger ces problèmes d’interaction multi-agents, et une enquête de MIT Sloan/BCG auprès de dirigeants a révélé que 69 % d’entre eux estiment que l’IA agentique nécessite des approches de gestion entièrement nouvelles.

La renaissance de l’agent unique

Ces résultats déclenchent un changement discret dans l’architecture de l’IA.

Les grands modèles de langage modernes disposent désormais d’énormes fenêtres de contexte — certaines dépassant un million de tokens — ainsi que de capacités de raisonnement améliorées et d’une utilisation d’outils intégrée. Grâce à ces améliorations, un agent unique puissant peut parfois surpasser des équipes d’agents complexes simplement en maintenant un contexte cohérent tout au long d’une tâche.

Certains chercheurs soutiennent que les futurs systèmes IA pourraient davantage s’appuyer sur des agents uniques puissants dotés de capacités de planification sophistiquées, augmentés par une utilisation ciblée d’outils, plutôt que sur de vastes réseaux d’agents spécialisés.

L’ancien directeur IA de Tesla, Andrej Karpathy, a argué que les agents IA actuels sont cognitivement déficients et que résoudre les problèmes liés aux agents prendra une décennie — suggérant que des systèmes individuels plus simples et plus performants pourraient surpasser l’orchestration multi-agent complexe dans de nombreux scénarios pratiques actuels.

Quand les systèmes multi-agents restent pertinents

Malgré ces défis, les architectures multi-agents restent précieuses dans des contextes spécifiques.

Elles fonctionnent bien lorsque les tâches peuvent être véritablement parallélisées : recherche distribuée à travers de multiples sources, analyse de données à grande échelle, surveillance de systèmes complexes comportant de nombreux composants indépendants, et simulations impliquant de nombreux acteurs.

L’enseignement clé est que l’architecture des agents doit correspondre à la structure de la tâche. Déployer un système multi-agent sur un problème séquentiel n’est pas seulement inefficace — cela peut activement dégrader les performances.

Les chercheurs explorent maintenant de nouvelles stratégies pour atténuer les coûts de coordination, notamment des systèmes centralisés basés sur un gestionnaire où un agent supervise les autres, des protocoles de communication améliorés comme Agent2Agent (A2A), et de meilleurs algorithmes pour déterminer automatiquement si une tâche doit être traitée par un seul agent ou par plusieurs.

La leçon

L’engouement autour des agents IA a conduit de nombreux développeurs à supposer que la construction de grandes équipes d’agents autonomes est l’avenir inévitable de l’intelligence artificielle.

Mais la recherche raconte une histoire différente. Ajouter plus d’agents peut augmenter la surcharge de communication, fragmenter l’information, amplifier les erreurs et dégrader les performances globales.

Dans certaines tâches, un agent IA unique bien conçu peut surpasser un réseau entier d’agents collaborant ensemble.

La leçon n’est pas que les systèmes d’agents sont inutiles — mais que mettre à l’échelle l’intelligence est plus compliqué que simplement ajouter plus d’agents. Le véritable défi d’ingénierie est d’apprendre quand distribuer le travail et quand le centraliser.

À mesure que l’IA continue d’évoluer, les systèmes qui réussiront ne seront pas ceux qui comptent le plus d’agents. Ce seront ceux qui déploient la bonne architecture pour le bon problème.

Advertisement

Radar de Décision (Prisme Algérie)

Dimension Évaluation
Pertinence pour l’Algérie Élevée — Les entreprises et startups algériennes adoptant des agents IA doivent comprendre que la mise à l’échelle naïve du multi-agent gaspille des ressources et dégrade les résultats
Infrastructure prête ? Partielle — L’infrastructure de calcul et cloud de l’Algérie est limitée, rendant les architectures efficaces à agent unique encore plus précieuses que sur les marchés bien dotés en ressources
Compétences disponibles ? Non — Peu d’ingénieurs IA algériens ont une expérience pratique de la conception de systèmes multi-agents ou de l’évaluation de quand les architectures multi-agent vs. agent unique sont appropriées
Calendrier d’action Immédiat — Les équipes construisant actuellement des flux de travail d’agents IA devraient auditer si les configurations multi-agents sont justifiées par la structure de la tâche
Parties prenantes clés Équipes d’ingénierie IA, directeurs techniques des entreprises technologiques algériennes, laboratoires de recherche IA universitaires, unités de transformation numérique de Sonatrach et Sonelgaz
Type de décision Tactique — Utiliser l’analyse de la structure des tâches pour choisir la bonne architecture d’agent avant d’investir dans une orchestration multi-agent complexe

Quick Take : Les organisations algériennes qui explorent les agents IA devraient privilégier par défaut les architectures à agent unique pour les tâches de raisonnement séquentiel et ne déployer des systèmes multi-agents que pour des charges de travail véritablement parallélisables. Compte tenu des ressources de calcul limitées de l’Algérie, éviter la surcharge inutile du multi-agent peut produire de meilleurs résultats à moindre coût.

Sources et lectures complémentaires