IA & AutomatisationCybersécuritéCloudCompétencesPolitiqueStartupsÉconomie Numérique

Six Types de Problèmes Difficiles : Un Cadre pour Ce que l’IA Peut et Ne Peut Pas Automatiser

février 27, 2026

six-types-hard-problems-ai-automation

À chaque sortie d’un nouveau modèle IA, la même conversation éclate : est-il plus intelligent que le précédent ? Va-t-il prendre mon emploi ? Quel benchmark a-t-il écrasé ?

Ce sont les mauvaises questions. Elles traitent l’intelligence comme un axe unique — plus ou moins — alors que la réalité est bien plus nuancée. La difficulté d’un problème n’est pas une dimension unique. Elle compte au moins six dimensions distinctes, et l’IA les automatise selon des calendriers radicalement différents.

Comprendre ce cadre ne changera pas seulement votre façon d’évaluer la prochaine sortie de modèle. Cela changera aussi votre façon d’évaluer votre propre carrière.

Le Mythe de l’Intelligence Monolithique

Quand Google a publié Gemini 3.1 Pro en février 2026 et qu’il a dominé 13 des 16 comparaisons directes contre Claude Opus 4.6 d’Anthropic et o3-ultra d’OpenAI, la réaction naturelle a été de le qualifier de « modèle le plus intelligent ». Sur ARC AGI-2 — un test conçu spécifiquement pour mesurer le raisonnement novateur qui ne peut être résolu par simple reconnaissance de patterns — Gemini 3.1 Pro a obtenu 18,2 %, doublant presque le meilleur score précédent de 9,8 % en une seule génération. Le plus grand saut de capacité de raisonnement novateur jamais mesuré en une seule génération.

Impressionnant. Mais voici la question inconfortable qui suit : cela en fait-il le meilleur modèle pour votre travail ?

Presque certainement pas. Parce que votre travail n’est probablement pas bloqué par le raisonnement novateur. Il est bloqué par autre chose entièrement — la coordination, l’ambiguïté, l’expertise de domaine, l’effort soutenu ou l’intelligence émotionnelle. Et ce sont tous des types de difficultés différents, automatisés selon des calendriers complètement différents.

L’erreur critique que font la plupart des professionnels et des organisations est d’évaluer les capacités IA comme un monolithe. « L’IA devient-elle plus intelligente ? » est aussi imprécis que de demander « cet athlète s’améliore-t-il ? » sans préciser si vous parlez de sa vitesse au sprint, de son endurance, de sa pensée stratégique ou de sa capacité à performer sous pression. Un grand maître des échecs et un chirurgien de traumatologie sont tous deux brillants. Leur brillance n’a presque rien en commun.

Il en va de même pour les problèmes que l’IA apprend à résoudre.

Les Six Types de Difficultés

Type 1 : Difficile par le Raisonnement

Pouvez-vous résoudre cette preuve mathématique ? Pouvez-vous trouver la faille logique dans cet argument juridique ? Pouvez-vous tracer un système distribué complexe pour localiser le bug ?

Les problèmes difficiles par le raisonnement requièrent des chaînes soutenues d’inférence logique. Ils exigent la capacité de tenir plusieurs variables à l’esprit simultanément, de suivre des implications sur de nombreuses étapes et d’arriver à des conclusions qui sont vérifiablement correctes ou incorrectes.

Calendrier d’automatisation : Maintenant. C’est le type de difficulté que les modèles IA actuels automatisent le plus rapidement. La capacité Deep Think de Gemini 3.1 Pro — des chaînes de raisonnement étendues où le modèle travaille un problème étape par étape, parfois pendant des minutes, avant de produire une réponse — représente un changement de palier dans le raisonnement pur. Le modèle a réfuté des conjectures mathématiques ouvertes que des mathématiciens professionnels n’avaient pas réussi à résoudre et a détecté des erreurs dans des articles scientifiques publiés et revus par des pairs.

Si votre valeur pour votre organisation repose principalement sur le fait que vous raisonnez de façon plus rigoureuse que vos collègues, vous êtes dans la catégorie la plus directement mise en cause par les avancées IA actuelles.

Type 2 : Difficile par l’Effort

Pouvez-vous examiner 500 contrats à la recherche de la même clause de responsabilité ? Pouvez-vous traiter 10 000 entrées de données en vérifiant les incohérences ? Pouvez-vous maintenir une concentration pendant huit heures sur une tâche fastidieuse mais pas intellectuellement exigeante ?

Les problèmes difficiles par l’effort ne sont pas cognitivement complexes. Ils sont exigeants en volume. La difficulté réside dans le maintien de l’attention et de la précision sur une exécution répétitive à grande échelle.

Calendrier d’automatisation : Maintenant, via les modèles agentiques. La génération actuelle de systèmes IA agentiques — des modèles capables de soutenir un travail pendant des heures ou des jours sur des tâches étendues — est précisément construite pour cela. Les modèles agentiques comme Opus 4.6 et Codex d’OpenAI sont conçus pour l’effort soutenu sur de longues tâches : génération de code sur des dépôts entiers, révision de documents à grande échelle, pipelines de traitement de données s’exécutant pendant des heures.

Si votre travail est principalement difficile par l’effort, l’automatisation n’arrive pas. Elle est là.

Type 3 : Difficile par la Coordination

Pouvez-vous aligner douze parties prenantes dans quatre départements pour s’accorder sur une spécification produit ? Pouvez-vous gérer les dépendances entre trois équipes d’ingénierie travaillant sur des systèmes interconnectés ? Pouvez-vous naviguer dans les priorités concurrentes d’une organisation matricielle pour faire financer un projet ?

Les problèmes difficiles par la coordination exigent de comprendre de multiples perspectives, de gérer les asymétries d’information, de négocier des compromis entre des parties aux incitations différentes et de maintenir l’alignement dans le temps à mesure que les circonstances changent.

Calendrier d’automatisation : Phases initiales, progression lente. Les systèmes IA multi-agents commencent à s’attaquer aux problèmes de coordination — orchestrer des flux de travail entre plusieurs agents IA, gérer les transferts, résoudre les conflits entre sorties d’agents. Mais la coordination dans les organisations implique de la politique, de la confiance, des accords implicites et des dynamiques sociales que les systèmes IA actuels modélisent à peine. Un système multi-agents peut coordonner l’exécution des tâches. Il ne peut pas naviguer dans les dynamiques non dites d’une négociation budgétaire interdépartementale.

Type 4 : Difficile par l’Expertise de Domaine

Pouvez-vous diagnostiquer cette maladie auto-immune rare au vu d’une présentation atypique des symptômes ? Pouvez-vous évaluer ce deal de fusion-acquisition au vu de votre connaissance des décisions prises par les régulateurs dans cette juridiction spécifique sur des transactions similaires ? Pouvez-vous prédire comment ce matériau composite se comportera sous des cycles thermiques soutenus ?

L’expertise de domaine comme difficulté requiert des connaissances accumulées au fil d’années de pratique — non pas seulement des informations, mais la reconnaissance de patterns qui vient d’avoir vu des centaines de cas, fait des erreurs et développé une intuition qui dépasse ce qui est écrit dans les manuels.

Calendrier d’automatisation : Lent, avec un écart persistant. Les modèles IA s’améliorent pour simuler l’expertise de domaine à travers les données d’entraînement. Un modèle frontier peut discuter de cardiologie ou de droit contractuel avec une aisance impressionnante. Mais il y a un écart significatif entre « avoir lu à ce sujet » et « l’avoir vécu ». Un ingénieur senior ne débogue pas plus vite parce qu’il raisonne mieux qu’un junior. Il débogue plus vite parce qu’il a déjà vu exactement cette stack trace, connaît les particularités non documentées de la bibliothèque et se souvient de l’incident en production de 2019 qui avait exactement la même cause racine.

Un avocat M&A vétéran n’évalue pas mieux les deals parce qu’il est plus intelligent. Il les évalue mieux parce qu’il a clôturé 300 transactions et a intériorisé quelles déclarations et garanties font réellement l’objet de litiges par rapport à celles qui sont du boilerplate que personne n’applique.

Ces connaissances « vécues » sont lentement absorbées dans les données d’entraînement, mais l’écart reste réel — en particulier dans les domaines à littérature publiée mince, où les connaissances les plus précieuses existent comme mémoire institutionnelle et intuition professionnelle plutôt que comme texte écrit.

Type 5 : Difficile par l’Ambiguïté

Pouvez-vous déterminer ce que le client veut réellement quand il dit qu’il veut que ça ait l’air « plus premium » ? Pouvez-vous décider quelle fonctionnalité produit construire ensuite quand les signaux de marché sont contradictoires ? Pouvez-vous prendre une décision d’embauche quand deux candidats sont forts dans des dimensions complètement différentes ?

Les problèmes difficiles par l’ambiguïté sont fondamentalement différents des types précédents. La difficulté n’est pas computationnelle. C’est qu’il n’y a pas de réponse objectivement correcte. La meilleure réponse dépend des valeurs, du contexte, de la stratégie organisationnelle, des dynamiques entre parties prenantes et de jugements qui ne peuvent pas être résolus par plus d’informations ou un meilleur raisonnement.

Calendrier d’automatisation : Très lent. C’est là que le jugement humain reste le plus irremplaçable. Les systèmes IA peuvent générer des options, faire remonter des données pertinentes et même articuler des compromis. Mais l’acte de formuler un jugement sous une incertitude réelle — où des personnes raisonnables seraient en désaccord, où la réponse dépend des valeurs plutôt que de la logique — reste obstinément humain.

C’est aussi, non par coïncidence, là que se produit le travail de connaissance le plus précieux. Les décisions qui façonnent les organisations ne sont pas celles qui ont des réponses clairement correctes. Ce sont celles qui exigent de naviguer dans l’ambiguïté.

Type 6 : Difficile par l’Intelligence Émotionnelle

Pouvez-vous sentir qu’un membre de l’équipe approche du burnout même s’il insiste qu’il va bien ? Pouvez-vous naviguer dans la politique d’un conseil d’administration où deux directeurs ont des agendas contradictoires qu’ils n’ont pas énoncés ? Pouvez-vous délivrer un feedback de performance dévastateur d’une façon qui motive plutôt que démoralise ?

Les problèmes difficiles par l’intelligence émotionnelle exigent de lire les gens — leurs préoccupations non dites, leurs états émotionnels, leurs dynamiques sociales, leurs motivations — et de répondre de façon situationnellement appropriée et relationnellement efficace.

Calendrier d’automatisation : Le plus éloigné. Les systèmes IA actuels peuvent simuler l’empathie dans les textes. Ils peuvent adopter un ton approprié et exprimer de la sollicitude. Mais l’intelligence émotionnelle réelle — la lecture en temps réel d’une salle, la navigation dans les dynamiques interpersonnelles, le jugement sur quand pousser et quand reculer — requiert un type de conscience sociale située qui n’est nulle part près de l’automatisation.

Pourquoi Ce Cadre Change Tout

La puissance pratique de ce cadre est qu’il transforme l’anxiété vague face à l’IA (« va-t-elle prendre mon emploi ? ») en une analyse spécifique et actionnable.

Étape un : Auditez votre travail par type de problème. Passez une semaine à catégoriser chaque tâche que vous effectuez — non pas par sujet, mais par ce qui la rend difficile. Est-ce difficile par le raisonnement ? Par l’effort ? Par la coordination ? Par l’expertise de domaine ? Par l’ambiguïté ? Par l’aspect émotionnel ?

La plupart des professionnels découvriront que les tâches sur lesquelles ils passent le plus de temps ne sont pas les mêmes que celles qui les rendent les plus précieux. Un analyste financier peut passer 60 % de son temps sur des tâches difficiles par l’effort (traitement de données, compilation de rapports) et 20 % sur des tâches difficiles par l’ambiguïté (recommandations d’investissement sous incertitude). Les 60 % sont hautement automatisables aujourd’hui. Les 20 % sont la raison pour laquelle il a un emploi.

Étape deux : Arrêtez de demander « quel modèle est le meilleur ». La question est sans sens sans qualificatif de type de problème. Pour le raisonnement pur — preuves mathématiques, analyse logique, débogage complexe — Gemini 3.1 Pro avec Deep Think est probablement l’option actuelle la plus solide. Pour le travail de connaissance quotidien — rédaction, résumé, analyse conversationnelle — Claude et ChatGPT restent excellents et les différences sont marginales. Pour les tâches d’effort soutenu — génération de code longue, révision de documents, traitement de données — les modèles agentiques sont conçus pour ça.

Demander « quel modèle est le meilleur » revient à demander « quel véhicule est le meilleur » sans préciser si vous devez traverser un océan, naviguer dans une ville ou transporter du fret.

Étape trois : Investissez dans vos capacités les moins automatisables. Si votre valeur principale pour votre organisation est le raisonnement, vous êtes dans une course contre des modèles qui doublent leurs scores de raisonnement novateur en une seule génération. La trajectoire est claire. Vous ne perdrez pas cette course le prochain trimestre, peut-être pas l’année prochaine, mais la direction est indéniable.

Si votre valeur principale réside dans la navigation dans l’ambiguïté, la construction du consensus, la prise de décisions sous incertitude et le recours à une expertise de domaine profonde développée sur des années, vous êtes dans une position substantiellement plus solide. Ces capacités sont les plus difficiles à automatiser et les plus précieuses dans les contextes organisationnels.

Advertisement

Les Implications Organisationnelles

Ce cadre a des conséquences qui dépassent les carrières individuelles. Il redessine la façon dont les organisations devraient penser le déploiement de l’IA.

La plupart des entreprises déploient l’IA là où la technologie est la plus impressionnante dans les démonstrations — les tâches de raisonnement et d’effort. Elles automatisent la génération de rapports, l’analyse de données, la rédaction de contenu. Ce sont de vrais gains de productivité. Mais ce sont aussi les applications à plus faible valeur du cadre.

Les applications à plus haute valeur se trouvent dans les couches de coordination, d’ambiguïté et d’expertise de domaine — utiliser l’IA pour augmenter (pas remplacer) les capacités humaines dans les domaines où les décisions sont les plus conséquentes. Un système IA qui aide une équipe médicale à considérer des diagnostics différentiels qu’elle aurait pu manquer (augmentant l’expertise de domaine) ou qui fait remonter des signaux de marché contradictoires pour une équipe produit à évaluer (structurant l’ambiguïté) crée une valeur d’un ordre de magnitude différent de celui qui rédige des emails plus rapidement.

Les organisations qui ne déploient l’IA que sur les problèmes difficiles par le raisonnement et l’effort captureront une efficacité marginale. Celles qui apprennent à déployer l’IA comme complément aux capacités humaines dans les domaines difficiles par l’ambiguïté et la coordination captureront un avantage stratégique.

La Vérité Inconfortable sur les Benchmarks

Ce cadre explique aussi pourquoi les benchmarks IA sont de plus en plus trompeurs comme indicateurs d’impact dans le monde réel. Les benchmarks mesurent massivement les capacités difficiles par le raisonnement et l’effort. Ils testent les capacités mathématiques, la maîtrise du code, le rappel factuel et la déduction logique. Ce sont les types de difficultés les plus automatisables.

Les benchmarks ne mesurent pas — et ne peuvent pas structurellement mesurer — les types de difficultés qui comptent le plus dans les contextes organisationnels : la coordination sous complexité politique, le jugement sous ambiguïté réelle, l’intuition de domaine construite sur des années de pratique, l’intelligence émotionnelle dans des situations interpersonnelles à enjeux élevés.

Quand les scores de benchmark d’un modèle doublent, la réaction correcte n’est pas « l’IA est deux fois plus capable ». C’est « l’IA est deux fois plus capable aux types spécifiques de difficultés que les benchmarks mesurent, qui sont aussi les types automatisés le plus vite, qui sont aussi les types qui contribuent le moins au travail de connaissance le plus précieux ».

C’est un titre moins accrocheur. C’est un plus précis.

Ce Qui Vient Ensuite

Le cadre à six types n’est pas statique. Les frontières vont bouger. L’expertise de domaine s’érode plus rapidement dans les champs à littérature publiée riche (droit, médecine) que dans les champs à documentation mince (fabrication spécialisée, conseil de niche). La capacité de coordination avance à mesure que les architectures multi-agents mûrissent. Même la gestion de l’ambiguïté s’améliorera à mesure que les modèles développeront de meilleures représentations du contexte organisationnel.

Mais la hiérarchie des difficultés d’automatisation est peu susceptible de s’inverser. Le raisonnement et l’effort resteront les plus faciles à automatiser. L’intelligence émotionnelle et l’ambiguïté resteront les plus difficiles. Et les professionnels et organisations qui comprennent cette hiérarchie — qui investissent dans les capacités à l’extrémité difficile à automatiser et utilisent l’IA pour gérer le reste — seront ceux qui prospéreront dans les années à venir.

La question n’est plus de savoir si l’IA devient plus intelligente. Elle devient plus intelligente dans des types spécifiques d’intelligence, selon des calendriers spécifiques, avec des implications spécifiques pour des types spécifiques de travail. Le cadre est la stratégie.

Advertisement

🧭 Radar de Décision

Dimension Assessment
Pertinence pour l’Algérie Élevée — les professionnels et entreprises algériens ont besoin d’un cadre pour évaluer la vulnérabilité réelle face à l’IA plutôt que de réagir aux benchmarks
Infrastructure prête ? Partielle — les outils IA sont disponibles, mais la capacité organisationnelle à auditer le travail par type de problème n’est pas développée
Compétences disponibles ? Partielles — les professionnels algériens sont forts en expertise de domaine (hydrocarbures, agriculture, construction méditerranéenne) parmi les plus lentes à automatiser
Calendrier d’action 6-12 mois
Parties prenantes clés Professionnels individuels, DRH, services carrières universitaires, DSI évaluant la stratégie de déploiement IA
Type de décision Stratégique

En bref : Les professionnels algériens devraient auditer leur propre travail en utilisant le cadre à six types. Ceux dont la valeur repose sur une expertise de domaine approfondie — notamment dans des secteurs comme les hydrocarbures, l’agriculture et la connaissance réglementaire régionale — ont plus de marge de manœuvre qu’ils ne le pensent. Ceux dont la valeur est principalement dans le raisonnement ou l’effort devraient diversifier urgemment leur portefeuille de compétences.

Sources et lectures complémentaires

Laisser un commentaire

Advertisement