En bref : Trois des figures les plus influentes de l’IA — Dario Amodei d’Anthropic, Demis Hassabis de DeepMind et l’ancien scientifique de Meta Yann LeCun — sont publiquement divisés sur quand, comment et si l’IA de niveau humain arrivera. Leurs désaccords révèlent plus qu’une opinion personnelle ; ils exposent des visions fondamentalement différentes de ce qu’est l’intelligence elle-même. Et LeCun a désormais mis son propre argent en jeu, quittant Meta pour construire l’alternative.
Le désaccord le plus conséquent de la tech
Quand les trois personnes les plus responsables de la trajectoire de l’intelligence artificielle ne peuvent pas s’accorder sur la question de savoir si l’IA de niveau humain est à deux ans ou à deux décennies, le reste d’entre nous a un problème. Non pas parce que nous avons besoin d’une date précise, mais parce que des décisions d’investissement de mille milliards de dollars, des stratégies nationales d’IA et la planification de la main-d’oeuvre dépendent toutes du calendrier auquel vous croyez.
En janvier 2026, le débat sur le calendrier de l’AGI est passé de la spéculation de conférence à quelque chose de plus proche d’un règlement de comptes public. Au Forum économique mondial de Davos, le CEO d’Anthropic Dario Amodei et le CEO de DeepMind Demis Hassabis se sont assis avec la rédactrice en chef de The Economist Zanny Minton Beddoes pour une session intitulée « The Day After AGI » et ont présenté des prévisions étonnamment différentes. Pendant ce temps, Yann LeCun — qui a quitté Meta en novembre 2025 après douze ans pour fonder AMI Labs — est arrivé à Davos non pas en tant que scientifique d’entreprise mais en tant que fondateur de startup, faisant le plaidoyer le plus agressif à ce jour selon lequel le paradigme entier des grands modèles de langage est une impasse pour atteindre l’intelligence de niveau humain.
Ce qui suit n’est pas un résumé d’impressions. C’est un bilan précis de ce que chaque leader a réellement affirmé, du raisonnement derrière ses positions, et de ce que les désaccords nous disent sur la direction réelle de l’IA.
Amodei : l’IA remplace les ingénieurs logiciels d’ici un an
Dario Amodei est devenu la voix grand public la plus agressive sur les calendriers AGI à court terme — une position notable pour quelqu’un qui met simultanément en garde bruyamment sur les risques de sécurité de l’IA.
À Davos, Amodei a déclaré sans détour que les modèles IA remplaceraient le travail de tous les développeurs logiciels dans un délai d’un an et atteindraient une capacité de recherche scientifique de niveau Nobel dans plusieurs domaines dans un délai de deux ans. Il est allé plus loin : dans cinq ans, cinquante pour cent des emplois de cols blancs disparaîtraient.
Amodei a fondé cette affirmation non pas sur des arguments théoriques mais sur ce qu’il observe au sein des propres équipes d’ingénierie d’Anthropic. Il a décrit des ingénieurs de l’entreprise qui ont effectivement cessé d’écrire du code eux-mêmes, s’appuyant plutôt sur des modèles IA pour gérer l’implémentation tandis que les humains révisent, corrigent et améliorent le résultat. Son estimation : dans six à douze mois, les modèles IA seront capables d’accomplir la majeure partie de ce que fait un ingénieur logiciel, de bout en bout.
Ce n’est pas une prédiction concernant un jalon de recherche lointain. C’est une déclaration sur la vélocité actuelle. Amodei observe sa propre main-d’oeuvre se transformer en temps réel et extrapole à partir de ce taux de changement observé.
La logique est séduisante dans sa simplicité. Si les modèles peuvent déjà écrire la majeure partie du code dans l’un des laboratoires IA les plus sophistiqués au monde, et si le rythme d’amélioration ne montre aucun signe de décélération, alors l’écart entre les capacités actuelles et quelque chose ressemblant à l’intelligence générale paraît plus étroit que ne le supposent la plupart des observateurs extérieurs.
Mais il y a une hypothèse critique intégrée dans le cadrage d’Amodei : que le chemin d’« excellent en codage » à « généralement intelligent » est une pente continue plutôt qu’une série de falaises. Le codage est un domaine avec des spécifications claires, des sorties testables et des données d’entraînement massives. L’intelligence, au sens large, opère dans des domaines où aucune de ces propriétés ne s’applique.
Hassabis : 50 % de chance d’ici la fin de la décennie
Demis Hassabis, le CEO de Google DeepMind et co-lauréat du prix Nobel de chimie 2024 pour la percée d’AlphaFold dans la prédiction de la structure des protéines, a proposé une calibration nettement différente. Son estimation : une probabilité de cinquante pour cent qu’un système capable d’exhiber toutes les capacités cognitives que possèdent les humains existe d’ici la fin de la décennie. Cela place son calendrier médian autour de 2029 ou 2030 — significativement plus loin que ce que le cadrage d’Amodei suggère.
Hassabis a également répondu directement à l’idée que les systèmes actuels sont proches, déclarant que l’IA actuelle est « loin » de l’intelligence artificielle générale de niveau humain et que l’atteindre nécessiterait « une ou deux percées supplémentaires ».
La distinction que Hassabis a tracée est cruciale et révèle une compréhension plus profonde de là où les systèmes actuels peinent réellement. Le codage et les mathématiques, a-t-il argumenté, sont comparativement plus faciles à automatiser précisément parce qu’ils sont vérifiables. On peut vérifier si le code s’exécute. On peut vérifier si une preuve est valide. La boucle de rétroaction est serrée et sans ambiguïté.
La science naturelle est différente. Comprendre la biologie, la chimie et la physique à un niveau qui constitue une intelligence véritable nécessite la capacité de concevoir et d’évaluer des expériences dans le monde physique. On ne peut pas vérifier une hypothèse sur la dynamique du repliement des protéines uniquement par génération de texte. Il faut des laboratoires humides, des instruments de mesure et la capacité de raisonner sur la causalité physique d’une manière que les modèles actuels ne maîtrisent pas. Hassabis a souligné que trouver la question ou la théorie est bien plus difficile que résoudre des problèmes existants — et que générer des percées scientifiques originales reste au-delà des capacités actuelles de l’IA.
Ce n’est pas du pinaillage pédant. C’est un argument structurel sur les limites du scaling des modèles de langage. Hassabis dit que les domaines où l’IA paraît la plus impressionnante en ce moment — code, mathématiques, texte — sont précisément les domaines où la vérification est la moins coûteuse. Le problème le plus difficile est de construire des systèmes qui peuvent raisonner de manière fiable sur le monde réel, désordonné, non structuré et causalement complexe.
Notamment, Hassabis n’est pas un sceptique. Une chance de cinquante pour cent d’IA de niveau humain dans quatre à cinq ans est une affirmation extraordinairement audacieuse selon les standards historiques. Mais son cadrage implique que le dernier kilomètre — passer de la performance surhumaine étroite dans les domaines vérifiables à la cognition générale véritable — pourrait être le tronçon le plus difficile de tous.
Advertisement
LeCun : les LLM sont une impasse — et il a quitté Meta pour le prouver
Yann LeCun occupe la position la plus contrariante parmi les trois, et fin 2025 il a fait quelque chose que ni Amodei ni Hassabis n’a fait : il a misé sa carrière dessus. Après douze ans chez Meta — cinq en tant que directeur fondateur de Facebook AI Research et sept en tant que scientifique en chef de l’IA — LeCun a annoncé son départ en novembre 2025 pour fonder AMI Labs (Advanced Machine Intelligence), une startup visant une valorisation pré-lancement de 3,5 milliards de dollars. L’entreprise a son siège à Paris, avec des bureaux prévus à Montréal, New York et Singapour, et le CEO Alex LeBrun (précédemment cofondateur de la startup d’IA santé Nabla) dirige les opérations.
Le lauréat du prix Turing a soutenu tout au long de 2025 et en 2026 que les grands modèles de langage, quelle que soit leur échelle, n’atteindront jamais l’intelligence de niveau humain. Non pas parce qu’ils manquent de données ou de puissance de calcul, mais parce qu’ils n’ont pas la bonne architecture.
La critique de LeCun est centrée sur une limitation fondamentale : les LLM opèrent entièrement dans l’espace du langage. Ils prédisent des tokens. Ils ne construisent pas de modèles internes du fonctionnement du monde physique. Un enfant qui n’a jamais lu un livre comprend que les objets non soutenus tombent, que pousser une balle la fait rouler, que les récipients contiennent des liquides. Cette physique intuitive — ce que les psychologues du développement appellent la connaissance fondamentale — n’est pas quelque chose qu’on acquiert à partir de texte. Les LLM, selon lui, sont un empilement de corrélations statistiques dépourvues de bon sens et de relations causales.
Son alternative proposée est l’architecture prédictive à embeddings joints, ou JEPA, un cadre qu’il a présenté dans un article de position en 2022. JEPA apprend en prédisant des représentations abstraites d’entrées sensorielles plutôt qu’en reconstruisant les données brutes pixel par pixel. Contrairement aux LLM, JEPA peut traiter des données multimodales — vidéo, images, flux de capteurs — et prédit les changements dans des états abstraits plutôt que le mot suivant. L’objectif est de construire des systèmes qui développent le type de modèles du monde qu’utilise l’intelligence biologique : des représentations comprimées, abstraites et causales du fonctionnement des choses.
LeCun soutient que l’IA doit évoluer par quelque chose qui s’apparente au chemin emprunté par l’intelligence biologique — ancré dans l’interaction physique, l’expérience sensorielle et la capacité de planifier dans des espaces de représentation abstraite. Le langage, selon lui, est une capacité arrivée tardivement, superposée à une machinerie cognitive bien plus profonde. Construire l’intelligence sur le seul langage revient à essayer de construire une maison en commençant par le toit.
Cette position met LeCun fondamentalement en opposition avec Amodei et Hassabis. Là où ils débattent des calendriers — si l’IA de niveau humain arrive dans deux ans ou cinq — LeCun questionne si l’approche actuelle peut y parvenir tout court, quel que soit le calendrier. Il ne dit pas que l’AGI est lointaine. Il dit que l’industrie roule avec confiance vers la mauvaise destination. Et avec AMI Labs, il construit désormais la route vers ce qu’il considère comme la bonne.
Ce que révèle réellement le désaccord
La lecture de surface est que trois personnes intelligentes sont en désaccord sur une date. La lecture plus profonde est qu’elles sont en désaccord sur ce qu’est l’intelligence.
Le cadrage d’Amodei traite implicitement l’intelligence comme un ensemble de performances sur des tâches. Si un modèle peut coder, raisonner, écrire, analyser des données et faire de la recherche, alors il approche de l’intelligence générale. C’est une vision pragmatique, centrée sur les capacités. C’est aussi la vision la plus alignée avec les incitations commerciales : si votre produit est un assistant IA, alors l’AGI est tout ce qui rend cet assistant maximalement utile.
Hassabis ajoute une contrainte cruciale : l’intelligence doit inclure la capacité de raisonner sur le monde physique d’une manière qui ne peut pas être vérifiée par le seul texte. Cela reflète sa formation scientifique et le parcours de DeepMind avec des systèmes comme AlphaFold, où la preuve résidait dans la validation expérimentale, pas dans la performance sur des benchmarks.
LeCun va plus loin, argumentant que sans modèles du monde ancrés, aucune quantité de capacité linguistique ne constitue de l’intelligence. C’est la position la plus rigoureuse académiquement, mais c’est aussi la plus commercialement gênante, puisqu’elle implique que l’investissement de plusieurs centaines de milliards de dollars dans le scaling des LLM pourrait être un détour technologique plutôt qu’un chemin vers l’AGI. Le fait que LeCun lève désormais des centaines de millions pour construire l’alternative fait de cela plus qu’un argument académique — c’est un signal de marché.
Les enjeux au-delà du débat
Pour les décideurs — qu’ils soient dans le gouvernement, l’entreprise ou la planification de la main-d’oeuvre — les implications pratiques de ces positions divergent de manière dramatique.
Si Amodei a raison, les organisations ont douze à vingt-quatre mois pour restructurer fondamentalement la façon dont le travail intellectuel est effectué. La transformation sera rapide et déstabilisante.
Si Hassabis a raison, il y a une fenêtre de quatre à cinq ans pendant laquelle les capacités de l’IA continuent de s’étendre de manière impressionnante mais restent limitées par le problème de la vérifiabilité. Les organisations devraient investir massivement mais planifier une transition plus longue.
Si LeCun a raison, la génération actuelle de LLM va plafonner d’une manière qui surprendra leurs avocats les plus enthousiastes, et les vraies percées viendront d’un paradigme architectural différent — modèles du monde, JEPA, ou quelque chose qui reste à inventer — qui pourrait prendre une décennie ou plus pour mûrir.
La réponse honnête est que personne ne sait. Mais la forme du désaccord nous dit quelque chose d’important : les personnes qui construisent ces systèmes ne partagent pas une compréhension commune de ce vers quoi elles construisent. Cette incertitude est elle-même un signal que le reste d’entre nous devrait être profondément sceptique envers quiconque affirme avec certitude des calendriers AGI — y compris les personnes qui construisent les modèles.
Ce qu’il faut surveiller
Trois indicateurs aideront à clarifier quelle vision est la plus proche de la réalité au cours des douze prochains mois.
Premièrement, surveillez le plafonnement du codage. Si Amodei a raison, le code généré par IA devrait passer de « écrit bien des fonctions » à « architecte des systèmes entiers de manière autonome » courant 2026. Si le progrès stagne au niveau des fonctions, l’extrapolation s’effondre.
Deuxièmement, surveillez les benchmarks de raisonnement scientifique. Si les systèmes IA commencent à apporter des contributions véritablement nouvelles à la science expérimentale — pas seulement analyser des données existantes mais concevoir des expériences qui produisent de nouvelles connaissances — le calendrier de Hassabis gagne en crédibilité.
Troisièmement, surveillez AMI Labs. La startup de LeCun a la crédibilité d’un lauréat du prix Turing et près de 600 millions de dollars d’objectif de levée de fonds derrière elle. Si son équipe démontre des systèmes avec un raisonnement physique significativement meilleur que les LLM de taille comparable, l’argument architectural devient plus difficile à rejeter. Si les systèmes basés sur JEPA restent en laboratoire tandis que les LLM continuent de s’améliorer, la position de LeCun s’affaiblit indépendamment de son élégance théorique.
Le débat sur l’AGI n’est pas un exercice philosophique abstrait. C’est la question de prévision technologique la plus conséquente de la décennie. Les trois personnes les plus proches de la frontière ne peuvent pas s’accorder. Ce désaccord mérite votre attention plus que n’importe quelle prédiction isolée.
Advertisement
🧭 Radar de Décision (Perspective Algérie)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — La stratégie IA de l’Algérie et ses programmes universitaires devraient suivre ces débats pour aligner les investissements avec les trajectoires technologiques les plus plausibles plutôt que les cycles de hype |
| Infrastructure prête ? | Partielle — L’Algérie dispose d’une capacité de calcul croissante mais manque des clusters GPU avancés nécessaires à la recherche IA de pointe ; plus pertinent en tant que consommateur et adaptateur du paradigme qui l’emportera |
| Compétences disponibles ? | Partielles — Les universités algériennes produisent de solides diplômés en informatique, mais le talent de recherche IA spécialisé (en particulier dans des domaines comme les modèles du monde ou les systèmes de raisonnement scientifique) reste rare |
| Calendrier d’action | 12-24 mois — Surveiller quelle trajectoire se matérialise ; aucune action politique immédiate requise, mais les programmes de reconversion de la main-d’oeuvre devraient commencer à intégrer des calendriers de capacité IA accélérés |
| Parties prenantes clés | Ministère de l’Économie numérique, laboratoires de recherche IA universitaires, startups tech algériennes construisant sur des API LLM, agences de développement de la main-d’oeuvre |
| Type de décision | Stratégique / Éducatif |
En bref : L’Algérie devrait éviter de parier sa stratégie IA sur une seule prédiction de calendrier. Le désaccord entre les leaders des laboratoires de pointe signifie que la flexibilité a plus de valeur que la conviction en ce moment. Les institutions algériennes devraient investir dans la littératie IA et les compétences IA appliquées qui restent précieuses que l’AGI arrive dans trois ans ou quinze, tout en surveillant les indicateurs de plafonnement du codage et de raisonnement scientifique qui clarifieront la trajectoire.
Sources et lectures complémentaires
- AI Luminaries at Davos Clash Over How Close Human-Level Intelligence Really Is — Fortune
- The Day After AGI: Dario Amodei and Demis Hassabis — World Economic Forum
- Meta Chief AI Scientist Yann LeCun Is Leaving to Create His Own Startup — CNBC
- Yann LeCun’s New Venture Is a Contrarian Bet Against Large Language Models — MIT Technology Review
- Who’s Behind AMI Labs, Yann LeCun’s World Model Startup — TechCrunch
- A Path Towards Autonomous Machine Intelligence — Yann LeCun (2022)





Advertisement