أغلى خلاف في تاريخ الذكاء الاصطناعي
تعاني صناعة الذكاء الاصطناعي من مشكلة إجماع. تراهن جميع المختبرات الكبرى تقريباً — OpenAI وAnthropic وGoogle DeepMind وxAI — بمليارات الدولارات على البنية الأساسية ذاتها: نماذج لغة كبيرة مدرّبة على النصوص، موسّعة إلى تريليونات المعاملات، تولّد الرموز واحداً تلو الآخر. السوق أصدر حكمه. المنتجات المبنية على نماذج اللغة الكبيرة تحقق إيرادات حقيقية. المسار يبدو حتمياً.
ثم يأتي Yann LeCun.
أحد ثلاثة باحثين حصلوا على جائزة ACM Turing لعام 2018 — إلى جانب Yoshua Bengio وGeoffrey Hinton — تقديراً لعملهم التأسيسي في التعلم العميق، أمضى LeCun أكثر من عقد في Meta يبني ما أصبح أحد أعرق مختبرات أبحاث الذكاء الاصطناعي في العالم: FAIR. لكنه على مدى السنوات الثلاث الماضية ظل يطرح حجة لا يريد أحد في Silicon Valley سماعها: نماذج اللغة الكبيرة طريق مسدود. ليست مرحلة انتقالية. ليست أساساً يُبنى عليه. طريق مسدود.
في نوفمبر 2025، جسّد LeCun قناعاته عملياً. غادر Meta بعد اثنتي عشرة سنة ليؤسس AMI Labs (مختبرات الذكاء الآلي المتقدم)، شركة ناشئة مقرها باريس تسعى لتقييم يبلغ 3.5 مليار دولار قبل أن تطلق منتجاً واحداً. مهمتها: بناء “نماذج عالمية” (World Models) — أنظمة ذكاء اصطناعي تفهم الفيزياء وتحتفظ بذاكرة مستمرة وتخطط لأفعال معقدة بدلاً من مجرد التنبؤ بالكلمة التالية.
الطريق نحو ذكاء اصطناعي بمستوى بشري، كما يرى LeCun، لا يمر عبر نماذج أكبر تتنبأ بالرمز التالي. بل يمر عبر شيء مختلف جذرياً — آلات تتعلم فهم العالم المادي بالطريقة التي يفهمه بها البشر والحيوانات. البنية التي يقترحها تُدعى JEPA: بنية التنبؤ المشترك في فضاء التمثيلات (Joint Embedding Predictive Architecture).
الحجة الجوهرية: لماذا التنبؤ بالرموز ليس فهماً
نقد LeCun لنماذج اللغة الكبيرة لا يتعلق بمعايير الأداء أو حالات الفشل المنتقاة. إنه نقد بنيوي. حجته تهاجم الآلية الأساسية التي تعمل بها هذه الأنظمة.
نماذج اللغة الكبيرة هي نماذج انحدارية ذاتية (Autoregressive). تتنبأ بالرمز التالي في تسلسل بناءً على جميع الرموز السابقة. هكذا يكتب GPT-4 المقالات، ويولّد Claude الشيفرة البرمجية، ويجيب Gemini عن الأسئلة. النهج يعمل بشكل مذهل في المهام اللغوية. لكن حجة LeCun هي أن التنبؤ بالرموز النصية مختلف جوهرياً عن فهم العالم الذي تصفه تلك النصوص.
تأمل سيناريو فيزيائياً بسيطاً: كرة تتدحرج من على طاولة. يفهم طفل صغير ما سيحدث بعد ذلك. الكرة ستسقط. الجاذبية ليست مفهوماً تعلّمه الطفل صراحةً — إنه شيء تعلّمه من خلال آلاف الساعات من التجربة الحسية، من مراقبة الأشياء وهي تتفاعل مع العالم. لقد بنى ما يسميه علماء الإدراك “نموذجاً عالمياً” (World Model): تمثيل داخلي لكيفية عمل الواقع المادي.
نموذج اللغة الكبير، في المقابل، عالج ملايين الأوصاف لكرات تسقط من على طاولات. يمكنه توليد فقرة متماسكة تماماً عن الجاذبية. لكن LeCun يرى أنه لا يملك نموذجاً داخلياً للواقع المادي. إنه يطابق أنماطاً نصية. المعرفة لغوية لا مترسّخة في الواقع. هذا التمييز مهم لأن اللغة تغطي جزءاً ضئيلاً للغاية من المعرفة البشرية. معظم ما يعرفه البشر عن العالم — العلاقات المكانية والديناميكيات الفيزيائية والسبب والنتيجة والحدس الاجتماعي — لم يُكتب أبداً. بل تمت معرفته من خلال التجربة الحسية المباشرة.
يقدّر LeCun هذه الفجوة بطريقة استفزازية. طفل بشري، كما يقدّر، يتلقى ما يقارب 10 أُس 14 بايت من البيانات الحسية عبر عينيه وحدهما خلال سنواته الأربع الأولى. مجمل النصوص المستخدمة لتدريب أكبر نماذج اللغة تمثل نحو 10 أُس 13 بايت. طفل في الرابعة من عمره عالج معلومات خام عن العالم أكثر من أي نموذج لغوي تم تدريبه. والأهم أن بيانات الطفل متعددة الحواس ومترسّخة في الواقع وتفاعلية — وليست نصوصاً ثابتة مستخرجة من الإنترنت.
JEPA: التنبؤ في فضاء التمثيلات
البديل الذي يقترحه LeCun، وهو JEPA، يمثل نهجاً مختلفاً جذرياً في التعلم. طُرح لأول مرة في ورقته البحثية الصادرة في يونيو 2022 بعنوان “مسار نحو ذكاء آلي مستقل”، وفيها يتنبأ JEPA بتمثيلات مجردة في فضاء تمثيلات مُتعلَّم بدلاً من تسلسلات دقيقة من الرموز.
الفارق جوهري. النماذج الانحدارية الذاتية يجب أن تتنبأ بكل تفصيل في مخرجاتها. عند توليد صورة بكسلاً ببكسل أو جملة كلمةً بكلمة، يتعين على النموذج الالتزام بتفاصيل محددة في كل خطوة. هذا يُجبره على نمذجة عدم اليقين حول تفاصيل غير ذات صلة — الدرجة الدقيقة للون بكسل، أو الاختيار المحدد لكلمة في إعادة صياغة — مما يستهلك سعة النموذج في معالجة الضوضاء بدلاً من البنية.
يتجاوز JEPA هذه المشكلة بالعمل في فضاء تمثيلات مضغوط. بدلاً من التنبؤ بأن “الكرة ستصطدم بالأرضية وتقفز مرتين وتتدحرج تحت الأريكة”، يتنبأ نظام JEPA بالمسار المجرد — الكرة ستتحرك نحو الأسفل، تصطدم بسطح، تفقد طاقة — دون الالتزام بتفاصيل منخفضة المستوى. هذا أقرب لطريقة تفكير البشر. عندما تتخيل رمي كرة، لا تقوم ذهنياً بعرض كل إطار من مسارها بدقة شبكية العين. بل تتنبأ بالنتيجة المجردة.
للبنية مكونان رئيسيان. أولاً، مشفّر (Encoder) يحوّل المدخلات الخام (صور، فيديو، صوت) إلى فضاء تمثيلات عالي الأبعاد. ثانياً، متنبئ (Predictor) يعمل بالكامل داخل فضاء التمثيلات ذاك، يتوقع الحالات المستقبلية دون العودة أبداً لفك التشفير إلى بيانات خام. يتعلم النموذج بمقارنة تمثيلاته المتوقعة مع التمثيلات الفعلية للحالات المستقبلية.
نتائج الأبحاث تتراكم بثبات. I-JEPA، المنشور عام 2023 والمقدَّم في مؤتمر CVPR، أظهر أن التنبؤ بتمثيلات أجزاء الصورة بدلاً من البكسلات ينتج تمثيلات تنتقل بشكل جيد إلى المهام اللاحقة. V-JEPA، الصادر عام 2024، وسّع هذا النهج ليشمل الفيديو، متعلماً الديناميكيات الزمنية من بيانات فيديو غير مُعنونة ومحققاً دقة 82.1% على مجموعة Kinetics-400 و71.2% على Something-Something v2 — متفوقاً على أحدث نماذج الفيديو السابقة. V-JEPA 2، الصادر من Meta في يونيو 2025، وصل إلى 1.2 مليار معامل مدرّب على أكثر من مليون ساعة فيديو، محققاً أداءً متقدماً في معايير التفكير الفيزيائي. وأخيراً، وسّع VL-JEPA البنية لتشمل مهام الرؤية واللغة معاً.
هذه لا تزال أنظمة بحثية وليست منتجات إنتاجية. لكن المسار من أجزاء الصورة إلى الفيديو إلى التفكير الفيزيائي إلى اللغة يمثل برنامجاً بحثياً متماسكاً يكتسب زخماً.
إعلان
مشكلة النظام 1 / النظام 2
يكتسب إطار LeCun عمقاً إضافياً عند النظر إليه من خلال نظرية العمليات المزدوجة لـ Daniel Kahneman — وهو ارتباط استكشفه LeCun علنياً، بما في ذلك في ندوة AAAI عام 2020 إلى جانب Kahneman وHinton وBengio.
يقسّم إطار Kahneman الإدراك البشري إلى النظام 1 (سريع، حدسي، تلقائي) والنظام 2 (بطيء، متعمّد، منطقي). التعرف على وجه هو النظام 1. حل مسألة رياضية جديدة هو النظام 2. نماذج اللغة الكبيرة الحالية، كما يرى LeCun، هي آلات نظام 1 بحتة. تولّد الاستجابات من خلال مطابقة الأنماط السريعة دون أي آلية للتفكير المتعمّد خطوة بخطوة في المشكلات الجديدة.
قد تبدو تقنيات سلسلة التفكير (Chain-of-Thought) وأوضاع التفكير الموسّع كأنها تضيف قدرات النظام 2، لكن LeCun يراها تجميلية. النموذج لا يزال يولّد رموزاً بطريقة انحدارية ذاتية. إنه لا يخطط فعلياً، ولا يبحث في فضاء المشكلة، ولا يستدل سببياً. إنه ينتج نصاً يشبه الاستدلال لأنه تدرّب على نصوص كتبها بشر كانوا يستدلّون. التقليد متطور لكنه هش — وهذا هو السبب في فشل نماذج اللغة الكبيرة في المشكلات التي تتطلب تخطيطاً حقيقياً متعدد الخطوات، خاصةً المشكلات التي تختلف بنيتها عن أي شيء في بيانات التدريب.
البنية الإدراكية التي يقترحها LeCun تتصور أنظمة ذكاء اصطناعي بقدرات نظام 2 صريحة: نموذج عالمي يحتفظ بحالة داخلية، ودالة تكلفة تقيّم الأفعال المحتملة، وعملية تحسين تبحث عن تسلسلات أفعال تقلل تلك التكلفة. هذا أقرب إلى التعلم المعزّز المبني على النماذج منه إلى نمذجة اللغة. وهو، باعتراف LeCun نفسه، بعيد كل البعد عن العمل بالنطاق والعمومية المطلوبين. AMI Labs وُجدت لسد هذه الفجوة.
الحجج المضادة: لماذا قد يكون LeCun مخطئاً
نقد LeCun جاد فكرياً، لكن الحجج المضادة قوية.
أقوى حجة هي تجريبية: نماذج اللغة الكبيرة تستمر في التحسن. كل عام يأتي بقدرات جديدة قال النقاد إن التنبؤ بالرموز لا يستطيع إنتاجها. استدلال رياضي اعتبره النقاد الأوائل مستحيلاً. توليد شيفرة برمجية بجودة إنتاجية. نماذج متعددة الوسائط تعالج الصور والفيديو إلى جانب النص. خطوط الحد لما يُعتبر “فهماً حقيقياً” تتحرك باستمرار لأن نماذج اللغة الكبيرة تتجاوز العتبة في كل مرة.
يرى مؤيدو قوانين التوسع (Scaling Laws) أن كثيراً من اعتراضات LeCun تتلاشى مع التوسع الكافي. عدم القدرة على الاستدلال السببي؟ درّب على بيانات أكثر بمعاملات أكثر وسيظهر الاستدلال. عدم القدرة على فهم الفيزياء؟ درّب على بيانات فيديو ومحاكاة وسيظهر الحدس الفيزيائي. من هذا المنظور، JEPA هو حل لمشكلة قد تحل نفسها مع دمج نماذج اللغة الكبيرة لمزيد من الوسائط وتوسعها أكثر.
هناك أيضاً حجة عملية. نماذج اللغة الكبيرة تعمل اليوم. تشغّل منتجات تحقق مليارات في الإيرادات. تكتب الشيفرة البرمجية وتترجم اللغات وتلخص الوثائق وتساعد في الأبحاث. JEPA، في المقابل، أنتج أوراقاً بحثية واعدة لكن لا منتجات تجارية. لم تنشر أي شركة نظاماً مبنياً على JEPA على نطاق واسع. الفجوة بين “اتجاه بحثي مثير للاهتمام” و”بديل قابل للتطبيق عن المحولات (Transformers)” تُقاس بسنوات ومليارات الدولارات — مليارات تجمعها الآن AMI Labs.
يقف بعض الباحثين في منطقة وسطى، مقترحين أن المستقبل سيشمل على الأرجح بنيات هجينة — أنظمة تجمع بين طلاقة اللغة في النماذج الانحدارية الذاتية والفهم العالمي المترسّخ الذي تهدف بنيات نمط JEPA لتوفيره. LeCun نفسه أقر بأن نماذج اللغة الكبيرة ستظل على الأرجح مفيدة للمهام اللغوية المحددة. حجته تتعلق بما لا يمكن تحقيقه من خلال التنبؤ بالرموز وحده، لا بأن التنبؤ بالرموز عديم الفائدة.
AMI Labs: الرهان يتحول إلى شركة
ما يجعل موقف LeCun أكثر من مجرد نقاش أكاديمي هو أنه وضع الآن ثقلاً مؤسسياً خلفه.
AMI Labs، المقرة في باريس مع Alexandre LeBrun (الشريك المؤسس والرئيس التنفيذي السابق لشركة Nabla) في منصب الرئيس التنفيذي وLeCun رئيساً تنفيذياً للمجلس، تخطط لتطوير نماذج عالمية لتطبيقات حساسة تشمل الرعاية الصحية والروبوتات والأتمتة والأنظمة الصناعية. Meta، رغم فقدانها كبير علمائها في الذكاء الاصطناعي، وافقت على الشراكة مع AMI Labs — لكنها لن تستثمر مباشرةً.
تقييم 3.5 مليار دولار قبل الإطلاق استثنائي لشركة مبنية على بنية لم تُنتج بعد منتجاً تجارياً. يشير هذا إلى أن المستثمرين يتعاملون مع نقد LeCun على أنه أكثر من مجرد شذوذ أكاديمي. إذا استمرت نماذج اللغة الكبيرة في التوسع بسلاسة — إذا أظهر الجيل القادم من النماذج استدلالاً متيناً متزايداً وفهماً فيزيائياً وقدرة حقيقية على التخطيط — فستواجه AMI Labs معركة شاقة لتبرير تقييمها.
لكن إذا اصطدم التوسع بعوائد متناقصة — إذا تطلب الجيل القادم قدرات حوسبة أكبر بشكل هائل مقابل تحسينات هامشية في القدرات، وإذا استقرت معايير الاستدلال، وإذا ظل الفهم الفيزيائي هشاً بعناد رغم التدريب متعدد الوسائط — فإن AMI Labs ونهج النماذج العالمية سيبدوان بعيدَي النظر. الاعتماد المتزايد على حوسبة وقت الاستدلال (سلسلة التفكير، البحث الشجري، التفكير الموسّع) بدلاً من التوسع الصرف للنموذج يشير إلى أن المكاسب السهلة من التوسع ربما بدأت بالتراجع. لكن هذه إشارات مبكرة وليست دليلاً.
الواضح هو أن LeCun يطرح السؤال الصحيح، حتى لو تبيّن أن إجابته خاطئة. التزام صناعة الذكاء الاصطناعي شبه الإجماعي بنموذج واحد — التنبؤ بالرمز التالي — غير مألوف تاريخياً وربما محفوف بالمخاطر. وجود بديل جاد قيد التطوير الفعلي، مدعوم من حائز جائزة Turing ومليارات في التمويل، ليس إلهاءً. إنه تأمين.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — النقاش بين نماذج اللغة الكبيرة والنماذج العالمية سيحدد أي بنيات الذكاء الاصطناعي يجب أن يستثمر المطورون والباحثون الجزائريون في تعلمها خلال العقد المقبل؛ مقر AMI Labs في باريس يخلق أيضاً فرصة قرب للكفاءات الجزائرية-الفرنسية في الذكاء الاصطناعي |
| البنية التحتية جاهزة؟ | جزئياً — الجامعات الجزائرية تقدم مقررات في التعلم العميق لكن لا توجد مجموعات بحثية تعمل على JEPA أو بنيات النماذج العالمية؛ الضبط الدقيق لنماذج اللغة الكبيرة متاح عبر مزودي الخدمات السحابية |
| المهارات متوفرة؟ | لا — التعلم الذاتي الإشراف والتنبؤ في فضاء التمثيلات يتطلبان مهارات بحثية متقدمة في تعلم الآلة غير متوفرة على نطاق واسع في الجزائر؛ مهارات تطبيق نماذج اللغة الكبيرة أكثر سهولة في المتناول |
| الجدول الزمني للعمل | 12-24 شهراً — متابعة نقاش النماذج؛ الاستثمار في تعليم أساسيات تعلم الآلة التي تتجاوز أي بنية واحدة |
| أصحاب المصلحة الرئيسيون | باحثو الذكاء الاصطناعي، أقسام علوم الحاسوب بالجامعات، مهندسو تعلم الآلة، مديرو التكنولوجيا في الشركات الناشئة الذين يقيّمون أي منظومة ذكاء اصطناعي يبنون عليها |
| نوع القرار | تعليمي |
خلاصة سريعة: لا ينبغي للفرق الجزائرية في الذكاء الاصطناعي أن تنحاز في هذا النقاش — لكن عليها فهمه بعمق. المؤسسات التي تبني منتجات على نماذج اللغة الكبيرة اليوم يجب أن تستمر، بينما يجب على الباحثين وطلاب الدراسات العليا دراسة كلا النموذجين. مقر AMI Labs في باريس يخلق فرصة قرب نادرة للكفاءات الجزائرية في الذكاء الاصطناعي. أسوأ نتيجة ممكنة هي تدريب جيل كامل من ممارسي الذكاء الاصطناعي الجزائريين حصرياً على هندسة الأوامر (Prompt Engineering) لنموذج قد يبلغ ذروته خلال خمس سنوات.
المصادر والقراءات الإضافية
- A Path Towards Autonomous Machine Intelligence — Yann LeCun (2022) — ورقة LeCun التأسيسية التي تعرض بنية JEPA ورؤيته للنماذج العالمية.
- I-JEPA: The First AI Model Based on Yann LeCun’s Vision for More Human-like AI — Meta FAIR (2023) — أول تطبيق من Meta لبنية JEPA لفهم الصور.
- V-JEPA 2: Introducing the V-JEPA 2 World Model and New Benchmarks for Physical Reasoning — Meta (2025) — V-JEPA 2 بـ 1.2 مليار معامل مع أداء متقدم في التفكير الفيزيائي.
- Meta Chief AI Scientist Yann LeCun Is Leaving the Company — CNBC (November 2025) — تقرير عن مغادرة LeCun لشركة Meta لتأسيس AMI Labs.
- Yann LeCun’s New Venture Is a Contrarian Bet Against Large Language Models — MIT Technology Review (January 2026) — تحقيق معمق عن AMI Labs واستراتيجية النماذج العالمية.
- Fathers of the Deep Learning Revolution Receive ACM A.M. Turing Award — ACM (2018) — الإعلان الرسمي عن جائزة Turing لكل من LeCun وBengio وHinton.





إعلان