في ديسمبر 2025، نشرت Modular مقالة “الطريق إلى Mojo 1.0″، مستهدفةً إصداراً في وقت ما من عام 2026. بالنسبة للغة برمجة، إصدار 1.0 هو مكافئ الطرح العام الأولي — إعلان بأن اللغة جاهزة للإنتاج وباقية. قضى Chris Lattner، مبتكر Swift وLLVM، ثلاث سنوات في بناء لغة تعد بشيء تخلى مجتمع الذكاء الاصطناعي عن الأمل فيه: سهولة قراءة Python مع سرعة C. المعايير المرجعية التي تدعم هذا الوعد ليست متواضعة. في أحمال عمل حسابية محددة، أظهرت Mojo تسريعات بمقدار 35,000 ضعف مقارنة بـ Python. على أجهزة أقوى، يتجاوز هذا الرقم 68,000 ضعف.
باختصار: تواجه هيمنة Python في الذكاء الاصطناعي تحدياً من اتجاهين: Mojo تقدم صيغة متوافقة مع Python بأداء ينافس C++، بينما تتحول Rust بهدوء إلى لغة بنية التعلم الآلي التحتية في الإنتاج. في الوقت نفسه، Python ذاتها تتطور — أصبح GIL اختيارياً في الإصدار 3.13 ومدعوماً رسمياً في 3.14 — لكن المنظومة قد تتشظى أسرع مما يمكنها التكيف.
تبدو هذه الأرقام سخيفة حتى تفهم من أين تأتي. Python لغة ذات أنواع ديناميكية ومُفسّرة. لم تُصمم أبداً لنوع الحوسبة العددية المكثفة ذات الحلقات الضيقة التي تُعرّف أحمال عمل الذكاء الاصطناعي الحديثة. قفل المُفسّر العام (GIL) منع التعدد الحقيقي للخيوط. أضاف عبء المُفسّر تأخيراً لكل عملية. لعقود، تعامل مجتمع الذكاء الاصطناعي مع هذه القيود بكتابة الكود الحرج أداءً بلغة C أو C++ أو Fortran، ثم تغليفه بواجهات Python. مكتبات NumPy وPyTorch وTensorFlow — كلها Python على السطح وC/C++ في الأعماق.
تطرح Mojo سؤالاً بسيطاً: ماذا لو لم تكن بحاجة للحلول البديلة؟
Mojo: صيغة Python، أداء الأنظمة
Mojo ليست بديلاً لـ Python. إنها مجموعة شاملة لـ Python — أو تهدف لأن تكون كذلك. الكود المكتوب بـ Python يجب، نظرياً، أن يعمل في Mojo. لكن Mojo تضيف ميزات استبعدتها Python عمداً: الأنواع الثابتة، وإدارة الذاكرة اليدوية، وعمليات SIMD (تعليمة واحدة بيانات متعددة)، والوصول المباشر للأجهزة. هذه الإضافات تتيح لـ Mojo التجميع إلى كود آلة يعمل على المعالجات المركزية ووحدات معالجة الرسوميات بنفس كفاءة C++ المُحسّنة يدوياً.
سجل Lattner المهني يمنح المشروع مصداقية لن تحظى بها لغة ناشئة عادية. أنشأ LLVM، بنية المُجمّع التحتية التي تدعم تقريباً كل سلسلة أدوات لغات البرمجة الحديثة. وأنشأ Swift، التي حلت محل Objective-C كلغة رئيسية لتطوير Apple. يفهم، ربما أفضل من أي شخص حي، ما يتطلبه بناء لغة يتبناها المطورون فعلاً.
ادعاءات الأداء، رغم جذبها للعناوين، تحتاج سياقاً. تسريع 68,000 ضعف يأتي من تشغيل خوارزمية Mandelbrot على مثيل Intel Xeon من نوع h3-standard-88 مع توازي على مستوى الأجهزة وتحسينات SIMD — ميزات لا تستطيع Python الخالصة الوصول إليها لكن أي لغة مُجمّعة يمكنها استغلالها. نقل مباشر لكود Python إلى Mojo حقق تسريعاً بمقدار 89 ضعفاً؛ استخدام تحسينات خاصة بالمشكلة رفع ذلك إلى 26,000 ضعف. توقع أكثر واقعية لأحمال العمل النموذجية هو تحسن من 10 إلى 1,000 ضعف للمهام الحسابية الثقيلة، وهو لا يزال تحويلياً لأحمال عمل الذكاء الاصطناعي حيث يمكن أن تستغرق عمليات التدريب أياماً أو أسابيع.
تشغيل كود Python دون تغيير في Mojo — بدون أي تحسينات خاصة بـ Mojo — يحقق تقريباً تحسناً في السرعة بمقدار 12 ضعفاً. هذا المكسب المجاني في الأداء يأتي من التجميع وحده، قبل أن يكتب المطور سطراً واحداً من كود Mojo المحدد. إضافة ميزات Mojo المحددة مثل التوجيه SIMD يمكن أن ترفع ذلك إلى 900 ضعف مقارنة بـ Python و9 أضعاف أسرع من NumPy.
التحدي الذي تواجهه Mojo ليس تقنياً. إنه بيئي. هيمنة Python في الذكاء الاصطناعي لا تستند على اللغة ذاتها بل على منظومة مكتباتها. PyTorch وTensorFlow وHugging Face Transformers وscikit-learn وpandas وNumPy — هذه المكتبات تمثل عقوداً من العمل المتراكم لآلاف المساهمين.
تعالج Modular هذا من خلال التوافق مع Python، مما يسمح لبرامج Mojo باستدعاء مكتبات Python مباشرة. في فبراير 2026، استحوذت Modular على BentoML، إطار عمل خدمة النماذج الذي يستخدمه أكثر من 10,000 مؤسسة بما في ذلك أكثر من 50 شركة من Fortune 500. يشير الاستحواذ إلى أن المنظومة بدأت تتبلور حول رؤية Mojo. لكن بناء منظومة مكتبات يُقاس بالسنوات لا الأشهر.
تم فتح المكتبة القياسية لـ Mojo كمصدر مفتوح تحت رخصة Apache 2، مع أكثر من 750,000 سطر من الكود مفتوح المصدر ومجتمع يضم أكثر من 50,000 عضو. التزم Lattner بفتح مُجمّع Mojo كمصدر مفتوح بنهاية 2026.
Rust: لغة البنية التحتية
بينما تستهدف Mojo الباحث وعالم البيانات — الأشخاص الذين يكتبون بنى النماذج وحلقات التدريب — تحتل Rust طبقة مختلفة من مكدس الذكاء الاصطناعي. إنها تصبح لغة بنية التعلم الآلي التحتية: محركات الاستدلال، وأنظمة خدمة النماذج، وخطوط أنابيب البيانات، وطبقات تجريد الأجهزة التي تقع بين كود Python للباحث والأجهزة الفعلية.
هذا ليس صدفة. استدلال الذكاء الاصطناعي على نطاق واسع هو في جوهره مشكلة برمجة أنظمة. تحتاج أمان الذاكرة (تجاوز واحد في نظام الخدمة يمكنه تعطيل الخدمة بأكملها)، وأداء قابل للتنبؤ (ارتفاعات التأخير في خطوط أنابيب الاستدلال تكلف مالاً)، وتزامن فعال (خدمة آلاف طلبات الاستدلال في وقت واحد تتطلب نماذج ترابط لا تستطيع Python توفيرها ببساطة).
بنت Hugging Face إطار Candle، إطار تعلم آلي مُبسّط لـ Rust مُحسّن للاستدلال بدلاً من التدريب. يدعم Candle النماذج المبنية على المحوّلات ومصمم للبيئات بدون خوادم والحافة حيث تهم الحزم الصغيرة والتأخير المنخفض. يزيل Python من أحمال العمل الإنتاجية بالكامل، مما يلغي عبء المُفسّر واختناقات GIL. لا يحاول Candle استبدال PyTorch للبحث. إنه يستبدل مكدسات الاستدلال القائمة على Python في الإنتاج.
يتبنى إطار Burn نهجاً أوسع. مبني بالكامل بـ Rust بواسطة فريق Tracel AI، يعمل Burn كمكتبة موتّرات وإطار تعلم عميق معاً. مُجمّعه في الوقت المناسب (JIT)، المدعوم الآن بـ MLIR وLLVM من خلال تكامل CubeCL، يدعم واجهات خلفية للمعالج المركزي ووحدة معالجة الرسوميات مع دمج نواة تلقائي وضبط تلقائي وبرمجة GPU عبر المنصات عبر CUDA وWebGPU. يستطيع Burn استيراد نماذج ONNX من خلال حزمة burn-onnx، مما يعني أن الباحثين يمكنهم التدريب في PyTorch والنشر في Burn دون إعادة كتابة نماذجهم.
يتسارع التبني المؤسسي لـ Rust في بنية الذكاء الاصطناعي التحتية. نما الاستخدام التجاري لـ Rust بنسبة 68.75% بين 2021 و2024، مع مراهنة شركات Fortune 500 على بنيتها التحتية على أمان الذاكرة. سرّعت Microsoft هجرتها من C/C++ إلى Rust للأنظمة الحرجة أمنياً بعد أن أظهرت البيانات أن 70% من الثغرات الأمنية نشأت من الاستخدام غير الآمن للذاكرة. بنت Cloudflare محرك Infire، محرك استدلال نماذج لغوية كبيرة مخصص مكتوب بـ Rust، في عام 2025. في المعايير المرجعية، حقق إطار Burn مع CUDA نسبة 97% من أداء PyTorch+CUDA على نموذج Phi-3 مع انخفاض 30% في استخدام الذاكرة.
Python ترد: قفل GIL مات أخيراً
لم يقف مشرفو Python مكتوفي الأيدي بينما يحوم المنافسون. Python 3.13، الصادر في أكتوبر 2024، جعل GIL اختيارياً لأول مرة في تاريخ اللغة من خلال بناء تجريبي متعدد الخيوط. Python 3.14، الصادر في 7 أكتوبر 2025، نقل Python متعدد الخيوط من تجريبي إلى مدعوم رسمياً، مع اكتمال تطبيق PEP 703 بالكامل.
التأثير جوهري. كود ضرب المصفوفات متعدد الخيوط المخصص يعمل أسرع بحوالي 10 مرات مع تعطيل GIL — 4.56 ثانية مقابل 43.95 ثانية. المهام المرتبطة بالإدخال/الإخراج التي تستخدم مجموعات الخيوط أسرع بأكثر من 3 مرات في البناء متعدد الخيوط. خيوط PyTorch DataLoader يمكنها الآن العمل بتوازٍ حقيقي. NumPy وpandas يمكنهما معالجة أجزاء البيانات بالتزامن. خطوط أنابيب هندسة الميزات التي كانت معوّقة سابقاً بسبب GIL يمكنها التوسع عبر أنوية المعالج المتاحة.
لكن إزالة GIL ليست حلاً سحرياً. العبء الإضافي لبيئة التشغيل متعددة الخيوط، رغم انخفاضه بشكل كبير من حوالي 40% في 3.13 إلى 5-10% في 3.14، لا يزال غير صفري. Python 3.14 العادية لا تزال تعمل مع تمكين GIL افتراضياً؛ يجب تنزيل أو بناء نسخة منفصلة متعددة الخيوط. وهجرة المنظومة ستستغرق سنوات. المكتبات تحتاج اختباراً والتحقق من أمان الخيوط. امتدادات C تحتاج تدقيقاً. السلوك الذي كان آمناً بالصدفة تحت GIL قد يصبح غير آمن بدونه.
إزالة GIL تعالج القيد الأداء الأساسي لـ Python، لكنها لا تسد الفجوة مع اللغات المُجمّعة. برنامج Python متعدد الخيوط لا يزال برنامجاً مُفسّراً ذا أنواع ديناميكية. إنه أسرع من قبل، لكنه ليس سريعاً بالطريقة التي تكون بها Mojo وRust وC++ سريعة.
إعلان
Julia: المنافس في الحوسبة العلمية
تستحق Julia الذكر كلاعب رابع في هذا المشهد، رغم أن مسارها مختلف عن الآخرين. صُممت من الأساس للحوسبة العلمية، تقدم Julia صيغة شبيهة بـ Python، وترميزاً رياضياً شبيهاً بـ MATLAB، وأداءً يقترب من C عند التجميع في الوقت المناسب (JIT). صدرت Julia 1.12 في 7 أكتوبر 2025، ومنذ 2025 يدعم Google Colab لغة Julia أصلياً بشكل رسمي.
وجدت Julia مكانتها في المجالات التي يتقاطع فيها الأداء الحسابي والتعبير الرياضي: نمذجة المناخ، والمعلوماتية الحيوية، واكتشاف الأدوية، والهندسة المالية، ومحاكاة الفيزياء. نظام الإرسال المتعدد — حيث يمكن لنفس اسم الدالة أن يتصرف بشكل مختلف بناءً على أنواع جميع معاملاته — مناسب بشكل غير عادي للحوسبة العلمية حيث تحتاج العمليات على المصفوفات والمتجهات والموتّرات أن تكون معبّرة وفعالة في آن واحد.
لكن Julia كافحت للخروج من الأوساط الأكاديمية إلى تطوير الذكاء الاصطناعي والتعلم الآلي السائد. منظومة حزمها، رغم نموها، تبقى جزءاً صغيراً من منظومة Python. التجميع في الوقت المناسب يُدخل تأخيراً عند التنفيذ الأول (مشكلة “الوقت حتى أول رسم بياني”) يُحبط سير العمل التفاعلي. ومكتبات التعلم الآلي، رغم إعجابها التقني، تفتقر إلى الزخم المجتمعي والدعم المؤسسي الذي تتمتع به PyTorch وTensorFlow.
حجة المنظومة
أهم درس من تاريخ لغات البرمجة هو أن الأداء الخام نادراً ما يحدد أي لغة تفوز. FORTRAN أسرع من Python في الحوسبة العددية. C++ أسرع في كل شيء. خسرتا أمام Python في مجال الذكاء الاصطناعي ليس لأنهما لغتان أدنى بل لأن Python كانت تملك مكتبات أفضل ووثائق أفضل ودعماً مجتمعياً أفضل وحاجز دخول أقل.
حجة المنظومة تقطع في اتجاهات متعددة. إنها تحمي موقع Python الحالي: لن يُعيد أحد كتابة PyTorch بـ Mojo العام القادم. لكنها تقيّد أيضاً مستقبل Python: الحلول البديلة التي جعلت Python قابلة للاستخدام في الذكاء الاصطناعي — كتابة الكود الحرج أداءً بـ C/C++ وتغليفه — تُنشئ بنية هشة حيث تحدث الحوسبة الفعلية بلغة لا يستطيع معظم علماء البيانات قراءتها أو تعديلها.
استراتيجية Mojo في التوافق مع Python هي أذكى رد على هذه المشكلة. إذا استطاعت Mojo تشغيل كود Python الحالي مع تقديم تدرج سلس نحو أداء أعلى — اكتبه بـ Python، ثم حسّن الحلقات الساخنة بـ Mojo دون مغادرة نفس الملف — يمكنها الاستحواذ على المنظومة دون الحاجة لهجرة شاملة. هذا، تقريباً، كيف استحوذت Swift على منظومة Objective-C. Lattner يُنفّذ نفس الخطة.
نهج Rust مختلف وصحيح بنفس القدر. بدلاً من التنافس مع Python على مستوى الباحث، تستبدل C/C++ على مستوى البنية التحتية. هذا يُعد التحول الأكثر أهمية. الكود الذي يعمل في الإنتاج — يخدم ملايين طلبات الاستدلال، ويعالج بيانات التدريب على نطاق واسع، ويدير مجموعات GPU — كُتب دائماً بلغات أنظمة. إذا هاجر هذا الكود من C/C++ إلى Rust، يكسب مجتمع الذكاء الاصطناعي ضمانات أمان الذاكرة والتزامن دون التضحية بالأداء.
ماذا يعني هذا للمطورين
التوصية العملية في 2026 واضحة: تعلم Python بعمق، لأنها لن تذهب إلى أي مكان كلغة مشتركة لبحث الذكاء الاصطناعي والنمذجة الأولية. لكن تعلم أيضاً لغة أنظمة واحدة. إذا كنت تريد تحسين نماذج الذكاء الاصطناعي والبقاء في منظومة Python، راقب Mojo عن كثب وهي تقترب من الإصدار 1.0. إذا كنت تريد بناء بنية تحتية إنتاجية، تعلم Rust.
عصر كون Python اللغة الوحيدة المهمة للذكاء الاصطناعي ينتهي. ما يحل محله ليس لغة واحدة أخرى بل مكدس متعدد اللغات حيث تخدم لغات مختلفة طبقات مختلفة. Python للبحث والنمذجة الأولية. Mojo للكود النموذجي الحرج أداءً. Rust للبنية التحتية. المطورون الذين يزدهرون في هذه البيئة سيكونون من يمكنهم العمل عبر هذه الطبقات بدلاً من التخصص في واحدة فقط.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — اختيارات اللغة تؤثر على تنافسية المطورين في الأسواق العالمية؛ مهارات Python هي الحد الأدنى، وRust/Mojo عوامل تمييز للمستقلين والعاملين عن بُعد |
| جاهزية البنية التحتية | نعم — جميع اللغات تعمل على أجهزة عادية؛ لا حاجة لبنية تحتية خاصة غير حاسوب حديث |
| توفر المهارات | جزئي — مهارات Python منتشرة بين خريجي علوم الحاسوب والمطورين الجزائريين؛ خبرة Rust وMojo نادرة لكنها قابلة للتعلم عبر موارد مجانية عبر الإنترنت |
| الجدول الزمني للعمل | 6-12 شهراً — Python تبقى أساسية الآن؛ مهارات Mojo وRust ستصبح قيّمة بشكل متزايد مع نضوج صناعة الذكاء الاصطناعي |
| أصحاب المصلحة الرئيسيون | مهندسو الذكاء الاصطناعي والتعلم الآلي، أقسام علوم الحاسوب في الجامعات، معسكرات تدريب المطورين، شركات التقنية التي تبني بنية استدلال تحتية، المطورون المستقلون |
| نوع القرار | تعليمي |
باختصار: يجب على المطورين الجزائريين وبرامج علوم الحاسوب الحفاظ على أسس Python قوية مع البدء في استكشاف Rust لبرمجة الأنظمة ومتابعة تقدم Mojo نحو الإصدار 1.0. مستقبل الذكاء الاصطناعي متعدد اللغات يعني أن المطورين الذين يمكنهم سد الفجوة بين البحث والإنتاج — بكتابة النماذج بـ Python ونشرها بـ Rust أو Mojo — سيحصلون على أسعار متميزة في منصات العمل الحر الدولية.
المصادر والقراءات الإضافية
- The Path to Mojo 1.0 — Modular Blog
- BentoML Is Joining Modular — BentoML Blog
- What’s New in Python 3.14 — Python Official Documentation
- Candle: A New Machine Learning Framework for Rust — Hugging Face GitHub
- Burn: A Next-Generation Deep Learning Framework for Rust — Tracel AI
- Rust’s Enterprise Breakthrough Year — Rust Trends
- From Swift to Mojo and High-Performance AI Engineering with Chris Lattner — The Pragmatic Engineer
- Rust for AI and Machine Learning in 2025 — Andrew Odendaal





إعلان