حساب المعايير المرجعية
تغيرت اقتصاديات الذكاء الاصطناعي عندما كشفت Google DeepMind عن Gemini 3.1 Pro في 19 فبراير 2026. حقق النموذج نتيجة موثقة بنسبة 77.1% على ARC-AGI-2، أي أكثر من ضعف أداء الاستدلال لسلفه Gemini 3 Pro (31.1%). وعلى GPQA Diamond، وهو معيار علمي بمستوى الدراسات العليا، سجّل 94.3% — وهي أعلى نتيجة تُسجَّل على الإطلاق. أما تصنيفه Elo في LiveCodeBench Pro البالغ 2,887 فيضعه متقدماً بفارق كبير عن 2,393 لـ GPT-5.2.
GPT-5.4 من OpenAI، الذي صدر في 5 مارس 2026، يرد على جبهات محددة. حقق 73.3% على ARC-AGI-2، مقلصاً الفجوة عن نماذج سلسلة GPT-5 السابقة. ونتيجته البالغة 75% على OSWorld، وهو معيار لاستخدام الحاسوب على مستوى نظام التشغيل، تتجاوز عتبة الخبراء البشريين البالغة 72.4% — مما يجعله النموذج الوحيد الذي يتخطى هذا الحد. ويسجل GPT-5.4 نسبة 57.7% على SWE-bench Pro، الخلف الأصعب لـ SWE-bench Verified، مع دعم كلا النموذجين لنوافذ سياق بمليون رمز.
النقطة الجوهرية: الفارق في الأداء بين هذين النموذجين الرائدين أصبح يُقاس بنقاط مئوية أحادية الرقم في معظم المهام. انتهت الأيام التي كان فيها مزود واحد يمتلك تفوقاً نوعياً حاسماً.
فجوة الأسعار الحاسمة
إذا كانت الأداءات تتقارب، فإن السعر يصبح عامل التمايز. وقد وضعت Google نفسها بقوة في هذا المجال.
يُسعَّر Gemini 3.1 Pro بـ 2.00 دولار لكل مليون رمز مُدخل و12.00 دولار لكل مليون رمز مُخرج. ويكلف GPT-5.4 القياسي 2.50 دولار لكل مليون رمز مُدخل و15.00 دولار لكل مليون رمز مُخرج. هذا يمثل علاوة تتراوح بين 20 و25% لنموذج OpenAI الرئيسي، قبل احتساب تخزين السياق المؤقت من Google الذي يخفض تكاليف الإدخال إلى نحو 0.50 دولار لكل مليون رمز للسياقات المتكررة — وهو نمط شائع في تطبيقات الإنتاج.
عملياً، تلاحظ المؤسسات التي تشغّل أحمال عمل كبيرة مع تخزين السياق المؤقت فروقات تكلفة فعلية تقترب من 3 أضعاف لصالح Google.
تحكي الفئات الاقتصادية قصة أكثر إثارة. لا يكلف Gemini 3.1 Flash Lite من Google سوى 0.25 دولار لكل مليون رمز مُدخل و1.50 دولار لكل مليون رمز مُخرج. ويرد GPT-5.4 Nano من OpenAI بـ 0.20 دولار لكل مليون رمز مُدخل و1.25 دولار لكل مليون رمز مُخرج. عند هذه المستويات السعرية، تكلف قدرات استدلال الذكاء الاصطناعي أقل من خطأ تقريب في معظم ميزانيات البرمجيات.
للتوضيح: نماذج كانت تكلف 20 دولاراً لكل مليون رمز بمستوى جودة GPT-3.5 في نوفمبر 2022 أصبح لها خلفاء متاحون بـ 0.07 دولار لكل مليون رمز — انخفاض بمقدار 280 ضعفاً في نحو 18 شهراً.
حرب الأسعار الخماسية
هذه ليست لعبة بين طرفين. يضم سوق نماذج الذكاء الاصطناعي الآن خمسة مزودين موثوقين على الأقل للنماذج الرائدة: OpenAI وGoogle وAnthropic وMeta (مفتوح المصدر) وDeepSeek (مفتوح المصدر من الصين). كل تخفيض سعري من أحدهم يُجبر الآخرين على الرد.
خفضت Anthropic أسعار Claude Opus 4.5 بنسبة 67%، من 15/75 دولاراً إلى 5/25 دولاراً لكل مليون رمز. ووضعت Google نموذج Gemini 3.1 Pro بقوة عند 2/12 دولاراً لكل مليون رمز. ويعمل نموذج V3 من DeepSeek بـ 0.27 دولار فقط لكل مليون رمز مُدخل و1.10 دولار لكل مليون رمز مُخرج.
الضغط المالي حقيقي. في 2024، حققت OpenAI نحو 3.7 مليار دولار من الإيرادات لكنها خسرت ما يُقدر بـ 5 مليارات، منفقةً نحو 1.69 دولار مقابل كل دولار مكتسب. وبحلول أواخر 2025، تجاوزت إيرادات OpenAI السنوية 20 مليار دولار، لكن تكاليف التشغيل نمت بالتوازي. جميع المزودين الرئيسيين يسعّرون الاستدلال بأقل من التكلفة للاستحواذ على حصص السوق، مراهنين على أن الحجم سيحقق هوامش ربحية في نهاية المطاف.
إعلان
التسارع في العتاد: Vera Rubin تغيّر المعادلة
حرب الأسعار على وشك التصاعد أكثر. NVIDIA Vera Rubin NVL72، المُعلن عنه في CES 2026 والذي يدخل الإنتاج في النصف الثاني من العام، يعد بأداء استدلال أعلى بـ 5 أضعاف وتكلفة لكل رمز أقل بـ 10 أضعاف مقارنة بمنصة Blackwell الحالية.
قاست NVIDIA هذه المكاسب باستخدام نموذج Kimi-K2-Thinking بأطوال تسلسل 32 ألف إدخال/8 آلاف إخراج، مُظهرةً عُشر التكلفة لكل مليون رمز لاستدلال نماذج مزيج الخبراء (MoE). أما بالنسبة للنماذج الكثيفة بسياقات أقصر، فيتوقع محللو القطاع مكاسب أكثر واقعية تتراوح بين 2 و3 أضعاف — وهي كافية مع ذلك لإعادة تشكيل هيكل التكاليف لكل مزود ذكاء اصطناعي بشكل جذري.
أثبتت شركات تحسين الاستدلال الرائدة — Baseten وDeepInfra وFireworks AI وTogether AI — بالفعل تخفيضات تكلفة تصل إلى 10 أضعاف باستخدام مكدسات استدلال محسّنة على عتاد Blackwell الحالي. وتتراكم هذه المكاسب مع كل جيل جديد من العتاد.
مفارقة Jevons في الذكاء الاصطناعي
توقعت Gartner في مارس 2026 أنه بحلول 2030، ستنخفض تكلفة الاستدلال على نموذج لغوي كبير بتريليون معامل بأكثر من 90% مقارنة بعام 2025. لكن المفارقة واضحة: إنفاق المؤسسات على الذكاء الاصطناعي يتزايد وليس العكس.
رغم الانخفاض الحاد في تكلفة الرمز الواحد، نما الاستخدام بوتيرة أسرع. تستهلك سير عمل الذكاء الاصطناعي الوكيل من 5 إلى 30 ضعفاً من الرموز لكل مهمة مقارنة بتفاعل روبوت محادثة عادي. تتوقع Gartner أن 40% من تطبيقات المؤسسات ستدمج وكلاء ذكاء اصطناعي بحلول نهاية 2026، ارتفاعاً من أقل من 5% في 2025. ويمثل الاستدلال الآن نحو 85% من ميزانية الذكاء الاصطناعي للمؤسسات.
النمط هو تطبيق نموذجي لمفارقة Jevons: عندما تنخفض التكلفة الوحدوية لمورد ما، يرتفع الاستهلاك الإجمالي بشكل كبير لدرجة أن الإنفاق الكلي يزداد. ارتفع متوسط ميزانية الذكاء الاصطناعي للمؤسسات من 1.2 مليون دولار سنوياً في 2024 إلى 7 ملايين في 2026، مدفوعاً بدمج الذكاء الاصطناعي في المنتجات الموجهة للعملاء وسير العمل الداخلية وأنظمة اتخاذ القرار الآلية.
ما يعنيه هذا للمطورين
التداعيات الاستراتيجية واضحة:
البنى المتعددة المزودين أصبحت ضرورة. الارتباط بمزود ذكاء اصطناعي واحد يمثل مخاطرة سعرية. يجب على المؤسسات تجريد استدعاءات الذكاء الاصطناعي خلف طبقات توجيه قادرة على التبديل بين Gemini وGPT وClaude والنماذج مفتوحة المصدر بناءً على التكلفة وزمن الاستجابة ومتطلبات المهمة.
مستوى “الكفاية” تحوّلي. نماذج Flash Lite وفئة Nano بأسعار تتراوح بين 0.20 و1.50 دولار لكل مليون رمز تُتيح حالات استخدام كانت مستحيلة اقتصادياً قبل 18 شهراً: معالجة المستندات في الوقت الفعلي، ومراجعة الكود المستمرة، ووكلاء العملاء الدائمين، ومساعدي الذكاء الاصطناعي لكل مستخدم.
تحسين الاستدلال كفاءة جوهرية. تقنيات مثل التكميم والفك التخميني وتحسين ذاكرة التخزين المؤقت للمفتاح-القيمة وكفاءة المعالجة الدُفعية توفر من 3 إلى 5 أضعاف الإنتاجية من نفس النموذج. الشركات التي تتقن هذه التقنيات تكتسب ميزة تكلفة دائمة.
دورات العتاد ستستمر في ضغط الهوامش. Vera Rubin في أواخر 2026 ليست سوى الخطوة التالية. كل جيل من وحدات معالجة الرسومات يُحقق تحسناً بمقدار رتبة إضافية في تكلفة الرمز، مما يجعل التسعير الحالي باهظاً خلال 12 شهراً.
عصر الذكاء السلعي
دخلت صناعة الذكاء الاصطناعي مرحلة التسليع أسرع مما توقعه أي شخص تقريباً. عندما يتطابق نموذجان رائدان بفارق نقاط مئوية أحادية الرقم على معظم المعايير المرجعية، تتحول المنافسة من “من يملك أفضل نموذج” إلى “من يستطيع تقديمه بأقل تكلفة”. تملك Google، ببنيتها التحتية المخصصة من TPU وأسطولها الضخم من مراكز البيانات واستعدادها للتسعير بقوة، مزايا هيكلية في هذه المعركة. تحتفظ OpenAI بتقدم في قدرات استخدام الحاسوب وولاء منظومة المطورين. لكن الهامش بينهما — في الأداء والسعر معاً — يتقلص مع كل دورة إصدار.
بالنسبة للمنظومة التكنولوجية العالمية، هذا خبر إيجابي بلا لبس. تكلفة الذكاء تنخفض أسرع مما انخفضت تكلفة الحوسبة خلال ثورة السحابة. المؤسسات الأسرع في البناء على هذا المنحنى الانكماشي ستُحدد العقد التكنولوجي القادم.
الأسئلة الشائعة
كيف يقارن Gemini 3.1 Pro بـ GPT-5.4 في المعايير المرجعية؟
يتصدر Gemini 3.1 Pro معظم معايير الاستدلال العام، بنتيجة 77.1% على ARC-AGI-2 مقابل 73.3% لـ GPT-5.4، ويحتفظ بأعلى نتيجة مسجلة على الإطلاق في GPQA Diamond عند 94.3%. غير أن GPT-5.4 يتفوق في مهام استخدام الحاسوب بنتيجة 75% على OSWorld التي تتجاوز عتبات الخبراء البشريين. يقع النموذجان ضمن فارق نقاط مئوية أحادية الرقم في معظم المهام، مما يجعل التكلفة والملاءمة لحالة الاستخدام المحددة أهم من التصنيفات الإجمالية.
هل ستُحقق NVIDIA Vera Rubin فعلاً استدلالاً أرخص بـ 10 أضعاف؟
ادعاء NVIDIA بتخفيض تكلفة الرمز بمقدار 10 أضعاف مقاس تحديداً على نماذج مزيج الخبراء (MoE) مثل Kimi-K2-Thinking بأطوال تسلسل 32 ألف/8 آلاف. بالنسبة للنماذج الكثيفة بسياقات أقصر، يتوقع محللو القطاع تحسينات بمقدار 2 إلى 3 أضعاف في عمليات النشر الإنتاجية النموذجية. التخفيض الكامل بمقدار 10 أضعاف قابل للتحقيق في سيناريوهات ذكاء اصطناعي وكيل محسّنة باستخدام بنى MoE. يدخل Vera Rubin الإنتاج في النصف الثاني من 2026، وستؤكد معايير مرجعية مستقلة هذه النتائج لاحقاً هذا العام.
إذا كانت رموز الذكاء الاصطناعي تصبح أرخص، فلماذا تتزايد ميزانيات المؤسسات للذكاء الاصطناعي؟
هذه مفارقة Jevons قيد العمل. بينما انخفضت تكاليف الرمز الواحد بنحو 280 ضعفاً خلال 18 شهراً، ينمو الاستخدام بوتيرة أسرع. تستهلك سير عمل الذكاء الاصطناعي الوكيل من 5 إلى 30 ضعفاً من الرموز لكل مهمة مقارنة بتفاعلات روبوت المحادثة البسيطة، وتتوقع Gartner أن 40% من تطبيقات المؤسسات ستدمج وكلاء ذكاء اصطناعي بحلول نهاية 2026. ارتفع متوسط ميزانية الذكاء الاصطناعي للمؤسسات من 1.2 مليون دولار في 2024 إلى 7 ملايين في 2026 مع نشر المؤسسات للذكاء الاصطناعي في مزيد من المنتجات وسير العمل.
المصادر والقراءات الإضافية
- Gemini 3.1 Pro: A Smarter Model for Your Most Complex Tasks — Google Blog
- Introducing GPT-5.4 — OpenAI
- NVIDIA Launches Vera Rubin NVL72 AI Supercomputer at CES — Tom’s Hardware
- Gartner Predicts 90% Drop in LLM Inference Costs by 2030 — Gartner Newsroom
- Leading Inference Providers Cut AI Costs by up to 10x on NVIDIA Blackwell — NVIDIA Blog
- Gartner Predicts 40% of Enterprise Apps Will Feature AI Agents by 2026 — Gartner Newsroom
- OpenAI Sees $5 Billion Loss on $3.7 Billion in Revenue — CNBC
- Anthropic’s Claude Opus 4.5 Pricing Cut Signals Enterprise AI Shift — InfoWorld
- AI Inference’s 280x Slide: 18-Month Cost Optimization Explained — AI CERTs






