فجوة التسعير بنسبة 90% التي تُعيد تشكيل حوسبة الذكاء الاصطناعي
طوال معظم دورة شح GPU التي بدأت في 2023، لم يكن السؤال “كم يكلف H100 في الساعة؟” بل “هل يمكنني الحصول على H100 أصلاً؟”. وبحلول أبريل 2026، انقلب هذا السؤال. السعة متاحة على نطاق واسع لدى ما لا يقل عن ست سحابات GPU متخصصة، والقرار المهيمن أصبح الآن التمييز السعري — دفع ما يتراوح بين 0.78 و14.19 دولاراً مقابل نفس شريحة NVIDIA حسب مستوى التحكم الذي تستأجر منه.
الأرقام صارخة. وفقاً لمقارنة أسعار Thunder Compute لشهر أبريل 2026، تُؤجَّر وحدة A100 80GB بسعر 0.78 دولار/الساعة على Thunder، و0.85 دولار على TensorDock، و1.21 دولار على Vast.ai، و1.39 دولار على Hyperstack وRunPod، و1.99 دولار على Lambda. الشريحة نفسها تكلف 1.85 دولار على AWS، و2.21 دولار على CoreWeave، و3.67 دولار على Google Cloud. وبالنسبة لـ H100 80GB، الفجوة أوسع: 1.38 دولار/الساعة على Thunder Compute مقابل 14.19 دولار/الساعة على Google Cloud — أي مضاعف يفوق 10 أضعاف.
لم تعد هذه سوقاً للتسوق “بحثاً عن وفورات بنسبة 20%”. إنها سوق منقسمة هيكلياً، حيث يتنافس المزودون المتخصصون على معدلات الساعة كسلعة بينما يتنافس المزودون الفائقون على تكامل المنصات والشبكات والمشتريات المؤسسية. اختيار المستوى الخاطئ قد يكلّف فريق ذكاء اصطناعي متوسط الحجم فاتورة GPU سنوية بستة أرقام لم يكن بحاجة لدفعها.
خريطة المزودين في 2026
تُصنَّف سوق سحابة GPU الآن في ثلاثة مستويات. مستوى السلعة — Thunder Compute وRunPod وVast.ai وTensorDock وHyperstack وHyperbolic — يتنافس على الفوترة بالثانية والوصول إلى bare-metal. يمتلك هؤلاء المزودون عادةً سعة GPU أو يجمعونها، ويشغّلون مستويات تحكم رشيقة، ويمررون وفورات التكلفة للمستخدمين. هم أرضية الأسعار.
مستوى سحابة الذكاء الاصطناعي المتخصصة — CoreWeave وLambda وNebius — يقع بين السلعة والمزود الفائق. يقدمون شبكات أغنى (نسج InfiniBand وعناقيد تدريب متعددة العقد)، وتكاملاً أفضل مع سير عمل الذكاء الاصطناعي، واتفاقيات مستوى خدمة تقترب من معايير المؤسسات. يتقاضون أكثر من مزودي السلعة لكن أقل من المزودين الفائقين، ويستهدفون أعباء تدريب جدية حيث تهم طوبولوجيا الشبكة فعلاً.
مستوى المزود الفائق — AWS وAzure وGoogle Cloud وOracle — يوفر GPU كمنتج ضمن مئات. تعكس أسعارهم قيمة المنصة، لا اقتصاديات GPU: التعاقد المؤسسي، وتكامل IAM، وخيارات إقامة البيانات، والروابط العميقة بالنظام البيئي. بالنسبة لشركة من Fortune 500 معيارية بالفعل على AWS، فإن دفع 1.85 دولار/الساعة لـ A100 مقابل 0.78 دولار على Thunder عقلاني لأن التكاليف الهامشية للمشتريات والأمان وجاذبية البيانات لاستخدام مزود منفصل تتجاوز وفورات GPU.
المستوى الرابع شبه القائم هو سوق spot/preemptible، حيث يمكن لسوق المضيفين على Vast.ai وحالات spot على AWS خفض الأسعار بنسبة 50-70% إضافية مقابل الانقطاعات. بالنسبة للتدريب مع نقاط التحقق والاستدلال على دفعات، هنا يعيش الباحثون الحقيقيون عن الصفقات.
إعلان
متى تكون الوفورات حقيقية، ومتى تكون وهماً
فجوة سعر الساعة الرئيسية صحيحة؛ لكن فجوة التكلفة الإجمالية غالباً ما تكون أصغر مما تبدو. الاحتكاك يقع في خمسة أماكن.
الخروج والتخزين. يقيس المزودون المتخصصون عادةً تخزين الكائنات وعرض النطاق الترددي بشكل صارم. تشغيل تدريب يسحب 5 تيرابايت من البيانات من حاوية مزود فائق إلى سحابة GPU متخصصة يتحمل رسوم خروج قد تستهلك وفورات GPU. المهندسون المعماريون الذين يحتفظون بالبيانات والحساب لدى نفس المزود — أو يستخدمون تخزيناً بدون رسوم خروج من نوع Cloudflare R2 — يحفظون الوفورات؛ ومن لا يفعلون ذلك قد يفقدون نصفها.
طوبولوجيا الشبكة. يتطلب التدريب متعدد العقد InfiniBand غير حاجب أو ما يعادله. كثيراً ما يقدم مزودو السلعة الوصول الأحادي العقدة فقط، أو يكون “متعدد العقد” لديهم عبر شبكات بمستوى المستهلك. للتدريب على نماذج بـ 70 مليار معلمة وأكثر، هذا مهم؛ أما للضبط الدقيق وRAG والاستدلال، فعادةً لا. الحكم الخاطئ على هذا هو أكثر الأخطاء كلفة في السوق.
الموثوقية والدعم. يحمل المزودون الفائقون اتفاقيات SLA بنسبة 99.9% وأعلى ودعماً مؤسسياً 24/7. غالباً ما يعمل مزودو السلعة بطاقم محدود ودعم مجتمعي وأفضل ما يمكن من وقت التشغيل. لخدمة الاستدلال في الإنتاج لعملاء يدفعون، قد تبرر فجوة SLA فجوة السعر. أما لأعباء البحث، فعادةً لا.
الامتثال. تحمل AWS وAzure وGoogle Cloud شهادات SOC 2 وHIPAA وFedRAMP وISO 27001 و(في مناطق الاتحاد الأوروبي) متوافقة مع GDPR. معظم سحابات GPU السلعية تحمل القليل منها أو لا شيء. للصناعات المنظمة، تُغلق فجوة الامتثال الخيار الأرخص بالكامل.
سرعة المشتريات. يمكن تعديل عقود المزود الفائق عبر اتفاقيات إطارية موجودة؛ بينما يستغرق إدماج مورد جديد في شركة Fortune 500 من 3 إلى 9 أشهر. للمدير التقني الذي يحتاج GPU هذا الربع، قد يتغلب المزود الفائق البطيء-لكن-بدون-احتكاك على البديل الرخيص-لكن-غير-المتعاقد عليه.
ماذا يعني هذا لقادة الهندسة
1. صنّف أعباء عملك مقابل خريطة المزودين قبل توقيع أي شيء
الخطأ المهيمن في 2026 هو معاملة “سحابة GPU” كقرار شراء واحد. إنه ثلاثة على الأقل. الاستدلال الإنتاجي للعملاء الدافعين يخص مستوى ذو SLA حقيقي — عادةً مزود فائق أو CoreWeave/Lambda. التدريب متعدد العقد لتشغيلات بحجم النماذج الأساسية يخص مزودين متخصصين مزودين بـ InfiniBand. التجريب والضبط الدقيق والاستدلال على دفعات تخص مستوى السلعة حيث يعيش Thunder Compute وRunPod وVast.ai. قادة الهندسة الذين يبنون معمارية أحادية المستوى إما يدفعون مبالغ زائدة للتجريب أو يقصّرون في الإنتاج. الفرق التي تبني حزمة ثلاثية المستويات بشكل متعمد — مع منطق توجيه أعباء العمل وكتيبات ترحيل واضحة — تستحوذ على الوفورات والموثوقية معاً.
2. ثبّت توقعاً لمدة 12 شهراً قبل التفاوض على السعة المحجوزة
تتراكم ميزة سعر المزود المتخصص عند الالتزام. تقدم RunPod وLambda وHyperstack جميعها خصومات سعة محجوزة تتراوح بين 30 و50% على المعدل عند الطلب لالتزامات مدتها 6-12 شهراً. الخطأ الذي ترتكبه الفرق هو الالتزام دون توقع: يحجزون 8 وحدات H100، ويكتشفون أنهم يستخدمون 4 فقط بشكل منتظم، ويدفعون مقابل سعة تبقى خاملة. ابنِ توقع استهلاك لمدة 12 شهراً بناءً على بيانات الاستخدام الفعلية من الربع السابق، ثم التزم بمستوى الطلب عند المئوي السبعين. شغّل الباقي على burst عند الطلب. عادةً ما يهبط هذا في حدود 5-10% من الأمثل المطلق دون الحاجة إلى توقع مثالي.
3. دقّق معمارية الخروج والتخزين فصلياً
تتبخر الوفورات من GPU الأرخص بسرعة إذا أُسيءت إدارة خروج البيانات. فصلياً، دقّق تدفق البيانات بين التخزين والحساب: كم تتحرك من البيانات، ومن أين إلى أين، وكم تكلف كل مرحلة. الإصلاح المعتاد هو أحد ثلاثة أنماط — الموقع المشترك للتخزين مع مزود GPU (Cloudflare R2 + RunPod، مثلاً)، أو استخدام CDN لتخزين بيانات التدريب الساخنة على حافة GPU، أو تجهيز البيانات في تخزين كائنات تدعمه سحابة GPU أصلاً. الفرق التي تتخطى هذا التدقيق تكتشف بانتظام، بعد ستة أشهر، أنها تدفع في الخروج أكثر مما وفرته على GPU. التدقيق تمرين ليوم واحد يستعيد عشرات الآلاف فصلياً.
الصورة الأكبر: GPU كسلعة، السحابة كخدمة
الدرس الهيكلي لتسعير GPU في 2026 هو أن GPU ذاته يصبح سلعة، بينما يصبح كل ما يحيط به — الشبكة والتخزين والامتثال والدعم — هو المنتج الفعلي. فجوة التسعير بنسبة 90% بين Thunder Compute وGoogle Cloud ليست عدم كفاءة في السوق؛ بل سوق يفرز نفسه وفقاً لما يقدّره كل عميل فعلاً. شركة ناشئة تشغّل تجارب ضبط دقيق تدفع 0.78 دولار/الساعة بشكل عقلاني لأنه لا شيء من القيم المضافة للمزود الفائق يساعدها. وبنك منظَّم يشغّل استدلال كشف الاحتيال يدفع 14.19 دولاراً/الساعة بشكل عقلاني لأن تكامل المنصة وSLA والامتثال هي القابل للتسليم، وليس السيليكون.
ما يأتي بعد ذلك هو ضغطان. يصعد المزودون المتخصصون إلى مستوى سحابة الذكاء الاصطناعي (دفعة CoreWeave المؤسسية، استثمارات Lambda في الشبكات) ويدفعون نحو موثوقية بدرجة المزود الفائق بأسعار دون الفائق. ويستجيب المزودون الفائقون بخفض أسعار قائمة GPU (إعلانات Google Cloud لعام 2026 بدأت ذلك) ودفع خدمات الذكاء الاصطناعي المُدارة حيث تُدمج تكلفة GPU في منتج بهامش أعلى. كلا المسارين سيئان لمنتصف السوق — المزودون الذين ليسوا الأرخص ولا الأكثر تكاملاً. توقع تجميعاً بين سحابات الذكاء الاصطناعي المتخصصة من الفئة الثانية خلال 2026-2027.
الأسئلة الشائعة
ما أرخص سحابة GPU لـ A100 في 2026؟
وفقاً لمقارنة Thunder Compute لشهر أبريل 2026، يقدم Thunder Compute نفسه أدنى معدل لـ A100 80GB بسعر 0.78 دولار/الساعة، يليه TensorDock بسعر 0.85 دولار/الساعة. تبدأ أسعار سوق Vast.ai من 1.21 دولار/الساعة لكنها قد تنخفض أكثر على سعة spot من جانب المضيف. AWS عند 1.85 دولار/الساعة وGoogle Cloud عند 3.67 دولار/الساعة — مما يجعل خيار السلعة الأرخص أقل بنحو 4.7 أضعاف من معدل Google Cloud عند الطلب.
هل سحابات GPU المتخصصة موثوقة بما يكفي للإنتاج؟
يعتمد على عبء العمل. تقدم CoreWeave وLambda اتفاقيات SLA بدرجة مؤسسية وتُستخدم في الإنتاج من قِبل مختبرات ذكاء اصطناعي رئيسية. مزودو السلعة مثل Vast.ai وTensorDock أنسب للتطوير والضبط الدقيق والاستدلال على دفعات بدلاً من خدمة الإنتاج المواجهة للمستخدم. النمط الصحيح هو ترتيب أعباء العمل: الإنتاج على المزود الفائق أو سحابة الذكاء الاصطناعي المتخصصة، والتجريب على مزودي السلعة.
لماذا سعر H100 على Google Cloud أعلى بكثير من AWS أو المزودين المتخصصين؟
يعكس سعر قائمة H100 على Google Cloud البالغ 14.19 دولاراً/الساعة قيمة منصة مدمجة (تكامل TPU، أدوات Vertex AI، شبكة GCP، الدعم المؤسسي) وليس تكلفة GPU الخام. العملاء الذين يستخدمون حزمة GCP الأوسع غالباً ما يعوّضون المعدل بخصومات استخدام ملتزَم به وأرصدة مدمجة. أما العملاء الذين يحتاجون فقط ساعات H100 خام فيختارون بشكل عقلاني Thunder Compute أو Hyperbolic أو TensorDock بعُشر سعر القائمة.
المصادر والقراءات الإضافية
- The Cheapest Cloud GPU Providers — Thunder Compute Blog
- Top Cloud GPU Providers — RunPod Guides
- GPU Cloud Pricing Comparison 2026 — Spheron Network
- Cheapest Cloud GPU Providers — Northflank
- GPU Cloud Comparison 2026: The Real Cost of AI Compute — Nerd Level Tech
- Cloud GPU Pricing Aggregator — GetDeploying















