⚡ أبرز النقاط

اعتباراً من أبريل 2026، تُؤجَّر وحدات A100 80GB بسعر 0.78 دولار/الساعة على Thunder Compute و1.21 دولار/الساعة على Vast.ai، مقابل 1.85 دولار/الساعة على AWS و3.67 دولار/الساعة على Google Cloud، أي بخصم يتراوح بين 60 و79 بالمئة. أما تسعير H100 فأكثر تفاوتاً: 1.38 دولار/الساعة لدى المزودين المتخصصين مقابل 14.19 دولار/الساعة على Google Cloud. لقد انقسم سوق سحابة GPU هيكلياً إلى مستويات السلعة والتخصص والمزودين الفائقين.

الخلاصة: ينبغي على قادة الهندسة ترتيب أعباء عمل الذكاء الاصطناعي وفق خريطة المزودين الجديدة — مزودو السلعة للتجريب، وسحابات الذكاء الاصطناعي المتخصصة للتدريب الجاد، والمزودون الفائقون للإنتاج مع الامتثال — بدلاً من معاملة سحابة GPU كقرار شراء موحد.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
متوسط

يمكن لفرق الذكاء الاصطناعي الجزائرية ومجموعات البحث الجامعية استخدام سحابات GPU المتخصصة عن بُعد؛ وفجوة التسعير تغير بشكل ملموس القدرة على تحمل تكاليف الضبط الدقيق وأعمال التجريب محلياً.
البنية التحتية جاهزة؟
جزئي

عرض النطاق الترددي العابر للحدود يتحسن مع Medusa وAfrica-1، لكن زمن الاستجابة الجزائري إلى مزودي GPU السلعيين (المستضافين في الولايات المتحدة) عالٍ بما يكفي لتعاني منه أعباء العمل التفاعلية.
المهارات متوفرة؟
محدودة

مهارات MLOps والتدريب الموزع تظل نادرة في سوق العمل الجزائري؛ وقد تدفع الفرق علاوة المزود الفائق مقابل البساطة المُدارة بدلاً من تنسيق مزودي مستوى السلعة.
الجدول الزمني للعمل
فوري

فروق الأسعار مفتوحة الآن وقابلة للتطبيق على أي فريق يشغّل ضبطاً دقيقاً أو تجريباً؛ واحتكاك الترحيل تشغيلي وليس تنظيمياً.
أصحاب المصلحة الرئيسيون
قادة هندسة الذكاء الاصطناعي، فرق MLOps، مجموعات البحث
نوع القرار
تكتيكي

هذا قرار اختيار مورد وتوجيه أعباء عمل وليس تحولاً استراتيجياً هيكلياً — يمكن لفرق الهندسة التحرك بشأنه خلال ربع.

خلاصة سريعة: ينبغي على فرق الذكاء الاصطناعي الجزائرية التي تشغّل ضبطاً دقيقاً واستدلالاً على دفعات وأعباء بحث اختبار مزودي GPU السلعيين (Thunder Compute وRunPod وVast.ai) للأعمال غير الإنتاجية — فالوفورات بنسبة 60-85% تفوق المقايضات التشغيلية على نطاق التجريب. احتفظوا بالاستدلال الإنتاجي على مستويات المزود الفائق أو سحابة الذكاء الاصطناعي المتخصصة حيث تهم اتفاقيات SLA والامتثال. دقّقوا الخروج قبل الالتزام.

فجوة التسعير بنسبة 90% التي تُعيد تشكيل حوسبة الذكاء الاصطناعي

طوال معظم دورة شح GPU التي بدأت في 2023، لم يكن السؤال “كم يكلف H100 في الساعة؟” بل “هل يمكنني الحصول على H100 أصلاً؟”. وبحلول أبريل 2026، انقلب هذا السؤال. السعة متاحة على نطاق واسع لدى ما لا يقل عن ست سحابات GPU متخصصة، والقرار المهيمن أصبح الآن التمييز السعري — دفع ما يتراوح بين 0.78 و14.19 دولاراً مقابل نفس شريحة NVIDIA حسب مستوى التحكم الذي تستأجر منه.

الأرقام صارخة. وفقاً لمقارنة أسعار Thunder Compute لشهر أبريل 2026، تُؤجَّر وحدة A100 80GB بسعر 0.78 دولار/الساعة على Thunder، و0.85 دولار على TensorDock، و1.21 دولار على Vast.ai، و1.39 دولار على Hyperstack وRunPod، و1.99 دولار على Lambda. الشريحة نفسها تكلف 1.85 دولار على AWS، و2.21 دولار على CoreWeave، و3.67 دولار على Google Cloud. وبالنسبة لـ H100 80GB، الفجوة أوسع: 1.38 دولار/الساعة على Thunder Compute مقابل 14.19 دولار/الساعة على Google Cloud — أي مضاعف يفوق 10 أضعاف.

لم تعد هذه سوقاً للتسوق “بحثاً عن وفورات بنسبة 20%”. إنها سوق منقسمة هيكلياً، حيث يتنافس المزودون المتخصصون على معدلات الساعة كسلعة بينما يتنافس المزودون الفائقون على تكامل المنصات والشبكات والمشتريات المؤسسية. اختيار المستوى الخاطئ قد يكلّف فريق ذكاء اصطناعي متوسط الحجم فاتورة GPU سنوية بستة أرقام لم يكن بحاجة لدفعها.

خريطة المزودين في 2026

تُصنَّف سوق سحابة GPU الآن في ثلاثة مستويات. مستوى السلعة — Thunder Compute وRunPod وVast.ai وTensorDock وHyperstack وHyperbolic — يتنافس على الفوترة بالثانية والوصول إلى bare-metal. يمتلك هؤلاء المزودون عادةً سعة GPU أو يجمعونها، ويشغّلون مستويات تحكم رشيقة، ويمررون وفورات التكلفة للمستخدمين. هم أرضية الأسعار.

مستوى سحابة الذكاء الاصطناعي المتخصصة — CoreWeave وLambda وNebius — يقع بين السلعة والمزود الفائق. يقدمون شبكات أغنى (نسج InfiniBand وعناقيد تدريب متعددة العقد)، وتكاملاً أفضل مع سير عمل الذكاء الاصطناعي، واتفاقيات مستوى خدمة تقترب من معايير المؤسسات. يتقاضون أكثر من مزودي السلعة لكن أقل من المزودين الفائقين، ويستهدفون أعباء تدريب جدية حيث تهم طوبولوجيا الشبكة فعلاً.

مستوى المزود الفائق — AWS وAzure وGoogle Cloud وOracle — يوفر GPU كمنتج ضمن مئات. تعكس أسعارهم قيمة المنصة، لا اقتصاديات GPU: التعاقد المؤسسي، وتكامل IAM، وخيارات إقامة البيانات، والروابط العميقة بالنظام البيئي. بالنسبة لشركة من Fortune 500 معيارية بالفعل على AWS، فإن دفع 1.85 دولار/الساعة لـ A100 مقابل 0.78 دولار على Thunder عقلاني لأن التكاليف الهامشية للمشتريات والأمان وجاذبية البيانات لاستخدام مزود منفصل تتجاوز وفورات GPU.

المستوى الرابع شبه القائم هو سوق spot/preemptible، حيث يمكن لسوق المضيفين على Vast.ai وحالات spot على AWS خفض الأسعار بنسبة 50-70% إضافية مقابل الانقطاعات. بالنسبة للتدريب مع نقاط التحقق والاستدلال على دفعات، هنا يعيش الباحثون الحقيقيون عن الصفقات.

إعلان

متى تكون الوفورات حقيقية، ومتى تكون وهماً

فجوة سعر الساعة الرئيسية صحيحة؛ لكن فجوة التكلفة الإجمالية غالباً ما تكون أصغر مما تبدو. الاحتكاك يقع في خمسة أماكن.

الخروج والتخزين. يقيس المزودون المتخصصون عادةً تخزين الكائنات وعرض النطاق الترددي بشكل صارم. تشغيل تدريب يسحب 5 تيرابايت من البيانات من حاوية مزود فائق إلى سحابة GPU متخصصة يتحمل رسوم خروج قد تستهلك وفورات GPU. المهندسون المعماريون الذين يحتفظون بالبيانات والحساب لدى نفس المزود — أو يستخدمون تخزيناً بدون رسوم خروج من نوع Cloudflare R2 — يحفظون الوفورات؛ ومن لا يفعلون ذلك قد يفقدون نصفها.

طوبولوجيا الشبكة. يتطلب التدريب متعدد العقد InfiniBand غير حاجب أو ما يعادله. كثيراً ما يقدم مزودو السلعة الوصول الأحادي العقدة فقط، أو يكون “متعدد العقد” لديهم عبر شبكات بمستوى المستهلك. للتدريب على نماذج بـ 70 مليار معلمة وأكثر، هذا مهم؛ أما للضبط الدقيق وRAG والاستدلال، فعادةً لا. الحكم الخاطئ على هذا هو أكثر الأخطاء كلفة في السوق.

الموثوقية والدعم. يحمل المزودون الفائقون اتفاقيات SLA بنسبة 99.9% وأعلى ودعماً مؤسسياً 24/7. غالباً ما يعمل مزودو السلعة بطاقم محدود ودعم مجتمعي وأفضل ما يمكن من وقت التشغيل. لخدمة الاستدلال في الإنتاج لعملاء يدفعون، قد تبرر فجوة SLA فجوة السعر. أما لأعباء البحث، فعادةً لا.

الامتثال. تحمل AWS وAzure وGoogle Cloud شهادات SOC 2 وHIPAA وFedRAMP وISO 27001 و(في مناطق الاتحاد الأوروبي) متوافقة مع GDPR. معظم سحابات GPU السلعية تحمل القليل منها أو لا شيء. للصناعات المنظمة، تُغلق فجوة الامتثال الخيار الأرخص بالكامل.

سرعة المشتريات. يمكن تعديل عقود المزود الفائق عبر اتفاقيات إطارية موجودة؛ بينما يستغرق إدماج مورد جديد في شركة Fortune 500 من 3 إلى 9 أشهر. للمدير التقني الذي يحتاج GPU هذا الربع، قد يتغلب المزود الفائق البطيء-لكن-بدون-احتكاك على البديل الرخيص-لكن-غير-المتعاقد عليه.

ماذا يعني هذا لقادة الهندسة

1. صنّف أعباء عملك مقابل خريطة المزودين قبل توقيع أي شيء

الخطأ المهيمن في 2026 هو معاملة “سحابة GPU” كقرار شراء واحد. إنه ثلاثة على الأقل. الاستدلال الإنتاجي للعملاء الدافعين يخص مستوى ذو SLA حقيقي — عادةً مزود فائق أو CoreWeave/Lambda. التدريب متعدد العقد لتشغيلات بحجم النماذج الأساسية يخص مزودين متخصصين مزودين بـ InfiniBand. التجريب والضبط الدقيق والاستدلال على دفعات تخص مستوى السلعة حيث يعيش Thunder Compute وRunPod وVast.ai. قادة الهندسة الذين يبنون معمارية أحادية المستوى إما يدفعون مبالغ زائدة للتجريب أو يقصّرون في الإنتاج. الفرق التي تبني حزمة ثلاثية المستويات بشكل متعمد — مع منطق توجيه أعباء العمل وكتيبات ترحيل واضحة — تستحوذ على الوفورات والموثوقية معاً.

2. ثبّت توقعاً لمدة 12 شهراً قبل التفاوض على السعة المحجوزة

تتراكم ميزة سعر المزود المتخصص عند الالتزام. تقدم RunPod وLambda وHyperstack جميعها خصومات سعة محجوزة تتراوح بين 30 و50% على المعدل عند الطلب لالتزامات مدتها 6-12 شهراً. الخطأ الذي ترتكبه الفرق هو الالتزام دون توقع: يحجزون 8 وحدات H100، ويكتشفون أنهم يستخدمون 4 فقط بشكل منتظم، ويدفعون مقابل سعة تبقى خاملة. ابنِ توقع استهلاك لمدة 12 شهراً بناءً على بيانات الاستخدام الفعلية من الربع السابق، ثم التزم بمستوى الطلب عند المئوي السبعين. شغّل الباقي على burst عند الطلب. عادةً ما يهبط هذا في حدود 5-10% من الأمثل المطلق دون الحاجة إلى توقع مثالي.

3. دقّق معمارية الخروج والتخزين فصلياً

تتبخر الوفورات من GPU الأرخص بسرعة إذا أُسيءت إدارة خروج البيانات. فصلياً، دقّق تدفق البيانات بين التخزين والحساب: كم تتحرك من البيانات، ومن أين إلى أين، وكم تكلف كل مرحلة. الإصلاح المعتاد هو أحد ثلاثة أنماط — الموقع المشترك للتخزين مع مزود GPU (Cloudflare R2 + RunPod، مثلاً)، أو استخدام CDN لتخزين بيانات التدريب الساخنة على حافة GPU، أو تجهيز البيانات في تخزين كائنات تدعمه سحابة GPU أصلاً. الفرق التي تتخطى هذا التدقيق تكتشف بانتظام، بعد ستة أشهر، أنها تدفع في الخروج أكثر مما وفرته على GPU. التدقيق تمرين ليوم واحد يستعيد عشرات الآلاف فصلياً.

الصورة الأكبر: GPU كسلعة، السحابة كخدمة

الدرس الهيكلي لتسعير GPU في 2026 هو أن GPU ذاته يصبح سلعة، بينما يصبح كل ما يحيط به — الشبكة والتخزين والامتثال والدعم — هو المنتج الفعلي. فجوة التسعير بنسبة 90% بين Thunder Compute وGoogle Cloud ليست عدم كفاءة في السوق؛ بل سوق يفرز نفسه وفقاً لما يقدّره كل عميل فعلاً. شركة ناشئة تشغّل تجارب ضبط دقيق تدفع 0.78 دولار/الساعة بشكل عقلاني لأنه لا شيء من القيم المضافة للمزود الفائق يساعدها. وبنك منظَّم يشغّل استدلال كشف الاحتيال يدفع 14.19 دولاراً/الساعة بشكل عقلاني لأن تكامل المنصة وSLA والامتثال هي القابل للتسليم، وليس السيليكون.

ما يأتي بعد ذلك هو ضغطان. يصعد المزودون المتخصصون إلى مستوى سحابة الذكاء الاصطناعي (دفعة CoreWeave المؤسسية، استثمارات Lambda في الشبكات) ويدفعون نحو موثوقية بدرجة المزود الفائق بأسعار دون الفائق. ويستجيب المزودون الفائقون بخفض أسعار قائمة GPU (إعلانات Google Cloud لعام 2026 بدأت ذلك) ودفع خدمات الذكاء الاصطناعي المُدارة حيث تُدمج تكلفة GPU في منتج بهامش أعلى. كلا المسارين سيئان لمنتصف السوق — المزودون الذين ليسوا الأرخص ولا الأكثر تكاملاً. توقع تجميعاً بين سحابات الذكاء الاصطناعي المتخصصة من الفئة الثانية خلال 2026-2027.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما أرخص سحابة GPU لـ A100 في 2026؟

وفقاً لمقارنة Thunder Compute لشهر أبريل 2026، يقدم Thunder Compute نفسه أدنى معدل لـ A100 80GB بسعر 0.78 دولار/الساعة، يليه TensorDock بسعر 0.85 دولار/الساعة. تبدأ أسعار سوق Vast.ai من 1.21 دولار/الساعة لكنها قد تنخفض أكثر على سعة spot من جانب المضيف. AWS عند 1.85 دولار/الساعة وGoogle Cloud عند 3.67 دولار/الساعة — مما يجعل خيار السلعة الأرخص أقل بنحو 4.7 أضعاف من معدل Google Cloud عند الطلب.

هل سحابات GPU المتخصصة موثوقة بما يكفي للإنتاج؟

يعتمد على عبء العمل. تقدم CoreWeave وLambda اتفاقيات SLA بدرجة مؤسسية وتُستخدم في الإنتاج من قِبل مختبرات ذكاء اصطناعي رئيسية. مزودو السلعة مثل Vast.ai وTensorDock أنسب للتطوير والضبط الدقيق والاستدلال على دفعات بدلاً من خدمة الإنتاج المواجهة للمستخدم. النمط الصحيح هو ترتيب أعباء العمل: الإنتاج على المزود الفائق أو سحابة الذكاء الاصطناعي المتخصصة، والتجريب على مزودي السلعة.

لماذا سعر H100 على Google Cloud أعلى بكثير من AWS أو المزودين المتخصصين؟

يعكس سعر قائمة H100 على Google Cloud البالغ 14.19 دولاراً/الساعة قيمة منصة مدمجة (تكامل TPU، أدوات Vertex AI، شبكة GCP، الدعم المؤسسي) وليس تكلفة GPU الخام. العملاء الذين يستخدمون حزمة GCP الأوسع غالباً ما يعوّضون المعدل بخصومات استخدام ملتزَم به وأرصدة مدمجة. أما العملاء الذين يحتاجون فقط ساعات H100 خام فيختارون بشكل عقلاني Thunder Compute أو Hyperbolic أو TensorDock بعُشر سعر القائمة.

المصادر والقراءات الإضافية