الاتهام الذي هزّ صناعة الذكاء الاصطناعي
في 23 فبراير 2026، نشرت Anthropic تقريرًا مفصلًا أحدث موجة صدمة في مجتمع الذكاء الاصطناعي. اتهمت الشركة علنًا ثلاثة مختبرات صينية للذكاء الاصطناعي — DeepSeek وMiniMax وMoonshot AI — بتنظيم حملات تقطير على نطاق صناعي تستهدف نموذجها Claude. كانت الأرقام مذهلة: نحو 24,000 حساب احتيالي وأكثر من 16 مليون تبادل مصمم لاستخراج قدرات الاستدلال التي أمضت Anthropic سنوات وأنفقت مليارات الدولارات في تطويرها بشكل منهجي.
لم يكن الأمر يتعلق ببضعة باحثين يختبرون نموذج منافس بشكل عرضي. وفقًا لتحقيقات Anthropic، استخدمت العمليات ما وصفته الشركة بـ”بنى العناقيد الهيدرا” — شبكات حسابات احتيالية واسعة مزجت حركة التقطير مع الطلبات المشروعة لتفادي الكشف. أدارت إحدى شبكات الوكالة (Proxy) أكثر من 20,000 حساب في آنٍ واحد. أُنشئت الحسابات بأساليب انتهكت شروط خدمة Anthropic وقيود الوصول الإقليمية، إذ أن Claude غير متاح تجاريًا في الصين.
كشف التحليل التفصيلي حسب الشركة عن حجم كل عملية. كانت MiniMax الأكثر نشاطًا، حيث أنتجت أكثر من 13 مليون تبادل تركزت على قدرات البرمجة الوكيلية واستخدام الأدوات. استحوذت Moonshot AI على أكثر من 3.4 مليون تبادل استهدفت الاستدلال الوكيلي واستخدام الأدوات والبرمجة وتحليل البيانات وتطوير وكلاء استخدام الحاسوب والرؤية الحاسوبية. كانت عملية DeepSeek أصغر حجمًا — أكثر من 150,000 تبادل — لكنها تميزت بتركيزها الاستراتيجي على قدرات الاستدلال، والتصنيف القائم على معايير التقييم لنماذج المكافأة في التعلم المعزز، وتفصيل كاشف بشكل خاص: سعى المختبر للحصول على مساعدة Claude في توليد بدائل آمنة من الرقابة لاستفسارات حساسة سياسيًا حول المعارضين وقادة الحزب والاستبداد.
أجبر هذا الكشف صناعة الذكاء الاصطناعي بأكملها على مواجهة حقيقة غير مريحة: النماذج التي تنفق الشركات مئات الملايين من الدولارات على تدريبها يمكن إعادة هندستها العكسية بشكل منهجي من قبل أي شخص يملك ما يكفي من رصيد واجهة البرمجة (API) والصبر. تطور تقطير النماذج — عملية تدريب نموذج أصغر لمحاكاة مخرجات نموذج أكبر — من تقنية بحثية مشروعة إلى أداة لاستخراج الملكية الفكرية على نطاق صناعي.
كيف يعمل تقطير النماذج فعليًا
لفهم خطورة الاتهامات، من المفيد استيعاب آليات تقطير النماذج. في جوهره، التقطير بسيط بشكل خادع. يُدرَّب نموذج “طالب” ليس على بيانات خام، بل على مخرجات نموذج “معلم”. من خلال تغذية ملايين الاستعلامات المصممة بعناية إلى المعلم وتسجيل استجاباته، يتعلم الطالب محاكاة سلوك المعلم — غالبًا بجزء بسيط من التكلفة الحسابية.
طُوّرت هذه التقنية في الأصل على يد Geoffrey Hinton وOriol Vinyals وJeff Dean في ورقة بحثية عام 2015 بعنوان “تقطير المعرفة في شبكة عصبية” (Distilling the Knowledge in a Neural Network). كان المفهوم عمليًا ومشروعًا تمامًا: نموذج ضخم يتطلب مركز بيانات يمكن “تقطيره” في نسخة مدمجة تعمل على هاتف ذكي، مع الاحتفاظ بمعظم قدرات النسخة الأصلية. كان أنيقًا ومفيدًا للنشر على أجهزة محدودة الموارد.
ما تغير هو الحجم والنية. عند تطبيقه على النماذج الرائدة مثل Claude وGPT-4 وGemini، يصبح التقطير آلية لنقل قدرات كلفت مليارات الدولارات لتطويرها. الفكرة الجوهرية هي أن مخرجات النموذج — سلاسل استدلاله واختياراته الأسلوبية وأنماط أخطائه — تحتوي على معرفة ضمنية حول بيانات تدريبه وقرارات بنيته واستراتيجيات ضبطه الدقيق. يمكن لمجموعة بيانات تقطير كبيرة بما يكفي التقاط جزء كبير من هذه المعرفة الضمنية.
زعمت التقارير أن العمليات الصينية دفعت هذا إلى أقصى حد. من بين التقنيات البارزة التي حددتها Anthropic، مطالبة Claude بـ”توضيح الاستدلال الداخلي وراء استجابة مكتملة… خطوة بخطوة”، مما يولد فعليًا بيانات تدريب سلسلة التفكير على نطاق واسع. بدلًا من إرسال استعلامات عشوائية، استخدمت الحسابات تسلسلات استعلامات مصممة بشكل منهجي رسمت حدود قدرات Claude. كانت سلاسل الاستعلامات المتزايدة التعقيد تحدد النقطة الدقيقة التي ينهار عندها الاستدلال. واستخرجت المحادثات متعددة الأدوار نهج النموذج في الموازنة بين المبادئ المتنافسة. وكشفت طلبات توليد الشيفرة عبر عشرات لغات البرمجة عن اتساع وعمق التدريب التقني للنموذج.
الكشف والإسناد: كيف كشفتهم Anthropic
اعتمدت قدرة Anthropic على كشف حملات التقطير وإسنادها على نهج متعدد الطبقات. وصفت الشركة استخدام البصمة السلوكية والمصنفات لرصد أنماط توزيع الاستعلامات المرتبطة بالتقطير، والنشاط المنسق متعدد الحسابات، والطلبات المصممة لاستخراج سلسلة تفكير الاستدلال.
يعمل هذا النهج على مبدأ أن المستخدمين البشريين العضويين يتفاعلون مع نماذج الذكاء الاصطناعي بأساليب بشرية يمكن التعرف عليها. يرتكبون أخطاء مطبعية، ويغيرون المواضيع فجأة، ويطرحون أسئلة متابعة بناءً على استجابات النموذج، ويُظهرون عمومًا نوع الفضول الفوضوي غير الخطي الذي يميز الاستكشاف الفكري الحقيقي. في المقابل، تتبع استعلامات التقطير الآلية أنماطًا منهجية. تغطي المواضيع بتسلسلات منظمة، وتستخدم استعلامات منسقة بشكل متسق، ونادرًا ما تُظهر تحولات في المحادثة.
إلى جانب التحليل السلوكي، أسندت Anthropic كل حملة إلى مختبر محدد بما وصفته بـ”ثقة عالية” من خلال ربط عناوين بروتوكول الإنترنت (IP)، وبيانات وصفية للطلبات، ومؤشرات البنية التحتية، وفي بعض الحالات تأكيدات من شركاء في الصناعة. تركت بنى العناقيد الهيدرا — شبكات من آلاف الحسابات المُدارة عبر بنية تحتية مشتركة — آثارًا جنائية ربطت الحسابات المستقلة ظاهريًا بعمليات منسقة.
حددت Anthropic استراتيجية دفاعية من ثلاث طبقات للمستقبل. أولًا، البصمة السلوكية والمصنفات لكشف أنماط التقطير في الوقت الحقيقي. ثانيًا، ضوابط وصول معززة مع فحوصات أكثر صرامة على المسارات الشائعة للإساءة مثل البرامج التعليمية والبحثية وبرامج الشركات الناشئة، بالإضافة إلى التحقق الأشد من الهوية. ثالثًا، تشكيل الاستجابة — تغييرات على مستوى المنتج والنموذج مصممة لتقليل القيمة الاستخراجية للمخرجات بالنسبة للنماذج الطالبة المحتملة مع الحفاظ على الفائدة للمستخدمين الشرعيين.
إعلان
استجابة الصناعة الأوسع
لم تكن Anthropic وحدها في اكتشاف هجمات التقطير. كانت OpenAI قد أطلقت ناقوس الخطر قبل أحد عشر يومًا. في 12 فبراير 2026، أرسلت OpenAI مذكرة إلى لجنة مجلس النواب الأمريكي المختارة بشأن الصين تدعي فيها رصد “نشاط يدل على محاولات مستمرة من DeepSeek لتقطير النماذج الرائدة من OpenAI ومختبرات أمريكية رائدة أخرى، بما في ذلك عبر أساليب جديدة مموهة.” زعمت OpenAI أن موظفي DeepSeek طوروا أساليب للتحايل على قيود الوصول والحصول على مخرجات النماذج عبر موجهات طرف ثالث مموهة.
أكدت مجموعة استخبارات التهديدات في Google (المعروفة بـ GTIG) أن Gemini تعرض لمحاولات تقطير كبيرة. في حملة موثقة واحدة، أرسل المهاجمون استعلامات إلى Gemini أكثر من 100,000 مرة قبل أن تحدد Google النمط. حاولت الاستعلامات إجبار Gemini على إخراج عمليات الاستدلال الكاملة، مع اتساع الأسئلة الذي يشير إلى محاولة لتكرار قدرة Gemini على الاستدلال في لغات مستهدفة غير إنجليزية. أفادت Google أنها استخدمت بيانات من الهجمات المكتشفة لتعزيز مصنفات Gemini، وتدريب النموذج على التعرف على محاولات استقصاء منطقه الأساسي.
شملت استجابة الصناعة توسيع أنظمة العلامات المائية للمخرجات التي تدمج توقيعات إحصائية في استجابات النماذج، غير مرئية للمستخدمين البشر لكن يمكن كشفها في بيانات تدريب النماذج المشتقة. أصبح تقييد المعدل أكثر تطورًا، متجاوزًا الحدود البسيطة لاستدعاءات واجهة البرمجة إلى تحليل المحتوى المعلوماتي النظري لتسلسلات الاستعلامات — الحساب الذي يرسل استعلامات ذات معلومات متبادلة مرتفعة بشكل غير عادي يخضع للمراجعة حتى لو بقي ضمن حدود المعدل. استكشف بعض الباحثين “تسميم المخرجات” كرادع، لكن هذا النهج لا يزال مثيرًا للجدل لأنه يخاطر بتدهور تجربة المستخدمين الشرعيين.
حماية الملكية الفكرية في عصر الأوزان المفتوحة
كشفت أزمة التقطير عن توتر جوهري في نهج صناعة الذكاء الاصطناعي تجاه الملكية الفكرية. تعتمد الحماية التقليدية للملكية الفكرية للبرمجيات على إبقاء الشيفرة المصدرية مملوكة. لكن نماذج الذكاء الاصطناعي تسرّب ملكيتها الفكرية في كل مرة تولد فيها استجابة. كل مخرج هو في الواقع نافذة صغيرة على تدريب النموذج وقدراته.
يخلق هذا ما يسميه الباحثون القانونيون “مفارقة واجهة البرمجة”: إتاحة النموذج عبر واجهة برمجة التطبيقات ضرورية في الوقت ذاته للجدوى التجارية وكافية لاستخراج الملكية الفكرية. على عكس البرمجيات التقليدية، حيث يمكن ملاحظة الوظائف دون كشف التنفيذ، تكشف نماذج الذكاء الاصطناعي تنفيذها من خلال وظائفها.
المشهد القانوني ضبابي. لم تُصمم أطر الملكية الفكرية الحالية لهذا السيناريو. يحمي قانون حقوق المؤلف التعبيرات المحددة لا الأفكار أو الأساليب — ومن غير الواضح ما إذا كان “أسلوب” استدلال النموذج يشكل تعبيرًا قابلًا للحماية. يتطلب قانون الأسرار التجارية أن يتخذ المالك خطوات معقولة لحماية السر، لكن كيف تحمي شيئًا يجب مشاركته لتوليد الإيرادات؟ يتحرك قانون البراءات ببطء شديد لمواكبة دورات تطوير الذكاء الاصطناعي.
البُعد الجيوسياسي: التنافس الأمريكي الصيني في الذكاء الاصطناعي
لا يمكن فصل جدل التقطير عن السياق الجيوسياسي الأوسع للتنافس التكنولوجي بين الولايات المتحدة والصين. نفذت الولايات المتحدة ضوابط تصدير متزايدة العدوانية تستهدف قطاع الذكاء الاصطناعي الصيني، مقيدة الوصول إلى الرقائق المتقدمة ومعدات التصنيع وخدمات الحوسبة السحابية. في يناير 2026، راجع مكتب الصناعة والأمن سياسة تراخيص التصدير لرقائق الذكاء الاصطناعي، منتقلًا إلى المراجعة حالة بحالة بدلًا من الرفض المفترض للصادرات المتجهة إلى الصين — لكن مع توسيع المتطلبات لتشمل البنية التحتية للوصول عن بُعد كخدمة.
جعلت هذه الضوابط من الصعب بشكل كبير على المختبرات الصينية تدريب نماذج رائدة من الصفر — لكنها لم تفعل شيئًا لمنع التقطير من النماذج المتاحة بحرية عبر واجهة البرمجة. خلق هذا التباين هيكل حوافز معكوسًا. كلما صعّبت الولايات المتحدة على المختبرات الصينية تطوير نماذجها الأساسية الخاصة، زاد الحافز لاستخراج القدرات من النماذج الأمريكية. يصبح التقطير ليس مجرد اختصار عقلاني اقتصاديًا بل ضرورة استراتيجية في بيئة يكون فيها التدريب المستقل مقيدًا بحظر الرقائق.
حتى أواخر فبراير 2026، لم ترد DeepSeek أو MiniMax أو Moonshot AI علنًا على اتهامات Anthropic. ظلت طلبات التعليق من وسائل إعلام متعددة دون إجابة. سرّعت الحادثة المطالبات في واشنطن بتوسيع ضوابط التصدير لتشمل الوصول إلى النماذج ذاتها — مما قد يتطلب من الكيانات الصينية الحصول على تراخيص قبل الوصول إلى نماذج الذكاء الاصطناعي الأمريكية عبر واجهة البرمجة. ستمثل مثل هذه الضوابط تصعيدًا كبيرًا وقد تُجزئ منظومة الذكاء الاصطناعي العالمية إلى كتل متنافسة ذات قابلية تشغيل بيني محدودة.
بالنسبة لصناعة الذكاء الاصطناعي، تمثل حروب التقطير لحظة حساب. يُطعن في الافتراض القائل بأن مقدمي النماذج يمكنهم تقديم وصول واسع عبر واجهة البرمجة وحماية ملكيتهم الفكرية الأساسية في الوقت نفسه. الحلول — سواء كانت تقنية أو قانونية أو جيوسياسية — ستشكل هيكل صناعة الذكاء الاصطناعي لسنوات قادمة. ما هو واضح أن عصر الانفتاح الساذج يقترب من نهايته، وعصر التحكم الاستراتيجي في الوصول إلى الذكاء الاصطناعي قد بدأ.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — منظومة الذكاء الاصطناعي الناشئة في الجزائر ليست معنية مباشرة، لكن المطورين والباحثين الجزائريين الذين يستخدمون واجهات برمجة Claude وGPT وGemini قد يواجهون ضوابط وصول أشد وتحقق أكثر صرامة من الهوية مع تشديد مقدمي الخدمات لدفاعاتهم ضد التقطير |
| جاهزية البنية التحتية؟ | لا — تفتقر الجزائر إلى نماذج ذكاء اصطناعي رائدة محلية؛ أي قيود على الوصول عبر واجهة البرمجة تؤثر بشكل غير متناسب على الدول التي لا تملك بدائل وطنية |
| توفر المهارات؟ | جزئي — يفهم باحثو التعلم الآلي الجزائريون تقنيات التقطير، لكن قلة من المؤسسات تملك الحجم أو القدرة الحسابية لتنفيذ حملات تقطير صناعية أو الدفاع ضدها |
| الجدول الزمني للعمل | 6-12 شهرًا — من المرجح أن تُطرح ضوابط وصول أشد عبر واجهة البرمجة وقيود إقليمية على مستوى الصناعة في 2026، مما قد يؤثر على المستخدمين الجزائريين |
| أصحاب المصلحة الرئيسيون | باحثو الذكاء الاصطناعي، مختبرات التعلم الآلي الجامعية، الشركات الناشئة المبنية على واجهات برمجة Claude وGPT وGemini، وزارة البريد والمواصلات السلكية واللاسلكية |
| نوع القرار | تثقيفي — فهم المشهد المتغير للوصول إلى الذكاء الاصطناعي وتداعياته على السيادة التكنولوجية |
خلاصة سريعة: ينبغي لبُناة الذكاء الاصطناعي الجزائريين مراقبة كيف تؤثر دفاعات التقطير الأشد على الوصول إلى واجهات البرمجة من منطقة الشرق الأوسط وشمال أفريقيا. قد يجعل التوجه نحو التحقق الأكثر صرامة من الهوية والضوابط الإقليمية وصول المطورين الجزائريين إلى النماذج الرائدة أصعب — مما يعزز الحجة للاستثمار في القدرات المحلية للذكاء الاصطناعي والبدائل مفتوحة المصدر.
المصادر والقراءات الإضافية
- Detecting and Preventing Distillation Attacks — Anthropic
- Anthropic Accuses DeepSeek, Moonshot and MiniMax of Distillation Attacks on Claude — CNBC
- Anthropic Accuses Chinese AI Labs of Mining Claude as US Debates AI Chip Exports — TechCrunch
- Distilling the Knowledge in a Neural Network — Hinton, Vinyals, Dean (arXiv 2015)
- GTIG AI Threat Tracker: Distillation, Experimentation, and Integration of AI for Adversarial Use — Google Cloud Blog
- Anthropic Claims Chinese Companies Ripped It Off Using Its AI Tools — Fortune
- OpenAI Accuses DeepSeek of Distilling US AI Models — Rest of World





إعلان