⚡ أبرز النقاط

أيّد 3% فقط من أصل 11,520 مشاركاً في الاستشارة استثناء الانسحاب الذي فضّلته الحكومة البريطانية في الأصل لبيانات تدريب الذكاء الاصطناعي، مما أجبر لندن على التخلي عن المقترح والإبقاء على قانون حقوق المؤلف القائم — قرار يحمي صناعات إبداعية تساهم بـ 145.8 مليار جنيه إسترليني في القيمة المضافة الإجمالية السنوية مع ترك شركات الذكاء الاصطناعي بدون اليقين القانوني الذي سعت إليه.

خلاصة: رفض المملكة المتحدة لاستثناء بيانات التدريب ونهج الاتحاد الأوروبي « الترخيص أولاً » يشيران إلى إجماع عالمي على أن أصحاب حقوق المؤلف يجب أن يحتفظوا بالسيطرة على كيفية استخدام أعمالهم في تدريب الذكاء الاصطناعي.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار (المنظور الجزائري)

الصلة بالجزائر
متوسطة

ستواجه قطاعات الإعلام والنشر والموسيقى الجزائرية أسئلة مماثلة حول بيانات تدريب الذكاء الاصطناعي مع نمو تبني الذكاء الاصطناعي التوليدي محلياً وإقليمياً عبر العالم الفرنكوفوني والعربي.
البنية التحتية جاهزة؟
لا

تفتقر الجزائر إلى بنية تحتية متينة لإنفاذ حقوق المؤلف، ومنصات ترخيص رقمية، وجمعيات إدارة جماعية قادرة على إدارة الحقوق المتعلقة بالذكاء الاصطناعي على نطاق واسع. يدير ONDA الحقوق التقليدية لكنه لا يملك إطاراً لبيانات تدريب الذكاء الاصطناعي.
المهارات متوفرة؟
جزئياً

تمتلك الجزائر خبرة قانونية في الملكية الفكرية من خلال محاكم الملكية الفكرية وINAPI، لكن المعرفة المتخصصة عند تقاطع قانون حقوق المؤلف وتكنولوجيا الذكاء الاصطناعي وتنظيم التنقيب في النصوص والبيانات تبقى محدودة.
الجدول الزمني للعمل
12-24 شهراً

مراقبة التطورات التشريعية البريطانية وتطبيق AI Act الأوروبي والقرارات القضائية الأمريكية لبناء قاعدة أدلة قبل النظر في تحديث الإطار الجزائري لحقوق المؤلف.
الأطراف المعنية الرئيسية
ONDA (ديوان حقوق المؤلف)، INAPI (المعهد الوطني للملكية الصناعية)، وزارة الثقافة، وزارة البريد والمواصلات السلكية واللاسلكية، المؤسسات الإعلامية الجزائرية، الناشرون باللغة العربية، مطورو وشركات الذكاء الاصطناعي المحليون
نوع القرار
تعليمي

يقدم هذا المقال سياقاً تعليمياً لبناء الفهم وإرشاد القرارات المستقبلية.

خلاصة سريعة: سيواجه القطاع الإبداعي الجزائري — بما في ذلك النشر باللغة العربية والموسيقى والسينما — عاجلاً أم آجلاً نفس الأسئلة حول بيانات تدريب الذكاء الاصطناعي التي تواجهها المملكة المتحدة. يشير رفض لندن لاستثناء الانسحاب ونهج « الترخيص أولاً » الأوروبي إلى إجماع عالمي على أن أصحاب حقوق المؤلف يجب أن يحتفظوا بالسيطرة. ينبغي لصانعي السياسات الجزائريين في ONDA ووزارة الثقافة دراسة هذه النتائج لإعداد إطار يحمي المبدعين الجزائريين مع إبقاء البلاد متصلة بأدوات الذكاء الاصطناعي المفيدة.

ما يقوله تقرير مارس 2026 فعلياً

في 18 مارس 2026، نشرت الحكومة البريطانية وثيقتين بارزتين بموجب Data (Use and Access) Act 2025: تقرير عن حقوق المؤلف والذكاء الاصطناعي (القسم 136) وتقييم أثر اقتصادي مرافق (القسم 135). أعدّت هذه الوثائق بشكل مشترك كل من Department for Science, Innovation and Technology (DSIT) وIntellectual Property Office (IPO) وDepartment for Culture, Media and Sport (DCMS)، وتمثل خلاصة عملية استشارية استقطبت 11,520 رداً — 10,112 عبر منصة Citizen Space وأكثر من 1,400 عبر البريد الإلكتروني.

النتيجة الرئيسية واضحة: تخلّت الحكومة عن نهجها المفضّل سابقاً. الخيار 3 — استثناء تجاري واسع للتنقيب في النصوص والبيانات (TDM) مع آلية انسحاب لأصحاب الحقوق — انتهى. أيّده 3% فقط من المشاركين عبر Citizen Space، بينما دعم 88% الخيار 1 الذي يفرض الحصول على تراخيص لجميع استخدامات الأعمال المحمية في تدريب الذكاء الاصطناعي.

بدلاً من تبني أي من خيارات الاستشارة الأربعة، اختارت الحكومة مساراً حذراً: الحفاظ على الإطار القانوني القائم (الخيار 0 فعلياً)، وتطوير معايير شفافية طوعية، ومراقبة سوق التراخيص الناشئ، وجمع مزيد من الأدلة قبل التشريع. المقترح التشريعي الوحيد الملموس هو إلغاء القسم 9(3) من Copyright, Designs and Patents Act 1988 (CDPA) الذي يمنح حماية حقوق المؤلف للأعمال المُولَّدة حاسوبياً بدون مؤلف بشري.

الخيارات الأربعة التي كانت مطروحة

قدّمت استشارة ديسمبر 2024 أربعة مسارات سياسية متميزة لكيفية تعامل قانون حقوق المؤلف مع بيانات تدريب الذكاء الاصطناعي.

الخيار 0 — الوضع الراهن: لا تغييرات في قانون حقوق المؤلف. يبقى تدريب الذكاء الاصطناعي التجاري الذي ينسخ أعمالاً محمية بدون إذن مخالفاً محتملاً بموجب CDPA. الاستثناء القائم في القسم 29A يغطي فقط التنقيب في النصوص والبيانات لأغراض البحث غير التجاري.

الخيار 1 — الترخيص الإلزامي: إلزام مطوري الذكاء الاصطناعي بالحصول على تراخيص لجميع استخدامات الأعمال المحمية في التدريب. حظي هذا الخيار بدعم ساحق (88% من المشاركين عبر Citizen Space) ويتوافق مع موقف الصناعات الإبداعية بأن أصحاب الحقوق يجب أن يتحكموا في كيفية استخدام أعمالهم.

الخيار 2 — استثناء TDM واسع: إنشاء استثناء تجاري جديد للتنقيب في النصوص والبيانات بدون انسحاب — مما يسمح فعلياً بتدريب غير محدود للذكاء الاصطناعي على الأعمال المحمية. كان هذا الخيار الأكثر ملاءمة لصناعة الذكاء الاصطناعي والأكثر معارضة من الصناعات الإبداعية.

الخيار 3 — استثناء TDM مع انسحاب: النهج المفضّل أصلاً لدى الحكومة — استثناء تجاري TDM يتيح لأصحاب الحقوق الانسحاب عبر تدابير تقنية مثل robots.txt. رفضت الصناعات الإبداعية هذا الخيار باعتباره غير كافٍ، محتجة بأن robots.txt ينطبق فقط على استكشاف الويب، وليس دقيقاً بما يكفي لأعمال محددة، والامتثال طوعي بحت.

يُزيل تقرير مارس 2026 رسمياً الخيار 3 من الاعتبار ولا يؤيد أياً من الخيارات المتبقية. تعمل الحكومة فعلياً وفق الخيار 0 بينما تواصل جمع الأدلة.

لماذا فشل النهج الطوعي

قبل الاستشارة الرسمية، حاولت الحكومة البريطانية نهجاً طوعياً — بجمع مطوري الذكاء الاصطناعي وأصحاب الحقوق الإبداعية للتفاوض على مدونة سلوك. اعترف بيان التقدم في ديسمبر 2025 الصادر بموجب القسم 137 من القانون بمحدودية التقدم المحرز.

ثلاثة عوائق هيكلية أثبتت أنها مستعصية.

طريق مسدود حول الشفافية. طالبت الصناعات الإبداعية بأن تكشف شركات الذكاء الاصطناعي عن الأعمال المحمية التي استخدمتها في التدريب. قاومت شركات الذكاء الاصطناعي ذلك، مستشهدة بالحساسية التنافسية واستحالة الكشف بأثر رجعي تقنياً لنماذج مدربة على مليارات نقاط البيانات. يشير التقرير إلى أن أكثر من 90% من المشاركين في الاستشارة أيدوا الشفافية الإلزامية، لكن الحكومة توقفت عن فرضها قانونياً — مقترحة بدلاً من ذلك أفضل الممارسات القطاعية مع إمكانية التشريع مستقبلاً.

قصور آليات الانسحاب. أراد أصحاب الحقوق آليات قابلة للتطبيق تقنياً لمنع استخدام أعمالهم في تدريب الذكاء الاصطناعي. عرضت شركات الذكاء الاصطناعي احترام توجيهات robots.txt، لكن هذا ينطبق فقط على استكشاف الويب ولا يشمل البيانات المحصّلة عبر مجموعات بيانات مشتراة أو أرشيفات مرخصة أو قنوات أخرى. لم يتم التوصل إلى اتفاق حول بديل تقني متين.

طريق مسدود حول التعويض. سعت الصناعات الإبداعية إلى أطر ترخيص أو رسوم قانونية لاستخدام التدريب على الذكاء الاصطناعي. حاججت شركات الذكاء الاصطناعي بأن القيمة الناتجة عن التدريب مشتتة جداً لنسبها إلى أعمال فردية وأن متطلبات الترخيص ستجعل تطوير الذكاء الاصطناعي باهظ التكلفة. يصف التقرير ذلك بأنه عدم تماثل جوهري في الحوافز — تستفيد شركات الذكاء الاصطناعي من الوضع الراهن، بينما تتحمل الصناعات الإبداعية التكاليف بدون تعويض.

إعلان

الضغط الموازي: تقرير مجلس اللوردات

قبل اثني عشر يوماً من التقرير الحكومي، نشرت لجنة الاتصالات والرقمنة في مجلس اللوردات تحقيقها الخاص: « AI, copyright and the creative industries » (HL Paper 267، 6 مارس 2026). كانت استنتاجات اللوردات أكثر حدة من تلك الحكومية.

أيّدت اللجنة نهج « الترخيص أولاً »، موصية صراحة برفض أي استثناء TDM جديد مع انسحاب. دعت إلى التزامات شفافية قانونية — لا طوعية — تُلزم مطوري الذكاء الاصطناعي بالكشف عن مصادر بيانات التدريب. أوصت اللجنة أيضاً بحماية جديدة ضد النسخ الرقمية غير المصرح بها ومخرجات الذكاء الاصطناعي الضارة « على طريقة » التي تستغل هوية المبدعين.

لا يتمتع تقرير اللوردات بقوة ملزمة لكنه مارس ضغطاً سياسياً كبيراً. إصداره قبل أيام من الموعد النهائي القانوني للحكومة أشار إلى أن البرلمان يتوقع إجراءات أقوى من جمع الأدلة الحذر الذي اقترحته الحكومة في نهاية المطاف.

موقع المملكة المتحدة على الصعيد العالمي

يضع قرار المملكة المتحدة بالحفاظ على إطارها القانوني القائم البلاد في موقع مميز بين الولايات القضائية الكبرى في مجال الذكاء الاصطناعي.

الاتحاد الأوروبي أنشأ إطاراً قانونياً بموجب توجيه حقوق المؤلف (2019/790). تسمح المادة 3 بالتنقيب في النصوص والبيانات لأغراض البحث؛ وتسمح المادة 4 بالتنقيب التجاري لكنها تمنح أصحاب الحقوق القدرة على الاعتراض. يعزز AI Act هذا الإطار بمتطلبات شفافية حول بيانات التدريب. يُنشئ النهج الأوروبي نظام ترخيص فعلي لتدريب الذكاء الاصطناعي التجاري.

الولايات المتحدة تعتمد على مبدأ الاستخدام العادل (fair use) (17 U.S.C. القسم 107)، مع عدة دعاوى قضائية لا تزال تختبر ما إذا كان تدريب الذكاء الاصطناعي يندرج تحته. القرار الأكثر أهمية حتى الآن صدر في فبراير 2025، عندما قضى القاضي Bibas بأن استخدام ROSS Intelligence لملخصات Thomson Reuters لتدريب أداة بحث قانوني بالذكاء الاصطناعي لا يندرج ضمن الاستخدام العادل — أول محكمة أمريكية تفصل نهائياً في هذه المسألة. القضية قيد الاستئناف أمام Third Circuit. في الوقت نفسه، تستمر قضية The New York Times ضد OpenAI في مرحلة الاكتشاف، مع أمر صادر في يناير 2026 يُلزم OpenAI بتقديم 20 مليون سجل محادثات ChatGPT.

المملكة المتحدة تحتل الآن أرضاً وسطى. من المرجح أن قانون حقوق المؤلف القائم يحظر التدريب التجاري غير المصرح به للذكاء الاصطناعي (لا يوجد استثناء محدد)، لكن لا توجد سوابق قضائية بريطانية تختبر هذا التفسير ولا إطار قانوني يعالج تدريب الذكاء الاصطناعي تحديداً. اختارت الحكومة عدم إنشاء استثناءات جديدة وعدم فرض تراخيص — موقف يحافظ على حماية الصناعات الإبداعية نظرياً مع ترك التنفيذ للمحاكم.

ماذا يعني هذا للصناعات الإبداعية وشركات الذكاء الاصطناعي

بالنسبة للصناعات الإبداعية البريطانية — التي تساهم بـ 145.8 مليار جنيه إسترليني في القيمة المضافة الإجمالية للاقتصاد في 2024 وتوظف نحو 2.4 مليون شخص — النتيجة انتصار نسبي. رُفض استثناء TDM المخيف الذي كان سيسمح بتدريب الذكاء الاصطناعي بدون موافقة. تبقى حماية حقوق المؤلف القائمة سليمة، مما يعني أن شركات الذكاء الاصطناعي تحتاج تقنياً إلى إذن لاستخدام الأعمال المحمية في التدريب.

التحفظ يكمن في التنفيذ. بدون متطلبات شفافية قانونية، لا يستطيع أصحاب الحقوق تحديد ما إذا كانت أعمالهم قد استُخدمت لتدريب نماذج الذكاء الاصطناعي بسهولة. بدون إطار ترخيص، لا توجد آلية معيارية للتعويض. ربحت الصناعات الإبداعية الحجة السياسية لكنها لا تزال تفتقر إلى الأدوات العملية لممارسة حقوقها.

بالنسبة لشركات الذكاء الاصطناعي، تخلق النتيجة حالة من عدم اليقين القانوني. يحمل التدريب على أعمال محمية بدون إذن خطر المخالفة بموجب القانون البريطاني القائم، لكن لم تُرفع أي دعوى في المملكة المتحدة بعد بسبب تدريب الذكاء الاصطناعي، ولم تُشر الحكومة إلى أي نية لملاحقة التنفيذ. الواقع العملي أن تدريب الذكاء الاصطناعي يستمر بينما يبقى الإطار القانوني غير مُختبر.

قد يسد سوق التراخيص الناشئ هذه الفجوة. وقّعت عدة شركات ذكاء اصطناعي بالفعل اتفاقيات ترخيص مع ناشرين ومؤسسات إخبارية، وأشارت الحكومة إلى رغبتها في أن يتطور هذا السوق عضوياً قبل النظر في التدخل التنظيمي.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ماذا قرّر تقرير الحكومة البريطانية في مارس 2026 بشأن حقوق المؤلف والذكاء الاصطناعي؟

رفض التقرير المنشور في 18 مارس 2026 بموجب القسمين 135 و136 من Data (Use and Access) Act 2025 رسمياً الخيار 3 المفضّل سابقاً لدى الحكومة — استثناء تجاري واسع للتنقيب في النصوص والبيانات مع آلية انسحاب. أيّده 3% فقط من أصل 11,520 مشاركاً في الاستشارة، بينما دعم 88% الترخيص الإلزامي. اختارت الحكومة الحفاظ على قانون حقوق المؤلف القائم (الوضع الراهن)، وتطوير معايير شفافية طوعية، ومراقبة سوق التراخيص الناشئ بدلاً من التشريع فوراً. المقترح التشريعي الوحيد الملموس هو إلغاء حماية القسم 9(3) من CDPA للأعمال المُولَّدة حاسوبياً.

كيف يختلف نهج المملكة المتحدة عن نهجَي الاتحاد الأوروبي والولايات المتحدة؟

يمتلك الاتحاد الأوروبي إطاراً قانونياً بموجب توجيه حقوق المؤلف يمكن لأصحاب الحقوق من خلاله الاعتراض على التنقيب التجاري في النصوص والبيانات، مما يُنشئ نظام ترخيص فعلي. تعتمد الولايات المتحدة على الاستخدام العادل (fair use)، مع أول حكم ضد تدريب الذكاء الاصطناعي (Thomson Reuters ضد ROSS Intelligence، فبراير 2025) قيد الاستئناف حالياً. تقع المملكة المتحدة بين الاثنين — من المرجح أن القانون القائم يحظر التدريب التجاري غير المصرح به للذكاء الاصطناعي، لكن لا يوجد تشريع محدد يعالجه ولا سوابق قضائية بريطانية تختبر هذا التفسير. اختارت الحكومة عدم إنشاء استثناءات جديدة أو فرض تراخيص، تاركة الإطار غير مُختبر.

لماذا ينبغي للجزائر الاهتمام بنقاش حقوق المؤلف والذكاء الاصطناعي في المملكة المتحدة؟

تكشف التجربة البريطانية عن نمط عالمي: تفشل المفاوضات الطوعية بين شركات الذكاء الاصطناعي والصناعات الإبداعية بسبب عدم تماثل هيكلي في الحوافز، وتُضطر الحكومات نحو حلول قانونية. تواجه الصناعات الإبداعية الجزائرية — الأدب باللغة العربية والموسيقى والسينما والصحافة — نفس خطر الاستخدام غير المصرح به لتدريب الذكاء الاصطناعي. يشير رفض المملكة المتحدة للانسحاب ونهج الترخيص الأوروبي إلى أن حماية حقوق المؤلف لبيانات التدريب أصبحت المعيار الدولي. ينبغي لـ ONDA وصانعي السياسات الجزائريين البدء في بناء البنية التحتية التقنية والقانونية لإنفاذ حقوق المؤلف في عصر الذكاء الاصطناعي قبل أن يجعل تبني الذكاء الاصطناعي التوليدي المسألة عاجلة محلياً.

المصادر والقراءات الإضافية