ما الذي نشرته OECD ولماذا الآن
أصدرت OECD الدليل في 19 فبراير 2026 بوصفه أداة تفسيرية غير ملزمة لكنها ذات سلطة، اعتُمدت في إطار الإرشادات الخاصة بالشركات متعددة الجنسيات ومبادئ OECD للذكاء الاصطناعي. الإصدار مهم لسببين. أولاً، الدعم السياسي واسع بشكل غير معتاد: كل أعضاء OECD، إضافة إلى 17 حكومة شريكة والاتحاد الأوروبي، وقّعوا. ثانياً، يأتي في لحظة يدخل فيها EU AI Act مرحلة التنفيذ، وتعدّل فيها الولايات المتحدة موقفها الفيدرالي تجاه الذكاء الاصطناعي، وتصوغ فيها دول كثيرة قوانين تحتاج إلى مفردات تشغيلية مشتركة.
الدليل موجَّه إلى الشركات متعددة الجنسيات في كل القطاعات، سواء أكانت تورّد مدخلات لأنظمة الذكاء الاصطناعي، أم تطور النماذج، أم تدمج الذكاء الاصطناعي في المنتجات والخدمات، أم تستخدمه داخلياً. هذا النطاق الواسع متعمَّد. لا تحاول OECD اختراع نظام امتثال جديد، بل جعل مخاطر الذكاء الاصطناعي مقروءة داخل إطار السلوك التجاري المسؤول الذي تستخدمه الشركات بالفعل لحقوق الإنسان والبيئة والحوكمة.
الإطار من ست خطوات بلغة بسيطة
في قلب الدليل إطار العناية الواجبة لـ RBC، معدَّلاً للذكاء الاصطناعي. الخطوات الست: تضمين السلوك التجاري المسؤول في السياسات وأنظمة الإدارة؛ تحديد وتقييم الآثار الفعلية والمحتملة في العمليات والمنتجات وسلاسل القيمة؛ وقف ومنع وتخفيف الآثار السلبية؛ متابعة التنفيذ والنتائج؛ التواصل حول كيفية معالجة الآثار؛ توفير المعالجة أو التعاون فيها عند حدوث آثار سلبية.
تؤكد OECD صراحةً أن هذه الخطوات ليست قائمة تحقق متسلسلة. إنها دورة مستمرة لإدارة المخاطر، مع أمثلة تنفيذية لكل خطوة. كثير من تلك الأمثلة يعتمد على أطر إدارة مخاطر قائمة مثل NIST AI RMF وISO/IEC 42001، وعلى مشاورات مع خبراء في صناعات معرّضة بالفعل مثل التوظيف والائتمان وإدارة المحتوى.
لماذا ينتقل إطار العناية الواجبة أبعد من المبادئ
لم يفتقر الذكاء الاصطناعي المسؤول إلى المبادئ. مبادئ OECD للذكاء الاصطناعي 2019، توصية UNESCO حول أخلاقيات الذكاء الاصطناعي 2021، وعشرات المواثيق الأخلاقية للشركات تتداول منذ سنوات دون أن تنتج ممارسة إدارية متسقة. المبادئ سهلة التوقيع وصعبة التشغيل. العناية الواجبة عكس ذلك: إجرائية، قابلة للتدقيق، ومدمجة بالفعل في كيفية حوكمة المنظمات الكبرى للمخاطر المعقدة عبر التوثيق والتصعيد والمراجعة.
بربط حوكمة الذكاء الاصطناعي بالعناية الواجبة، تمنح OECD فرق الامتثال والقانون والمخاطر مساراً مألوفاً يمكن ربطه بالأنظمة القائمة. وتمنح صانعي السياسات لغة قابلة لإعادة الاستخدام في صياغة القواعد الوطنية ومعايير المشتريات وتوقعات الإشراف. الدليل مرشح للتأثير على سلوك الشركات تحديداً لأنه يطلب انضباطاً إدارياً لا توافقاً فلسفياً.
كيف يتفاعل مع EU AI Act وقواعد أخرى
الدليل ليس بديلاً لـ EU AI Act الذي يصنّف أنظمة الذكاء الاصطناعي حسب المخاطر ويفرض التزامات ملزمة على الأنظمة عالية المخاطر. لكن الأداتين مصممتان للتكامل. يطلب الـ Act أنظمة إدارة مخاطر، ومراقبة بعد التسويق، والإبلاغ عن الحوادث للذكاء الاصطناعي عالي المخاطر؛ ويمنح إطار OECD الشركات وسيلة لتنظيم تلك الأنشطة تحت مظلة حوكمة RBC أوسع تشمل أيضاً شركاء سلسلة القيمة وحالات استخدام لا يلتقطها الـ Act مباشرة.
للشركات العاملة بين الاتحاد الأوروبي والولايات المتحدة وولايات قضائية ناشئة، يعمل دليل OECD نسيجاً ضاماً. يتيح لبرنامج حوكمة داخلي واحد التحدث بمصداقية إلى عدة جهات تنظيمية دون برامج مفصّلة لكل منها.
إعلان
مسار اعتماد عملي
لمعظم المنظمات، يسير المسار الواقعي في أربع مراحل. ابدأ بجرد للذكاء الاصطناعي يسرد كل نظام في التطوير أو الإنتاج، والبيانات التي يستهلكها، والقرارات التي يؤثر فيها. عيِّن ملكية واضحة لكل نظام، مع فصل مالك النموذج عن مالك الأعمال عن مالك المخاطر. أجرِ تقييم أثر يركّز على الفئات والحقوق المحتمل تأثرها، مستفيداً من أمثلة OECD. ثم ابنِ روتينات المتابعة والتواصل والمعالجة التي تجعل العملية قابلة للتدقيق.
تستطيع الشركات الأصغر وشركات الأسواق الناشئة استخدام نسخة مخففة من النهج نفسه. الهدف ليس تكرار برنامج امتثال متعدد الجنسيات، بل بناء عادات إدارية تجعل مخاطر الذكاء الاصطناعي مرئية للقيادة وقابلة للمعالجة قبل أن تفرض الحوادث الحديث.
ما يجب مراقبته في 2026
إشارتان ستحدّدان مدى صمود إطار OECD. الأولى، ما إذا كان المشرفون الوطنيون وهيئات المشتريات يتبنون لغته في عقود وإرشادات 2026-2027، خصوصاً في الولايات القضائية التي ما زالت تصوغ قواعدها. الثانية، ما إذا كانت الشركات متعددة الجنسيات ستبدأ بالإبلاغ عن العناية الواجبة للذكاء الاصطناعي في إفصاحات RBC والاستدامة، كما تفعل لحقوق الإنسان وسلاسل التوريد. إذا ظهرت الإشارتان، فسيفعل دليل OECD ما لم تستطع المبادئ وحدها فعله: تغيير كيفية إدارة مخاطر الذكاء الاصطناعي فعلاً داخل المنظمات الكبرى.
إطار الأركان الثلاثة لمسؤولي الامتثال وخبراء مخاطر الذكاء الاصطناعي
يقع دليل OECD في 70 صفحة ويظل كثيف المحتوى من الناحية التقنية. معظم فرق الامتثال لا تحتاج إلى تطبيق كل عنصر في آنٍ واحد. تمثل الأركان الثلاثة التالية الحد الأدنى من مسار الاعتماد الذي يلبّي نية الإطار ويضع المنظمة في موضع يتيح لها إثبات حوكمة ذكاء اصطناعي مسؤولة أمام الجهات التنظيمية والمشترين العامين والمستثمرين في 2026.
الركيزة 1: جرد الذكاء الاصطناعي وتحديد المسؤوليات
ابدأ بمراجعة منهجية لكل نظام ذكاء اصطناعي تستخدمه مؤسستك أو تطوره أو تقتنيه — بما في ذلك الأدوات الجاهزة المدمجة في برامج الموارد البشرية والمالية والقانونية وخدمة العملاء والعمليات. لكل نظام، وثّق: القرارات أو المخرجات التي يؤثر فيها، والبيانات التي يستهلكها، والفئات السكانية التي يمسّها، واسم المالك التجاري المسؤول عن حوكمته. يؤكد دليل OECD صراحةً أن ثغرات الحوكمة تتركّز على الحدود بين مالكي النموذج (عادةً تقنية المعلومات أو علم البيانات) ومالكي الأعمال (عادةً العمليات أو التجارة). المنظمات التي أكملت هذا الجرد أفادت لـ Ropes & Gray بظهور 30 إلى 50 بالمئة نقاط قرار بالذكاء الاصطناعي أكثر مما كانت تعتقده الإدارة قبل المراجعة. بدون الجرد لا تجد الركيزتان التاليتان هدفاً.
الركيزة 2: تقييم الأثر بالتركيز على الفئات المتأثرة
تتطلب الخطوة الثانية من إطار OECD من ست خطوات تحديد الآثار السلبية الفعلية والمحتملة في العمليات والمنتجات وسلاسل القيمة. في الواقع العملي، يعني ذلك اختيار خمسة إلى عشرة أنظمة ذكاء اصطناعي الأعلى مخاطر من جردك وإجراء تقييمات أثر منهجية تطرح هذه الأسئلة: أي الأشخاص يتأثرون بمخرجات هذا النظام، وأي الحقوق أو المصالح يحتمل أن تُلحق بها أضرار، وأي التحيزات في البيانات أو محدودية التصميم قد تولّد نتائج غير متكافئة، وأي ضوابط تخفيف قائمة حالياً؟ يوفر NIST AI Risk Management Framework وISO/IEC 42001 نماذج منهجية لهذا التقييم. تلاحظ مراجعة Burges Salmon لدليل OECD أن تقييم الأثر هو الخطوة التي يُقلّ فيها غالبية المعتمدين المبكرين من الاستثمار، إذ يركزون على المخاطر التقنية دون حقوق ومصالح الأطراف الثالثة المتأثرة — وهو بالضبط ما ستتناوله الجهات التنظيمية أولاً عند بدء التطبيق.
الركيزة 3: روتينات مستمرة للمتابعة والتواصل والمعالجة
لا تكون العناية الواجبة موثوقة إلا إذا كانت قابلة للتكرار. ابنِ ثلاثة روتينات حوكمة تعمل باستمرار لا كتمارين لمرة واحدة: مراجعة ربع سنوية لأنظمة الذكاء الاصطناعي عالية المخاطر مقابل نتائج تقييم الأثر من الركيزة 2؛ وبروتوكول تواصل يُعلم الأطراف المتأثرة بكيفية تأثير مخرجات الذكاء الاصطناعي على القرارات المتعلقة بهم (مطلوب للفئات عالية المخاطر بموجب EU AI Act)؛ ومسار معالجة يربط الضرر الموثق بمالك مسؤول مُسمّى وموعد نهائي للحل. يشير دليل OECD الصادر في فبراير 2026، المدعوم من 38 حكومة أعضاء في OECD بالإضافة إلى 17 شريكاً، إلى أن هذه الروتينات ستُطلب في استبيانات العناية الواجبة للمشتريات العامة وتقارير الاستدامة بحلول 2027. المنظمات التي تمتلك دورات موثقة قبل مواعيد الامتثال ستملك ردوداً قائمة على الأدلة؛ أما تلك التي تبدأ عند الطلب فستبني النظام تحت الضغط.
خلاصة سريعة: ابدأ بالجرد لتجعل ما لا تعلمه الإدارة مرئياً. عيّن مالكين لكل نظام قبل إطلاق تقييم الأثر. ابنِ روتينات المتابعة والمعالجة الآن — فالمشترون العامون والشركاء متعددو الجنسيات سيطلبونها في استبيانات العناية الواجبة لعام 2027.
إعلان
رادار القرار (المنظور الجزائري)
الأهمية للجزائر
متوسطة
▾
هل البنية التحتية جاهزة؟
جزئياً
▾
هل المهارات متوفرة؟
جزئياً /** الامتثال والمخاطر والقانون قابلة للتكييف، لكن الفرق تحتاج تدريباً على الآثار وأساليب التخفيف الخاصة بالذكاء الاصطناعي.
▾
الجدول الزمني للإجراءات
6-12 شهراً
▾
فرق الامتثال، مديرو الذكاء الاصطناعي، المشترون العامون، قادة المؤسسات
نوع القرار
تكتيكي
▾
خلاصة سريعة: ينبغي للمؤسسات الجزائرية استخدام دليل OECD نقطة انطلاق منخفضة المخاطر لحوكمة الذكاء الاصطناعي المسؤول. ابنِ جرد ذكاء اصطناعي، عيّن الملكية، وثّق المخاطر، تابع التخفيف، وأعدّ روتينات تواصل، خصوصاً إذا كان العملاء أو الشركاء يتوقعون عناية واجبة موثوقة.
الأسئلة الشائعة
ماذا يضيف دليل OECD للذكاء الاصطناعي المسؤول؟
يكيّف إطار العناية الواجبة لـ RBC من ست خطوات: تضمين السياسات، تحديد الآثار، التخفيف، المتابعة، التواصل، المعالجة. يجعل ذلك حوكمة الذكاء الاصطناعي قابلة للإدارة داخل أنظمة الامتثال والمخاطر القائمة بدل أن تكون تمريناً أخلاقياً منفصلاً.
لماذا تكون العناية الواجبة مفيدة لحوكمة الذكاء الاصطناعي؟
لأنها إجرائية وقابلة للتدقيق. تمنح المنظمات مساراً قابلاً للتكرار للمخاطر المعقدة بدلاً من تصريحات أخلاقية لمرة واحدة، وتتكامل مع كيفية حوكمة الشركات لحقوق الإنسان والبيئة وسلاسل التوريد.
هل تستطيع المؤسسات الجزائرية تطبيق هذا الدليل الآن؟
نعم. يمكن البدء بجرد استخدام الذكاء الاصطناعي وملكية المخاطر والتوثيق ومتابعة التخفيف قبل وصول قواعد محلية مفصّلة. الإطار مفيد أيضاً للشركات التي تورد أو تشترك مع شركات متعددة الجنسيات يُتوقع منها بالفعل إثبات عناية واجبة.
المصادر والقراءات الإضافية
- OECD Due Diligence Guidance for Responsible AI — OECD
- The OECD’s new responsible AI guidance: A compass for businesses — OECD.AI
- OECD Publishes Responsible AI Due Diligence Guidance for Multinational Enterprises — Ropes & Gray
- OECD publishes Due Diligence Guidance for Responsible AI — Burges Salmon
- AI Act — European Commission














