حين يُقدِّم محامٍ في قاعة محكمة فيدرالية مذكرةً قانونية تستشهد بعشرات القضايا التي لا وجود لها في الواقع — قضايا اختلقها برنامج دردشة آلي بأسلوب واثق وسلس — يتغير شيء جوهري في العلاقة بين القانون والتكنولوجيا. هذا التحول يُجبر اليوم المحاكم في أرجاء العالم على الإجابة عن سؤال لم تُصمَّم أصلاً للتعامل معه: كيف تُقيِّم دليلاً حين تكون أدوات إنتاجه وتزويره واحدة؟

الإجابة تتشكَّل، ببطء وبصورة غير متساوية. بعد سنوات من ردود الفعل المرتجلة على حوادث متفرقة، تشرع المحاكم والمشرِّعون في بناء أطر متماسكة لمعالجة الأدلة المنتجة بالذكاء الاصطناعي، وتحديات التحقق من صحة الـ deepfakes، والالتزامات المهنية للمحامين الذين يلجأون إلى هذه التقنية. القواعد لم تكتمل بعد، لكن الاتجاه بات واضحًا.

مشكلة الهلوسة التي غيَّرت كل شيء

جاء نقطة التحوُّل عام 2023 مع قضية Mata v. Avianca, Inc. أمام المحكمة الفيدرالية في المنطقة الجنوبية من نيويورك. استعان المحامون بـ ChatGPT للبحث في السوابق القضائية. وحين تحقَّقت المحكمة من الاستشهادات، تبيَّن أن 12 من أصل 19 قضية مُختلَقة تمامًا — «مُهلوَسة» بلغة الذكاء الاصطناعي — قُدِّمت بأسلوب بليغ وواثق كأنها جزء من الفقه القضائي الراسخ. لم يتحقَّق المحامون منها. فرضت المحكمة عليهم غرامات بلغت 5,000 دولار.

لم تكن تلك القضية حادثة معزولة، بل كانت بداية موجة موثَّقة. بحلول مطلع عام 2026، رصدت المحاكم 486 حالة هلوسة ذكاء اصطناعي حول العالم، منها 324 في المحاكم الفيدرالية والولائية والقبلية الأمريكية وحدها، مع فرض عقوبات على 128 محاميًا وقاضيَين. وكشف باحثو Stanford HAI أن أدوات الذكاء الاصطناعي القانونية تُهلوِس في ما لا يقل عن واحد من كل ستة استفسارات خلال الاختبارات المعيارية.

تصاعد حجم القضايا وتنوَّعت أشكال المخالفات. غُرِّم محامٍ كاليفورني 10,000 دولار بعد ثبوت أن 21 من أصل 23 اقتباسًا في مذكرة استئناف كانت مختلَقة. وصدر بحق محامٍ لويزياني غرامة بلغت 1,000 دولار على مذكرة مليئة بالأخطاء تستشهد بأحد عشر على الأقل من القضايا الوهمية. وفي عام 2025، أضافت المحاكم بُعدًا جديدًا: بات المحامون عرضة للعقوبة ليس فقط لتقديمهم بأنفسهم استشهادات مُهلوَسة، بل أيضًا لإخفاقهم في اكتشاف الاستشهادات الملفَّقة التي يُقدِّمها الخصم. اتَّسع نطاق واجب العناية المهنية — وأصبح التحقق التزامًا ثنائي الاتجاه.

المحاكم تبني قواعد جديدة

يسير الرد القضائي على مسارَين: الإصلاح التشريعي على المستوى الفيدرالي، ومبادرات تشريعية ونقابية على مستوى الولايات.

على الصعيد الفيدرالي، نشرت لجنة قواعد الممارسة والإجراءات التابعة للمؤتمر القضائي الأمريكي في أغسطس 2025 مقترح قاعدة الإثبات الفيدرالية 707 لتلقِّي التعليقات العامة حتى فبراير 2026. تقضي القاعدة المقترحة بإخضاع «الأدلة التي تنتجها الآلات» لنفس معايير قبول شهادة الخبراء: يجب على مُقدِّم الدليل إثبات أن ناتج الذكاء الاصطناعي يستند إلى وقائع أو بيانات كافية، وأنه أُنتج وفق مبادئ وأساليب موثوقة، وأن تلك الأساليب طُبِّقت بصورة موثوقة على وقائع القضية.

ثمة ثغرة جوهرية رصدها المنتقدون: لا تنطبق القاعدة 707 إلا على الأدلة التي يُقرُّ مُقدِّمها صراحةً بأنها من إنتاج الذكاء الاصطناعي. أما ما تُنازَع صحته — وهو ما تمثِّله الـ deepfakes — فلا يُعالجه هذا المقترح، في حين أن هذا الأخير هو التحدي الأصعب.

على مستوى الولايات، تصرَّفت لويزيانا أسرع الجميع. دخل قانونها HB 178 حيِّز التنفيذ في الأول من أغسطس 2025 ليصبح أول إطار ولائي يُعالج تحديدًا الأدلة المنتجة بالذكاء الاصطناعي. يشترط القبول أن تكون الأدلة مدعومة دعمًا جوهريًا بأدلة مستقلة ومقبولة، وأن يُثبت مُقدِّمها موثوقية تطبيق الذكاء الاصطناعي المحدَّد وصحته. وتعكف نيويورك وكاليفورنيا على تطوير أطر مماثلة.

يقود نقابة المحامين في أريزونا نهجٌ مختلف: تعديل قواعد السلوك المهني لإلزام المحامين بالتحقق بصورة معقولة من مصدر الأدلة الرقمية — فيديو وصوت ولقطات شاشة ووثائق — قبل تقديمها إلى المحكمة. ويُتوقع أن تحذو نقابات محامين أخرى عديدة حذوها.

إشكالية التحقق من صحة الـ Deepfakes

إذا كانت الاستشهادات المُهلوَسة تمثِّل تهديد الذكاء الاصطناعي لسلامة الحجج القانونية، فإن الـ deepfakes تمثِّل تهديده لسلامة الأدلة ذاتها. التحدي أكثر تعقيدًا من الناحية التقنية، والأدوات القانونية المتاحة أقل نضجًا.

يستعين خبراء الطب الشرعي الرقمي بتقنيات التعلم الآلي والتحليل متعدد الوسائط لتقييم أصالة المحتوى الرقمي. تبرز من بين أدوات الكشف التجارية الرائدة: Intel FakeCatcher وTrueMedia.org وSensity. غير أن القانون يصطدم هنا بقيد علمي صارم: لم تبلغ تقنيات كشف الـ deepfakes بعد مستوى التحقق المنهجي الذي تشترطه معيارية Daubert — المعيار الأمريكي لقبول الشهادة العلمية الخبراتية. يواجه القضاة الذين يُقيِّمون شهادات خبراء كشف الـ deepfakes حقيقة مزعجة: التكنولوجيا تتطور أسرع من التحقق المستقل منها.

مقترح تعديل قاعدة الإثبات الفيدرالية 901 — التي تحكم إثبات صحة الأدلة — يهدف إلى إنشاء إجراء متخصص للطعن في الوسائط التي يُشتبه في تزويرها بالذكاء الاصطناعي. بيد أن المدافعين عن هذا التعديل أنفسهم يُقرُّون بإشكالية أعمق: تُفرز الـ deepfakes ما يُسمِّيه الباحثون «مكسب الكاذب» (liar’s dividend)، إذ يمكن التشكيك في مصداقية حتى الفيديو الحقيقي بمجرد الإيحاء بأنه ربما كان من صنع الذكاء الاصطناعي، مما يرفع تكاليف التقاضي ويُضعف ثقة هيئات المحلفين في الأدلة المشروعة.

دعا تقرير نوفمبر 2025 الصادر عن جامعة كولورادو بولدر إلى جهد إصلاحي قانوني منسَّق يشمل تحديث معايير التحقق من صحة الأدلة وتوفير تدريب قضائي موحَّد للتعامل مع الشهادات الخبراتية في كشف الـ deepfakes.

إعلان

النهج المنهجي للاتحاد الأوروبي

بينما تتعامل المحاكم الأمريكية مع أدلة الذكاء الاصطناعي قضيةً قضيةً وولايةً ولايةً، يُدمج الاتحاد الأوروبي حوكمة الذكاء الاصطناعي في بنيته التنظيمية الشاملة. دخل قانون الذكاء الاصطناعي الأوروبي (EU AI Act) حيِّز التنفيذ في أغسطس 2024 ويُطبَّق على مراحل. ممارسات الذكاء الاصطناعي المحظورة وحوكمة النماذج الكبرى سارية منذ فبراير وأغسطس 2025 على التوالي. وتُقرَّر التزامات الشفافية المنصوص عليها في المادة 50 — التي تُلزم بالإفصاح عن المحتوى المنتج بالذكاء الاصطناعي — بحلول أغسطس 2026.

بالنسبة للمحاكم تحديدًا، تحتل التزامات الشفافية المكانة الأهم. ستتمكن المحاكم عند تقييمها لأدلة الذكاء الاصطناعي من الاستناد بصورة متزايدة إلى متطلبات الإفصاح القانونية كأساس للتحقق من الأصالة. كما يُكثِّف القانون الضغط القضائي على مزودي النماذج الأساسية، إذ تتصدَّى محكمة العدل الأوروبية بصورة متزايدة للفصل في مبادئ الشفافية والإنصاف في بيانات تدريب الذكاء الاصطناعي ومخرجاته — وهي أحكام ستُحدِّد ما يُعدُّ دليلاً موثوقًا من الذكاء الاصطناعي في محاكم الدول الأعضاء.

ما يجب على الفرق القانونية فعله الآن

المشهد الإحصائي لافت: وفقًا لتقرير قطاع القانون لعام 2025 الصادر عن جمعية نقابة المحامين الأمريكية (ABA)، يستخدم 79% من المهنيين القانونيين الذكاءَ الاصطناعي، بمن فيهم 71% من الممارسين العاملين بشكل منفرد. ومع ذلك، لا يمتلك 53% من المكاتب أي سياسة للذكاء الاصطناعي، أو أن محاميها لا يعلمون بوجودها. في هذه الفجوة بين التبني والحوكمة المؤسسية تكمن مخاطر المسؤولية المهنية.

تتضح الالتزامات العملية للفرق القانونية حتى مع استمرار تطوُّر القواعد الرسمية:

تحقَّق من كل استشهاد يُنتجه الذكاء الاصطناعي. لا توجد أداة ذكاء اصطناعي — حتى المنصات القانونية المتخصصة الرائدة — موثوقة بما يكفي للاستشهاد بها دون تحقق مستقل. والمعيار هو الرجوع المباشر إلى المصادر الأصلية. وقد بات الفوترة على وقت التحقق ممارسةً معيارية.

وثِّق استخدامك للذكاء الاصطناعي. تشترط محاكم كثيرة الآن الإفصاح عن الاستعانة بالذكاء الاصطناعي في الصياغة. وحتى حين لا يكون إلزاميًا، فإن توثيق أسلوب عملك مع الذكاء الاصطناعي يُشكِّل خط دفاع في مواجهة ادعاءات الإهمال المهني.

طوِّر بروتوكولات للتحقق من صحة الأدلة الرقمية. قبل تقديم فيديو أو تسجيلات صوتية أو وثائق مشكوك في مصدرها، احصل على تحليل شرعي مؤهَّل. تتجه المحاكم نحو اشتراط ذلك — ومسايرة هذا المتطلب مبكرًا تعبير عن الممارسة الجيدة وإدارة المخاطر في آنٍ واحد.

راجع المستندات المقدَّمة من الخصوم. يُرسل التوسُّع عام 2025 في نطاق العقوبات لتشمل المحامين الذين يُخفقون في اكتشاف الاستشهادات الملفَّقة للخصم إشارةً واضحة: تتوقع المحاكم من نقابة المحامين أن تُراقب جماعيًا إساءة استخدام الذكاء الاصطناعي.

إعلان

🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الصلة بالجزائر متوسطة — ستواجه المحاكم الجزائرية أسئلة أدلة الذكاء الاصطناعي مع انتشار الأدلة الرقمية؛ والمحامون الجزائريون الذين يستخدمون أدوات الذكاء الاصطناعي عرضة لمخاطر الهلوسة
البنية التحتية جاهزة؟ جزئيًا — توجد أطر للأدلة الرقمية لكن المعايير الخاصة بالذكاء الاصطناعي غائبة
الكفاءات متوفرة؟ منخفضة — خبرة التكنولوجيا القانونية والذكاء الاصطناعي الجنائي ضئيلة في الممارسة القانونية الجزائرية
الجدول الزمني للعمل 12-24 شهرًا — ينبغي أن تبدأ نقابات المحامين والسلطة القضائية في تطوير مبادئ توجيهية لأدلة الذكاء الاصطناعي
أصحاب المصلحة الرئيسيون وزارة العدل، نقابات المحامين، القضاة، شركات التكنولوجيا القانونية الناشئة، عمداء كليات الحقوق
نوع القرار استراتيجي

خلاصة سريعة: يواجه المحامون الجزائريون الذين يستخدمون أدوات الذكاء الاصطناعي في البحث والصياغة المخاطرَ ذاتها من الهلوسة التي أفضت إلى عقوبات في محاكم الولايات المتحدة وأوروبا. فرضُ بروتوكولات التحقق قبل تقديم أي عمل قانوني بمساعدة الذكاء الاصطناعي أمر لا غنى عنه — إذ تتطور معايير العناية المهنية بوتيرة متسارعة.

المصادر والقراءات الإضافية