تتعرف الكاميرات على وجهك. تقارنه بقاعدة بيانات. تصنّفك أو تعفيك في أجزاء من الثانية. تجري العملية بأسرها دون علمك أو موافقتك، بل دون أن تدرك أنها حدثت أصلاً. لسنوات طويلة، عمل التعرف على الوجه في هذه المنطقة الرمادية القانونية — قوي بما يكفي لإعادة تشكيل أساليب إنفاذ القانون والأمن العام، غير أنه ظل إلى حد بعيد بلا تنظيم. هذا العصر يوشك على الانتهاء، بشكل غير متساوٍ، وبنتائج متباينة جداً بحسب مكان إقامتك.
ينقسم العالم في عام 2026 إلى معسكرات متمايزة: معسكر يفرض حظراً صارماً، ومعسكر يبني قواعد مجزأة، ومعسكر يوسّع الاستخدام بشكل حثيث، ومعسكر لا يملك أي قواعد على الإطلاق. هذا التباين له تداعيات هائلة على الحريات المدنية، وعلى شركات التكنولوجيا، وعلى أي دولة تجد نفسها في المنتصف.
الاتحاد الأوروبي يرسم الخط الأكثر صرامة
يتضمن EU AI Act للاتحاد الأوروبي، الذي دخل حيز التنفيذ الكامل في عام 2025 وبدأ فرض التزامات ملزمة في عام 2026، واحداً من أهم الحظر في تاريخ تكنولوجيا المراقبة. التعرف البيومتري عن بُعد في الوقت الفعلي — أي مسح الوجوه مباشرة في الأماكن العامة ومقارنتها بقواعد بيانات جهات إنفاذ القانون — محظور، مع استثناءات ضيقة، في جميع الدول الأعضاء في الاتحاد الأوروبي.
الاستثناءات محددة بدقة. لا يجوز للسلطات نشر تقنية التعرف على الوجه في الوقت الفعلي إلا في حالات البحث المستهدف عن ضحايا جرائم خطيرة محددة، أو الوقاية من تهديدات إرهابية بعينها، أو التعرف على مشتبه بهم في جرائم تستوجب عقوبة لا تقل عن ثلاث سنوات سجناً — وذلك حصراً بإذن قضائي أو إداري مستقل مسبق. أما الاستخدام بأثر رجعي (تطبيق التعرف على الوجه على لقطات مسجلة بعد وقوع الحادثة)، فهو مسموح به في نطاق أوسع من التحقيقات في الجرائم الخطيرة، لكنه يستلزم الحصول على إذن أيضاً.
الأثر العملي: لم تعد قوات الشرطة في 27 دولة قادرة على تشغيل أنظمة المسح الوجهي المباشر التي باتت شائعة في محطات النقل العام والملاعب ومراكز التسوق. جرى إيقاف عدة عمليات نشر — من بينها تجارب مثيرة للجدل في محطات السكك الحديدية الألمانية — أو وضعها تحت المراجعة القانونية.
تضاف متطلبات الامتثال لـ GDPR فوق حظر EU AI Act. تُصنَّف البيانات البيومترية بوصفها بيانات من “الفئة الخاصة” التي تستلزم موافقة صريحة — وهو معيار يتعارض جوهرياً مع مسح المراقبة الجماعية للمارة غير الموافقين.
الولايات المتحدة: لا أرضية فيدرالية، فوضى محلية
أفرزت الولايات المتحدة نتيجة مغايرة تقريباً: لا إطار فيدرالي، بل فسيفساء فوضوية من قواعد المدن والولايات تُشكّل كابوساً للامتثال لأي شركة تعمل على المستوى الوطني.
يُعدّ حظر San Francisco عام 2019 على الاستخدام الحكومي للتعرف على الوجه من أكثر الأمثلة استشهاداً، لكنه لا يطبّق إلا على وكالات المدينة — لا على السلطات الفيدرالية العاملة في San Francisco، ولا على الشركات الخاصة، ولا على الملاك. أما Biometric Information Privacy Act (BIPA) في شيكاغو فهو أشمل، إذ يشترط موافقة كتابية مستنيرة قبل أن تجمع أي جهة خاصة بيانات بيومترية من سكان ولاية Illinois، ويُتيح الدعاوى الجماعية بتعويضات قانونية. أنتج BIPA أكثر من مليار دولار في تسويات منذ سريانه.
اتبعت ولايات أخرى قواعد متباينة. يمتلك Texas وWashington قوانينهما الخاصة للخصوصية البيومترية. سنّت حفنة من المدن — Somerville وPortland وBoston — حظراً على الاستخدام الحكومي. في الوقت ذاته، تشغّل الوكالات الفيدرالية — FBI وICE وTSA وCustoms and Border Protection — برامج التعرف على الوجه في المطارات والمنافذ البرية الحدودية ولأغراض التحقيق الجنائي مع قيود تشريعية ضئيلة.
النتيجة متوقعة: التعرف على الوجه محظور وفي الوقت ذاته منتشر بشكل عدواني في البلد ذاته، بل أحياناً في المدينة ذاتها. وقد طرح الكونغرس مشاريع قوانين فيدرالية متعددة للخصوصية البيومترية، ولم يُعتمد أي منها.
الصين: إلزامي، في توسع، مُقنَّن قانونياً
سلكت الصين المسار المعاكس. التعرف على الوجه ليس مجرد مسموح به — بل إنه إلزامي في نطاق متزايد من الأماكن العامة، ومدمج في بنية الحوكمة الرقمية الشاملة، ومنتشر في محطات النقل والمجمعات السكنية والمدارس وأماكن العمل. وتدعم التكنولوجيا عمليات إنفاذ القانون والوظائف الإدارية الاعتيادية على حد سواء.
فرضت لوائح صينية أُصدرت عام 2021 وجرى تمديدها في السنوات اللاحقة بعض القواعد على الجمع والتخزين — تحظر الجمع غير الضروري وتشترط الإخطار في سياقات بعينها — غير أن هذه القواعد تُطبَّق بشكل انتقائي ولا تُقيّد استخدام الدولة بصورة جوهرية. يُصمَّم الإطار القانوني للسيطرة على تجاوزات القطاع الخاص، لا لتقييد مراقبة الحكومة.
تُصدَّر أنظمة التعرف على الوجه الصينية، التي طورتها شركات من بينها Hikvision وDahua وSenseTime، على المستوى العالمي — إلى حكومات في جنوب شرق آسيا وأفريقيا والشرق الأوسط — مما يثير مخاوف بشأن تصدير معايير المراقبة دولياً إلى جانب التكنولوجيا ذاتها.
الهند والشرق الأوسط وعمليات النشر المتوسعة
نشرت الهند تقنية التعرف على الوجه في المطارات ضمن برنامج DigiYatra، الذي معالج أكثر من 200 مليون مسافر بحلول عام 2025، وتوسّع استخدامه ليشمل الفعاليات العامة ومحطات السكك الحديدية عبر شبكة Crime and Criminal Tracking Network. لا تمتلك الهند قانوناً مخصصاً لخصوصية البيانات البيومترية؛ إذ يرسي Digital Personal Data Protection Act الصادر عام 2023 إطاراً عاماً، لكنه يترك التعرف على الوجه إلى حد بعيد دون تنظيم على الصعيد التشغيلي.
تُقدّم دول الخليج نمطاً مشابهاً: عمليات نشر متطورة تقنياً عند الحدود وفي بنية المدن الذكية، مع أطر قانونية لا توفر إنصافاً فعلياً للمواطنين. في الإمارات والمملكة العربية السعودية وقطر، جرى دمج التعرف على الوجه في البنية التحتية للهوية الوطنية مع رقابة مستقلة محدودة.
إعلان
انسحابات الشركات — والعودة الهادئة
شهدت روايات الشركات حول التعرف على الوجه تحولاً جذرياً في عام 2020. علّقت Amazon مبيعات أداة التعرف على الوجه Rekognition لجهات إنفاذ القانون، محتجّةً بالحاجة إلى تنظيم فيدرالي. انسحبت IBM من مجال التعرف على الوجه كلياً، معلنةً أنها لن تطور أو تبيع برامج عامة للتعرف أو التحليل الوجهي. قيّدت Microsoft مبيعاتها لجهات إنفاذ القانون في انتظار تشريع فيدرالي.
غطّت وسائل الإعلام هذه الإعلانات على نطاق واسع باعتبارها صحوة ضمير في قطاع التكنولوجيا. غير أن الواقع في عام 2026 أكثر تعقيداً. استأنفت Amazon بهدوء مبيعاتها لجهات إنفاذ القانون بعد انقضاء فترة التعليق المؤقت لمدة عام دون سن أي قانون فيدرالي. نما سوق التعرف على الوجه بشكل ملحوظ: وسّعت Clearview AI، التي بنت قاعدة بيانات تضم مليارات الصور المستخرجة من منصات التواصل الاجتماعي، قاعدة عملائها لتشمل وكالات في عشرات الدول رغم التحديات القانونية المستمرة في الاتحاد الأوروبي وأستراليا. كانت انسحابات الشركات في معظمها توقفات مؤقتة، لا خروجاً نهائياً.
فجوة الدقة وإشكالية التحيز
في قلب النقاش التنظيمي تقبع حقيقة تقنية يستشهد بها المنظّمون في الولايات القضائية الأكثر صرامة مبرراً جوهرياً للحظر. تعمل أنظمة التعرف على الوجه بشكل غير متساوٍ عبر المجموعات الديموغرافية. وثّقت دراسات الباحثة Joy Buolamwini من MIT Media Lab وعمليات التدقيق اللاحقة التي أجراها National Institute of Standards and Technology (NIST) معدلات خطأ أعلى بشكل ملحوظ للنساء ذوات البشرة الداكنة مقارنةً بالرجال ذوي البشرة الفاتحة — في بعض الأنظمة، تختلف معدلات الإيجابية الكاذبة بعامل يبلغ عشرة أضعاف أو أكثر.
عواقب هذه الأخطاء ليست متماثلة. قد يعني التطابق الخاطئ في سياق تطبيق القانون احتجازاً غير مبرر. تورطت حالات موثقة متعددة في الولايات المتحدة — Robert Williams وPorcha Woodruff وآخرون — في اعتقالات غير مبررة بناءً على أخطاء في التعرف على الوجه. وفي كل حالة، كان الشخص المُحدَّد بشكل خاطئ من أصول أفريقية.
يعكس حظر الاستخدام في الوقت الفعلي الوارد في EU AI Act جزئياً هذه المشكلة الموثقة في الدقة. المبدأ: لا ينبغي لتكنولوجيا ذات معدلات خطأ معروفة ومتحيزة ديموغرافياً أن تعمل في سياقات إنفاذ القانون عالية المخاطر دون عتبات دقة ذات معنى، ومتطلبات تدقيق، وآليات مراجعة بشرية لم تُرسّخها معظم الولايات القضائية بعد.
عالم بلا معيار مشترك
التباين في عام 2026 ليس فشل تنسيق عابراً. يعكس منظومات قيم مختلفة فعلاً — الثقافة الأوروبية لحماية البيانات في مقابل البنية القانونية الفيدرالية الأمريكية في مقابل التكامل الصيني لمراقبة الدولة في مقابل فجوات القدرة المؤسسية في دول العالم النامي. من غير المرجح أن تتقارب هذه المنظومات.
بالنسبة لشركات التكنولوجيا، يفرض التباين تعقيدات امتثال تستلزم بصورة متزايدة بناء منتجات وسياسات خاصة بكل ولاية قضائية. وبالنسبة للحكومات، يُفرز سوقاً لموردي تكنولوجيا المراقبة يعملون في ظل قيود أخلاقية متفاوتة. وبالنسبة للمواطنين، يعني ذلك أن المدى الذي يصبح فيه وجهك أداة مراقبة يتوقف تقريباً كلياً على موقعك الجغرافي.
إعلان
🧭 رادار القرار (منظور الجزائر)
| البُعد | التقييم |
|---|---|
| الأهمية للجزائر | مرتفعة — تستخدم قوات الأمن الجزائرية تكنولوجيا المراقبة؛ يواجه المواطنون الجزائريون جمع بياناتهم البيومترية دون حماية قانونية كافية |
| البنية التحتية جاهزة؟ | جزئياً — التعرف على الوجه منتشر على الحدود وفي بعض الفعاليات؛ الإطار القانوني غائب |
| المهارات متوفرة؟ | منخفضة — خبرة قانون الخصوصية والتدقيق البيومتري نادرة جداً |
| الجدول الزمني للعمل | 6-12 شهراً |
| أصحاب المصلحة الرئيسيون | DRS، ARPCE، وزارة الداخلية، المعادل الجزائري لـ CNIL (لم يُستحدث بعد)، المجتمع المدني |
| نوع القرار | استراتيجي |
خلاصة سريعة: تفتقر الجزائر إلى إطار شامل لخصوصية البيانات البيومترية — ومع تحوّل المعايير الأوروبية إلى مرجعية عالمية، يُحصّن وضع قواعد واضحة حول استخدام التعرف على الوجه (لا سيما من قِبل جهات إنفاذ القانون) المواطنين والشراكات التجارية الدولية على حد سواء.
المصادر والقراءات الإضافية
- EU AI Act (اللائحة 2024/1689) — الجريدة الرسمية للاتحاد الأوروبي
- اختبار بائعي التعرف على الوجه من NIST: الآثار الديموغرافية — NIST
- اعتقال ظالم بسبب فشل التعرف على الوجه — ACLU
- فسيفساء قوانين التعرف على الوجه في أمريكا — Brookings Institution
- Amazon تنهي التعليق المؤقت على استخدام الشرطة لتقنية التعرف على الوجه — The Guardian
- فهم تكنولوجيا التعرف على الوجه — Privacy International





إعلان