كابوس الامتثال
تواجه شركة مدرجة على قائمة Fortune 500 تستخدم أداة فرز السير الذاتية المدعومة بالذكاء الاصطناعي في أوائل 2026 بيئة تنظيمية كانت لتبدو غير قابلة للتصور قبل ثلاث سنوات. في Illinois، يجب على الشركة إخطار كل متقدم بأن الذكاء الاصطناعي يُستخدم في عملية التوظيف. وفي New York City، يجب عليها تكليف جهة خارجية بإجراء تدقيق سنوي للتحيز ونشر النتائج. وفي California، يجب عليها إجراء اختبارات مكافحة التحيز والاحتفاظ بجميع البيانات لمدة أربع سنوات. وفي Colorado — على افتراض دخول القانون حيز التنفيذ في موعده المؤجل — يجب عليها إكمال تقييم شامل للتأثير قبل نشر الأداة. أما في Texas، فإن الأداة ذاتها تخضع لإطار يضع معظم التزامات الامتثال على عاتق الوكالات الحكومية بينما يعفي أصحاب العمل من القطاع الخاص إلى حد كبير من المتطلبات التوجيهية.
لا يوجد قانون فيدرالي يُنسّق هذه المتطلبات. أصدرت لجنة تكافؤ فرص العمل (EEOC) إرشادات بشأن الذكاء الاصطناعي في إجراءات اختيار التوظيف في مايو 2023، لكن تلك الإرشادات أُزيلت من موقع الوكالة الإلكتروني في يناير 2025 في ظل الإدارة الجديدة. والنتيجة هي خليط تنظيمي بالغ التعقيد لدرجة أن الامتثال أصبح تخصصًا قائمًا بذاته، حيث تبني مكاتب المحاماة والشركات الاستشارية مجموعات ممارسة كاملة حول مسألة كيفية الاستخدام القانوني للذكاء الاصطناعي في التوظيف.
لا تقتصر التكلفة على الجانب المالي، رغم أن العبء المالي كبير. يخلق هذا الخليط حوافز معكوسة. استجاب بعض أصحاب العمل بتقييد استخدام أدوات التوظيف بالذكاء الاصطناعي في الولايات ذات التنظيم الأدنى، مما يُنشئ تفاوتات جغرافية في ممارسات التوظيف. وتخلى آخرون عن التوظيف المدعوم بالذكاء الاصطناعي بالكامل، عائدين إلى العمليات اليدوية التي هي نفسها عرضة لنفس التحيزات التي صُمّمت أدوات الذكاء الاصطناعي لتخفيفها. واعتمد عدد قليل المعيار الأكثر صرامة — عادة معيار Colorado — كقاعدة أساسية على مستوى البلاد، قابلين بتكاليف امتثال أعلى مقابل البساطة التشغيلية.
لا تُعدّ أي من هذه الاستجابات مثالية. لا يُنتج هذا الخليط نتائج أفضل للعاملين أو أصحاب العمل أو المصلحة العامة. إنه يُنتج ارتباكًا وتكلفة وشعورًا متزايدًا بأن النهج الحالي غير مستدام.
Illinois: الإفصاح وقانون حقوق الإنسان
أصبحت Illinois من أوائل الولايات التي تنظّم الذكاء الاصطناعي في التوظيف بشكل واسع عندما وقّع الحاكم J.B. Pritzker مشروع القانون HB 3773 في 9 أغسطس 2024، معدّلًا قانون حقوق الإنسان في Illinois لمعالجة الذكاء الاصطناعي بشكل صريح. دخل التعديل حيز التنفيذ الكامل في 1 يناير 2026.
يجعل القانون من استخدام أصحاب العمل للذكاء الاصطناعي بطرق تؤدي إلى التمييز ضد الموظفين على أساس الخصائص المحمية انتهاكًا للحقوق المدنية، حتى لو كان هذا التمييز غير مقصود. كما يجعل الفشل في إخطار الموظفين باستخدام صاحب العمل للذكاء الاصطناعي في قرارات التوظيف انتهاكًا للحقوق المدنية، بما في ذلك التجنيد والتوظيف والترقية وتجديد العمل والاختيار للتدريب والفصل والتأديب ومنح التثبيت. بالإضافة إلى ذلك، يحظر القانون استخدام الرموز البريدية كبديل عن الفئات المحمية.
يبدو متطلب الإخطار واضحًا، لكن تطبيقه أثار أسئلة عملية عديدة. يعرّف القانون “الذكاء الاصطناعي” بشكل واسع بما يكفي لالتقاط ليس فقط أدوات التوظيف المبنية خصيصًا على الذكاء الاصطناعي، بل أيضًا الأنظمة ذات الأغراض العامة مثل النماذج اللغوية الكبيرة المستخدمة لصياغة أوصاف الوظائف أو فرز رسائل البريد الإلكتروني أو تلخيص ملاحظات المقابلات. ونشرت إدارة حقوق الإنسان في Illinois مسودة قواعد توضح التزامات الإخطار وحفظ السجلات، لكن اللوائح النهائية لا تزال قيد الإعداد.
يجب على أصحاب العمل تحديد ما إذا كانت أي أداة أو نظام يستوفي التعريف القانوني للذكاء الاصطناعي في كل خطوة من عملية التوظيف. وقد أثبتت عملية التدقيق هذه أنها تستغرق وقتًا طويلًا، حيث تبنّت العديد من المنظمات أدوات مدعومة بالذكاء الاصطناعي بشكل تدريجي دون تتبع مركزي للأنظمة المستخدمة ومواقع استخدامها.
والأهم من ذلك، تستخدم Illinois إطار التأثير التمييزي. فإذا أنتج نظام ذكاء اصطناعي تفاوتات ذات دلالة إحصائية في النتائج عبر الفئات المحمية، فإنه يُعتبر تمييزيًا بشكل مبدئي بغض النظر عن نية صاحب العمل. ويتحمل صاحب العمل عبء إثبات أن التأثير التمييزي مبرر بضرورة العمل.
تعتمد آلية الإنفاذ على الشكاوى المقدمة إلى إدارة حقوق الإنسان في Illinois، مع دور تنفيذي أيضًا للجنة حقوق الإنسان بالولاية. يمكن للمتقدمين أو العاملين الذين يعتقدون أنهم تعرضوا لانتهاكات تقديم شكاوى إدارية، وبعد استنفاد هذا المسار، متابعة دعاوى قضائية خاصة للمطالبة بتعويضات غير محددة السقف تشمل التعويضات العينية والأجور المتأخرة وإعادة التعيين والمزايا المفقودة والأضرار المعنوية وأتعاب المحاماة.
Texas TRAIGA: فلسفة مختلفة جوهريًا
يتبنى قانون الحوكمة المسؤولة للذكاء الاصطناعي في Texas (TRAIGA)، الذي وقّعه الحاكم Greg Abbott ليصبح قانونًا في 22 يونيو 2025 ويدخل حيز التنفيذ في 1 يناير 2026، نهجًا في حوكمة الذكاء الاصطناعي مختلفًا فلسفيًا عن إطار Illinois. ومع ذلك، فإن تأثيره العملي على أصحاب العمل من القطاع الخاص أكثر محدودية مما أوحت به المسودات الأولى.
كانت النسخ السابقة من التشريع، بما فيها مشروع القانون الفاشل HB 1709، ستفرض التزامات كبيرة على أصحاب العمل من القطاع الخاص الذين يستخدمون الذكاء الاصطناعي في التوظيف، بما في ذلك تقييمات التأثير الإلزامية. أما النسخة المُقرّة من TRAIGA فتضع معظم التزامات الامتثال على عاتق الوكالات الحكومية وتستثني السياقات التجارية والوظيفية من العديد من متطلبات الإفصاح.
ومع ذلك، فإن أصحاب العمل من القطاع الخاص ليسوا معفيين بالكامل. يحظر TRAIGA الاستخدام المتعمد للذكاء الاصطناعي للتمييز، ولا تزال أحكامه المتعلقة بإساءة استخدام القياسات الحيوية سارية. يتمثل الفارق الرئيسي عن Illinois في معيار النية: لإثبات انتهاك، يجب على المشتكي عمومًا إظهار نية تمييزية أو فشل متعمد في معالجة نتائج تمييزية معروفة، بدلاً من الاعتماد على التفاوتات الإحصائية وحدها.
يوفر TRAIGA أيضًا دفاعًا إيجابيًا مهمًا. فأصحاب العمل الذين يُثبتون امتثالًا جوهريًا لإطار إدارة مخاطر الذكاء الاصطناعي الصادر عن NIST أو أطر مماثلة معترف بها يمتلكون دفاعًا قانونيًا ضد إجراءات الإنفاذ. وهذا يمنح أصحاب العمل مسارًا واضحًا نسبيًا للامتثال — مواءمة حوكمة الذكاء الاصطناعي مع معايير NIST وتوثيق تلك المواءمة.
يعكس نهج Texas خيارًا سياسيًا متعمدًا لإعطاء الأولوية للابتكار ومرونة أصحاب العمل على التنظيم التوجيهي. يحتج المؤيدون بأن الإطار القائم على النية يتجنب معاقبة أصحاب العمل على أنماط إحصائية قد تعكس تفاوتات مجتمعية قائمة مسبقًا بدلاً من تحيز خوارزمي. أما المنتقدون فيحتجون بأنه يُحصّن فعليًا التمييز بالذكاء الاصطناعي طالما تجنّب أصحاب العمل التصريح بنوايا تمييزية صراحة، وأن الالتزامات المركزة على الحكومة تترك عمال القطاع الخاص بحماية أقل بكثير من نظرائهم في Illinois أو California.
إعلان
California وColorado: المعايير الأكثر صرامة
سنّت California وColorado أكثر لوائح التوظيف بالذكاء الاصطناعي تطلبًا في البلاد، رغم اختلافهما في تفاصيل جوهرية.
اعتُمدت متطلبات التوظيف بالذكاء الاصطناعي في California من خلال عملية وضع القواعد التابعة لإدارة الحقوق المدنية في California (CRD)، حيث أُقرّت اللوائح في 27 يونيو 2025 ودخلت حيز التنفيذ في 1 أكتوبر 2025. تعدّل هذه اللوائح الإطار القائم بموجب قانون التوظيف والإسكان العادل في California (FEHA) وتنطبق على جميع أصحاب العمل في California الذين يستخدمون أنظمة قرار آلية في التجنيد والتوظيف والترقية.
تتطلب اللوائح من أصحاب العمل إجراء اختبارات مكافحة التحيز لأي نظام قرار آلي مستخدم في التوظيف. وللدفاع ضد دعوى تمييز، يجب على أصحاب العمل إثبات أنهم أجروا اختبارات استباقية قبل وبعد اعتماد النظام. وتحدد CRD ستة جوانب ذات صلة بهذا الاختبار، تشمل جودة الاختبار وفعاليته وحداثته ونطاقه والنتائج واستجابة صاحب العمل لتلك النتائج. والتحقق لمرة واحدة عند الإطلاق غير كافٍ بشكل صريح. يجب الاحتفاظ بجميع البيانات المولّدة بواسطة أدوات التوظيف بالذكاء الاصطناعي — بما في ذلك بيانات المتقدمين ومدخلات ومخرجات النموذج وسجلات القرارات — لمدة أربع سنوات على الأقل. ولهذا المتطلب آثار كبيرة على تكاليف تخزين البيانات والامتثال لخصوصية البيانات بموجب قانون خصوصية المستهلك في California.
يُعدّ قانون الذكاء الاصطناعي في Colorado (SB 24-205) أوسع نطاقًا من متطلبات California الخاصة بالتوظيف. ينطبق على جميع “أنظمة الذكاء الاصطناعي عالية المخاطر”، المعرّفة بأنها أنظمة ذكاء اصطناعي تتخذ أو تُشكّل عاملًا جوهريًا في اتخاذ قرارات ذات عواقب في مجالات تشمل التوظيف والتعليم والإسكان والتأمين والخدمات القانونية. وبالنسبة للتوظيف، يلتقط هذا ليس فقط أدوات التوظيف بل أيضًا أنظمة تقييم الأداء وخوارزميات الترقية ونماذج مخاطر إنهاء الخدمة.
يتطلب قانون Colorado من مطوّري ومُنشري أنظمة الذكاء الاصطناعي عالية المخاطر إجراء تقييمات تأثير شاملة تقيّم غرض النظام وفوائده ومخاطره وممارسات حوكمة البيانات ومنهجية اختبار التحيز ونتائجه وتدابير الشفافية وآليات الرقابة البشرية.
كان الموعد النهائي للامتثال لقانون الذكاء الاصطناعي في Colorado هدفًا متحركًا. كان مقررًا في الأصل في 1 فبراير 2026، ثم وقّع الحاكم Jared Polis مشروع القانون SB 25B-004 في أغسطس 2025 — وهو مشروع قانون للجلسة الخاصة أجّل تاريخ التنفيذ إلى 30 يونيو 2026. وكان زعيم الأغلبية في مجلس الشيوخ Robert Rodriguez قد سعى في البداية لإصلاح القانون بتشريع توفيقي لكنه تخلى في النهاية عن تلك الجهود، مصرّحًا بأن التوصل إلى توافق أثبت استحالته. وعاد المجلس التشريعي في Colorado للانعقاد في يناير 2026 مع فرصة لإدخال تعديلات إضافية قبل الموعد النهائي في يونيو، لكن اعتبارًا من أوائل 2026 لا تزال المتطلبات الجوهرية سارية دون تغيير.
قانون NYC المحلي رقم 144: نموذج التدقيق
يُعدّ القانون المحلي رقم 144 في New York City، الذي دخل حيز التنفيذ في يوليو 2023، أقدم تنظيم للتوظيف بالذكاء الاصطناعي في البلاد وقد خدم كنموذج للتشريعات اللاحقة. يتمثل متطلبه المركزي في تدقيق سنوي للتحيز لأي أداة قرار توظيف آلية (AEDT) تُستخدم في التوظيف أو الترقية في New York City.
يجب أن يُجريه طرف ثالث مستقل ويجب أن يقيّم نسب تأثير الأداة عبر فئات العرق/الإثنية والجنس. ويجب نشر نتائج التدقيق علنيًا على موقع صاحب العمل الإلكتروني، وتقديم ملخص للمرشحين.
بعد ما يقارب ثلاث سنوات من التطبيق، أنتج القانون المحلي رقم 144 سجلًا متباينًا. وجد تدقيق أجراه مكتب المراقب المالي لولاية New York في ديسمبر 2025، يغطي الفترة من يوليو 2023 إلى يونيو 2025، ثغرات إنفاذ كبيرة. فقد استطلعت إدارة حماية المستهلك والعمال (DCWP) 32 شركة فقط خلال فترة التدقيق وحددت حالة واحدة فقط من عدم الامتثال. ورغم تلقي شكويين فقط بشأن AEDT خلال فترة السنتين بأكملها، لم تحقق DCWP فيما إذا كانت عملية استقبال الشكاوى تعمل بشكل صحيح. كما لاحظ تدقيق المراقب المالي أن مسؤولي DCWP يفتقرون إلى الخبرة التقنية لتقييم استخدام AEDT ولم يستشيروا مكتب التكنولوجيا والابتكار في المدينة عند اتخاذ القرارات.
يحدد المنتقدون عدة نقاط ضعف إضافية. فتعريف القانون لـ AEDT أضيق من تعريفات الذكاء الاصطناعي المستخدمة في Illinois وColorado، مما قد يستثني أنظمة ذكاء اصطناعي تؤثر في قرارات التوظيف دون اتخاذها مباشرة. ومنهجية التدقيق غير موحدة، مما يؤدي إلى تناقضات بين المدققين. كما أن متطلب النشر العلني لم يُنتج آلية المساءلة التي تصوّرها المؤيدون — فالمراقبة والتحليل المنهجي للتدقيقات المنشورة لا تزال في حدها الأدنى.
رغم محدودياته، أرسى القانون المحلي رقم 144 مبدأ أن أدوات التوظيف الخوارزمية يجب أن تخضع لمراجعة منتظمة ومستقلة. وهذا المبدأ أصبح الآن مُدمجًا في كل تنظيم لاحق للتوظيف بالذكاء الاصطناعي تقريبًا.
تعقيد الاستباق الفيدرالي
يتعقّد المشهد المعقد أصلًا على مستوى الولايات أكثر بمبادرة الاستباق الفيدرالي لإدارة Trump. في 11 ديسمبر 2025، وقّع الرئيس Trump أمرًا تنفيذيًا يُنشئ فريق عمل للتقاضي بشأن الذكاء الاصطناعي تابعًا لوزارة العدل، والذي بدءًا من 10 يناير 2026 مسؤول عن الطعن في قوانين الولايات المتعلقة بالذكاء الاصطناعي أمام المحاكم الفيدرالية بحجة أنها تُثقل التجارة بين الولايات بشكل غير دستوري أو مستبقة بالتنظيمات الفيدرالية.
يوجّه الأمر التنفيذي أيضًا لجنة التجارة الفيدرالية (FTC) لإصدار بيان سياسات بحلول مارس 2026 ويوجّه وزارة التجارة لتحديد قوانين الولايات “المرهقة” المتعلقة بالذكاء الاصطناعي التي تتعارض مع السياسة الفيدرالية. ومع ذلك، يستثني الأمر صراحة فئات معينة من قوانين الولايات المتعلقة بالذكاء الاصطناعي من الاستباق، بما في ذلك تلك المتعلقة بسلامة الأطفال ومشتريات الحكومات المحلية للذكاء الاصطناعي.
بالنسبة لأصحاب العمل، يخلق هذا معضلة استراتيجية. فالاستثمار الكبير في الامتثال لقوانين الولايات المتعلقة بالتوظيف بالذكاء الاصطناعي قد يكون هدرًا إذا تم استباق تلك القوانين. لكن الفشل في الامتثال في الوقت الحالي يُنشئ تعرضًا قانونيًا فوريًا. ينصح معظم محامي التوظيف عملاءهم بالامتثال للمتطلبات الحالية للولايات مع مراقبة إجراءات الاستباق الفيدرالي عن كثب.
يعني غياب معيار فيدرالي شامل للتوظيف بالذكاء الاصطناعي أن الاستباق سيُنشئ فراغًا تنظيميًا. يتناول قانون التوظيف الفيدرالي ضد التمييز — أساسًا الباب السابع من قانون الحقوق المدنية — التمييز المتعمد والتأثير التمييزي، لكنه لم يُكتب مع مراعاة صنع القرار الخوارزمي. أصدرت EEOC إرشادات بشأن أدوات التوظيف بالذكاء الاصطناعي في مايو 2023، لكن تلك الإرشادات أُزيلت من موقع الوكالة في يناير 2025 وتفتقر إلى قوة القانون في كل الأحوال.
قدّم عدة أعضاء في الكونغرس تشريعات خاصة بالتوظيف بالذكاء الاصطناعي. سيحظر قانون No Robot Bosses Act (H.R. 6371)، المقدّم في ديسمبر 2025، على أصحاب العمل الاعتماد حصريًا على الأنظمة الآلية في قرارات التوظيف ويتطلب اختبارًا قبل النشر وتحليلًا سنويًا للتأثير التمييزي وإعداد تقارير عامة. أُحيل المشروع إلى لجنة التعليم والقوى العاملة بمجلس النواب لكنه لم يتقدم أكثر. تُعتبر احتمالات إقرار تشريع فيدرالي شامل للتوظيف بالذكاء الاصطناعي في الكونغرس الحالي بعيدة من قبل معظم المراقبين.
ما يجب على أصحاب العمل فعله الآن
في غياب التنسيق الفيدرالي، يواجه أصحاب العمل الذين يستخدمون الذكاء الاصطناعي في التوظيف مجموعة من الضرورات العملية.
الأولى هي الجرد الشامل. يجب على المنظمات تحديد كل نظام ذكاء اصطناعي مستخدم في أي قرار توظيفي — التوظيف والترقية وتقييم الأداء والتعويضات وإنهاء الخدمة. يشمل هذا ليس فقط أدوات تكنولوجيا الموارد البشرية المبنية خصيصًا بل أيضًا أنظمة الذكاء الاصطناعي العامة المستخدمة بشكل غير رسمي من قبل مديري التوظيف.
الثانية هي رسم الخريطة القضائية. لكل نظام ذكاء اصطناعي، يجب على أصحاب العمل تحديد اللوائح المحلية والولائية المطبقة بناءً على موقع صاحب العمل وموقع المتقدم أو الموظف وموقع الوظيفة. ويجب الحفاظ على هذه الخريطة بشكل ديناميكي مع دخول قوانين جديدة حيز التنفيذ وتعديل القوانين القائمة أو احتمال استباقها.
الثالثة هي الامتثال الأساسي. يتبنى العديد من أصحاب العمل المعيار الأكثر صرامة كقاعدة أساسية على مستوى البلاد. من الناحية العملية، يعني هذا إجراء تقييمات تأثير على نمط Colorado، وتطبيق إفصاحات على نمط Illinois، وإجراء اختبارات مكافحة التحيز على نمط California مع الاحتفاظ بالبيانات لأربع سنوات، ونشر نتائج التدقيق على نمط NYC.
هذا النهج مكلف لكنه قابل للدفاع عنه. يوفر إطارًا متسقًا يمكن تعديله مع تطور المشهد التنظيمي، ويُظهر جهود الامتثال بحسن نية التي قد تكون ذات صلة في إجراءات الإنفاذ أو التقاضي.
مشهد تنظيم التوظيف بالذكاء الاصطناعي في 2026 مجزّأ وصعب التنقل بأي مقياس. وهو أيضًا نتيجة حتمية لحكومة فيدرالية لم تتحرك بشأن تكنولوجيا تُحوّل قرارات التوظيف لملايين العمال. حتى يُقرّ الكونغرس تشريعًا شاملًا أو تحسم المحاكم مسألة الاستباق، يبقى أصحاب العمل والعمال على حد سواء يتنقلون في نظام لم يصممه أحد ولا يمكن لأحد فهمه بالكامل.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — لا يتناول قانون العمل الجزائري التوظيف الخوارزمي، لكن أصحاب العمل متعددي الجنسيات العاملين في الجزائر والشركات الجزائرية التي تتبنى منصات تكنولوجيا الموارد البشرية العالمية ستواجه متطلبات امتثال مسبقة من هذه القوانين |
| جاهزية البنية التحتية؟ | لا — تفتقر الجزائر إلى أطر تنظيمية للذكاء الاصطناعي في التوظيف، ولا يوجد نظام بيئي لتدقيق التحيز، ولم تصدر وزارة العمل إرشادات بشأن أدوات التوظيف الخوارزمية |
| المهارات المتاحة؟ | لا — تمتلك الجزائر خبرة محدودة في تدقيق العدالة في الذكاء الاصطناعي واختبار التحيز الخوارزمي أو الامتثال الخاص بالتوظيف بالذكاء الاصطناعي؛ ولا تُخرّج الجامعات بعد خريجين بهذه التخصصات |
| الجدول الزمني للإجراء | 12-24 شهرًا — مراقبة التطورات التنظيمية الأمريكية والأوروبية؛ البدء في تقييم استخدام أدوات الذكاء الاصطناعي في أقسام الموارد البشرية الجزائرية، خاصة في الشركات متعددة الجنسيات والمؤسسات الحكومية الكبرى |
| أصحاب المصلحة الرئيسيون | وزارة العمل والتشغيل والضمان الاجتماعي؛ الوكالة الوطنية للتشغيل (ANEM)؛ أقسام الموارد البشرية في Sonatrach وSonelgaz وكبرى المؤسسات الأخرى؛ الشركات متعددة الجنسيات العاملة في الجزائر؛ الشركات الناشئة الجزائرية في مجال تكنولوجيا الموارد البشرية |
| نوع القرار | تعليمي / مراقبة |
خلاصة سريعة: لم يصل سوق التوظيف الجزائري بعد إلى مرحلة الاعتماد على الذكاء الاصطناعي على نطاق واسع، لكن منصات تكنولوجيا الموارد البشرية العالمية مثل Workday وSAP SuccessFactors وHireVue تُستخدم بشكل متزايد من قبل الشركات متعددة الجنسيات ذات العمليات في الجزائر. ومع تكيّف هذه المنصات للامتثال للوائح الأمريكية والأوروبية، سيرث أصحاب العمل الجزائريون تلك المعايير بشكل افتراضي. ينبغي لصانعي السياسات الجزائريين ذوي الرؤية المستقبلية دراسة الإجماع الدولي الناشئ لإعداد إطار محلي متماسك قبل أن تصل مشكلة الخليط التنظيمي.
المصادر والقراءات الإضافية
- Illinois Passes New Law to Address AI in the Workplace — Morgan Lewis
- California Approves Landmark AI Employment Regulations — Littler Mendelson
- Colorado Postpones Implementation of Colorado AI Act SB 24-205 — Akin Gump
- NYC Local Law 144 Enforcement Audit — New York State Comptroller
- Texas Enacts Responsible AI Governance Act (TRAIGA) — Baker Botts
- President Trump’s Executive Order Challenging State AI Laws — Gibson Dunn
- No Robot Bosses Act (H.R. 6371) — Congress.gov
- EEOC Guidance on AI in Employment Selection Procedures — Harris Beach Murtha





إعلان