حجم المشكلة
لم يعد استخدام المحتوى المُولَّد بالذكاء الاصطناعي للتلاعب بالانتخابات تهديداً نظرياً. وفقاً لـ أبحاث Surfshark، شهدت 38 دولة حوادث deepfake مرتبطة بالانتخابات منذ 2021، مؤثرةً على سكان يبلغ مجموعهم 3.8 مليار شخص. ومن بين 87 دولة أجرت انتخابات منذ 2023، شهدت 33 منها حوادث deepfake. وحدد الباحثون 82 تزييفاً عميقاً يستهدف شخصيات عامة في 38 دولة بين يوليو 2023 ويوليو 2024.
شكّل دورة انتخابات 2024 نقطة تحول. فقد شهدت الانتخابات الهندية إنفاق ما يُقدَّر بـ 50 مليون دولار على محتوى سياسي مُولَّد بالذكاء الاصطناعي، معرّضةً ملايين الناخبين للوسائط الاصطناعية. وفي الولايات المتحدة، تلقى ناخبون في نيوهامبشير مكالمات آلية بصوت مُولَّد بالذكاء الاصطناعي للرئيس Biden يحثهم زوراً على عدم التصويت في الانتخابات التمهيدية. وفي ألمانيا، أنشأت شبكة “Storm-1516” المرتبطة بروسيا أكثر من 100 موقع إلكتروني مدعوم بالذكاء الاصطناعي لتوزيع مقاطع فيديو deepfake تستهدف سياسيين.
كما شهدت انتخابات الفلبين النصفية في مايو 2025 وانتخابات إندونيسيا 2024 هجمات deepfake واسعة النطاق تستهدف مرشحين من مختلف الأحزاب. لم تعد هذه التقنية حكراً على جهات فاعلة حكومية متطورة؛ فقد أتاحت أدوات الذكاء الاصطناعي المتاحة للمستهلكين إنشاء تزييفات عميقة لدرجة أن مسؤولي الحملات بميزانيات متواضعة يستطيعون إنتاج وسائط اصطناعية مقنعة.
الانتخابات النصفية الأمريكية 2026: التزييف العميق يصبح سائداً
جعلت الانتخابات النصفية الأمريكية لعام 2026 الإعلانات السياسية deepfake استراتيجية حملات صريحة. في مارس 2026، نشرت اللجنة الوطنية الجمهورية لمجلس الشيوخ إعلاناً عبر الإنترنت يعرض نسخة مُلفَّقة من المرشح الديمقراطي لمجلس الشيوخ James Talarico في تكساس، يبدو فيها يتحدث مباشرة إلى الكاميرا لأكثر من دقيقة. استخدم الإعلان الذكاء الاصطناعي لتوليد نسخة مقنعة من Talarico يُدلي بتصريحات لم يقلها قط.
لم يكن هذا النشر حادثاً معزولاً. وفقاً لـ تقارير Reuters وتحليل CNN، ظهرت ما لا يقل عن خمس حوادث deepfake مؤكدة خلال الانتخابات النصفية 2026 في تكساس وجورجيا وماساتشوستس. واستخدم الجمهوريون هذه التقنية بشكل أكثر تكراراً من الديمقراطيين في هذه الدورة، رغم أن كلا الحزبين استخدما الذكاء الاصطناعي لتوليد صور ومحتوى صوتي للحملات.
التطور ملحوظ. في 2024، كانت التزييفات العميقة في الانتخابات الأمريكية مجهولة المصدر إلى حد كبير، ومنخفضة الجودة، وتُوزَّع عبر قنوات هامشية. بحلول 2026، أصبحت تُنتَج وتُوزَّع من قبل منظمات الحملات الحزبية الرسمية، وتُستخدَم في إعلانات مصقولة، وتُنشَر في سباقات تنافسية على نطاق واسع. الحد الفاصل بين التواصل الشرعي للحملات بمساعدة الذكاء الاصطناعي والوسائط الاصطناعية المضللة يتلاشى في الوقت الحقيقي.
الخليط التنظيمي
لا يوجد قانون فيدرالي يُقيّد استخدام المحتوى المُولَّد بالذكاء الاصطناعي في الرسائل السياسية. مما يترك التنظيم لـ خليط من القوانين الولائية تتباين تبايناً كبيراً في نطاقها وتطبيقها. وفقاً لـ متتبع Public Citizen، أصدرت حوالي 28 ولاية تشريعات تتناول الذكاء الاصطناعي في الإعلانات السياسية. وتركز معظمها على متطلبات الإفصاح بدلاً من الحظر الصريح، مُلزِمةً بأن يحمل المحتوى المُولَّد بالذكاء الاصطناعي تسميات تُعرِّفه كمحتوى اصطناعي.
تقدم تكساس النهج الأكثر صرامة: قانون صدر في 2019 يجعل إنشاء وتوزيع فيديو deepfake خلال 30 يوماً من الانتخابات جنحة جنائية يعاقب عليها بالسجن حتى سنة، إذا أُنشئ بنية الخداع والتأثير على نتائج الانتخابات. غير أن القانون نادراً ما اختُبر أمام المحاكم، وتُشير حادثة deepfake لـ Talarico إلى أن التطبيق متأخر أو أن الحدود القانونية لا تزال غامضة.
تواجه جهود تعزيز التنظيم عقبات دستورية. فقد أبطل قاضٍ فيدرالي أجزاء من قانون كاليفورنيا للتزييف العميق، حاكماً بأن أحكاماً رئيسية تتعارض مع المادة 230 من قانون آداب الاتصالات. وتخلق مخاوف حرية التعبير توتراً مستمراً بين حماية نزاهة الانتخابات وتقييد التعبير السياسي.
إعلان
النهج الأوروبي: التصنيف الإلزامي
يقدم قانون الذكاء الاصطناعي للاتحاد الأوروبي نموذجاً مغايراً. تشترط المادة 50 وسم كل المحتوى المُولَّد بالذكاء الاصطناعي والتزييف العميق وتفرض الإفصاح عن التفاعلات الاصطناعية. ويصبح الحكم نافذاً في أغسطس 2026 مع غرامات تصل إلى 6% من الإيرادات العالمية في حالة عدم الامتثال.
هذا النهج، رغم أنه غير خاص بالانتخابات، يُنشئ إطاراً واسعاً يشمل التزييفات العميقة السياسية في نطاقه. ويمنحه هيكل العقوبات القائم على الإيرادات قوة ردع أكبر بكثير من عقوبات الجُنح في معظم قوانين الولايات الأمريكية. غير أن التطبيق عبر 27 دولة عضواً ذات مشاهد إعلامية ودورات انتخابية مختلفة لم يُختبَر بعد.
الكشف ومسؤولية المنصات
تقنية الكشف عن التزييف العميق موجودة لكنها تبقى غير مثالية. يمكن لأنظمة الكشف الآلية تحديد العديد من آثار الوسائط الاصطناعية، لكن جودة المحتوى المُولَّد بالذكاء الاصطناعي تتحسن بوتيرة أسرع من قدرات الكشف. دراسة أجراها معهد Knight للتعديل الأول في جامعة Columbia فحصت 78 تزييفاً عميقاً انتخابياً وخلصت إلى أن المعلومات السياسية المضللة هي في جوهرها مشكلة توزيع وليست مشكلة تقنية: الضرر يقع عندما يصل المحتوى الاصطناعي إلى الناخبين عبر قنوات موثوقة قبل أن يُتاح دحضه.
فيما يتعلق ببقية دورة 2026 وما بعدها، من المتوقع أن يوسّع المشرعون نهجهم ليتجاوز معاقبة صانعي التزييف الأفراد ليشمل الكيانات التي تُمكِّن الإنتاج والتوزيع، بما في ذلك منصات الذكاء الاصطناعي ومزودي الخدمات السحابية وشركات وسائل التواصل الاجتماعي. والسؤال هو ما إذا كان التشريع قادراً على مواكبة تقنية تتحسن بشكل أسّي بينما تسير العملية التشريعية بشكل تدريجي.
ما الذي يجعل هذه اللحظة مختلفة
اعتمدت الموجات السابقة من التلاعب بالانتخابات على لقطات حقيقية منزوعة من سياقها أو تعديلات بصرية بدائية كان من السهل نسبياً دحضها. التزييفات العميقة المُولَّدة بالذكاء الاصطناعي مختلفة جذرياً: فهي تخلق محتوى لم يكن موجوداً قط، تُظهر أشخاصاً حقيقيين يقولون أشياء لم يقولوها قط، بمستوى من الدقة البصرية والصوتية يجعل التعرف العفوي شبه مستحيل. وعندما تستخدم منظمات الحملات الرسمية هذه الأدوات، يدخل المحتوى الناتج إلى منظومة المعلومات السياسية بغطاء من الشرعية المؤسسية.
إن تلاقي ثلاثة عوامل — تحسّن جودة التوليد، وانخفاض تكاليف الإنتاج، وتبنّي الأحزاب الرسمية — يعني أن الإعلانات السياسية المزيفة بالتزييف العميق لم تعد حالة هامشية. إنها تتحول إلى أداة قياسية في ترسانة الاتصال السياسي، بينما لا تزال الاستجابة التنظيمية متأخرة بجيل كامل عن التقنية.
الأسئلة الشائعة
ما مدى انتشار الإعلانات السياسية deepfake في الانتخابات عالمياً؟
منذ 2021، شهدت 38 دولة حوادث deepfake مرتبطة بالانتخابات مؤثرةً على سكان يبلغ مجموعهم 3.8 مليار شخص. من الأمثلة البارزة: الانتخابات الهندية 2024 (50 مليون دولار من المحتوى السياسي بالذكاء الاصطناعي)، والمكالمات الآلية المُقلِّدة لـ Biden في الولايات المتحدة، وشبكات التضليل الروسية باستخدام الذكاء الاصطناعي في ألمانيا. وقد أنتجت الانتخابات النصفية الأمريكية 2026 ما لا يقل عن خمس حوادث deepfake مؤكدة.
ما القوانين الموجودة لتنظيم المحتوى السياسي deepfake؟
لا يوجد قانون فيدرالي أمريكي ينظم الذكاء الاصطناعي في الرسائل السياسية. تمتلك حوالي 28 ولاية قوانين، معظمها يشترط الإفصاح بدلاً من الحظر. تكساس لديها النهج الأكثر صرامة، حيث تُجرِّم التزييفات المضللة خلال 30 يوماً من الانتخابات. وتشترط المادة 50 من قانون الذكاء الاصطناعي الأوروبي، النافذة من أغسطس 2026، وسم كل المحتوى المُولَّد بالذكاء الاصطناعي مع غرامات تصل إلى 6% من الإيرادات العالمية.
هل تستطيع تقنية الكشف عن التزييف العميق مواكبة المحتوى السياسي المُولَّد بالذكاء الاصطناعي؟
يمكن لأنظمة الكشف الحالية تحديد العديد من آثار الوسائط الاصطناعية، لكن جودة التوليد تتحسن بوتيرة أسرع من قدرات الكشف. ويلاحظ الباحثون أن المعلومات السياسية المضللة هي في جوهرها مشكلة توزيع: الضرر يقع عندما يصل المحتوى الاصطناعي إلى الناخبين عبر قنوات موثوقة قبل إمكانية دحضه. وتتطلب الاستجابات الفعالة مزيجاً من تقنية الكشف وسياسات المنصات والأطر القانونية.
المصادر والقراءات الإضافية
- 38 Countries Have Faced Deepfakes in Elections — Surfshark
- Republicans Release AI Deepfake of James Talarico — CNN
- Deepfake Ads Deployed in 2026 Midterm Campaigns — Detroit News
- How AI-Generated Content Laws Are Changing — MultiState
- Tracker: State Legislation on Deepfakes in Elections — Public Citizen
- How Cognitive Manipulation and AI Will Shape Disinformation in 2026 — World Economic Forum






