باختصار: نماذج الذكاء الاصطناعي التي تشغّل ثورة اليوم لم تظهر من العدم. إنها نتاج سبعة عقود من الاختراقات والطرق المسدودة وشتاءات التمويل والتحولات النموذجية. من البرسبترون (Perceptron) الذي ابتكره Frank Rosenblatt عام 1958 إلى وكلاء الذكاء الاصطناعي المستقلين عام 2025، بنى كل عصر على أفكار العصر السابق — ورفضها غالباً. فهم هذا التطور يفسّر لماذا يعمل الذكاء الاصطناعي بالطريقة التي يعمل بها اليوم، وما هي حدوده الحقيقية، وإلى أين يتجه.
الطريق الطويل نحو نجاح بين عشية وضحاها
عندما أُطلق ChatGPT في نوفمبر 2022 ووصل إلى 100 مليون مستخدم في شهرين، بدا وكأنه ثورة بين ليلة وضحاها. لم يكن كذلك. التكنولوجيا وراءه كانت نتاج 65 عاماً من البحث، وثلاثة شتاءات كبرى للذكاء الاصطناعي، وأربعة تحولات نموذجية على الأقل، والتراكم البطيء لأفكار لم تصبح تحويلية إلا عندما لحقت الأجهزة بالنظرية.
هذا ليس مجرد درس تاريخي. تطور نماذج الذكاء الاصطناعي يكشف أنماطاً هيكلية تتنبأ بأين تتجه التكنولوجيا. كل تقدم كبير لم ينشأ من اختراق واحد بل من تقاطع أفكار قديمة وحوسبة جديدة وبيانات جديدة. فهم هذه التقاطعات يساعد في الفصل بين التقدم الحقيقي والضجيج.
الحقبة 1: البرسبترون والشبكات العصبية المبكرة (1958-1969)
تبدأ القصة عام 1958 في مختبر Cornell للطيران، حيث قدّم Frank Rosenblatt مفهوم البرسبترون — نظام يمكنه تعلّم تصنيف الأنماط البصرية. بُنيت آلة Mark I Perceptron المادية وعُرضت عام 1960. كانت أول شبكة عصبية مُنفَّذة، وكانت التغطية الصحفية مبالغة. كتبت New York Times أنها جنين حاسوب إلكتروني سيكون قادراً يوماً ما على “المشي والتحدث والرؤية والكتابة وإعادة إنتاج نفسه والوعي بوجوده.”
كان البرسبترون طبقة واحدة من الخلايا العصبية الاصطناعية قادرة على تعلم حدود قرار خطية. نجح للمهام البسيطة لكنه لم يستطع حل مشكلات تتطلب فصلاً غير خطي — والأشهر أنه لم يستطع تعلم دالة XOR (عملية منطقية أساسية). في 1969، نشر Marvin Minsky وSeymour Papert كتاب “البرسبترونات”، برهان رياضي على هذه القيود. فُسّر الكتاب على نطاق واسع كحكم إعدام على الشبكات العصبية.
جفّ التمويل. انتقل الباحثون إلى مقاربات أخرى. بدأ أول شتاء للذكاء الاصطناعي.
الحقبة 2: الانتشار الخلفي والموجة الثانية (1986-1995)
كان قيد البرسبترون طبقته الواحدة. الشبكات متعددة الطبقات كانت نظرياً قادرة على حل أي مشكلة حسابية، لكن لم يكن أحد يعرف كيف يُدرّبها. إشارة الخطأ لم تستطع الانتشار خلفياً عبر طبقات متعددة.
في 1986، نشر David Rumelhart وGeoffrey Hinton وRonald Williams ورقة تُظهر أن الانتشار الخلفي (Backpropagation) — حساب تدرجات دالة الخطأ بالنسبة لكل وزن بتطبيق قاعدة السلسلة طبقة بطبقة — يمكنه تدريب شبكات عصبية متعددة الطبقات بفعالية. كانت التقنية قد اختُرعت فعلاً عدة مرات سابقاً، لكن هذه الورقة قدمت تأكيداً تجريبياً واضحاً.
الشبكات متعددة الطبقات أصبحت الآن قادرة على تعلم أنماط معقدة: التعرف على الكتابة اليدوية، معالجة الكلام، تصنيف الصور البسيطة. أظهرت الشبكات العصبية الالتفافية (CNNs) لـ Yann LeCun في أواخر الثمانينيات تعرفاً مبهراً على الأرقام المكتوبة يدوياً، ونُشرت لاحقاً في البنوك لمعالجة الشيكات.
لكن الحماس تجاوز النتائج. تطلبت الشبكات العصبية مجموعات بيانات كبيرة وحوسبة كبيرة لم تستطع أجهزة التسعينيات توفيرها. الطرق الإحصائية الأبسط — آلات المتجهات الداعمة، الغابات العشوائية، التعزيز التدريجي — غالباً تفوقت على الشبكات العصبية في المشكلات العملية مع كونها أسرع في التدريب وأسهل في الفهم. وصل شتاء الذكاء الاصطناعي الثاني، أكثر تدرجاً من الأول لكنه مدمر بنفس القدر لأبحاث الشبكات العصبية.
الحقبة 3: اختراق التعلم العميق (2012-2017)
وصلت الموجة الثالثة بقوة — تحديداً، مع فوز AlexNet الساحق في مسابقة ImageNet عام 2012. دَرَّب Alex Krizhevsky وIlya Sutskever وGeoffrey Hinton شبكة عصبية التفافية عميقة على وحدات GPU وخفّضوا معدل خطأ تصنيف الصور من 26.2% إلى 15.3%، بهامش كبير لدرجة أنه صدم مجتمع الرؤية الحاسوبية.
المكوّنات التي جعلت هذا ممكناً لم تكن جديدة فردياً. الشبكات الالتفافية موجودة منذ الثمانينيات. مجموعات البيانات الكبيرة (ImageNet، بـ 14 مليون صورة مُعلَّمة) جُمعت بعناية فائقة. وحدات GPU كانت متاحة منذ سنوات. لكن تقاطعها بحجم كافٍ أنتج قدرات لم تستطع التجارب السابقة الاقتراب منها.
تميّز عصر التعلم العميق بعدة خصائص:
العمق: نمت الشبكات من 8 طبقات (AlexNet) إلى 152 طبقة (ResNet عام 2015) مع اكتشاف الباحثين أن الشبكات الأعمق، المجهزة بتقنيات مثل تطبيع الدُفعات والوصلات القفزية، يمكنها التقاط تمثيلات أكثر تجريداً.
التخصص: بنى مختلفة لمهام مختلفة — الشبكات الالتفافية للرؤية، والشبكات التكرارية وLSTM للتسلسلات (اللغة، الكلام، السلاسل الزمنية)، وشبكات الخصومة التوليدية (GANs) لتوليد الصور. كل بنية صُمّمت لمجالها.
التعلم بالنقل: النماذج المُدرَّبة على مجموعات بيانات عامة كبيرة يمكن ضبطها دقيقاً لمهام محددة بكميات صغيرة من البيانات الخاصة بالمجال. هذا قلّل بشكل كبير متطلبات البيانات لنشر الذكاء الاصطناعي في تطبيقات متخصصة.
بين 2012 و2017، حقق التعلم العميق أداءً خارقاً في تصنيف الصور والتعرف على الكلام ولعبة Go (AlphaGo من DeepMind، 2016). لكن اللغة الطبيعية — أكثر المجالات تعقيداً ودقة — ظلت مقاومة بعناد لاختراقات مماثلة.
إعلان
الحقبة 4: ثورة المحوّلات (2017-2022)
غيّرت بنية المحوّلات كل شيء. نُشرت في يونيو 2017 بعنوان “الانتباه هو كل ما تحتاجه”، اقترحت الورقة بنية مبنية بالكامل على آليات الانتباه — بدون تكرار، بدون التفاف. عالجت التسلسلات بالتوازي، التقطت التبعيات بعيدة المدى مباشرة، وتوسّعت بأناقة مع الحوسبة.
تكشّف عصر المحوّلات بتتابع سريع:
BERT (2018): أظهر نموذج المُرمِّز ثنائي الاتجاه من Google أن التدريب المسبق على مجموعات نصية كبيرة ثم الضبط الدقيق لمهام محددة يمكن أن يحقق نتائج رائدة عبر كل معيار لمعالجة اللغة الطبيعية تقريباً. كان عصر البنى الخاصة بالمهام ينتهي.
GPT-2 (2019): أظهرت OpenAI أن محوّل فاك ترميز فقط، مُدرَّباً على التنبؤ بالكلمة التالية، يمكنه توليد نص متماسك بشكل ملحوظ. حُجب النموذج في البداية عن الإصدار العام بسبب مخاوف من سوء الاستخدام — أول جدل كبير حول سلامة الذكاء الاصطناعي في عصر المحوّلات.
GPT-3 (2020): توسيع مقاربة GPT-2 إلى 175 مليار معاملة أنتج شيئاً جديداً نوعياً: نموذجاً يمكنه أداء مهام لم يُدرَّب عليها صراحة، ببساطة بعرض أمثلة قليلة في الأمر. قدرة “التعلم بأمثلة قليلة” هذه اقترحت أن الحجم بحد ذاته مسار نحو الذكاء العام.
DALL-E وStable Diffusion (2021-2022): جلبت المحوّلات ونماذج الانتشار نفس الثورة لتوليد الصور، منتجة صوراً واقعية من أوصاف نصية.
ChatGPT (نوفمبر 2022): أخذت OpenAI GPT-3.5 — نموذج لغوي كبير — وجعلته محادثاتياً عبر الضبط الدقيق وRLHF (التعلم المعزز من التغذية الراجعة البشرية). كان التقدم التقني تدريجياً. الأثر كان زلزالياً. لأول مرة، أمكن لعامة الناس التفاعل مع نظام ذكاء اصطناعي رائد عبر محادثة طبيعية.
الحقبة 5: سباق تسلح النماذج المتقدمة (2023-2024)
أطلق نجاح ChatGPT سباقاً صناعياً شاملاً. أظهر GPT-4 (مارس 2023) قدرات متعددة الأنماط — معالجة النص والصور معاً — وسجّل في المراتب العليا في الامتحانات المهنية. استجابت Google بـ Gemini. أصدرت Anthropic نموذج Claude. أصدرت Meta LLaMA كمصدر مفتوح، مُعمّمة الوصول إلى نماذج بمستوى متقدم.
حدّد هذا العصر ثلاثة اتجاهات متزامنة:
الحجم: نمت النماذج إلى مئات المليارات وعلى الأرجح تريليونات المعاملات، مع تكاليف تدريب تجاوزت 100 مليون دولار. المتطلبات الرأسمالية ركّزت تطوير الذكاء الاصطناعي المتقدم بين حفنة من المختبرات الممولة جيداً.
الكفاءة: الاتجاه المضاد للحجم الخام. بنى خليط الخبراء نشّطت جزءاً فقط من المعاملات لكل مدخل. تقطير النماذج ضغط النماذج الكبيرة في إصدارات أصغر قابلة للنشر. التكميم قلّل الدقة الرقمية دون فقدان جودة ذي معنى. الكفاءة متعددة اللغات أظهرت أن النماذج الأصغر يمكنها الأداء جيداً عبر عشرات اللغات.
تعدد الأنماط: تلاشت الحدود بين نماذج النص والصور والصوت والفيديو. أصبح بإمكان Claude وGPT-4 وGemini جميعاً معالجة أنواع مدخلات متعددة. مولّدات الفيديو المخصصة مثل Sora وVeo أنتجت مقاطع بجودة سينمائية من أوصاف نصية.
الحقبة 6: ثورة الوكلاء (2024-2026)
الحقبة الحالية — التي لا تزال تتكشّف — تتحدد بأنظمة ذكاء اصطناعي لا تولّد نصاً فقط بل تتخذ إجراءات في العالم. يمكن لوكلاء الذكاء الاصطناعي تصفح الويب وكتابة وتنفيذ الشيفرة وإدارة الملفات والتفاعل مع واجهات برمجة التطبيقات وتنسيق سير عمل متعددة الخطوات.
الأساس التقني للوكلاء ليس بنية جديدة بل نمط استخدام جديد. تُستخدم النماذج اللغوية ليس فقط لتوليد النص بل لتخطيط تسلسلات الإجراءات ومراقبة النتائج والتكيف. استخدام الأدوات — القدرة على استدعاء وظائف خارجية مثل البحث على الويب والحاسبات وقواعد البيانات — يمدّ قدرات النموذج إلى ما وراء ما هو مُرمَّز في أوزانه.
تمثل وكلاء استخدام الحاسوب أبعد امتداد لهذا النموذج، مشغّلة واجهات المستخدم الرسومية كما يفعل البشر — بالنقر على الأزرار وملء النماذج والتنقل في القوائم. تجمع هذه الأنظمة فهم اللغة والإدراك البصري وتخطيط الإجراءات في حلقة واحدة.
يثير عصر الوكلاء تحديات جديدة. على عكس روبوت الدردشة الذي يولّد استجابة نصية، فإن الوكيل الذي يتخذ إجراءات يمكن أن يسبب عواقب واقعية — إرسال رسائل بريد إلكتروني، تعديل ملفات، إجراء عمليات شراء. هندسة السلامة المطلوبة للأنظمة الوكيلية أكثر تعقيداً جوهرياً من تلك المطلوبة للذكاء الاصطناعي المحادثاتي.
النمط وراء التقدم
بالنظر عبر سبعة عقود، تظهر عدة أنماط:
أفكار قديمة، حوسبة جديدة. اختُرعت الشبكات العصبية في الخمسينيات. صُيغ الانتشار الخلفي في الثمانينيات. آليات الانتباه وُجدت قبل المحوّلات. في كل حالة، سبقت الفكرة النظرية أثرها العملي بعقود، منتظرة أجهزة قادرة على تحقيقها بحجم كافٍ.
البساطة تنتصر عند التوسع. أنجح البنى كانت بسيطة بشكل مفاجئ. المحوّل هو في جوهره انتباه مع شبكات أمامية. GPT هو محوّل مُدرَّب على التنبؤ بالرمز التالي. التعقيد يأتي من الحجم، وليس من تعقيد البنية.
العمومية تتغلب على التخصص. كان الاتجاه باستمرار نحو بنى أكثر عمومية. الشبكات الالتفافية للرؤية والتكرارية للغة والخصومية للتوليد — كلها استُبعيت بالمحوّلات. أدوات كل عصر المتخصصة تُستبدل بالنموذج العام للعصر التالي.
القدرات تظهر عند التوسع. أكثر القدرات أهمية — التعلم بأمثلة قليلة، الاستدلال خطوة بخطوة، توليد الشيفرة — لم تُصمَّم صراحة. ظهرت عندما وصلت النماذج إلى حجم كافٍ، مما يشير إلى أن العلاقة بين حجم النموذج والقدرة ليست كمية بحتة.
ما الذي يأتي بعد ذلك
تتكاثر نماذج الذكاء الاصطناعي السيادية مع سعي الدول للاستقلال اللغوي والثقافي في الذكاء الاصطناعي. الحوسبة في وقت الاختبار تنقل الذكاء من التدريب إلى الاستدلال. أنظمة الوكلاء المتعددة تخلق بنى ذكاء اصطناعي تعاونية تتجاوز قدرات النموذج الفردي.
لكن ربما أهم تطور هو دمقرطة الذكاء الاصطناعي. النماذج مفتوحة المصدر من Meta وMistral وغيرها وضعت قدرات بمستوى متقدم في متناول أي شخص يمتلك وحدة GPU. تاريخ الذكاء الاصطناعي كان تاريخ تركيز — آلات باهظة، خبرة نادرة، مؤسسات حصرية. العصر الحالي يكسر هذا النمط، وستُحس عواقبه لعقود.
الأسئلة الشائعة
ما المقصود بـ The Evolution of AI Models؟
يتناول هذا المقال الجوانب الأساسية لهذا الموضوع، ويستعرض الاتجاهات الحالية والجهات الفاعلة الرئيسية والتداعيات العملية على المهنيين والمؤسسات في عام 2026.
لماذا يُعد هذا الموضوع مهمًا؟
يكتسب هذا الموضوع أهمية كبيرة لأنه يؤثر بشكل مباشر على كيفية تخطيط المؤسسات لاستراتيجيتها التقنية وتخصيص مواردها وتموضعها في مشهد سريع التطور.
ما أبرز النقاط المستخلصة من هذا المقال؟
يحلل المقال الآليات الرئيسية والأطر المرجعية والأمثلة الواقعية التي تشرح كيفية عمل هذا المجال، مستندًا إلى بيانات حديثة ودراسات حالة عملية.
المصادر والقراءات الإضافية
- Attention Is All You Need — Vaswani et al., Google Research (2017)
- ImageNet Classification with Deep Convolutional Neural Networks (AlexNet) — Krizhevsky et al. (2012)
- Stanford AI Index Report 2025: Historical Trends — Stanford HAI
- On the Opportunities and Risks of Foundation Models — Bommasani et al., Stanford CRFM (2021)
- A Brief History of Artificial Intelligence — Michael Wooldridge, Wired















