يدور كثير من نقاش مخاطر الذكاء الاصطناعي حول سؤال واحد: هل سنصل إلى ذكاء اصطناعي عام AGI، أو ذكاء فائق ASI، يتجاوز البشر؟ لكن مفهوم الذكاء الاصطناعي القابل للتطور، أو evolvable AI / eAI، يفتح زاوية مختلفة: قد تظهر مخاطر مهمة حتى قبل الوصول إلى AGI، إذا أصبحت أنظمة الذكاء الاصطناعي قادرة على النسخ، وإنتاج اختلافات، ثم الخضوع لانتقاء يفضّل بعض النسخ أو الإعدادات على غيرها[1][
4].
الفكرة ليست أن الذكاء الاصطناعي «استيقظ» أو أصبح كائناً واعياً. الخطر هنا أقرب إلى منطق التطور: ما الذي يحدث عندما تكافئ البيئة الرقمية الأنظمة الأكثر قدرة على البقاء، أو الانتشار، أو التكيف، حتى من دون نية شريرة؟[4]
ما المقصود بـ eAI؟
تعرّف مقالة منظور منشورة في دورية PNAS، ومفهرسة في قاعدة PubMed، الذكاء الاصطناعي القابل للتطور بأنه أنظمة ذكاء اصطناعي يمكن أن تخضع مكوناتها، وقواعد تعلمها، وظروف نشرها نفسها لعملية تطور دارويني[1]. وPNAS هي اختصار لـ Proceedings of the National Academy of Sciences، أي دورية علمية مرتبطة بالأكاديمية الوطنية الأميركية للعلوم.
المهم في هذا التعريف أنه لا يتحدث فقط عن نموذج يتم تحديثه من حين إلى آخر. المقصود أوسع: نسخ مختلفة من النماذج، أو أدواتها، أو طرق تشغيلها، أو بيئات نشرها قد تُحفظ أو تُستبعد بحسب الأداء، أو القدرة على الانتشار، أو ملاءمة البيئة[1].
لذلك، eAI ليس منتجاً محدداً ولا مرادفاً لـ AGI. إنه إطار لفهم خطر محتمل: عندما لا يبقى الذكاء الاصطناعي أداة ثابتة درّبها البشر ثم استخدموها، بل يقترب من منظومة يمكن أن تتكاثر فيها النسخ، وتظهر بينها فروق، ثم تُنتقى النسخ «الأصلح» داخل بيئات رقمية أو اجتماعية أو اقتصادية[1][
4].
الفرق عن AGI وASI: المسألة ليست «كم هو ذكي؟» فقط
عادةً يسأل نقاش AGI وASI: هل يستطيع النظام أداء معظم المهام الفكرية مثل الإنسان؟ وهل سيتجاوزه؟ أما eAI فيسأل سؤالاً آخر: هل تتوافر شروط التطور داخل النظام أو حوله؟[1]
هذا الفرق جوهري. قد لا يكون نظام ما فائق الذكاء، لكنه إذا كان قابلاً للنسخ على نطاق واسع، وتظهر بين نسخه اختلافات، وتكافئ البيئة بعض هذه الاختلافات، فقد ينتج سلوك يصعب التنبؤ به أو ضبطه[1][
4]. في المقابل، قد يكون هناك نموذج قوي جداً لكنه محصور في بيئة ثابتة ومقيدة، فلا يكون بالضرورة مثالاً واضحاً على eAI.
لهذا لخصت بعض التغطيات العلمية الفكرة بعبارة أن «الذكاء الاصطناعي المتطور قد يصل قبل AGI»، أي أن مشكلة الحوكمة قد تظهر من شروط التطور لا من الوصول إلى ذكاء عام كامل[9].
التطور لا يحتاج إلى DNA
تشير جامعة نيو ساوث ويلز UNSW في شرحها للبحث إلى أن التطور لا يتطلب DNA، ولا خلايا، ولا حياة بيولوجية أصلاً. ما يحتاجه هو معلومات قابلة للنسخ، وتباين يؤثر في نجاح هذا النسخ[4].
عند تطبيق ذلك على الذكاء الاصطناعي، تصبح الأسئلة الأساسية كالتالي:
- هل توجد معلومات أو إعدادات قابلة للنسخ؟ إذا كانت مكونات النظام، أو قواعده، أو إعدادات نشره قابلة للحفظ وإعادة الاستخدام، فهذه مادة أولية لعملية تطورية[
1][
4].
- هل تظهر فروق بين النسخ؟ قد تأتي الفروق من تحديثات، أو توليفات مختلفة للأدوات، أو طرق نشر متعددة، أو تفاعل الوكلاء مع بيئات مختلفة[
4].
- هل تؤثر هذه الفروق في الانتشار أو البقاء؟ عندما تصبح بعض النسخ أكثر قابلية للاستخدام أو إعادة النشر أو الاعتماد، يبدأ ضغط انتقائي في الظهور[
4].
- هل يحدث الانتقاء خارج مخرجات النموذج فقط؟ تعريف PNAS يشمل المكونات، وقواعد التعلم، وظروف النشر، لا مجرد الإجابة النهائية التي يراها المستخدم[
1].
وهنا تكمن نقطة مهمة: التطور لا يحتاج إلى نية. الانتقاء الطبيعي لا «يريد» شيئاً؛ لكنه يعمل عندما توجد نسخ وتباينات وضغوط اختيار. وبالمثل، قد تظهر ديناميكيات غير مقصودة في أنظمة اصطناعية إذا توافرت الشروط نفسها[4].
لماذا يهم هذا الآن؟
ترى مقالة PNAS أن اتجاهات قائمة بالفعل في الذكاء الاصطناعي التوليدي، والذكاء الاصطناعي الوكيلي أو agentic AI، والذكاء الاصطناعي المجسّد embodied AI قد تجعل eAI احتمالاً أقرب مما يفترضه كثيرون، وأن هذا الاحتمال لم ينل ما يكفي من الاهتمام في نقاشات أمان الذكاء الاصطناعي والمخاطر الوجودية[1].
الذكاء الاصطناعي الوكيلي مهم هنا لأنه لا يكتفي بإنتاج نص أو صورة. «الوكيل» قد يُطلب منه أن يلاحظ البيئة، ويخطط، ويستخدم أدوات، ويتخذ خطوات، ثم يعدّل سلوكه بحسب النتائج. ومع انتقال النماذج اللغوية الكبيرة إلى بيئات مفتوحة وتفاعلية، تدرس أبحاث حديثة أنظمة وكلاء تستطيع الاستدلال والعمل والتطور في الزمن الحقيقي[2].
وتشير مراجعة على arXiv إلى أن النماذج اللغوية الكبيرة، رغم قدراتها الواسعة، ما زالت في جوهرها ثابتة نسبياً، ولا تستطيع بسهولة تعديل معلماتها الداخلية للتكيف مع مهام جديدة أو مجالات معرفة متغيرة أو سياقات تفاعلية ديناميكية[2]. لكن الاتجاه البحثي نحو «وكلاء ذاتيي التطور» يوضح أن السؤال لم يعد نظرياً بالكامل: كيف نبني أنظمة تتكيف أثناء العمل، وما حدود هذا التكيف؟[
2]
من نموذج واحد إلى منظومة وكلاء
في أمان الذكاء الاصطناعي التقليدي نسأل غالباً: هل يهلوس النموذج؟ هل يعطي تعليمات خطرة؟ هل يلتزم بتعليمات البشر؟ هذه أسئلة ضرورية، لكنها لا تكفي إذا تحولت البيئة إلى منظومة فيها وكلاء كثيرون، ومكونات متعددة، ونسخ نشر مختلفة تتنافس على الاستخدام والبقاء[1][
4].
في إطار eAI يصبح السؤال: ما السلوك الذي تكافئه البيئة؟ هل تكافئ الدقة والشفافية والقابلية للإيقاف؟ أم تكافئ القدرة على الانتشار، وجذب الاستخدام، وتجاوز القيود، والتكيف مع أي فرصة متاحة؟[1][
4]
تضع مقالة PNAS ثلاثة محاور مركزية: تحت أي شروط تقنية وبيئية يصبح الذكاء الاصطناعي قابلاً للتطور، وما السلوكيات المرجح ظهورها حينها، وكيف يمكن حوكمة هذه الأنظمة[1]. وقد استخدمت بعض المواد العلمية والتواصلية تعبيرات مثل «أنواع ذكاء اصطناعي» أو «AI species» لوصف الاحتمال، لكن الأصح قراءة هذه العبارات بوصفها تشبيهاً وإطاراً للمخاطر، لا دليلاً على أن «أنواعاً» مستقرة من الذكاء الاصطناعي ظهرت بالفعل[
5][
10].
الخلاصة العملية: الانتقاء لا يختار بالضرورة النظام الأكثر أماناً أو الأكثر توافقاً مع القيم البشرية؛ بل يختار، داخل بيئة معينة، النسخ التي تُحفظ أو تُستخدم أو تنتشر أكثر[4]. فإذا صُممت بيئات النشر والحوافز بطريقة رديئة، فقد لا يكون الوكيل «الأكثر نجاحاً» هو الوكيل الأكثر أماناً[
1][
9].
ما قوة الأدلة الحالية؟
المصادر المتاحة تكفي للقول إن eAI أصبح موضوعاً أكاديمياً جاداً في نقاش مخاطر الذكاء الاصطناعي. فمقالة PNAS تقدم تعريفاً واضحاً له وتضعه ضمن نقاشات أمان الذكاء الاصطناعي والمخاطر الوجودية[1]. كما أن مراجعات «الوكلاء ذاتيي التطور» تظهر أن الباحثين يدرسون بالفعل أنظمة يمكنها التكيف والعمل في بيئات مفتوحة وتفاعلية[
2].
لكن هذا لا يعني أن كارثة eAI حدثت بالفعل. اللغة الأدق هي أن eAI يمثل تحذيراً استشرافياً وجدول أعمال بحثياً وحاجة مبكرة للحوكمة، لا واقعة مثبتة لانفلات واسع النطاق[1][
2]. المبالغة في تصويره كقصة عن وعي مفاجئ أو تمرد آلي قد تحجب المشكلة الأهم: هل ستنشأ منظومات وكلاء قابلة للتطور، يصعب التنبؤ بسلوكها أو التحكم في مساراتها؟[
1][
4]
إشارات تستحق المتابعة
لمعرفة ما إذا كان خطر eAI يزداد، لا ينبغي التركيز فقط على سؤال «هل للذكاء الاصطناعي شخصية؟». الأهم هو مراقبة اقترابه من شروط التطور:
- هل يستطيع وكلاء الذكاء الاصطناعي إنتاج نسخ أو إعدادات يمكن حفظها أو نسخها أو إعادة نشرها؟[
1][
4]
- هل تؤثر الفروق بين هذه النسخ في فرص استخدامها أو انتشارها أو بقائها؟[
4]
- هل تُنشر الوكلاء في بيئات مفتوحة وتفاعلية تسمح لها بالاستدلال والعمل والتكيف في الزمن الحقيقي؟[
2]
- هل تشمل الحوكمة مكونات النموذج وقواعد التعلم وظروف النشر، لا مجرد فحص المخرجات النهائية؟[
1]
الخلاصة
أهم ما يقدمه مفهوم eAI هو أنه ينقل النقاش من صورة الذكاء الاصطناعي الواعي أو الفائق إلى سؤال أكثر عملية: ماذا يحدث عندما تتوافر في الأنظمة الاصطناعية شروط النسخ، والتباين، والانتقاء، والبقاء؟
إذا بدأ الذكاء الاصطناعي يعمل كمنظومة قابلة للتطور، فلن نتعامل فقط مع أداة منفردة، بل مع بيئة اصطناعية تحتاج إلى تصميم ومراقبة وحوكمة منذ البداية[1][
4].




