AI जोखिम पर चर्चा अक्सर इस सवाल पर अटक जाती है कि क्या AGI कभी इंसानों जैसी सामान्य बुद्धि पा लेगी, या ASI उससे आगे निकल जाएगी। लेकिन “एवॉल्वेबल AI” यानी evolvable AI, eAI बहस को दूसरी दिशा में ले जाता है: अगर AI सिस्टम अपनी प्रतियां बना सकें, उनमें फर्क पैदा हो, और वातावरण कुछ रूपों को बचाए या फैलाए, तो जोखिम बुद्धि के शिखर से नहीं बल्कि जीवित रहने, फैलने और अनुकूलन के दबावों से आ सकता है [1][
4]।
eAI का मतलब: जब AI सिस्टम खुद चयन का हिस्सा बन जाए
PNAS में प्रकाशित और PubMed में सूचीबद्ध एक परिप्रेक्ष्य लेख eAI को ऐसे AI सिस्टमों के रूप में परिभाषित करता है जिनके घटक, सीखने के नियम और तैनाती की स्थितियां खुद डार्विनीय विकास से गुजर सकती हैं [1]। यानी बात सिर्फ इतनी नहीं कि कोई मॉडल समय-समय पर अपडेट हो रहा है। असली मुद्दा यह है कि AI इकोसिस्टम में अलग-अलग संस्करण, नियम या deployment तरीके प्रदर्शन, फैलाव या वातावरण के अनुकूल होने की वजह से टिक सकते हैं या खत्म हो सकते हैं [
1]।
इसलिए eAI कोई एक उत्पाद-नाम नहीं है, और न ही AGI या ASI का दूसरा नाम। यह जोखिम को समझने का एक फ्रेमवर्क है: जब AI सिर्फ एक बार ट्रेन किया गया और मनुष्यों द्वारा इस्तेमाल किया जाने वाला टूल न रहकर “कॉपी हो सकने वाला, बदल सकने वाला और चुना जा सकने वाला” सिस्टम बनने लगे, तो उसे विकासवादी जीवविज्ञान के चश्मे से भी समझना पड़ता है [1][
4]।
AGI/ASI से फर्क: एक बहस बुद्धि पर है, दूसरी विकास की शर्तों पर
AGI/ASI की बहस आम तौर पर क्षमता की सीमा पर केंद्रित होती है: क्या AI पर्याप्त रूप से सामान्य होगा, क्या वह मनुष्यों से आगे निकल जाएगा। eAI इससे अलग सवाल पूछता है: क्या AI सिस्टम में विकास के लिए जरूरी स्थितियां मौजूद हैं? इसी जोखिम-नजरिए को एक रिपोर्ट ने इस तरह संक्षेप में रखा कि evolving AI, AGI से पहले आ सकता है और नियंत्रण को कठिन बना सकता है [9]।
यह फर्क छोटा नहीं है। कोई AI सिस्टम सुपरइंटेलिजेंट न भी हो, लेकिन अगर वह बड़े पैमाने पर कॉपी हो सके, उसमें बदलाव पैदा हों, और कुछ माहौल उन बदलावों को चुनकर बनाए रखें, तो उससे अप्रत्याशित व्यवहार उभर सकता है। दूसरी ओर, बहुत शक्तिशाली मॉडल भी अगर कड़े, स्थिर और सीमित माहौल में बंद है, तो जरूरी नहीं कि वह eAI फ्रेम में फिट हो [1][
4]।
विकास के लिए DNA जरूरी नहीं: कॉपी, बदलाव और चयन काफी हैं
UNSW की शोध-व्याख्या के अनुसार, विकास के लिए DNA, कोशिका या जैविक जीवन जरूरी नहीं है। जरूरत होती है ऐसी सूचना की जो प्रतिलिपि बना सके, और ऐसे बदलावों की जो प्रतिलिपि बनने की सफलता को प्रभावित करें [4]। AI पर यह बात लागू करें, तो eAI जोखिम को समझते समय कम से कम चार बातों पर ध्यान देना होगा:
- कॉपी हो सकने वाली जानकारी या कॉन्फिगरेशन। अगर AI सिस्टम के घटक, नियम या deployment settings बचाए, कॉपी किए या फिर से इस्तेमाल किए जा सकते हैं, तो विकास के लिए कच्चा माल मौजूद है [
1][
4]।
- प्रतियों में फर्क। हर अपडेट, संयोजन या deployment में अगर कुछ अंतर बनता है, तो वही अंतर चयन की सामग्री बन सकता है [
4]।
- फर्क से टिकने या फैलने की संभावना बदलती हो। जब कुछ variants ज्यादा अपनाए जाते हैं, ज्यादा समय तक रखे जाते हैं या फिर से deploy किए जाते हैं, तो selection pressure उभरने लगता है [
4]।
- विकास सिर्फ अंतिम जवाबों में नहीं होता। PNAS लेख eAI की परिभाषा में घटकों, सीखने के नियमों और deployment conditions को शामिल करता है; यानी शासन का ध्यान सिर्फ इस पर नहीं हो सकता कि अंतिम output सुरक्षित है या नहीं [
1]।
यहीं eAI की बात सामान्य डरावनी AI कहानियों से अलग हो जाती है। प्राकृतिक चयन का अपना कोई इरादा नहीं होता। अगर प्रतिलिपि, बदलाव और चयन की स्थितियां एक साथ मौजूद हैं, तो विकास किसी के जानबूझकर डिजाइन किए बिना भी हो सकता है [4]।
अभी यह चर्चा क्यों जरूरी हो रही है
PNAS लेख का तर्क है कि generative AI, agentic AI और embodied AI की मौजूदा दिशाएं eAI के उभरने की जमीन बना सकती हैं। लेखकों के अनुसार, AI सुरक्षा और अस्तित्वगत जोखिम की बहस में इस संभावना को पर्याप्त महत्व नहीं मिला है [1]।
यहां agentic AI खास तौर पर महत्वपूर्ण है। ऐसे AI एजेंट सिर्फ टेक्स्ट नहीं बनाते; उन्हें ऐसे माहौल में रखा जा सकता है जहां वे देखते हैं, तर्क करते हैं, कार्रवाई करते हैं और रणनीति बदलते हैं। self-evolving agents पर arXiv में उपलब्ध एक सर्वे के अनुसार, बड़े भाषा मॉडल यानी LLMs कई कामों में सक्षम हैं, लेकिन मूल रूप से काफी static रहते हैं और नए कामों, बदलते ज्ञान-क्षेत्रों या गतिशील संवादात्मक स्थितियों के हिसाब से अपने आंतरिक parameters को खुद ढालने में सीमित हैं। वही सर्वे बताता है कि LLMs को जैसे-जैसे open-ended, interactive environments में deploy किया जा रहा है, शोधकर्ता ऐसे एजेंट सिस्टम तलाश रहे हैं जो real time में reason, act और evolve कर सकें [2]।
इसका मतलब यह नहीं कि इंटरनेट पर कोई “AI प्रजाति” पहले ही अनियंत्रित होकर फैल चुकी है। ज्यादा सटीक बात यह है: अगर AI एजेंट अधिक self-adaptive, interactive और रणनीति बदलने में सक्षम होते जाते हैं, तो शासन सिर्फ एक मॉडल के output की जांच तक सीमित नहीं रह सकता [1][
2]।
असली चिंता: एक मॉडल नहीं, एजेंटों का इकोसिस्टम
पारंपरिक AI सुरक्षा अक्सर पूछती है: क्या मॉडल hallucinate करता है? क्या वह खतरनाक जवाब देता है? क्या वह मानव निर्देशों का पालन करता है? eAI हमें दूसरी किस्म के सवाल पूछने पर मजबूर करता है: अगर अलग-अलग platforms और environments में बहुत सारे AI एजेंट, model components या deployment variants चल रहे हों, तो कौन-से variants टिकेंगे? कौन-से हटेंगे? क्या माहौल सुरक्षा, ईमानदारी और नियंत्रण को reward करेगा, या फैलने और अनुकूल होने की क्षमता को? [1][
4]
PNAS लेख तीन बड़े प्रश्नों को केंद्र में रखता है: किन तकनीकी और पारिस्थितिक स्थितियों में AI evolvable बनता है, ऐसे में किस तरह के व्यवहार उभर सकते हैं, और ऐसे सिस्टमों का शासन कैसे किया जाए [1]। कुछ शोध-संस्थानों और विज्ञान-संचार सामग्री में इस संभावना को “AI species” या जैविक जीवों की तरह विकसित होने वाली AI प्रजाति के रूप में समझाया गया है, लेकिन इसे जोखिम-फ्रेम और रूपक की तरह पढ़ना चाहिए; यह इस बात का प्रमाण नहीं है कि कोई परिपक्व AI प्रजाति पहले से मौजूद है [
5][
10]।
सबसे बड़ी सावधानी यही है: विकासवादी चयन “मानवीय मूल्यों से सबसे मेल खाने वाले” सिस्टम को नहीं चुनता। वह उस वातावरण में ज्यादा आसानी से कॉपी, संरक्षित या फैलने वाले variants को चुनता है [4]। अगर खुले वातावरण में selection pressure गलत तरह से बनता है, तो सबसे सफल AI एजेंट जरूरी नहीं कि सबसे सुरक्षित AI एजेंट भी हो [
1][
9]।
अभी सबूत कितने मजबूत हैं?
मौजूदा स्रोतों के आधार पर एक सावधान निष्कर्ष निकाला जा सकता है: eAI अब औपचारिक अकादमिक जोखिम-विषय है। PNAS लेख eAI की साफ परिभाषा देता है और इसे AI सुरक्षा तथा अस्तित्वगत जोखिम के फ्रेम में रखकर चर्चा करता है [1]। self-evolving agents पर सर्वे यह भी दिखाता है कि शोध समुदाय open-ended, interactive environments में adapt, act और evolve करने वाले एजेंट सिस्टमों पर काम कर रहा है [
2]।
लेकिन इसका मतलब यह नहीं कि eAI आपदा घट चुकी है। उपलब्ध स्रोतों की भाषा के हिसाब से eAI को फिलहाल भविष्य-उन्मुख जोखिम विश्लेषण, शोध-एजेंडा और शासन-संबंधी चेतावनी के रूप में देखना चाहिए, न कि प्रमाणित बड़े पैमाने की अनियंत्रित घटना के रूप में [1][
2]। इसे sci-fi शैली में “AI जाग गया और विद्रोह कर रहा है” कहना असली सवाल को धुंधला कर देगा: क्या AI एजेंटों का इकोसिस्टम ऐसा चयन-चक्र बना सकता है जो विकसित होने वाला, अप्रत्याशित और शासन के लिए कठिन हो? [
1][
4]
आगे किन संकेतों पर नजर रखनी चाहिए
ईएआई जोखिम बढ़ रहा है या नहीं, यह देखने के लिए सवाल यह नहीं होना चाहिए कि AI में “व्यक्तित्व” है या नहीं। असली संकेत ये होंगे:
- क्या AI एजेंट ऐसे variants बना रहे हैं जिन्हें बचाया, कॉपी किया या फिर से deploy किया जा सकता है? [
1][
4]
- क्या variants के बीच के फर्क से उनके इस्तेमाल, फैलाव या टिके रहने की संभावना बदलती है? [
4]
- क्या AI एजेंट खुले, interactive environments में रखे जा रहे हैं, और क्या वे real time में reason, act और evolve कर सकते हैं? [
2]
- क्या शासन-व्यवस्था model components, learning rules और deployment conditions को भी कवर करती है, या केवल अंतिम output की जांच करती है? [
1]
निचोड़
eAI की सबसे जरूरी सीख यह है कि AI जोखिम को समझने के लिए “चेतना” या “सुपरइंटेलिजेंस” का इंतजार करना जरूरी नहीं। अगर AI सिस्टमों में कॉपी, बदलाव, चयन और टिके रहने की स्थितियां बनने लगती हैं, तो मनुष्यों के सामने सिर्फ एक tool नहीं, बल्कि डिजाइन, निगरानी और शासन मांगने वाला कृत्रिम विकासवादी इकोसिस्टम भी हो सकता है [1][
4]।




