पेंटागन की यह घोषणा केवल नई AI तकनीक का मामला नहीं है; यह इस बात का संकेत भी है कि अमेरिकी रक्षा विभाग संवेदनशील सैन्य नेटवर्कों के लिए किन कंपनियों पर भरोसा करना चाहता है। विभाग ने कहा कि उसने सात टेक कंपनियों के साथ अपने क्लासिफाइड कंप्यूटर नेटवर्कों में आर्टिफिशियल इंटेलिजेंस इस्तेमाल करने के समझौते किए हैं। नाम हैं: Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection और SpaceX. इस सूची में Anthropic शामिल नहीं है [7].
Reuters ने इसे पेंटागन की उस कोशिश के रूप में बताया है जिसमें सेना के अलग-अलग हिस्सों में AI देने वाले आपूर्तिकर्ताओं का दायरा बढ़ाया जा रहा है—यानी निर्भरता किसी एक AI कंपनी पर न रहे [2].
पेंटागन ने क्या कहा
AP की रिपोर्ट के मुताबिक, ये समझौते अमेरिकी सेना को अपने क्लासिफाइड यानी सार्वजनिक रूप से उपलब्ध नहीं किए जाने वाले कंप्यूटर नेटवर्कों के भीतर AI-समर्थित क्षमताएं इस्तेमाल करने की अनुमति देंगे [7]. रक्षा विभाग ने कहा कि ये कंपनियां ऐसे संसाधन देंगी जो ‘complex operational environments’ में ‘warfighter decision-making’ को मजबूत करने में मदद करें—सरल भाषा में, जटिल सैन्य अभियानों में निर्णय लेने में सहायता [
7].
यह घोषणा इसलिए भी अहम है क्योंकि इसमें सिर्फ AI मॉडल बनाने वाली कंपनियां नहीं हैं। सूची में क्लाउड सेवाएं, चिप/कंप्यूटिंग, AI मॉडल और स्पेस/नेटवर्किंग से जुड़ी कंपनियां शामिल हैं [7].
शामिल कंपनियां कौन हैं
घोषणा में जिन सात कंपनियों के नाम आए हैं, वे हैं [7]:
- Microsoft
- Amazon Web Services
- Nvidia
- OpenAI
- Reflection
- SpaceX
फिलहाल सबसे पक्का तथ्य यही है: घोषित क्लासिफाइड-नेटवर्क AI समूह में ये सात कंपनियां हैं, और Anthropic नहीं है [2][
7].
Anthropic बाहर क्यों है
Reuters-सिंडिकेटेड रिपोर्टिंग के अनुसार, Anthropic और पेंटागन के बीच उसकी AI तकनीक के सैन्य उपयोग पर guardrails—यानी सुरक्षा-सीमाओं और उपयोग-शर्तों—को लेकर विवाद रहा है [2][
10]. Reuters ने यह भी रिपोर्ट किया कि पेंटागन ने इस साल पहले Anthropic को supply-chain risk कहा था [
2][
10]. AP ने भी Anthropic की गैरमौजूदगी को ट्रंप प्रशासन के साथ सैन्य AI उपयोग की शर्तों पर उसके सार्वजनिक विवाद और कानूनी लड़ाई के बाद का घटनाक्रम बताया [
7].
कुछ रिपोर्टों में विवाद को भाषा के स्तर पर समझाया गया है। पेंटागन की पसंदीदा शर्त को ‘lawful operational use’—यानी वैध परिचालन उपयोग—के रूप में बताया गया, जबकि Anthropic कथित तौर पर कुछ सैन्य इस्तेमालों पर अधिक मजबूत सुरक्षा सीमाएं चाहता था [4][
13]. हालांकि समझौतों का पूरा पाठ सार्वजनिक नहीं है, इसलिए सटीक कानूनी भाषा और हर कंपनी पर लागू खास पाबंदियों को अभी अंतिम तथ्य की तरह नहीं पढ़ा जाना चाहिए।
यह AI किन कामों में लग सकता है
रक्षा विभाग का आधिकारिक वर्णन व्यापक है: AI संसाधन जो जटिल संचालन स्थितियों में सैन्य निर्णय-प्रक्रिया को बेहतर बनाने में मदद करें [7]. AFP-सिंडिकेटेड रिपोर्टों ने आगे कहा कि संबंधित क्लासिफाइड सिस्टम मिशन प्लानिंग, हथियारों के लक्ष्य-निर्धारण और अन्य उद्देश्यों में इस्तेमाल होते हैं [
5][
12].
लेकिन इसका अर्थ यह नहीं कि सातों कंपनियां एक जैसा काम करेंगी या हर कंपनी सीधे उन्हीं सैन्य कार्यों में शामिल होगी। उपलब्ध सार्वजनिक रिपोर्टों से यह साफ नहीं होता कि किस कंपनी को कौन-सी क्षमता देनी है, कौन-से मॉडल या क्लाउड टूल किस क्लासिफाइड नेटवर्क पर चलेंगे, या वास्तविक सैन्य स्थितियों में निगरानी और मंजूरी के नियम क्या होंगे।
किन बातों पर अब भी धुंध है
उपलब्ध रिपोर्टिंग से कई महत्वपूर्ण बातें अभी साफ नहीं होतीं:
- समझौतों की कुल कीमत और अवधि।
- हर कंपनी को दिया गया तकनीकी दायरा।
- कौन-से मॉडल, क्लाउड सेवाएं, चिप्स या टूल किस नेटवर्क पर चलेंगे।
- सैन्य उपयोग पर हर कंपनी ने कौन-सी पाबंदियां या शर्तें स्वीकार कीं।
- Anthropic की गैरमौजूदगी अस्थायी है या लंबे समय की।
आखिरी बिंदु पर तस्वीर पूरी तरह बंद नहीं है। CNN-सिंडिकेटेड रिपोर्ट में कहा गया कि व्हाइट हाउस ने हाल के हफ्तों में Anthropic से बातचीत फिर शुरू की, जबकि AP और Reuters की रिपोर्टों के अनुसार घोषित सात-कंपनी समूह में Anthropic शामिल नहीं था [13][
2][
7].
बड़ी तस्वीर
यह कदम दिखाता है कि पेंटागन वाणिज्यिक AI को अपने ज्यादा संवेदनशील, क्लासिफाइड रक्षा माहौल में ले जा रहा है, और साथ ही AI आपूर्तिकर्ताओं का दायरा बढ़ाना चाहता है [2][
7]. दूसरी तरफ, Anthropic से जुड़ा विवाद बताता है कि AI सुरक्षा नीति अब केवल नैतिक बहस नहीं रही; यह सरकारी खरीद और रक्षा तकनीक के अनुबंधों को प्रभावित करने वाला मुद्दा बन चुकी है [
4][
10][
13].
अभी की साफ तस्वीर यही है: सात कंपनियां पेंटागन के क्लासिफाइड AI काम में शामिल हुई हैं, Anthropic बाहर रह गया है, और सैन्य AI के लिए स्वीकार्य guardrails पर खींचतान इस कहानी का केंद्रीय प्रश्न बनी हुई है [2][
7][
10].




