जब AI युद्ध में प्रवेश करता है, उत्पाद मॉडल नहीं रहता और नियंत्रण बन जाता है

जब AI युद्ध में प्रवेश करता है, उत्पाद मॉडल नहीं रहता और नियंत्रण बन जाता है

पेंटागन ने एंथ्रोपिक के साथ 200 मिलियन डॉलर का अनुबंध रद्द किया और अगले घंटे ओपनएआई के साथ नया अनुबंध किया।

Elena CostaElena Costa6 मार्च 20266 मिनट
साझा करें

जब AI युद्ध में प्रवेश करता है, उत्पाद मॉडल नहीं रहता और नियंत्रण बन जाता है

यह समाचार किसी प्रौद्योगिकी प्रदाता और अमेरिका सरकार के बीच किसी अनुबंध विवाद के बारे में नहीं है। यह राष्ट्रीय सुरक्षा के लिए लागू किए गए AI आपूर्ति श्रृंखला में शक्ति के बदलाव के बारे में है। 6 मार्च 2026 को, अमेरिका के युद्ध विभाग ने एंथ्रोपिक के साथ 200 मिलियन डॉलर का अनुबंध रद्द कर दिया और कंपनी को “राष्ट्रीय सुरक्षा के लिए आपूर्ति श्रृंखला का जोखिम” करार दिया, एक टैग जो ऐतिहासिक रूप से विदेशी प्रतिकूलों के लिए रखा गया था। कुछ घंटों के भीतर, पेंटागन ने ओपनएआई के साथ प्रतिस्पर्धी समझौता किया। यह सब एक विशेष असहमति से प्रेरित था: एंथ्रोपिक ने घरेलू व्यापक निगरानी और पूरी तरह से स्वायत्त हथियारों के उपयोग के खिलाफ अनुबंधिक सुरक्षा उपायों को हटाने से इनकार कर दिया।

इससे अधिक गंभीरता काOperational विवरण यह है कि क्लॉड पहले से ही गहराई से एकीकृत था: इसे सरकारी वर्गीकृत नेटवर्कों में, राष्ट्रीय परमाणु प्रयोगशालाओं में और खुफिया विश्लेषण प्रवाहों में तैनात किया गया था, जो पेलेंटिर की AI प्लेटफार्म के माध्यम से तैनात किया गया था। एक अनुबंध को रद्द करना एक प्रणाली को अनइंस्टॉल नहीं करता जो पहले से ही महत्वपूर्ण प्रक्रियाओं के अंदर मौजूद है। इसीलिए पेंटागन ने अपने सिस्टम से क्लॉड को निकालने के लिए छह महीने की संक्रमण अवधि खोली।

व्यापार दृष्टि से देखा जाए, तो यह कहानी इस बात का एक एक्स-रे है कि कैसे AI को उत्पादित किया जाता है जब गलती की सहिष्णुता न्यूनतम होती है। उपभोक्ता में, उत्पाद प्रदर्शन होता है। रक्षा में, उत्पाद प्रदर्शन अधिक नियंत्रण होता है: कौन निर्णय लेते हैं, कैसे इसे सीमित किया जाता है, कैसे इसका ऑडिट किया जाता है और जब मॉडल गलत होता है तो कैसे प्रतिक्रिया दी जाती है।

पेंटागन AI खरीद नहीं रहा, वह संचालन के लिए विकल्पिता खरीद रहा है

9 जनवरी 2026 को, युद्ध विभाग ने अपनी AI त्वरक रणनीति प्रकाशित की, जिसे हाल के उनके सबसे आक्रामक रणनीतियों में से एक बताया गया। इस दस्तावेज ने सात "मार्कर प्रोजेक्ट्स" की स्थापना की — स्वायत्त झुंडों से लेकर AI-सक्षम युद्ध प्रबंधन तक — और एक केंद्रीय मांग को रेफर किया जो टकराव को स्पष्ट करता है: अनुबंधित मॉडलों को सार्वजनिक लॉन्च के 30 दिनों के भीतर तैनात किया जा सकता था और इसे “सभी वैध उद्देश्यों” के लिए उपयोग किया जा सकता था।

यह वाक्य, “सभी वैध उद्देश्य”, असली उत्पाद की आवश्यकता है। एक ऐसे वातावरण में जहां प्रतिकूल तेजी से रणनीतियाँ और तकनीकें विकसित करता है, खरीदार संस्थान उस बोतल वाले गर्दन से बचना चाहता है जिसमें उसे हर बार जब एक नया उपयोग मामला सामने आता है तो अनुमति को फिर से बातचीत करनी पड़ती है। दूसरे शब्दों में: वे विकल्पिता की तलाश कर रहे हैं। निहित शर्त यह है कि सुरक्षा सौदों को अनुबंध में कम और एक प्रणाली में अधिक होना चाहिए जो शासन करता है।

पेंटागन की प्रतिक्रिया, जो सचिव पीट हेज़सेथ द्वारा रद्दीकरण के कार्यान्वयन में व्यक्त की गई, एंथ्रोपिक पर यह आरोप लगाती है कि वह सैन्य संचालन पर “विटो शक्ति” पकड़ने का प्रयास कर रहा है, और अमेरिकी सिद्धांतों के साथ एक असंगत स्थिति बनाए रखता है। बयानबाजी के परे, अधिग्रहण की तर्क बहुत स्पष्ट है: सुरक्षा के लिए ऐसे प्रदाता चाहती है जो व्यापक ढांचे को स्वीकार करें और ऑपरेशनल स्कीम के भीतर उपयोग की सीमाओं को हल करें।

यहाँ एक तनाव है जिसे कॉर्पोरेट नेता तुरंत पहचानते हैं। जब AI प्रणाली एक महत्वपूर्ण नेटवर्क बन जाती है, ग्राहक निर्भरताओं और घर्षणों को न्यूनतम करना चाहता है। और जब प्रदाता डरता है कि उसकी तकनीक का उपयोग ऐसे परिदृश्यों में किया जा सकता है जिन्हें वह अस्वीकार मानता है, तो वह धाराओं के साथ खुद को सुरक्षित करने की कोशिश करता है। टकराव संयोग नहीं है; यह इस बात का लक्षण है कि AI अब एक उपकरण नहीं है, यह एक क्षमता है।

एंथ्रोपिक की लाल रेखा ने सुरक्षा को विपणन की समस्या में नहीं बदला, बल्कि आर्किटेक्चर की समस्या में बदल दिया

एंथ्रोपिक ने दो गैर-परक्राम्य शर्तें रखीं: अमेरिकी नागरिकों पर कोई घरेलू व्यापक निगरानी नहीं और महत्वपूर्ण मानव पर्यवेक्षण के बिना कोई पूरी तरह से स्वायत्त हथियार नहीं। रिपोर्ट के अनुसार, पेंटागन ने इन श्रेणियों का वर्णन ग्रे क्षेत्रों के रूप में किया और ‘केस बाय केस’ बातचीत करने के लिए “अव्यावहारिक” माना।

कार्यकारी पठन कठोर लेकिन उपयोगी है: चरम परिदृश्यों में, खरीदार ऑपरेशनल अम्बिग्यूइटी को दंडित करता है। एक धारा जो कानूनी व्याख्या और राजनीतिक संदर्भ पर निर्भर करती है वह तब घर्षण बन जाती है जब प्रणाली को वास्तविक समय में और विभिन्न कमांड, सहयोगियों, थिएटरों और वर्गीकरणों के माध्यम से संचालित करना हो।

सबसे प्रकट तत्व यह है कि विवाद के समय क्लॉड पेंटागन के वर्गीकृत नेटवर्क में कार्यरत एकमात्र AI मॉडल था। यानी: “जोखिम” यह नहीं था कि एंथ्रोपिक बाहर नहीं था, बल्कि यह था कि वह बहुत अंदर था और फिर भी, प्रदाता उपयोग या तैनाती के विकास की शर्तें लगा सकता था। महत्वपूर्ण बुनियादी ढाँचे में, खरीदार के लिए सबसे खराब परिदृश्य तकनीकी विफलता नहीं है; यह प्रदाता की शासन की कमी है।

एक दूसरा क्रम भी है: “आपूर्ति श्रृंखला का जोखिम” का नाम न केवल एक अनुबंध को समाप्त करता है; यह एकीकर्ताओं और भागीदारों में रिफ्लेट कर सकता है। कवर में उल्लेख किया गया है कि गूगल, सेल्सफोर्स और एनवीडिया निवेशक या इंजीनियरिंग सहयोगी हैं। किसी भी ऐसे व्यक्ति के लिए जो सरकार या रक्षा ठेकेदारों को बेचता है, आपूर्ति श्रृंखला में एक जोखिम का टैग इसे संचालन को विभाजित करने, आंतरिक अग्नि दीवारें उठाने और कुछ मामलों में एक बाजार के एक भाग को छोड़ने के लिए मजबूर करता है ताकि दूसरे की रक्षा की जा सके।

मानव प्रभाव के संदर्भ में, संकेत भी उतना ही महत्वपूर्ण है: अगर घरेलू निगरानी और स्वायत्त हथियारों के खिलाफ बाधाएं “ग्रे क्षेत्रों” के रूप में चर्चा की जाती हैं, तो फिर बाजार को जांचने योग्य नियंत्रण डिजाइन की आवश्यकता है। बिना जांच के, बहस विश्वास और आख्यानों में घटित हो जाती है। और रक्षा में, आख्यान उस संकट का महीना ठहरते हैं।

ओपनएआई और मूल्य के बदलाव: धाराओं से संचालन नियंत्रण की ओर

रद्दीकरण के कुछ घंटे बाद, पेंटागन ने ओपनएआई के साथ हस्ताक्षर किए। सैम आल्टमैन ने सार्वजनिक रूप से दावा किया कि उनका दृष्टिकोण उन ही सिद्धांतों को बनाए रखता है जिनकी रक्षा एंथ्रोपिक कर रहा था, लेकिन विभिन्न तंत्र के साथ: “सभी वैध उद्देश्यों” के ढांचे को स्वीकार करना और आर्किटेक्चर नियंत्रण को शामिल करना। रिपोर्ट के अनुसार, ओपनएआई ने एक क्लाउड में तैनाती, एक स्वामित्व सुरक्षा परत को बनाया, जिसे पेंटागन ने अनुप्रभावित रखने के लिए स्वीकार किया और वर्गीकृत वातावरणों में संचालन और सौरे बुनियादी ढांचे को बनाए रखना और रखरखाव करने के लिए एक प्रमाणित स्टाफ को शामिल किया।

यदि यह वास्तव में दूसरों के द्वारा स्थायी रहता है, तो यह उत्पाद में बदलाव है: मॉडल एक घटक बन जाता है, और वास्तविक पेशकश एक तैनाती, निगरानी, सीमित करने, प्रतिक्रिया देने और चरम परिस्थितियों में बनाए रखने के पैकेज में बदल जाती है।

एक CFO या जोखिम प्रबंधक के लिए, कॉर्पोरेट समानांतर तुरंत स्पष्ट है। विनियमित क्षेत्रों में, कंपनियों ने पहले से सीख लिया है कि “AI खरीदना” वास्तव में एक संपूर्ण प्रणाली खरीदना होता है: पहुंच नियंत्रण, ट्रेसबिलिटी, रिकॉर्ड, पूर्वाग्रह मूल्यांकन और जब घटनाएं होती हैं, तो उन पर प्रतिक्रिया के तंत्र। रक्षा उस तर्क को अधिकतम सीमा तक ले जा रहा है, एक भूगर्भीय परिप्रेक्ष्य के साथ: संचालन के प्रोत्साहन तेजी और अनुकूलन को प्राथमिकता देते हैं।

यह विवाद भी AI के फ्रंटियर बाजार के विभाजन को दर्शाता है। जुलाई 2025 में, चार कंपनियों ने 200 मिलियन डॉलर तक के संभावित अनुबंध प्राप्त किए: एंथ्रोपिक, ओपनएआई, गूगल और xAI। इस बोर्ड में, कुछ प्रदाता उपयोग के विस्तृत भाषा को स्वीकार करते हैं और अन्य को स्पष्ट अनुबंध के प्रतिबंध आवश्यक हैं। यह कोई दार्शनिक चर्चा नहीं है; यह एक व्यावसायिक निर्णय है कि जोखिम को कहां स्थानांतरित करें और उच्च मूल्य खंड को कैसे धन देना है।

असली लागत “डिसेंजेज” और किसके नियंत्रण में निर्भरता में है

कवरी में एक दबा हुआ डेटा किसी भी समाचार शिर्षक से अधिक महत्वपूर्ण है: क्लॉड को वर्गीकृत नेटवर्क से हटाने में छह महीने लगेंगे। एक अधिकारी ने इसे “अनपैक करने के लिए एक बड़ा दर्द” के रूप में वर्णित किया। यह वाक्य उन बड़ी संस्थानों में AI की राजनीतिक अर्थव्यवस्था को संक्षेपित करता है।

एक बार जब एक मॉडल विश्लेषण प्रवाहों, डोक्युमेंटेशन, खुफिया मूल्यांकन और ऑपरेशनल मॉडलिंग से जुड़ जाता है, तो निर्भरता संरचनात्मक बन जाती है। लागत मॉडल के लाइसेंस में नहीं है; यह प्रक्रियाओं के पुन: डिज़ाइन, उपयोगकर्ताओं की प्रशिक्षण, कनेक्टर्स, वर्गीकृत ढांचे के समायोजन, सत्यापन और सुरक्षा के पुनः मानकीकरण में है। "निकासी" उतनी महंगी हो जाती है जितनी "प्रवेश"।

और जब निकासी महंगी हो जाती है, शासन लेवरेज बन जाता है। यही कारण है कि चर्चा यह नहीं है कि किसके पास सबसे अच्छा मॉडल है, बल्कि यह कि कौन निरंतरता, नियंत्रण, और अनुपालन की बेहतर गारंटी प्रदान करता है। पेंटागन ने खड़े ठेके के शक्तिशाली और प्रतिष्ठा के माध्यम से “आपूर्ति श्रृंखला का जोखिम” टैग लगाने की कोशिश की। एंथ्रोपिक ने स्पष्ट सीमाओं के साथ इसे हल करने की कोशिश की। ओपनएआई, जैसा कि रिपोर्ट किया गया है, ने नियंत्रण के डिज़ाइन और संचालन की शर्तों के साथ इसे हल करने की कोशिश की।

अतिरिक्त रूप से, एक संचालन तत्व भी है: रिपोर्ट की गई है कि अमेरिका का केंद्रीय कमान ने ईरान के खिलाफ संयुक्त राज्य अमेरिका-इजराइल की ऑपरेशन एपिक फ़्यूरी के दौरान एंथ्रोपिक की AI का उपयोग किया था, जिसे खुफिया मूल्यांकन, लक्ष्य विश्लेषण और ऑपरेशनल मॉडलिंग के लिए किया जाता है। यह किसी प्रदाता की तकनीकी श्रेष्ठता को साबित नहीं करता; यह वास्तविक एकीकरण को प्रमाणित करता है। और वास्तविक एकीकरण वह क्षेत्र है जहां ये युद्ध लड़े जाते हैं।

साहित्यिक बाजार के लिए, निहितार्थ असुविधाजनक लेकिन उपयोगी है: सड़कों पर बातचीत केवल “सिद्धांतों” या “वादों” के साथ समाप्त नहीं होती। यह निरीक्षण योग्य तंत्र, वितरित जिम्मेदारी और ट्रेसबिलिटी से समाप्त होती है। अगर कोई संगठन यह प्रदर्शित नहीं कर सकता कि कैसे यह दबाव में एक सिस्टम को सीमित करता है, तो फिर वह सिस्टम को नियंत्रित नहीं कर रहा है; वह इसे इंतजार कर रहा है।

नेताओं के लिए विंडो: AI को मापनीय शासन के साथ विवेचित बुद्धिमत्ता में बदलना

मेरी दृष्टि से, यह एपिसोड एक परिवर्तन की पुष्टि करता है: AI सॉफ़्टवेयर से रणनीतिक अवसंरचना में बदल रहा है। इस संक्रमण में, प्रतिस्पर्धात्मक लाभ मॉडल तक पहुंच से बाहर निकलकर इसे बिना संचालन को रोकने के लिए नियंत्रण करने की क्षमता में जा रहा है।

व्यापारिक नेताओं के लिए, यह तीन ठोस विकल्पों में उतरता है।

पहला, "मॉडल क्षमता" को "नियंत्रण क्षमता" से अलग करना। कई कंपनियाँ प्रदर्शन खरीदती हैं और फिर ऑडिट, सीमा, रिकॉर्ड और घटनाओं का उत्तर देने के लिए इंपरोवाइज करती हैं। संवेदनशील क्षेत्रों में, यह उलटा निवेश है। शासन को पहले दिन से एक उत्पाद के रूप में खरीदा और डिज़ाइन किया जाना चाहिए।

दूसरा, निर्भरता को परिवहन योजना के साथ डिज़ाइन करना। यदि एक मॉडल को डिसएंगेज करने में ऐसा महीना लग जाता है जब पैसे मुख्य बाधा नहीं है, तो कॉर्पोरेशन में अधिक समय लग सकता है। पोर्टेबलिटी, आंतरिक मानक और एकीकरण आर्किटेक्चर वित्तीय रणनीतियाँ हैं, न कि आईटी निर्णय।

तीसरा, विवेचित बुद्धिमत्ता पर जोर देना: महत्वपूर्ण पर्यवेक्षण, निर्णयों की ट्रेसबिलिटी और स्पष्ट जिम्मेदारी। चेतना के बिना दक्षता बढ़ जाने पर गलतियाँ बढ़ती हैं, और महत्वपूर्ण सिस्टम में, गलती नुकसान में बदल जाती है।

यह बाजार पहले से ही उस चरण में प्रवेश कर चुका है जहां डिजिटलीकरण अपनाने को तेज करता है, निराशा तब आती है जब नियंत्रण तैयार नहीं होता है और विघटन तब होता है जब शासन मॉडल से अधिक मूल्यवान हो जाता है। प्रौद्योगिकी को मानव विवेक को मापनीय नियंत्रण और जिम्मेदार पहुंच के साथ सशक्त बनाना चाहिए, क्षमताओं को लोकतांत्रिक बनाते हुए नुकसान को लोकतांत्रिक नहीं बनाना चाहिए।

साझा करें
0 वोट
इस लेख के लिए वोट करें!

टिप्पणियाँ

...

आपको यह भी पसंद आ सकता है