जब "कानूनी उपयोग" सुरक्षा से टकराता है: सैन्य AI पर शासन की लड़ाई
टेक्नोलॉजी प्रदाता को यह कहना असामान्य है कि "नहीं" जब 200 मिलियन डॉलर तक का अनुदान हो और ग्राहक दुनिया का सबसे बड़ा रक्षा बजट वाला राज्य हो। फिर भी, एंथ्रॉपिक ने ऐसा किया।
2026 के 26 फरवरी को, इसके मुख्य कार्यकारी अधिकारी, डारियो अमोडेई, ने बताया कि कंपनी "व्यवहार में", अमेरिका के रक्षा विभाग की मांग को सुरक्षाओं को हटाने के लिए स्वीकार नहीं कर सकती। असहमति के केंद्र में दो सीमाएँ हैं: घरेलू निगरानी में मॉडल के उपयोग पर प्रतिबंध और पूरी तरह से स्वायत्त हथियारों पर रोक।
द गार्जियन की कवरेज के अनुसार, पेंटागन, पीट हेग्सेथ के अधीन, एक अल्टीमेटम के साथ जवाब दिया: यदि एंथ्रॉपिक क्लॉड का उपयोग "सभी कानूनी उद्देश्यों" के लिए वर्गीकृत वातावरण में अनुमति नहीं देता है, तो अनुबंध 27 फरवरी को 5:01 PM ET पर समाप्त हो सकता है और कंपनी को "चरण आपूर्ति में खतरा" के रूप में चिन्हित किया जा सकता है।
खबर की सतह पर यह मूल्यों का टकराव लगता है। वास्तविकता में, यह एक असहज यांत्रिकी है: सरकार एक मॉडल का शासन एक अनुबंध की प्रावधान में बदलने की कोशिश कर रही है, और कंपनी अपनी सुरक्षा नीतियों को सेवा की शर्त बनाने की कोशिश कर रही है।
अनुबंध नियंत्रण का युद्धक्षेत्र बन जाता है
यह महत्वपूर्ण नहीं है कि एक अनुबंध 200 मिलियन डॉलर तक का है। यह इस बात की प्रकृति है कि क्या खरीदा जा रहा है। एक मूलभूत मॉडल एक पारंपरिक सॉफ़्टवेयर नहीं है, जो "बंद" हो जाता है एक संस्करण में; यह एक ऐसा प्रणाली है जो समय के साथ अपडेट होती है, निपुण होती है और नए क्षमताओं को अपनाती है। प्रायोगिक स्तर पर, आज AI खरीदना एक आधारभूत ढाँचे का अनुबंध करने जैसा लगता है।
इसीलिए पेंटागन "सभी कानूनी उद्देश्यों" के फॉर्मूले की मांग कर रहा है। उनके अनुसार, किसी भी अतिरिक्त कानूनी प्रतिबंध का अर्थ है कि एक निजी प्रदाता राज्य पर परिचालन सीमा निर्धारित कर रहा है। उप सचिव, एमिल माइकल, द गार्जियन द्वारा उद्धृत बयानों में समस्या को नागरिक स्वतंत्रता के खिलाफ "बिग टेक" के निर्णयों की रक्षा के रूप में प्रस्तुत करते हैं और सवाल उठाते हैं कि एक कंपनी को लोकतांत्रिक रूप से तय की गई मानदंडों से परे सीमाएं तय करने का अधिकार कैसे हो सकता है।
दूसरी ओर, एंथ्रॉपिक का कहना है कि प्रस्तावित भाषा ऐसा अनुमति देती है कि उनकी सुरक्षा उपायों को मनमाने ढंग से अनदेखा किया जा सके। एक अनाम प्रवक्ता ने बताया कि रक्षा विभाग से प्राप्त अंतिम मसौदा "व्यावहारिक रूप से कोई प्रगति" नहीं दर्शाता है, और "समझौता" मुख्यतः कानूनी है। कंपनी आम तौर पर सैन्य उपयोग पर चर्चा नहीं करती है; अमोडेई ने लिखा है कि उन्हें अमेरिका की रक्षा के लिए AI उपयोग के "असाधारण महत्व" में विश्वास है। वह दो उपयोगों पर चर्चा करते हैं जहाँ, उनके तर्क के अनुसार, मॉडल "लोकतांत्रिक मूल्यों को कमजोर" कर सकता है।
यह बाजार के लिए एक रणनीतिक संकेत है: बातचीत अब मूल्य, प्रदर्शन या समर्थन के बारे में नहीं है। यह इस बात के बारे में है कि किसके पास बाईपास की चाबी है। यदि ग्राहक "जब उसे आवश्यकता हो" नियंत्रणों को निष्क्रिय कर सकता है, तो सुरक्षा उपाय केवल सजावट बन जाते हैं। यदि प्रदाता वर्गीकृत वातावरण में भी उपयोग श्रेणियों को प्रतिबंधित कर सकता है, तो राज्य महसूस करता है कि वह परिचालन संप्रभुता को आउटसोर्स कर रहा है।
एंथ्रॉपिक को "चरण आपूर्ति में खतरा" चिन्हित करने की धमकी तनाव को बढ़ाती है: यह केवल एक विशिष्ट अनुबंध को दंडित नहीं करती, बल्कि सरकार के लिए भविष्य में बेचन की क्षमता को भी नुकसान पहुँचाती है और ठेकेदारों जैसे बोइंग या लॉकहीड मार्टिन द्वारा स्वीकार करने की संभावना को प्रभावित करती है। यह एक शक्ति का उपकरण है जो पूरे क्षेत्र के प्रोत्साहनों को पुनर्व्यवस्थित करता है।
सुरक्षा सिद्धांत नहीं, उत्पाद की संरचना बन जाती है
बाहर से, "सुरक्षाएं" एक कॉर्पोरेट नीति की तरह लगती हैं। वास्तव में, यह उत्पाद डिजाइन और, विस्तारित अर्थ सही किया जाए, सत्ता का डिजाइन है। जब एक मॉडल बड़े पैमाने पर निगरानी या स्वायत्त हथियारों पर प्रतिबंध लगाता है, तो यह कुछ उपयोगों की स्केलेबिलिटी को सीमित करता है। और वहीं पर टकराव होता है: AI लागत को कम करता है और जो पहले महंगा था उसे पुनरावृत्त योग्य बनाता है।
निगरानी में, परिवर्तन बर्बर है। बिखरे हुए डेटा की मैन्युअल रूप से जानकारी हासिल करने और स्वचालित रूप से वर्गीकरण, प्राथमिकता और संबंध का विश्लेषण करने में अंतर एक महंगी ऑपरेशन से संभावित रूप से सर्वव्यापी क्षमता की ओर बदलने का है। यही तर्क लथार से संबंधित प्रणाली पर लागू होता है: स्वचालन घर्षण को कम करता है, निर्णय लेने के चक्र को तेज करता है, और यदि बिना मानव निगरानी के स्पष्ट डिजाइन नहीं है तो जिम्मेदारी धुंधली हो जाती है।
पेंटागन का कहना है कि वह ऐसे कानूनों का पालन करता है जैसे चौथा संशोधन, जिनके अनुसार सरकार को अतिरिक्त निजी सीमाएँ स्वीकार नहीं करनी चाहिए। यह बिंदु संस्थागत स्तर पर संगत है। समस्या यह है कि "कानूनी" और "सावधानीपूर्वक" प्रणाली में समानार्थी नहीं हैं जो क्षमता को बढ़ाते हैं। एक उपयोग कानूनी हो सकता है और फिर भी एक परिचालन प्रगतिशीलता का निर्माण कर सकता है जो बाद में तोड़ना कठिन हो।
यहाँ मैं AI की राजनीति अर्थशास्त्र का केंद्र देखता हूं: चर्चा "मॉडल क्या कर सकता है" से "सिस्टम क्या कर सकता है जो इसे घेरता है" की ओर स्थानांतरित होती है। एक वर्गीकृत माहौल में, अमेज़न और पलांटीर के माध्यम से एकीकृत मॉडल, एक चैटबॉट नहीं है। न ही यह निर्णय के चक्र का एक घटक है। उस संदर्भ में, सुरक्षा उपाय कम नैतिक स्थिति और अधिक एक संविधान जोखिम प्रबंधन के तरीके हैं।
एंथ्रॉपिक का बचाव करना, कम से कम उनके सार्वजनिक रूप में, AI को अद्वितीय बोध के रूप में देखने का एक विचार है, न कि न्याय के निर्णय का स्थान। यदि एक प्रणाली बड़े पैमाने पर निगरानी के लिए या स्वायत्तता का अनुष्ठान करती है, तो मनुष्य पर्यवेक्षक नहीं रहता है और, अच्छे से, केवल एक देर से हस्ताक्षर करने वाला बन जाता है। यही वह सीमा है जिससे कंपनी अनुबंध में स्थिरता लाने की कोशिश कर रही है।
एक नजीर जो रक्षा के लिए AI प्रदाताओं के बाजार को पुनर्व्यवस्थित करता है
बाजार पहले से ही एक थिसिस को समेकित करना शुरू कर चुका था: रक्षा विभाग को एक प्रदाता की आवश्यकता नहीं है, बल्कि एक कैटलॉग की। पिछले गर्मियों में, मुख Digital & AI कार्यालय ने एंथ्रॉपिक, गूगल, xAI और OpenAI को सैन्य उपयोग के लिए अनुकूलित जनरेटिव AI के लिए अनुबंध दिए, द गार्जियन के अनुसार। स्पष्ट विचार यह है कि किसी एक खिलाड़ी पर निर्भरता को रोकना और क्षमताओं को तेज करना।
लेकिन वार्ता से संबंधित विवरण यह है कि एंथ्रॉपिक, उसी स्रोत के अनुसार, अब तक वर्गीकृत वातावरण में एकमात्र मॉडल है, जो अनुभव में लाभ देता है और इसलिए, बातचीत की शक्ति में भी। यही वह शक्ति है जिसे पेंटागन मानकीकरण कर रहा है, "सभी कानूनी उद्देश्यों" की प्रावधान को अनुबंध के रूप में।
यदि वह प्रावधान मानक बनता है, तो बाकी प्रदाताओं के लिए संदेश स्पष्ट है: जो भी वर्गीकृत में प्रवेश करना चाहता है उसे अपनी आंतरिक नीतियों को सीमाओं के रूप में कार्य करने की अनुमति देनी होगी। सरकार को यह वादा करने की आवश्यकता नहीं है कि वह उन्हें बड़े पैमाने पर निगरानी या स्वायत्त हथियारों के लिए उपयोग करेगी। केवल यह सुनिश्चित करने की आवश्यकता है कि कानूनी व्याख्या के अनुसार ऐसा करने का अधिकार हो।
साथ ही, एक प्रतियोगिता का रास्ता खुलता है। नोट में बताया गया है कि xAI ने वर्गीकृत काम के लिए "सभी कानूनी उद्देश्यों" के मानक को स्वीकार किया। यह एंथ्रॉपिक के लिए तत्काल वित्तीय जोखिम उत्पन्न करता है: अनुबंध खोना सिर्फ संभावित आय खोने का अर्थ नहीं है, बल्कि एक ऐसे खंड में क्षेत्र छोड़ने का भी जहां विश्वसनीयता वास्तविक प्रदर्शन से बनती है, न कि वादों से।
यदि पेंटागन धमकी को लागू करता है तो इसका भी एक लागत है। प्रवक्ता शॉन पार्नेल ने X पर चेतावनी दी कि ऐसे उपयोगों की अनुमति नहीं देना संचालन और "युद्धकर्मियों" को खतरे में डाल देगा, और यह सुनिश्चित करेंगे कि "कोई भी कंपनी शर्तें निर्धारित नहीं करे।" यह स्थिति बातचीत को कठिन बनाती है लेकिन ऐसे एक प्रदाता से छुटकारा पाने के लिए प्रतिष्ठित मूल्य को भी बढ़ाती है। रक्षा खरीद में प्रदाता बदलना rarely एक स्वच्छ बदलाव होता है, हालाँकि अमोडेई ने अन्य प्रदाता के लिए एक "सुगम परिवर्तन" के लिए अपनी इच्छा जताई है।
कम से कम चर्चा किए गए कोणों में से एक औद्योगिक शासन है: यदि अमेरिका किसी स्थानीय कंपनी को अनुबंध विवाद में "चरण आपूर्ति में खतरा" स्थिति में रखता है, तो पूरा क्षेत्र समझता है कि अनुपालन को दंडित किया जाता है जैसे कि यह एक खतरा है। यह बाजार के "अनुशासन" को तेज करता है, लेकिन यह सुरक्षा उपायों की मजबूत बाधाओं की स्थापना करने वालों को भी हतोत्साहित कर सकता है।
उत्पादन रक्षा कारक और मॉडल पर राज्य की शक्ति का विस्तार
कवरेज यह भी बताता है कि पेंटागन ने डिफेंस प्रोडक्शन एक्ट (DPA) को लागू करने पर विचार किया है ताकि बिना प्रतिबंधों के पहुंच को मजबूर किया जा सके, यद्यपि AI नीति के विशेषज्ञों द्वारा जिनका कानूनी संदेह था। यह संभावना महत्वपूर्ण है यदि कभी यह क्रियान्वित नहीं होती। यह एक संकेत है कि राज्य उन्नत मॉडलों को एक रणनीतिक संसाधन के रूप में व्यवहार करने के लिए तैयार है और युद्ध के समय के उपकरणों को डिजिटल अर्थव्यवस्था की ओर बढ़ा रहा है।
व्यापारी परिप्रेक्ष्य से, DPA जोखिम के गणना को बदल देता है। यदि सरकार एक प्रणाली को "अत्यावश्यक" घोषित कर सकती है और शर्तों को मजबूर कर सकती है, तो सार्वजनिक क्षेत्र को बेचने की रणनीति "स्थिर आय" के रूप में सीधे नहीं होती। अनुबंध एक ज़बरदस्ती के रूप में दिखता है। यह निदेशक मंडलों को यह सवाल पूछने के लिए मजबूर करता है कि वे वास्तव में क्या खरीद रहे हैं: बिक्री या प्रदर्शन।
एक विरोधाभास है जिसे अमोडेई ने उजागर किया और जो ऑपरेशनल रूप से प्रासंगिक है: जबकि एंथ्रॉपिक को एक आपूर्ति श्रृंखला के जोखिम के रूप में नामित करने की चेतावनी दी जाती है, यह पहुंच को मजबूर करने पर विचार किया जा रहा है क्योंकि मॉडल राष्ट्रीय सुरक्षा के लिए अत्यावश्यक हो सकता है। उस तनाव का अर्थ केवल बयानबाजी नहीं है; यह एक राज्य को प्रकट करता है जो निर्भरता के बिना निर्भरता का आश्वासन चाहता है, यानी, बिना इस विषम स्थिति को स्वीकार किए कि प्रदाता के पास भी शक्ति है।
संभावित परिणाम न तो एक पक्ष के पूर्ण विजय है। यह एक अनुबंध में पुन: डिजाइन है जो एक ग्रे क्षेत्र बनाता है: कागज़ पर सुरक्षा उपाय, कुछ प्रक्रियाओं के तहत अपवाद, आंतरिक ऑडिट और एक भाषा जो डीओडी के लिए जगह बनाये। ग्रे क्षेत्र की समस्या यह है कि, उन सिस्टम्स में जिनका स्केल होता है, जो तकनीकी रूप से सही नहीं है वह समय के साथ घटता है।
जो बात स्पष्ट है वह यह है: रक्षा में AI एक ऐसी स्थिति में प्रवेश कर रही है जहाँ मॉडल का महत्वपूर्ण तत्व नहीं है, बल्कि इसके उपयोग का शासन है। जो इस कुंजी पर नियंत्रण रखता है वह मूल्य पर नियंत्रण रखता है।
अनिवार्य दिशा तकनीकी शासन है, केवल शर्तें नहीं
एक प्रभाव पर केंद्रित फ्यूचरिस्ट के रूप में, मुझे लगता है कि यह विवाद परिपक्वता का एक लक्षण है। AI अब एक "नवाचार खरीदने" नहीं, बल्कि आधारभूत संरचना में बदल गया है। आधारभूत संरचना में सच चर्चा यह होती है कि सीमाएँ कौन निर्धारित करता है, अपवाद की ऑडिट कौन करता है और जब एक "कानूनी" उपयोग ऑपरेशनल, राजनीतिक या सामाजिक नुकसान का कारण बनाता है तो उस पर किसके पास जिम्मेदारी होती है।
सी-लेवल को इस 사례 को विनियमित क्षेत्रों में AI की खरीद के एक पाठ के रूप में पढ़ना चाहिए: सुरक्षा के सिद्धांत जो आर्किटेक्चर और प्रक्रियाओं में एकीकृत नहीं होते हैं, अंततः अनुबंधीय अनुबंधों के रूप में बातचीत की जाती हैं, और अनुबंध तनाव के तहत टूट जाते हैं। यदि सुरक्षा अच्छी इच्छा पर निर्भर करती है, तो यह स्केल नहीं होती।
यह भी एक याददिहानी है कि कैसे डिजिटल संगम निर्णायक निर्णय के एकाधिकार को घुमा देता है। न तो सरकार मॉडलों पर पूर्ण नियंत्रण को मान ले सकती है जो निजी क्षेत्र में निर्मित होते हैं, और न ही कंपनियों को यह उम्मीद करनी चाहिए कि आंतरिक नीतियाँ लोकतांत्रिक ढांचे का स्थान लेगी। स्थिरता का एकमात्र समाधान ऐसे सिस्टम डिज़ाइन करना है जहाँ बुद्धिमत्ता बढ़ी हुई मानव देखरेख को सत्यापित और ट्रेस करने योग्य बनाती है।
यह बाजार "डिजिटलीकरण" से "शासन के विचलन" की ओर बढ़ रहा है: मूल्य उन लोगों की ओर स्थानांतरित होगा जो सुरक्षा उपायों को ऑडिटेबल इंजीनियरिंग में बदलते हैं और बिना क्षमताओं को कम किए हुए पालन का लाभ उठाते हैं। प्रौद्योगिकी मानव मापदंडों को मजबूत करना चाहिए और गारंटी को लोकतांत्रिक बनाना चाहिए, केवल संचालन को गति नहीं देना चाहिए।











