Pentागन ने Anthropic की "लाल रेखाओं" से टकराया और एक असुविधाजनक तथ्य खोजा: IA में निर्भरता अंतिम सूचनाओं के साथ बातचीत नहीं होती है

Pentागन ने Anthropic की "लाल रेखाओं" से टकराया और एक असुविधाजनक तथ्य खोजा: IA में निर्भरता अंतिम सूचनाओं के साथ बातचीत नहीं होती है

जब एक ग्राहक संरक्षकों को वैकल्पिक धाराओं में बदलने की कोशिश करता है, तो प्रदाता सॉफ़्टवेयर बेचना बंद कर देता है और जोखिम बेचना शुरू कर देता है।

Clara MontesClara Montes8 मार्च 20266 मिनट
साझा करें

Pentागन ने Anthropic की "लाल रेखाओं" से टकराया और एक असुविधाजनक तथ्य खोजा: IA में निर्भरता अंतिम सूचनाओं के साथ बातचीत नहीं होती है

यह क्रम उतनी ही तेजी से उजागर होता है जितनी कि यह खुलासा करता है। जुलाई 2025 में, Anthropic ने अमेरिका के रक्षा विभाग के साथ 200 मिलियन डॉलर के अनुबंध पर हस्ताक्षर किए, जिसमें Claude को तैनात किया गया, जिसे रिपोर्टों में पहला अनुमोदित फ्रंटियर IA मॉडल कहा गया। इस अनुबंध में दो स्पष्ट प्रतिबंध थे: इसे अमेरिकियों पर बड़े पैमाने पर घरेलू निगरानी के लिए उपयोग नहीं करने और इसे पूर्णतः स्वायत्त हथियारों के लिए उपयोग नहीं करने के लिए कहा गया जो मानव हस्तक्षेप के बिना लक्ष्यों का चयन और आक्रमण कर सकें।

जनवरी 2026 में, रक्षा सचिव पीट हेज़गाथ के एक IA रणनीति ज्ञापन ने एक ठेके में बदलाव लाने के लिए एक बल दिया: IA अनुबंधों में "किसी भी कानूनी उपयोग" की भाषा की मांग। फरवरी के अंत में, दबाव ने अंतिम सूचनाओं और कानूनी उपकरणों की धमकियों के साथ तेज़ी से बढ़ा दिया। 27 फरवरी को, जब समय सीमा समाप्त हो गई, राष्ट्रपति डोनाल्ड ट्रम्प ने संघीय एजेंसियों में Anthropic की तकनीक के उपयोग को "तुरंत समाप्त करने" का निर्देश दिया, जिसमें छह महीने की अवधि दी गई थी। उसी दिन, हेज़गाथ ने Anthropic को "राष्ट्रीय सुरक्षा के लिए आपूर्ति श्रृंखला का जोखिम" घोषित किया और एक और प्रतिबंध जोड़ा: कि कोई भी ठेकेदार या भागीदार जो सेना के साथ काम करता है, Anthropic के साथ व्यावसायिक गतिविधि नहीं रख सकता।

और फिर मोड़ आया। मार्च 2026 की शुरुआत में, रिपोर्टों ने बताया कि वार्ताओं का पुनरारंभ हो रहा है। इसके साथ ही, एक स्रोत ने एक "वहां रहा क्षण" का वर्णन किया: रक्षा नेताओं ने Anthropic की आवश्यकताओं और खोने के जोखिम की मात्रा का आकलन किया। Fortune द्वारा एमिल माइकल से उद्धृत एक बयान में, एक महत्वपूर्ण वाक्य आया: "मैं सभी को चाहता हूं। मैं उन्हें समान शर्तें देना चाहता हूं क्योंकि मुझे निरंतरता की आवश्यकता है।"

मेरे दृष्टिकोण से, जो नवाचार और "ग्राहक" के व्यवहार पर है—इस मामले में राज्य—यहां महत्वपूर्ण बात राजनीतिक नाटक नहीं है। महत्वपूर्ण है यांत्रिकी: जब कोई संगठन IA को विश्लेषण, योजना और संचालन में समीकृत करता है, तो वह एक उत्पाद खरीदना समाप्त कर देता है। वह ऑपरेशनल निरंतरता को अनुबंधित करना शुरू करता है।

असली संघर्ष यह नहीं था कि "IA हां या IA नहीं", यह उपयोग की शासन व्यवस्था थी

सार्वजनिक चर्चा एक सिद्धांतों के टकराव के रूप में पढ़ी जा सकती है, लेकिन व्यवसायिक रूप से यह उपयोग के अधिकारों का टकराव था। Anthropic ने दो संरक्षकों को बिना बातचीत करने वाली शर्तों के रूप में बनाए रखा: बड़े पैमाने पर घरेलू निगरानी की रोकथाम और पूर्णतः स्वायत्त हथियारों के उपयोग की रोक।

Pentagon ने इन्हें "किसी भी कानूनी उपयोग" के एक छतरी में बदलने का प्रयास किया, जो Anthropic के आकलन के अनुसार, एक ऐसी भाषा के साथ जुड़ा हुआ था जो संरक्षकों को "इच्छा अनुसार" नजरअंदाज करने की अनुमति देती थी।

एक सामान्य कॉर्पोरेट वार्ता में, "अनुमोदित उपयोग" एक संलग्नक होता है। यहाँ यह उत्पाद का दिल है। क्योंकि फ्रंटियर IA में, मूल्य का इंटरफेस केवल मॉडल नहीं है; यह अनुमति प्रणाली, ट्रेसबिलिटी, ऑडिटिंग, और जिम्मेदारी है जो यह निर्धारित करता है कि उस मॉडल के साथ उच्च जोखिम वाले संदर्भों में क्या किया जा सकता है।

Pentagon ऐसा कुछ करने का प्रयास कर रहा था जो कई बड़ी संगठनों के साथ होता है जब उन्हें लगता है कि एक प्रदाता महत्वपूर्ण है: एक स्पष्ट सीमाओं वाले अनुबंध को एक व्यापक लाइसेंस में बदलना जो भविष्य की आंतरिक फिसलन को कम कर सके। उनकी तर्क में, "किसी भी कानूनी उपयोग" अनुबंधात्मक शासन को सरल बनाता है और हर बार जब सिद्धांत, संचालन, या भू-राजनीतिक वातावरण बदलता है, फिर से बातचीत करने की आवश्यकता को समाप्त करता है।

Anthropic, इसके विपरीत, अपने एसेट की सुरक्षा का एक अलग रूप बचाने का प्रयास कर रहा था। न केवल प्रतिष्ठा के लिए, बल्कि व्यापारिक और नियामक जोखिम के लिए भी। यदि एक प्रदाता यह स्वीकार करता है कि उसका उत्पाद ऐसे दृश्य में उपयोग किया जा सकता है जो उसकी सुरक्षा ढांचे को पार करता है, तो वह उस मॉडल से अधिक महंगा कुछ बेचता है: वह अनिश्चित जिम्मेदारी बेचता है।

संपर्क का बिंदु यह है कि दोनों पक्ष अलग-अलग जोखिमों को ऑप्टिमाइज़ कर रहे थे। ग्राहक लचीलापन और नियंत्रण चाहता था; प्रदाता परीक्षण योग्य सीमाओं की मांग कर रहा था। टकराव यह साबित नहीं करता कि दोनों में से कोई एक स्थिति "अच्छी" है या "बुरी"। यह साबित करता है कि जब IA महत्वपूर्ण मिशनों में प्रवेश कर जाती है, तो धाराएँ कानूनी से परे जाती हैं और व्यापार की वास्तुकला बन जाती हैं।

“आपूर्ति श्रृंखला के जोखिम” की पहचान ने एक अनुबंध बहस को निरंतरता की समस्या में बदल दिया

"Supply-Chain Risk to National Security" का लेबल एक संकेत लक्ष्य की तरह कार्य करता है: इसे प्रभाव उत्पन्न करने के लिए निश्चित होने की आवश्यकता नहीं है। अल्पावधि में, यह संपूर्ण ठेकेदारों और उप-ठेकेदारों के नेटवर्क में अनिश्चितता को बढ़ाता है, जो अनुपालन पर अस्पष्टता को सहन नहीं कर सकते।

ब्रिफिंग में उल्लेख किया गया है कि Defense Production Act जैसे उपायों पर विचार किया गया और 10 U.S.C. § 3252 के तहत अधिकार, जो राष्ट्रीय सुरक्षा प्रणाली के उप-ठेकेदारों में Anthropic को बाहर करने के लिए हैं। यह भी कहा गया है कि Anthropic ने कहा कि, भले ही कानूनी रूप से पहचान को बनाए रखा जाए, यह रक्षा विभाग के अनुबंधों पर Claude के उपयोग को सीमित कर सकता है, न कि सामान्य व्यवसाय कार्य पर।

व्यापार के लिहाज़ से, यह बारीक तथ्य सीधे प्रभाव से कम मायने रखता है: एक संगठन जो Claude पर विश्लेषण, योजना, साइबर ऑपरेशंस और सिमुलेशन के लिए निर्भर करता है, और प्रदाताओं के एक समूह में जो पंचांग में इसे पेंटागन को पहुंचाने का काम करते हैं, एक मार्ग परिवर्तन का सामना कर रहे हैं। संवेदनशील वातावरणों में तैनात मॉडल को एक दिन में बदलना संभव नहीं है, न केवल लागत के कारण, बल्कि प्रवासन, पुनः मान्यता, प्रवाह के अनुकूलन, प्रशिक्षण, और आंतरिक फिर से प्रमाणन के समय के लिए भी।

इसलिए, "वहां रहा क्षण" का बयान विश्वासनीयता और गतिशीलता के साथ आता है, बिना साज वस्त्रों की आवश्यकता के। जब एक क्रिटिकल प्रोसेस में एक तत्व के उपयोग को काटा जाता है, तो "ग्राहक" को पता चलता है कि जो उन्होंने खरीदा वह एक उपकरण नहीं था। यह एक ऑपरेशनल फ्रेमवर्क था।

उपभोग में, यह तब होता है जब एक सेवा आदत बन जाती है और फिर इंफ्रास्ट्रक्चर में बदल जाती है। रक्षा में, यह तब होता है जब एक क्षमता "बैकबोन" बन जाती है। Pentागन की प्रतिक्रिया दिखाती है कि Claude ने इस सीमा को हासिल किया था।

रणनीतिक पाठ: राज्य IA को महत्वपूर्ण ढांचे के रूप में खरीदना सीख रहा है

एमिल माइकल से उद्धृत एक बयान—"मुझे निरंतरता की आवश्यकता है"—तकनीकी खरीद में परिपक्वता का एक पैटर्न प्रकट करता है: प्राथमिकता "सर्वश्रेष्ठ मॉडल" से बदलकर विविधीकरण द्वारा लचीलापन पर चली गई है। व्यावहारिक रूप में, इसका मतलब है सक्रिय विकल्प बनाए रखना (जैसे Anthropic, OpenAI, और अन्य) ताकि कोई भी रुकावट, अनुबंध विवाद, या स्थितियों का बदलाव संगठनों को बिना क्षमता के नहीं छोड़े।

यह सिद्धांत ऊर्जा, दूरसंचार और रसद में पुराना है। फ्रंटियर IA में, इसे लागू करने में देर हो रही है क्योंकि बाजार अभी भी ऐसा व्यवहार कर रहा है जैसे वे पारंपरिक सॉफ़्टवेयर खरीद रहे हैं। Anthropic का मामला यह दर्शाता है कि यह उपमा अब पर्याप्त नहीं है।

पहला, क्योंकि यहाँ "IA" एक अलग मॉड्यूल नहीं है: इसे वर्गीकृत नेटवर्क में तैनात किया गया है और संवेदनशील कार्यों के लिए उपयोग किया जा रहा है। दूसरा, क्योंकि प्रभावकारिता की बातचीत बदल जाती है जब प्रदाता उन कुछ में से एक होता है जो तकनीकी और सुरक्षा आवश्यकताओं को पूरा करने के लिए सक्षम होते हैं। तीसरा, क्योंकि उपयोग की शासन व्यवस्था एक कानूनी चेकबॉक्स के साथ हल नहीं होती है: यह प्रणाली के डिजाइन का हिस्सा बन जाती है।

यदि Pentागन "किसी भी कानूनी उपयोग" को सभी के लिए मानकीकरण करने पर जोर देता है, तो वह फ्रंटियर IA को एक अनुबंध वस्तु में बदलने का प्रयास कर रहा है। बाजार, अभी के लिए, एक वस्तु नहीं है। कुछ प्रदाता हैं, और कुछ के पास स्पष्ट लाल रेखाएं हैं।

संभावित परिणाम यह है कि सार्वजनिक खरीदता एक परत वाले अधिग्रहण मॉडल की दिशा में विकसित होता है:

  • सामान्य मूलभूत शर्तें जो पोर्टेबिलिटी को सुगम बनाएंगी।

  • उपयोग के अनुलग्नक मिशन या डोमेन के आधार पर।

  • वास्तविक विविधता प्रदाताओं में, केवल कागज पर नहीं।
  • इनमें से कोई भी सामंजस्य की गारंटी नहीं देता है, लेकिन यह एक अनुबंधीय विवाद को संचालन संकट में बदलने के जोखिम को कम करता है।

    Anthropic का Pentागन के लिए वास्तव में "उत्पाद" परिचालन विश्वास था, केवल मॉडल के प्रदर्शन नहीं

    ब्रिफिंग याद दिलाती है कि Anthropic ने पहले से ही सिलिकॉन वैली के मानकों के लिए असामान्य रूप से "डिफेंस-फ्रेंडली" के रूप में खुद को स्थापित किया था: यह वर्गीकृत नेटवर्क में मॉडलों को तैनात करने में अग्रणी था, राष्ट्रीय सुरक्षा ग्राहकों के लिए अनुकूलित मॉडल प्रदान किए, और Claude का उपयोग रक्षा तंत्र में कई कार्यों के भीतर किया गया। यह भी उल्लेख किया गया है कि कंपनी ने चीनी कम्युनिस्ट पार्टी से जुड़ी फर्मों को पहुंच काटकर महत्वपूर्ण आय खो दी और Claude के साइबर हमलों में दुरुपयोग के प्रयासों को बंद कर दिया।

    इससे इसे महाकाव्य में बदलने की आवश्यकता नहीं है: Pentागन केवल "पाठ जनित करने की क्षमता" नहीं खरीद रहा था। यह संरेखण, प्रतिक्रिया, और नियंत्रण के अधिक व्यापक संकेतों का एक पैकेज खरीद रहा था। उच्च जोखिम वाले बाजारों में, ये संकेत एक मुद्रा के समान होते हैं।

    जब सरकार फिर "तुरंत रोकने की" आदेश देती है और प्रदाता को जोखिम के रूप में चिह्नित करती है, तो मुद्रा दोनों तरफ अवमूल्यन होती है।

  • Pentागन के लिए, क्योंकि सार्वजनिक व्यवधान संपूर्ण औद्योगिक आधार को यह सन्देश देता है कि निरंतरता पल भर की राजनीति पर निर्भर कर सकती है।

  • Anthropic के लिए, क्योंकि जोखिम की भूतात्मा ठेकेदारों को संदेह पैदा करती है, भले ही बाद में एक समाधान पर बातचीत की जाए।
  • यहां एक असुविधाजनक सिद्धांत आता है बड़े खरीदारों के लिए: खरीदने की शक्ति उस समय समाप्त नहीं होती है जब संपत्ति दुर्लभ हो और एकीकरण गहरा हो। लचीलापन मात्रा से नहीं, बल्कि पोर्टफोलियो के डिजाइन और आगे बढ़ने की क्षमता से आता है।

    "वहां रहा क्षण" यह संकेत है कि खरीदार कार्यान्वयन की वास्तविकता से टकरा गया है। यह इशारा है खरीदारी की दुविधाओं से प्रतिष्ठान के कार्यों पर जाने का।

    लागू दिशा: ऐसी अनुबंध बनाना जो क्षमता खरीदे बिना संघर्ष खरीदें

    यह प्रकरण किसी भी संगठन के लिए एक गाइडलाइन छोड़ता है—सार्वजनिक या निजी—जो IA को महत्वपूर्ण प्रक्रियाओं में समीकृत कर रहे हैं।

    1) पूर्ण नियंत्रण की इच्छा को निरंतरता की आवश्यकता से अलग रखें। अनुबंध के संपूर्ण नियंत्रण में सामान्यतः वे प्रदाता के साथ अधिक फिसलन पैदा करता है जो उपयोग की सीमाएं सुरक्षित रखते हैं। निरंतरता विविधता और वास्तविक प्रतिस्थापन के तंत्र से अधिकतम होती है।

    2) संरक्षकों को उत्पाद का हिस्सा मानें। फ्रंटियर IA में, उपयोग पर प्रतिबंध एक विलासिता नहीं है; यह जोखिम और प्रतिष्ठा का एक घटक है। खरीदारों के लिए, ये भी आंतरिक अनुशासन का एक रूप है: संवेदनशील उपयोगों को दस्तावेजीकरण, न्यायसंगत और ऑडिट करने के लिए मजबूर करता है।

    3) आवश्यक होने से पहले "विकल्प" बनाएं। उपयुक्तता तब बिना किसी आदेश के नहीं बनाई जाती। इसके लिए समांतर एकीकरण, परीक्षण, प्रमाणन और परिचालन प्रशिक्षण की आवश्यकता होती है।

    एमिल माइकल का उद्धरण इस दिशा में इशारा करता है: “सभी” को तुलनीय शर्तों पर बनाए रखना ताकि विविधता बनी रहे। यह मल्टी-प्रदाता का रोमांस नहीं है; यह कार्रवाई की स्वतंत्रता खरीदना है।

    इस समाचार में संस्थागत "उपभोक्ता" का व्यवहार पारदर्शी है: Pentागन स्नैपशॉट उपलब्ध और विश्वसनीय क्षमता का विश्लेषण और निर्णय खरीद रहा था उच्च दबाव वाले संदर्भों में। Anthropic के साथ टकराव यह साबित करता है कि जब IA अनिवार्य हो जाता है, तब उपयोगकर्ता द्वारा वास्तव में जो काम किया जाता है वह एक अधिक शक्तिशाली मॉडल नहीं होता, बल्कि स्पष्ट और दीर्घकालिक उपयोग सीमाओं के साथ परिचालन निरंतरता होती है।

    साझा करें
    0 वोट
    इस लेख के लिए वोट करें!

    टिप्पणियाँ

    ...

    आपको यह भी पसंद आ सकता है