क्लॉड कोड का लीक: एन्ट्रोपिक ने जो निजी रखा वह उजागर हुआ

क्लॉड कोड का लीक: एन्ट्रोपिक ने जो निजी रखा वह उजागर हुआ

एन्ट्रोपिक ने न केवल एल्गोरिदम की सुरक्षा के लिए रिपोजिटरी को हटाया, बल्कि कोड के लीक में उपयोगकर्ताओं की भावनात्मक स्थिति की निगरानी की क्षमता भी सामने आई।

Lucía NavarroLucía Navarro5 अप्रैल 20267 मिनट
साझा करें

क्लॉड कोड का लीक: एन्ट्रोपिक ने जो निजी रखा वह उजागर हुआ

जब एक कृत्रिम बुद्धिमत्ता कंपनी अपने अधिकारों की रक्षा के लिए DMCA के माध्यम से पूरे रिपोजिटरी को हटाने का निर्णय लेती है, तो बाजार को इससे ध्यान देने की आवश्यकता होती है। न कि कानूनी नाटक के लिए, बल्कि उस अधिक uncomfortable सवाल के लिए जो इस कदम को जन्म देता है: उस कोड में क्या था जो इस स्तर की प्रतिक्रिया को उचित ठहराता था?

एन्ट्रोपिक, जो क्लॉड के पीछे का AI लैब है, ने 'क्लॉड कोड' के लीक पर एक ऐसा प्रतिक्रीया दिखाई जो सामान्य बौद्धिक संपत्ति सुरक्षा मैनुअल से कहीं अधिक थी। आधिकारिक रिपोजिटरी को हटा दिया गया। DMCA के लिए व्यापक अनुरोध किए गए। और परिणाम बिलकुल विपरीत हुआ: यह एक तकनीकी लीक को मुख्यधारा की घटना में बदल दिया।

लेकिन वास्तव में जो महत्वपूर्ण है वह कानूनी रणनीति में नहीं है। यह उन चीजों में है जो विश्लेषकों ने कोड के हटाए जाने से पहले खोजी थीं: उपयोगकर्ताओं की भावनात्मक स्थिति की निगरानी करने की क्षमताएँ और विशेष सिस्टम ऑपरेशनों को छिपाने के लिए डिज़ाइन किए गए तंत्र।

कोड ने उपयोगकर्ताओं के बारे में क्या कहा

क्लॉड कोड का लीक केवल बौद्धिक संपदा वाले एल्गोरिदम को प्रकट नहीं करता, जिसको किसी भी कंपनी ने सुरक्षित रखने का अधिकार है। नोटबुकचेक द्वारा प्रकाशित विश्लेषण के अनुसार, कोड में उपयोगकर्ताओं की भावनात्मक स्थिति को समझने और रिकॉर्ड करने के लिए डिज़ाइन की गई लॉजिक और स्टेक्चर शामिल थे, जिनका उद्देश्य कुछ संचालन को उपयोगकर्ता की प्रत्यक्ष निगरानी से बाहर रखना था।

यह एक बुरे इरादे का आरोप नहीं है। यह उस तकनीकी विवरण का वर्णन है जो कोड क्या करता है, और यह विवरण किसी भी कंपनी के लिए रणनीतिक परिणाम रखता है जो AI उपकरणों को अपनी प्रक्रियाओं में शामिल करने पर विचार कर रही है या पहले से ही उन्हें शामिल कर चुकी है।

AI सिस्टम में भावनात्मक निगरानी कोई नई बात नहीं है। इसके वैध उपयोग के मामले हैं: मानसिक स्वास्थ्य सहायकों से लेकर शैक्षिक प्लेटफार्मों तक जो छात्र की निराशा के स्तर के अनुसार शैक्षिक गति को अनुकूलित करते हैं। समस्या वास्तव में इस कार्यक्षमता में नहीं है। समस्या है कि उपयोगकर्ता को सूचित सहमति और उस डेटा के बारे में कोई पारदर्शिता नहीं है जो प्रोसेस किया जाता है और किस उद्देश्य से।

जब एक सिस्टम भावनात्मक संकेतों को बिना उपयोगकर्ता के ज्ञान के कैप्चर करता है, तो यह विश्वास का निर्माण नहीं कर रहा है। यह जानकारी को बिना किसी मुआवजे या उसके ज्ञान के निकाल रहा है। यह साझा मूल्य का मॉडल नहीं है। यह एक जानकारी का असंतुलन है जो, अगर इसे पूरी तरह से पुष्टि किया गया, तो यूरोपीय RGPD जैसे ढाँचों के तहत गंभीर नियामक निहितार्थ होंगे।

DMCA की प्रतिक्रिया से वास्तविक जोखिम का संकेत

भौतिक संपत्ति में, कानूनी प्रतिक्रिया का अनुपात अक्सर उस स्तर की जोखिम का अप्रत्यक्ष संकेत होता है जिसे एक कंपनी महसूस करती है। एक कोड लीक जो केवल प्रतिस्पर्धात्मक तकनीकी आर्किटेक्चर को प्रकट करता है, उसे विशिष्ट रिपोजिटरी के लिए सर्जिकल नोटिफिकेशनों के साथ संभाला जाता है। एक साथ में बड़े पैमाने पर हटाने के साथ नहीं, जो यहां तक कि आधिकारिक रिपोजिटरी को भी प्रभावित करता है।

एन्ट्रोपिक की प्रतिक्रिया, उपलब्ध रिपोर्ट के अनुसार, असाधारण रूप से व्यापक थी। और यह चौड़ाई सुझाव देती है कि कंपनी केवल तकनीकी स्तर पर अपनी प्रतिस्पर्धात्मक लाभों की सुरक्षा नहीं कर रही थी। यह ऐसी जानकारी तक पहुंच को नियंत्रित करने की कोशिश कर रही थी जो नियामक या जनसंपर्क वार्तालापों को जन्म दे सकती थी, जिनसे वह बचना चाहती थी।

रिकॉर्ड प्रबंधन की दृष्टि से, इस रणनीति की एक लागत होती है जो अक्सर कम आंकी जाती है: जनता की कहानी की विश्वसनीयता। इंटरनेट पर व्यापक सेंसरशिप की हर कार्रवाई आमतौर पर सेंसर की गई सामग्री में रुचि को बढ़ाती है, इसे कम नहीं करती। स्ट्रीसबैंड प्रभाव के पक्ष में दशकों के अनुभवात्मक प्रमाण हैं। और इस मामले में, एन्ट्रोपिक की प्रतिक्रिया ने एक तकनीकी नोट को कॉर्पोरेट ट्रांसपेरेंसी पर एक बहस में बदल दिया।

एक CFO या जोखिम निदेशक के लिए, जो तीसरे पक्ष के AI उपकरणों को अपनाने का मूल्यांकन कर रहा है, यह एक ऑडिट संकेत के रूप में कार्य करना चाहिए। यदि AI प्रदाता जिसे आप विचार कर रहे हैं, उसे एक लीक को नियंत्रित करने के लिए पूरी तरह से रिपोजिटरी हटानी है, तो संचालन संबंधी सवाल सीधे हैं: उस प्रदाता के साथ आपके अनुबंध में कौन सी पारदर्शिता और तकनीकी ऑडिट क्लॉज हैं?

एक ढांचा जो किसी भी बयान में नहीं है

इस मामले द्वारा स्पष्ट रूप से चित्रित की गई एक संरचनात्मक गतिशीलता है जो एन्ट्रोपिक जैसी विशेष कंपनी से परे जाती है। बड़े AI प्रयोगशालाएं ऐसे मॉडल बना रही हैं जिनका आंतरिक संचालन ढांचा, ज्यादातर मामलों में, जानबूझकर अस्पष्ट है। अवश्य ही बुरे इरादे से नहीं, बल्कि क्योंकि विकास की गति अक्सर जिम्मेदारी के ढांचे को बनाते रहने की गति से अधिक होती है।

परिणाम एक व्यावसायिक मॉडल है जहां उपयोगकर्ता सबसे संवेदनशील मूल्य उत्पन्न करते हैं (उनकी भाषा के पैटर्न, उनकी भावनात्मक स्थितियाँ, उनकी शंकाएँ, उनके निर्णय) जबकि उस मूल्य के प्रोसेसिंग पर नियंत्रण पूरी तरह से प्रयोगशाला के पास रहता है। स्वतंत्र ऑडिट का कोई तंत्र नहीं है। प्रतिकारी क्लॉज का कोई अस्तित्व नहीं है। डेटा उत्पन्न करने वाले को किसी प्रकार का मूल्य हस्तांतरित नहीं किया जाता।

यह नियामक दृष्टि से टिकाऊ नहीं है, और न ही मध्यम अवधि में प्रतिस्पर्धात्मक दृष्टि से। वे कंपनियाँ जो ऐसे AI उपकरण बनाएँगी जिनमें सत्यापन योग्य पारदर्शिता का ढांचा होगा, जहाँ उपयोगकर्ता यह ऑडिट कर सके कि क्या कैप्चर किया गया है और इसके साथ क्या किया जाता है, उन्हें एक स्थान प्राप्ति में एक फायदा होगा जो आज बाजार के किसी भी प्रासंगिक अभिनेता द्वारा नहीं किया जा रहा है।

क्लॉड कोड का लीक, चाहे इसका कानूनी समाधान कुछ भी हो, एक बातचीत को मजबूर करता है जो यह क्षेत्र लंबे समय से टाल रहा है। वो AI जो अपनी आंतरिक आचरण संहिता को बिना संस्थागत घबराहट के दिखाने के लिए तैयार नहीं है, वह कॉर्पोरेट स्तर पर विश्वास प्रबंधित करने के लिए तैयार नहीं है। और विश्वास, किसी भी व्यावसायिक मॉडल में जो एक से अधिक आर्थिक चक्रों के लिए अस्थायी रहना चाहता है, एक नरम संपत्ति नहीं है। यह एकमात्र संपत्ति है जिसे खोने के बाद फिर से नहीं खरीदा जा सकता।

विश्वास की वास्तुकला को संरचनात्मक लाभ के रूप में बनाना

एन्ट्रोपिक के प्रतिस्पर्धियों के लिए उपलब्ध रणनीतिक आंदोलन, और किसी भी कंपनी के लिए जो व्यवसायिक AI में बाजार हिस्सेदारी प्राप्त करने का प्रयास कर रही है, वह यह है कि एक स्पष्ट तकनीकी पारदर्शिता को मूल्य प्रस्ताव के रूप में विकसित करना

इसका अर्थ यह है कि, ऑडिट किया गया, किस प्रकार के डेटा प्रणाली द्वारा कैप्चर किया जाता है, उसकी सूक्ष्मता, किस समय के लिए और किन शर्तों पर उसे बनाए रखा या नष्ट किया जाता है, इसे प्रकाशित करना। इसका अर्थ है ऐसी इंटरफेस डिज़ाइन करना जहाँ उपयोगकर्ताओं को वास्तविक नियंत्रण मिले, न कि सिर्फ सेवा की शर्तों में चेकबॉक्स जो कोई नहीं पढ़ता। और इसका अर्थ है स्वतंत्र तकनीकी ऑडिट को उत्पाद के चक्र में शामिल करना, न कि किसी नियम के अनुसार मजबूर की गई रियायत के रूप में।

वे कंपनियाँ जो इस राजनीति की वास्तुकला को आंतरिक बनाती हैं, वे इसे परोपकार के लिए नहीं करेंगी। वे इसे इसलिए करेंगी क्योंकि एक ऐसे बाजार में जहाँ AI सिस्टमों के प्रति विश्वास कम हो रहा है, पारदर्शिता वाले ऑडिटेड सिस्टम जितनी भी कार्यक्षमता हो, वह अधिक मूल्य की होती है। निगम ग्राहक जो एक तीसरे वर्ष के अनुबंध पर AI प्रदाता के साथ हस्ताक्षर करता है, केवल तकनीकी क्षमता नहीं खरीद रहा है। वह इस पर निश्चितता खरीद रहा है कि वह किन नियामक और प्रतिष्ठात्मक जोखिमों को ले रहा है।

C-Level जो आज अपनी AI रणनीति का मूल्यांकन कर रहा है, उसके सामने एक महत्वपूर्ण निर्णय है जो टाला नहीं जा सकता: या तो उनकी कंपनी अपने उपयोगकर्ताओं के डेटा का इस्तेमाल केवल शेयरधारकों के लिए मूल्य उत्पन्न करने के लिए करती है, या उनके पास पारदर्शिता को एक मेकेनिज्म में बदलने की रणनीतिक साहस है जो सिस्टम में शामिल सभी लोगों के लिए दीर्घकालिक मूल्य का निर्माण करता है।

साझा करें
0 वोट
इस लेख के लिए वोट करें!

टिप्पणियाँ

...

आपको यह भी पसंद आ सकता है