जब ओपन-सोर्स एक बैकडोर बन जाता है
एक विरोधाभास है जिसे तकनीकी दुनिया बिना पूरी तरह समझे मनाती है: ओपन-सोर्स ने सॉफ़्टवेयर विकास को किसी अन्य आंदोलन की तुलना में लोकतांत्रित किया है। लाखों प्रोजेक्ट, जिनमें Fortune 500 कंपनियों के लिए आधारभूत संरचना शामिल है, उन पुस्तकालयों पर चलते हैं जिन्हें कुछ स्वयंसेवक अपने अपार्टमेंट से बनाए रखते हैं। LiteLLM, एक मल्टी-वेंडर AI मॉडल के साथ काम करने का एक एब्स्ट्रैक्शन लेयर, ठीक इसी तर्क के कारण लाखों डेवलपर्स द्वारा उपयोग किया गया: स्वतंत्र पहुंच, त्वरित एकीकरण, बिना किसी रुकावट के। जब तक किसी ने प्रोजेक्ट में मैलवेयर नहीं डाल दिया और इसे क्रेडेंशियल चुराने की एक चुप मशीन बना दिया।
सिक्योरिटी फर्म Delve ने LiteLLM पर अनुपालन ऑडिट किया जब संक्रमण का पता चला। यह खोज कुछ तकनीकी कमजोरियों से कहीं अधिक गंभीर है: यह उस निहित विश्वास की संरचना को प्रकट करती है जिस पर आधुनिक AI आधारभूत संरचना का बड़ा हिस्सा टिका है, और इसके बिना सत्यापन के आधार पर निर्माण करने की वास्तविक लागत।
पारदर्शिता का भ्रम सुरक्षा की गारंटी के रूप में
ओपन-सोर्स के पक्ष में सबसे अधिक दोहराया गया तर्क यह है कि, चूंकि यह सभी के लिए दृश्य है, कोई भी त्रुटियों या हेरफेर का पता लगा सकता है। सिद्धांत सही है। हालांकि, व्यवहार इस बात पर निर्भर करता है कि क्या कोई वाकई देखता है। और हजारों निर्भरता, दर्जनों सहयोगियों और तेजी से अद्यतन चक्रों वाले प्रोजेक्ट में, कोई भी हमेशा सब कुछ नहीं देखता।
LiteLLM के मामले में, मैलवेयर को न तो सर्वर तोड़ने के जरिए और न ही बलात्कारी हमले के जरिए पेश किया गया। इसे सबसे कठिन ऑडिट चैनल के माध्यम से पेश किया गया: योगदान और निर्भरता प्रबंधन की प्रक्रिया। इस वेक्टर को सॉफ़्टवेयर सप्लाई चेन पर हमले के रूप में जाना जाता है, और आज यह पैमाने पर तकनीकी आधारभूत संरचना को समझौता करने के लिए पसंदीदा तरीका है। कंपनी पर हमला नहीं किया जाता, बल्कि उस प्रोजेक्ट पर हमला किया जाता है जिसका उपयोग वह बिना प्रश्न किए करती है।
इस मामले को C-स्तर के लिए विशेष रूप से प्रासंगिक बनाता है इसका उद्देश्य। हम लेखांकन सॉफ़्टवेयर या उत्पादकता उपकरण के बारे में नहीं बात कर रहे हैं। LiteLLM AI ऑर्केस्ट्रेशन का आधारभूत ढांचा है: यह एक कंपनी के ऐप्स और OpenAI, Anthropic, Google या किसी अन्य प्रदाता के भाषा मॉडल के बीच का पुल है। यह API की कुंजियों, प्रमाणीकरण टोकनों और संभावित रूप से उन मॉडलों की ओर बहने वाले डेटा तक विशेष पहुंच रखता है। उस परत को संक्रमित करना उस गंतव्य पर स्कैनर लगाने के बराबर है जहाँ एक संगठन का डिजिटल नसों प्रणाली बहती है।
शासन की कमी जिसे कोई गिनती नहीं करता
प्रौद्योगिकी निदेशकों को जो प्रश्न पूछना चाहिए वह यह नहीं है कि क्या उनके सिस्टम इस विशेष घटना में प्रभावित हुए थे। वास्तविक वित्तीय परिणाम वाले प्रश्न यह हैं कि आज कितनी ओपन-सोर्स निर्भरताएँ उत्पादन में हैं बिना सक्रिय सुरक्षा ऑडिट के, और अगर उनमें से एक ने उसी हमले के वेक्टर का सामना किया तो क्या होगा।
Delve ने LiteLLM पर घटना के बाद अनुपालन ऑडिट किया। यह प्रतिक्रियात्मक मॉडल, यद्यपि क्षति को नियंत्रित करने के लिए मूल्यवान है, जोखिम की गणित को नहीं बदलता। AI आधारभूत संरचना में एक क्रेडेंशियल ब्रीच की लागत तकनीकी सुधार तक सीमित नहीं है: इसमें उन डेटा का खुलासा शामिल है जो उन मॉडलों द्वारा संसाधित किए जाते हैं, संभावित रूप से प्रॉम्प्ट के रूप में भेजे गए स्वामित्व रणनीतियों का रिसाव, और नियामकों और ग्राहकों को सुरक्षा घटना रिपोर्ट करने की प्रतिष्ठा लागत।
आर्थिक संरचना की दृष्टि से, कंपनियों ने LiteLLM को जांच के बिना अपना लिया है, एक निहित निर्णय लिया है: एक निश्चित सुरक्षा लागत (निरंतर ऑडिट) को एक परिवर्तनशील आपदाजनक लागत (ब्रीच जब हो) में ट्रांसफर किया जा रहा है। वह समीकरण तब तक काम करता है जब तक यह काम करता है, और जब यह विफल हो जाता है, तब प्रभाव रेखीय नहीं होता।
इसकी कुशलता के पीछे एक व्यवहार पैटर्न है जिसका सही नामकरण करना महत्वपूर्ण है। स्टार्टअप और इंजीनियरिंग टीमें ओपन-सोर्स निर्भरताओं को अपनाती हैं क्योंकि वे विकास के समय को हफ्तों से घंटों तक कम करती हैं। यह गति का लाभ वास्तविक और मूल्यवान है। लेकिन अक्सर, किसी डेवलपर द्वारा पुस्तकालय अपनाने का निर्णय लिया जाता है, बिना किसी जोखिम मूल्यांकन प्रक्रिया के, और एक बार शामिल होने के बाद, यह अनिश्चित काल तक सिस्टम में रहती है। सुरक्षा ऋण तकनीकी ऋण की तरह ही चुकता होता है: अदृश्य रूप से, जब तक यह अस्थिर न हो जाए।
Delve AI सुरक्षा बाजार के नए पहलू का जो संकेत करता है
एक फर्म जैसे Delve का AI आधारभूत संरचनाओं पर विशेष रूप से अनुपालन ऑडिट करना कोई संयोग नहीं है। यह एक बाजार खंड के निर्माण को इंगित करता है जो तीन साल पहले तक मौजूद नहीं था: AI सप्लाई चेन में विशेषज्ञ सुरक्षा।
मॉडल ऑर्केस्ट्रेशन टूल, एम्बेडिंग लाइब्रेरीज़ और स्वायत्त एजेंट फ्रेमवर्क की बाढ़ ने एक आक्रमण की सतह बनाई है जिसे पारंपरिक सुरक्षा टीमें ऑडिट करने के लिए प्रशिक्षित नहीं थीं। वे वेब एप्लिकेशन, नेटवर्क, डेटा बेस में कमजोरियों का आकलन करना जानते हैं। लेकिन एक पुस्तकालय की जोखिम लॉजिक जो एक एप्लिकेशन और भाषा मॉडल के बीच प्रॉक्सी के रूप में कार्य करती है, अलग है, और इसे विभिन्न मूल्यांकन मानदंडों की आवश्यकता है।
यह बाजार के दृष्टिकोण से, क्लासिक परिधीय सुरक्षा के तेजी से अवमूल्यन के चरण को दर्शाता है और AI आधारभूत संरचनाओं के लिए विशिष्ट सुरक्षा मानकों को परिभाषित करने की दौड़ की शुरुआत। जिन कंपनियों ने पहले इस ज्ञान को संस्थागत किया है, उनके पास महत्वपूर्ण स्थिति में लाभ होगा, क्योंकि उनके ग्राहक केवल स्टार्टअप नहीं हैं: वे तकनीकी कंपनियों के डिवीजन हैं जो AI API के माध्यम से दैनिक लाखों डॉलर का मूवमेंट करते हैं और, अधिकांशतः, उन्हें उन समाकलनों के नीचे वास्तविक दृश्यता नहीं होती है।
प्रबंधन टीमों के लिए, परिचालन सीखना स्पष्ट है। बिना सक्रिय सत्यापन प्रक्रिया के ओपन-सोर्स AI उपकरणों को अपनाना कोई छोटी तकनीकी निर्णय नहीं है: यह एक जोखिम निर्णय है जो किसी भी बाहरी प्रदाता के समाकलन की तरह वही जांच आवश्यक है। कोई ऑडिट न की गई लाइब्रेरी द्वारा दी गई दक्षता का प्रभाव तब तक कहीं दिखाई नहीं देता जब तक यह बहुत देर न हो जाए।
LiteLLM की घटना ओपन-सोर्स के प्रति अविश्वास की एक नई युग की शुरुआत को नहीं दर्शाती है। यह उस समय को चिह्नित करता है जब उस पारंपरिक विश्वास का मॉडल जिसने दशकों तक उस पारिस्थितिकी तंत्र का समर्थन किया, उस वास्तविकता से टकरा गया कि AI आधारभूत संरचना एक महत्वपूर्ण आधारभूत संरचना है, और कि महत्वपूर्ण आधारभूत संरचना की सुरक्षा को समुदाय की अच्छी इच्छाशक्ति पर डाल नहीं सकती। भाषा मॉडल के लिए पहुंच को लोकतांत्रिक बनाना तभी टिकाऊ मूल्य उत्पन्न करता है जब इसे हमारे सबसे संवेदनशील सिस्टमों को छूने वाले किसी भी प्रदाता से अपेक्षित समान सत्यापन मानकों के साथ जोड़ा जाए।










